A empresa de computação e designer de chips norte-americana Nvidia disse na quarta-feira que está se unindo à Microsoft para construir um computador “massivo” para lidar com intenso trabalho de computação de inteligência artificial na nuvem.
O computador AI operará na nuvem Azure da Microsoft, usando dezenas de milhares de unidades de processamento gráfico (GPUs), o H100 mais poderoso da Nvidia e seus chips A100. A Nvidia se recusou a dizer quanto vale o negócio, mas fontes da indústria disseram que cada chip A100 custa cerca de US$ 10.000 (quase Rs. 8.14.700) a US$ 12.000 (quase Rs. 9.77.600), e o H100 é muito mais caro do que este.
“Estamos naquele ponto de inflexão em que a IA está chegando à empresa e a disponibilização desses serviços que os clientes podem usar para implantar IA em casos de uso de negócios está se tornando real”, disse Ian Buck, gerente geral da Nvidia para Hyperscale e HPC à Reuters. “Estamos vendo uma ampla onda de adoção de IA… e a necessidade de aplicar IA para casos de uso corporativo.”
Além de vender os chips à Microsoft, a Nvidia disse que fará parceria com a gigante do software e da nuvem para desenvolver modelos de IA. Buck disse que a Nvidia também seria cliente do computador em nuvem de IA da Microsoft e desenvolveria aplicativos de IA nele para oferecer serviços aos clientes.
O rápido crescimento de modelos de IA, como os usados para processamento de linguagem natural, aumentou drasticamente a demanda por infraestrutura de computação mais rápida e poderosa.
A Nvidia disse que o Azure seria a primeira nuvem pública a usar sua tecnologia de rede Quantum-2 InfiniBand, que tem uma velocidade de 400 Gbps. Essa tecnologia de rede conecta servidores em alta velocidade. Isso é importante, pois o trabalho pesado de computação de IA requer que milhares de chips funcionem juntos em vários servidores.
© Thomson Reuters 2022
source – www.gadgets360.com