MADRI 27 out. (Portaltic/EP) -
A Qualcomm revelou as soluções AI200 e AI25 para inferência de inteligência artificial (IA) generativa em data centers, que pretende atualizar em uma cadência anual para oferecer desempenho e eficiência energética.
AI200 e AI250 são os novos chips da Qualcomm para data centers, placas aceleradoras e racks, com os quais a empresa de semicondutores promete desempenho em escala de rack e capacidade de memória superior para inferência rápida de IA generativa.
A primeira dessas duas soluções foi projetada para oferecer baixo custo total de propriedade e desempenho otimizado para grandes inferência multimodal de linguagem e modelos (LLM, LMM) e outras cargas de trabalho de IA.
O AI200 suporta 768 GB de LPDDR por placa para maior capacidade de memória e menor custo, disse a Qualcomm em um comunicado. O AI250 estreia com uma arquitetura de memória baseada em computação de quase memória, que oferece uma largura de banda de memória efetiva mais de 10 vezes maior e um consumo de energia muito menor.
Os dois chips dissipam o calor com resfriamento líquido direto e oferecem suporte para PCIe para escalonamento vertical, Ethernet para escalonamento horizontal, computação confidencial para cargas de trabalho de IA seguras e consumo de energia em nível de rack de 160 kW.
A Qualcomm informou que o AI200 chegará ao mercado no próximo ano e o AI250 em 2027. Ambas as soluções fazem parte de um roteiro que a empresa se comprometeu a melhorar o desempenho do data center, a eficiência energética e o custo total de propriedade anualmente.
Esta notícia foi traduzida por um tradutor automático