MADRID 20 abr. (Portaltic/EP) -
O Google manteve conversações com a fabricante de semicondutores Marvell Technology para a fabricação de dois novos chips de inteligência artificial (IA), com os quais a gigante da tecnologia buscaria atender às suas necessidades em inferência.
A empresa de tecnologia pretende aprimorar a parte de inferência de sua inteligência artificial, ou seja, a parte em que o modelo de IA passa à prática após o treinamento, produzindo previsões ou conclusões a partir de novos dados e em resposta a uma indicação.
Para reforçar as necessidades nessa área, o Google manteve conversas com a Marvell Technology em busca de uma colaboração para a fabricação de novos chips, segundo fontes a par do assunto informaram ao The Information.
Seria questão de dois chips: um de memória que funcionará em conjunto com a unidade de processamento tensorial (TPU) do Google e outro, uma nova TPU projetada para realizar tarefas de inferência.
De acordo com as fontes, essa potencial colaboração, que por enquanto não se concretizou em um acordo fechado, buscaria complementar as parcerias já existentes com os fabricantes de semicondutores Broadcom, MediaTek e TSMC.
As TPUs do Google chegaram no ano passado à sétima geração com o Ironwood, que está disponível para o público em geral desde novembro passado como parte das novidades do Google Cloud.
Esses aceleradores de IA são otimizados para o treinamento e a inferência de grandes modelos, com um desempenho máximo dez vezes superior ao das TPU v5p e um desempenho por chip mais de quatro vezes superior tanto para cargas de trabalho de treinamento quanto de inferência em comparação com a TPU v6e (Trillium).
Com o Ironwood, é possível integrar até 9.216 chips em um “superpod”, conectando-os entre si por meio da rede ICI (Inter-Chip Interconnect), que opera a 9,6 Tb/s, permitindo que alcancem cerca de 1,77 petabytes de memória compartilhada de alta largura de banda.
Não é a única empresa de tecnologia que cada vez mais se concentra na inferência, e não apenas no treinamento de modelos de IA. Em janeiro, a Microsoft apresentou o Maia 200 que, segundo a empresa, oferece três vezes o desempenho FP4 do Amazon Trainium de terceira geração e um desempenho FP8 superior ao do TPU de sétima geração do Google.
Esta notícia foi traduzida por um tradutor automático