Europa Press/Contacto/Davide Bonaldo - Arquivo
MADRID 1 maio (Portaltic/EP) -
O diretor executivo da xAI, Elon Musk, admitiu que utilizaram os modelos de inteligência artificial (IA) da OpenAI para treinar seus próprios modelos Grok, com o objetivo de melhorar seu desempenho, por meio da técnica de destilação.
A destilação é uma prática que permite transmitir o conhecimento adquirido por um modelo de IA para outro. Assim, ela possibilita que um modelo menor (modelo aluno) imite o comportamento de redes neurais maiores (modelo professor), aprendendo suas previsões e utilizando seus dados.
Nesse sentido, Musk explicou que “em parte” treinou os modelos do Grok utilizando a destilação com os modelos da OpenAI, alegando que é “uma prática comum usar outras inteligências artificiais para validar sua IA”.
Foi o que o CEO da xAI acabou admitindo durante seu depoimento perante um tribunal federal da Califórnia (Estados Unidos) no âmbito do processo que opõe a empresa de tecnologia à OpenAI, liderada por Sam Altman, devido à ação movida por Musk contra Altman por transformar a OpenAI em uma entidade com fins lucrativos, em vez de continuar com sua visão original sem fins lucrativos.
Especificamente, questionado se a xAI havia destilado a tecnologia da OpenAI, Musk alegou que “geralmente todas as empresas de IA” acabam utilizando essa técnica. No entanto, quando o júri insistiu no caso do Grok, o executivo respondeu que “em parte”, referindo-se ao uso dos modelos do ChatGPT para melhorar o Grok, conforme relatado por veículos de mídia como TechCrunch e The Verge.
Apesar de o proprietário da rede social X, onde a IA do Grok também está integrada, ter se defendido alegando que a destilação é uma prática muito comum na indústria de modelos de IA, empresas como a própria OpenAI ou a Anthropic já denunciaram esse comportamento de outras empresas de tecnologia anteriormente, embora as acusações tivessem se concentrado exclusivamente em empresas chinesas.
Isso se deve ao fato de que, embora a destilação seja uma técnica amplamente utilizada em laboratórios de IA de ponta para criar versões menores e mais econômicas de seus próprios modelos e oferecer diversos serviços aos seus clientes, pode haver casos em que ela seja utilizada de forma ilícita.
Especificamente, isso ocorre quando outras empresas utilizam modelos de terceiros para treinar os seus próprios, economizando custos e tempo — o que é denominado um “ataque de destilação” —, em vez de investir na infraestrutura de TI dispendiosa e no tempo necessários, como fizeram as principais empresas de IA.
No caso da OpenAI, a empresa denunciou que a empresa chinesa de tecnologia DeepSeek utilizou a destilação dos modelos do ChatGPT para treinar seus modelos de código aberto, destacando possíveis problemas de propriedade intelectual.
Por sua vez, a Anthropic também denunciou, em fevereiro deste ano, empresas chinesas como DeepSeek, Moonshot e MiniMax, acusando-as de realizar ataques de destilação para abusar de seu modelo Claude com o objetivo de tirar proveito de suas capacidades. Segundo constatou, essas empresas geraram mais de 16 milhões de interações com seu 'chatbot' Claude por meio de 24.000 contas fraudulentas, infringindo assim seus termos e restrições.
Como consequência, as empresas de IA estão começando a implementar funções para conter esse tipo de técnica, identificando padrões de ataques de destilação no tráfego das IPs, reforçando a verificação de contas e desenvolvendo salvaguardas no nível do produto.
Esta notícia foi traduzida por um tradutor automático