MADRID 24 fev. (Portaltic/EP) - A Anthropic denunciou que as empresas chinesas DeepSeek, Moonshot e MiniMax, dedicadas ao desenvolvimento de inteligência artificial, realizaram ataques de destilação para abusar do seu modelo Claude com o objetivo de tirar proveito das suas capacidades e melhorar os seus modelos.
A destilação é uma prática de aprendizado de máquina que permite transmitir os aprendizados de um modelo de IA para outro. Assim, possibilita que um modelo menor (modelo aluno) imite o comportamento de redes neurais maiores (modelo professor), aprendendo suas previsões e utilizando seus dados.
Ou seja, consiste em estrear um modelo menos capaz com os resultados de um mais potente, uma técnica amplamente utilizada em laboratórios de IA de ponta para criar versões menores e mais econômicas de seus próprios modelos e oferecer diferentes serviços aos seus clientes. No entanto, pode haver casos em que a destilação seja utilizada de forma ilícita. Isso ocorre quando outras empresas utilizam modelos alheios para treinar os seus, economizando custos e tempo, o que é denominado um “ataque de destilação”. Neste contexto, a Anthropic tem monitorado este tipo de práticas ilícitas e indicou que elas estão sendo realizadas com maior intensidade e sofisticação, conforme denunciou em um comunicado em seu site.
Especificamente, a Anthropic acusou as empresas chinesas DeepSeek, Moonshot e MiniMax de usar ataques de destilação para tirar proveito de seus modelos de IA Claude. Assim, ela afirmou que essas empresas geraram mais de 16 milhões de interações com seu chatbot Claude por meio de 24.000 contas fraudulentas, violando assim seus termos e restrições.
“O volume, a estrutura e o foco das solicitações diferiam dos padrões de uso habituais, o que reflete uma extração deliberada de capacidades em vez de um uso legítimo”, explicou a empresa. A Anthropic revelou que, no caso da DeepSeek, gerou um tráfego sincronizado entre contas, com padrões idênticos e métodos de pagamento compartilhados. O DeepSeek solicitava ao Claude que desenvolvesse passo a passo seu raciocínio interno após uma resposta complexa, gerando assim dados de treinamento para serem usados posteriormente em seus próprios modelos. O MiniMax, por sua vez, realizou mais de 13 milhões de trocas e a operação teve como objetivos aprender com a codificação agênica e o uso e orquestração de ferramentas. O mesmo aconteceu com a IA da Moonshot, que realizou mais de 3,4 milhões de trocas para examinar o raciocínio do agente e o uso de ferramentas, a análise de dados e o desenvolvimento de agentes de uso informático, entre outros.
A empresa de São Francisco conseguiu reconhecer esse tipo de abuso graças a correlações de endereços IP, solicitações de metadados e a confirmação de que outras empresas haviam sofrido práticas semelhantes. Precisamente, em janeiro de 2025, a OpenAI também acusou a DeepSeek de usar a destilação para treinar seus modelos de IA com base nos do ChatGPT.
Com tudo isso, a Anthropic indicou que tem apoiado os controles de exportação para ajudar a manter a liderança dos Estados Unidos em IA e que, precisamente, os ataques de destilação “minam esses controles” ao permitir que laboratórios estrangeiros “eliminem a vantagem competitiva” das empresas que desenvolvem sua tecnologia por conta própria.
Para conter esse tipo de técnica, a Anthropic informou que desenvolveu vários classificadores e sistemas de impressões digitais comportamentais para identificar padrões de ataques de destilação no tráfego de API e poder detê-los. Além disso, também reforçaram a verificação de contas educacionais, programas de pesquisa de segurança e empresas emergentes, “as vias mais comumente exploradas para criar contas fraudulentas”. Além disso, a empresa de tecnologia esclareceu que está desenvolvendo salvaguardas em nível de produto, API e modelo, projetadas para reduzir a eficácia dos resultados do modelo para a destilação ilícita.
Esta notícia foi traduzida por um tradutor automático