Europa Press/Contacto/Saquan Stimpson
MADRID 18 mar. (EUROPA PRESS) -
O governo dos Estados Unidos acusou nesta terça-feira a empresa Anthropic de impor "termos de serviço" para sua inteligência artificial (IA) que são "inaceitáveis" para a administração de Donald Trump, em um documento judicial no qual defendeu sua decisão de declarar a empresa de tecnologia como um “risco para a cadeia de suprimentos e a Segurança Nacional”, diante da recusa de seus executivos em permitir seu uso para uma série de fins militares, após a ação movida pela empresa contra a referida designação.
“Por razões de segurança nacional, os termos de serviço da tecnologia de inteligência artificial da demandante Anthropic PBC tornaram-se inaceitáveis para o Poder Executivo”, declarou o Departamento de Justiça dos Estados Unidos, que representa o governo, em um documento judicial divulgado pela agência Bloomberg.
Em seu documento, os advogados de defesa do governo de Donald Trump criticaram o fato de que, durante as negociações que o Departamento de Defesa manteve no início de 2026 com a empresa para adicionar uma cláusula ao contrato que permitisse ao Pentágono utilizar sua tecnologia para qualquer finalidade lícita, a empresa se recusou a aceitá-la devido às suas políticas de uso do Claude.
Por isso, o Departamento de Justiça alegou que “o comportamento da Anthropic em geral levou o Departamento (de Defesa) a questionar se a Anthropic representava um parceiro de confiança com o qual o Departamento estaria disposto a contratar neste âmbito tão sensível”, segundo o documento.
Da mesma forma, a equipe jurídica do Executivo demonstrou a preocupação do Pentágono com a possibilidade de que permitir que a empresa continuasse acessando seus sistemas técnicos e operacionais de combate “introduzisse um risco inaceitável” nas cadeias de suprimentos do Departamento de Defesa.
"Afinal, os sistemas de IA são extremamente vulneráveis à manipulação, e a Anthropic poderia tentar desativar sua tecnologia ou alterar preventivamente o comportamento de seu modelo antes ou durante operações de combate em andamento, caso a Anthropic — a seu critério — considere que seus limites corporativos estão sendo ultrapassados", alegaram os advogados.
A Anthropic, empresa de tecnologia criadora do chatbot Claude, entrou com uma ação judicial com o objetivo de obter uma liminar para impedir que a proibição do Departamento de Defesa entre em vigor enquanto o litígio é resolvido.
Essa medida foi anunciada nas redes sociais pelo chefe do Pentágono, Pete Hegseth, e classifica a empresa como um “risco para a cadeia de suprimentos e a Segurança Nacional” dos Estados Unidos, diante da recusa de seus executivos em permitir seu uso para fins militares baseados na “vigilância doméstica em massa” ou no desenvolvimento de “armas totalmente autônomas”.
As consequências imediatas do referido anúncio implicam o encerramento de toda relação comercial com a empresa por parte das empresas que fazem negócios com as Forças Armadas dos Estados Unidos e, de fato, o secretário de Defesa descreveu a decisão como “definitiva”, embora tenha apontado para uma cessação gradual, com um prazo máximo de seis meses, para “permitir uma transição suave para um serviço melhor e mais patriótico”.
Esta notícia foi traduzida por um tradutor automático