Publicado 27/02/2026 21:45

Os EUA designam a empresa Anthropic como um risco para a cadeia de abastecimento americana

Archivo - Arquivo - 1º de outubro de 2025, Bandung, Java Ocidental, Indonésia: Nesta ilustração fotográfica, o logotipo da Claude AI é exibido em um smartphone com o logotipo da Anthropic ao fundo.
Europa Press/Contacto/Algi Febri Sugita - Arquivo

Nenhuma empresa que mantenha uma relação comercial com o Exército dos Estados Unidos poderá fazer negócios com a Anthropic MADRID 28 fev. (EUROPA PRESS) -

O governo dos Estados Unidos designou a empresa Anthropic como um “risco para a cadeia de abastecimento e a segurança nacional” do país norte-americano depois que Donald Trump anunciou que todas as agências federais deixarão de usar o software dessa empresa, incluindo seu modelo de inteligência artificial, devido à recusa de seus diretores em permitir seu uso para fins militares baseados na “vigilância doméstica em massa” ou no desenvolvimento de “armas totalmente autônomas”.

“Em conjunto com a diretiva do presidente para que o Governo Federal cesse o uso da tecnologia da Anthropic, instruo o Departamento de Guerra a designar a Anthropic como um Risco para a Cadeia de Abastecimento e a Segurança Nacional”, afirmou o secretário de Defesa dos Estados Unidos, Pete Hegseth, em uma mensagem nas redes sociais.

As consequências imediatas deste anúncio implicam o fim de todas as relações comerciais com a empresa por parte das empresas que fazem negócios com as Forças Armadas americanas. “Os combatentes americanos nunca serão reféns dos caprichos ideológicos das grandes empresas tecnológicas. Esta decisão é definitiva”, concluiu Hegseth. Por outro lado, a cessação dos serviços da Anthropic com o Departamento de Defesa será gradual, com um prazo máximo de seis meses, para “permitir uma transição suave para um serviço melhor e mais patriótico”.

“Não precisamos deles, não os queremos e não faremos negócios com eles novamente”, afirmou o presidente Trump nas redes sociais, para depois advertir a empresa que usará “todo o poder da Presidência” se não cooperarem, o que poderia acarretar “graves consequências civis ou penais”.

Esses anúncios foram feitos depois que o CEO da Anthropic, Dario Amodei, se recusou a atender às exigências do Departamento de Defesa quanto às restrições de uso do modelo de IA, conhecido como Claude, garantindo que preferiam não trabalhar com o Pentágono a aceitar usos de sua tecnologia que pudessem “minar, em vez de defender, os valores democráticos”.

Da mesma forma, ele indicou que não forneceriam um produto que colocasse em risco “combatentes e civis americanos”. “Oferecemos trabalhar diretamente com o Departamento de Guerra em P&D para melhorar a confiabilidade desses sistemas, mas eles não aceitaram essa oferta”, afirmou.

O Departamento de Defesa anunciou em julho um contrato no valor de US$ 200 milhões para desenvolver IA no Exército em conjunto com a Anthropic, Google, OpenAI e xAI. De acordo com o jornal The Wall Street Journal, o Exército americano utilizou o Claude como parte de sua operação para capturar o presidente Nicolás Maduro na Venezuela, apesar de a Anthropic proibir seu uso para fins violentos, para o desenvolvimento de armamento ou para realizar vigilância sobre a população.

Esta notícia foi traduzida por um tradutor automático

Contador

Contenido patrocinado