Publicado 03/12/2025 11:11

Apenas o Google DeepMind, Anthropic e OpenAI foram aprovados por pouco em segurança de IA, mostra pesquisa

Aplicativos de IA em um telefone celular
UNSPLASH / AERPS

MADRID, 3 dez. (Portaltic/EP) -

Apenas a Google DeepMind, a Anthropic e a OpenAI foram aprovadas, ainda que por pouco, no quesito segurança da inteligência artificial (IA), em uma análise independente que visa esclarecer se as promessas feitas estão à altura do trabalho realizado.

Anthropic, Alibaba Cloud, DeepSeek, Google DeepMind, Meta, OpenAI, xAI e Z.ai são as oito principais empresas do atual ecossistema de IA dedicadas à IA de fronteira, ou seja, que desenvolvem os modelos mais avançados e poderosos.

É uma tecnologia que oscila entre benefícios e riscos para uma sociedade que apenas começou a regulamentar seu ciclo de vida - como a Lei de IA da UE -, mas que está caminhando constantemente para a adoção.

A cada inovação, essas empresas destacam o trabalho que realizaram em termos de segurança, de modo que seu desenvolvimento e implementação reduzam riscos como desinformação, manipulação e problemas de saúde mental, para citar alguns.

Para o Future of Life Institute, organização sem fins lucrativos, "todas as empresas devem ir além das alegações de segurança existencial de alto nível e produzir salvaguardas concretas e baseadas em evidências, com gatilhos claros, limites realistas e mecanismos comprovados de monitoramento e controle capazes de reduzir a exposição a riscos catastróficos".

Essa conclusão foi tirada das oito análises de especialistas da organização sobre as abordagens e medidas implementadas por essas empresas para gerenciar os danos imediatos e os riscos catastróficos dos sistemas avançados de IA.

Com base nesse trabalho, conclui-se que nenhuma delas foi aprovada com louvor. A Google DeepMind, a Anthropic e a OpenAI obtiveram uma nota geral de aprovação, mas o suficiente para estabelecer uma lacuna em relação ao outro grupo de empresas (Z.ai, xAI, Meta, Alibaba Cloud, DeepSeek) nas áreas de avaliação de riscos, estrutura de segurança e compartilhamento de informações.

Como eles explicam, essa lacuna se deve principalmente à divulgação limitada, à fraca evidência de processos de segurança sistemáticos e à adoção desigual de práticas sólidas de avaliação.

O principal ponto fraco de todas elas, no qual nenhuma foi aprovada, é a segurança existencial, que avalia as medidas tomadas para estabelecer proteção contra o desenvolvimento de IA autoconsciente.

De todas, a Anthropic tem a melhor pontuação, devido à sua alta transparência na avaliação de riscos, uma estrutura de segurança comparativamente bem desenvolvida, investimento substancial em pesquisa de segurança técnica e compromissos de governança refletidos em sua estrutura de Corporação de Benefício Público e apoio à legislação em nível estadual, conforme detalhado.

Mas nenhuma chega perto de atender aos padrões globais com suas práticas de segurança. "Embora muitas empresas estejam parcialmente alinhadas com esses padrões emergentes, a profundidade, a especificidade e a qualidade da implementação permanecem desiguais, resultando em práticas de segurança que ainda não atendem ao rigor, à mensurabilidade ou à transparência previstas por estruturas como o Código de Prática de IA da UE", concluem.

Deve-se observar que essa pesquisa foi realizada com dados coletados até 8 de novembro, antes de algumas das empresas de tecnologia lançarem seus modelos mais recentes, como o Gemini 3 Pro do Google DeepMind, o Grok 4.1 da xAI, o GPT-5.1 da OpenAI e o Claude Opus 4.5 da Anthropic.

Esta notícia foi traduzida por um tradutor automático

Contador

Contenido patrocinado