David Zorrakino - Europa Press - Arquivo
MADRID, 20 fev. (EUROPA PRESS) - Uma pesquisa da Universidade de Cambridge (Reino Unido) realizada com 30 dos principais agentes de inteligência artificial descobriu que apenas quatro publicaram documentos formais de segurança e avaliação relacionados com os bots reais.
A nova onda de agentes de navegadores web com inteligência artificial, muitos deles projetados para imitar a navegação humana, tem as taxas mais altas de informações de segurança ausentes. Muitos de nós agora usamos chatbots de IA para planejar refeições e escrever e-mails, navegadores web aprimorados com IA para reservar viagens e comprar passagens, e IA no local de trabalho para gerar faturas e relatórios de desempenho.
No entanto, este novo estudo sobre o “ecossistema de agentes de IA”, publicado nos Relatórios e Anais de Cambridge, sugere que, à medida que esses robôs de IA se tornam rapidamente parte da vida cotidiana, a divulgação de segurança básica está “perigosamente atrasada”.
Especificamente, a equipe de pesquisa liderada pela Universidade de Cambridge descobriu que os desenvolvedores de IA compartilham uma grande quantidade de dados sobre o que esses agentes podem fazer, enquanto ocultam evidências das práticas de segurança necessárias para avaliar os riscos que a IA representa.
O AI Agent Index, um projeto que inclui pesquisadores do MIT, Stanford (Estados Unidos) e da Universidade Hebraica de Jerusalém (Israel), investigou as capacidades, a transparência e a segurança de trinta agentes de IA “de última geração”, com base em informações públicas e correspondência com os desenvolvedores. A última atualização do Índice está a cargo de Leon Staufer, pesquisador que cursa mestrado no Centro Leverhulme para o Futuro da Inteligência de Cambridge. O estudo analisou os dados disponíveis sobre uma gama de bots de IA líderes em chat, navegadores e fluxos de trabalho, desenvolvidos principalmente nos EUA e na China. A equipe detectou uma importante lacuna de transparência. Os desenvolvedores de apenas quatro bots de IA do Índice publicam fichas de sistema específicas para cada agente: documentos formais de segurança e avaliação que abrangem desde os níveis de autonomia e comportamento até análises de risco em situações reais.
Além disso, 25 dos 30 agentes de IA do Índice não divulgam resultados internos de segurança, enquanto 23 dos 30 agentes não fornecem dados de testes de terceiros, apesar de essa ser a evidência empírica necessária para avaliar rigorosamente o risco.
Apenas incidentes ou preocupações de segurança conhecidas foram publicadas para cinco agentes de IA, enquanto “vulnerabilidades de injeção rápida” (quando instruções maliciosas manipulam o agente para ignorar as medidas de segurança) estão documentadas para dois desses agentes. Dos cinco agentes de IA chineses analisados para o Índice, apenas um havia publicado algum tipo de estrutura de segurança ou padrões de conformidade.
“Muitos desenvolvedores cumprem os requisitos de segurança da IA ao se concentrarem no grande modelo de linguagem subjacente, enquanto fornecem pouca ou nenhuma informação sobre a segurança dos agentes criados sobre ele”, afirma Leon Staufer, principal autor da atualização do índice da Universidade de Cambridge.
“Os comportamentos críticos para a segurança da IA surgem do planejamento, das ferramentas, da memória e das políticas do próprio agente, não apenas do modelo subjacente, e muito poucos desenvolvedores compartilham essas avaliações”.
De fato, os pesquisadores identificam 13 agentes de IA que exibem “níveis limítrofes” de autonomia, mas apenas quatro deles revelam alguma avaliação de segurança do próprio bot. “Os desenvolvedores publicam estruturas éticas e de segurança amplas e de alto nível que soam tranquilizadoras, mas publicam evidências empíricas limitadas, necessárias para realmente compreender os riscos”, enfatiza Staufer.
Os desenvolvedores são muito mais transparentes sobre as capacidades de seu agente de IA. Essa assimetria de transparência sugere uma forma mais fraca de lavagem de segurança. A última atualização anual fornece informações verificadas em 1.350 campos para os trinta bots de IA mais destacados, disponíveis até o último dia de 2025. Os critérios para inclusão no Índice incluíram disponibilidade pública e facilidade de uso, bem como desenvolvedores com avaliação de mercado superior a US$ 1 bilhão. Cerca de 80% dos bots do Índice foram lançados ou atualizados significativamente nos últimos dois anos. A atualização do índice mostra que, fora os bots de IA chineses, quase todos os agentes dependem de alguns modelos básicos (GPT, Claude, Gemini), uma concentração significativa de poder de plataforma por trás da revolução da IA, bem como possíveis pontos de estrangulamento sistêmicos.
“Essa dependência compartilhada cria possíveis pontos únicos de falha”, afirma Staufer. “Uma mudança de preço, uma interrupção do serviço ou uma regressão da segurança em um modelo pode afetar centenas de agentes de IA. Isso também gera oportunidades para avaliação e monitoramento da segurança.”
Muitos dos agentes menos transparentes são navegadores da web aprimorados com IA, projetados para realizar tarefas na web aberta em nome de um usuário: clicar, navegar e preencher formulários para tarefas que vão desde comprar ingressos de lançamento limitado até monitorar ofertas do eBay. Os agentes de navegador têm a maior taxa de informações de segurança ausentes: 64% dos campos relacionados à segurança não são relatados. Além disso, eles operam com os níveis mais altos de autonomia. Em seguida, vêm os agentes empresariais, uma IA de gestão empresarial destinada a automatizar tarefas de trabalho de forma confiável, com 63% dos campos relacionados à segurança omitidos. Os agentes de chat apresentam uma omissão de 43% no índice. Staufer observa que não existem padrões estabelecidos sobre como os agentes de IA devem se comportar na web. A maioria dos agentes não revela sua natureza de IA aos usuários finais ou a terceiros por padrão. Apenas três agentes admitem a marca d'água na mídia gerada para identificá-los como IA. Pelo menos seis agentes de IA no Índice usam explicitamente tipos de código e endereços IP projetados para imitar o comportamento de navegação humano e contornar as proteções anti-bots.
“Os operadores de sites já não conseguem distinguir entre um visitante humano, um agente legítimo e um bot que extrai conteúdo”, comenta Staufer. “Isto tem implicações significativas para tudo, desde compras online e preenchimento de formulários até serviços de reserva e extração de conteúdo.”
A atualização inclui um estudo de caso sobre o Perplexity Comet: um dos agentes de IA baseados em navegador mais autônomos do índice, bem como um dos mais arriscados e menos transparentes. O Comet é promovido por sua capacidade de “funcionar como um assistente humano”. A Amazon já ameaçou tomar medidas legais porque o Comet não se identifica como um agente de IA ao interagir com seus serviços.
Staufer acrescenta: “O último Índice de Agentes de IA revela a crescente lacuna entre o ritmo de implementação e o de avaliação de segurança. A maioria dos desenvolvedores compartilha poucas informações sobre segurança, avaliações e impacto social. Os agentes de IA estão se tornando mais autônomos e mais capazes de agir no mundo real, mas as estruturas de transparência e governança necessárias para gerenciar essa mudança estão perigosamente atrasadas”.
Esta notícia foi traduzida por um tradutor automático