MADRI 11 dez. (Portaltic/EP) -
Dezenas de procuradores-gerais dos EUA pediram ao Google, Meta, Microsoft, OpenAI e outras nove empresas de inteligência artificial (IA) que abordem as principais ameaças aos usuários de seus chatbots de IA generativa: alucinações e a falta de medidas robustas de segurança infantil.
"A IA generativa tem o potencial de mudar a maneira como o mundo funciona de forma positiva. Mas também causou (e tem o potencial de causar) sérios danos, especialmente às populações vulneráveis", diz a carta, assinada por dezenas de procuradores-gerais dos Estados Unidos, pedindo às empresas de tecnologia responsáveis pela tecnologia que façam mudanças reais.
Especificamente, a carta é endereçada aos representantes legais da Anthropic, Apple, Chai AI, Character Technologies, Google, Luka, Meta, Microsoft, Nomi AI, OpenAI, Perplexity AI, Replika e xAI, todas empresas focadas em IA.
E elas se referem a dois riscos principais. Por um lado, respostas que buscam a aprovação do usuário humano e alucinações, um fenômeno em que a IA fornece respostas que, apesar de parecerem coerentes, incluem informações tendenciosas ou errôneas que não são apoiadas pelos dados com os quais foi treinada. Por outro lado, a falta de salvaguardas eficazes para proteger crianças e adolescentes em suas interações com chatbots.
Esses riscos já causaram danos a cidadãos norte-americanos. A carta cita o suicídio de dois adolescentes, incidentes de envenenamento e episódios de psicose, entre outros. "De fato, os resultados bajuladores e delirantes da IA generativa prejudicaram tanto os vulneráveis (como crianças, idosos e pessoas com doenças mentais) quanto pessoas sem vulnerabilidades anteriores", observam.
O relatório também lista exemplos de algumas conversas que menores de idade tiveram com chatbots, nas quais as IAs discutiram tópicos como "apoio ao suicídio, exploração sexual, manipulação emocional, sugestão de uso de drogas, sugestão de sigilo parental e incentivo à violência contra outros".
Os procuradores gerais reconhecem que esses tipos de conversas são "apenas uma pequena amostra dos perigos relatados que os bots de IA representam para nossos filhos", mas também denunciam que "essas interações são mais difundidas e muito mais gráficas do que qualquer um de nós poderia imaginar".
Portanto, eles insistem que "o dano causado seja mitigado e que salvaguardas adicionais sejam adotadas para proteger as crianças", pois, como eles alertam, "a falha em implementar adequadamente salvaguardas adicionais pode violar nossas respectivas leis".
A carta estabelece as mudanças propostas que os procuradores gerais acreditam que devem ser implementadas até 16 de janeiro de 2026, que incluem testes de segurança razoáveis e apropriados de modelos de IA generativa, o uso de procedimentos de recall bem documentados para modelos defeituosos e a permissão para que terceiros revisem modelos com processos independentes.
Esta notícia foi traduzida por um tradutor automático