Philip Dulian/dpa - Arquivo
MADRID 23 fev. (Portaltic/EP) -
Um jornalista conseguiu enganar o chatbot ChatGPT da OpenAI e as ferramentas de IA do Google para que mostrassem informações falsas aos usuários em suas respostas, apenas inventando os dados em questão e escrevendo-os de forma detalhada e realista em um blog publicado na Internet, destacando uma vulnerabilidade nos sistemas de inteligência artificial (IA) de uso massivo.
Ao fazer perguntas a um chatbot ou a um serviço com ferramentas de busca de informação impulsionadas por IA, como é o caso do Modo IA ou AI Overviews do Google com Gemini, as respostas são obtidas a partir dos grandes modelos de linguagem em que se baseiam esses serviços que, por sua vez, são treinados com grandes quantidades de bases de dados, analisadas e categorizadas como verdadeiras.
No entanto, quando o chatbot recebe uma pergunta sobre a qual não tem informações, muitas vezes realiza uma pesquisa na internet para encontrar os dados solicitados, que por sua vez são complementados com o conhecimento de seu modelo de linguagem. Nesses casos, a IA torna-se mais suscetível de utilizar dados não verificados que podem ser falsos. Tendo isso em mente, o jornalista tecnológico da BBC, Thomas Germain, realizou uma experiência para testar a capacidade dos modelos e dos chatbots da OpenAI e do Google em verificar as informações ou, caso contrário, fornecer dados falsos nas suas respostas.
Especificamente, Germain escreveu um artigo em seu blog pessoal com informações completamente inventadas, no qual afirmava de forma convincente que era “o melhor jornalista comedor de cachorros-quentes do mundo”.
Este artigo, intitulado “Os melhores jornalistas de tecnologia comendo cachorros-quentes”, inclui afirmações como que comer cachorros-quentes é “um passatempo popular” entre os jornalistas de tecnologia, bem como que existia um Campeonato Internacional de Cachorros-Quentes em Dakota do Sul (Estados Unidos).
Para continuar a dar realismo, o jornalista acrescentou o nome de outros jornalistas, tanto reais como falsos, com a ideia de que a IA pudesse criar uma lista de 10 pessoas e organizá-la com base em quem comia mais cachorros-quentes. Tudo isto foi feito em apenas 20 minutos de redação e, depois disso, acabou por ser publicado no seu blogue.
Segundo ele, menos de 24 horas após a publicação do artigo, as ferramentas de IA do Google, bem como as respostas do ChatGPT, começaram a repetir as afirmações incluídas no artigo, considerando-as como informações reais. Chegaram mesmo a citar o artigo em questão como fonte confiável, sem avisar que era a única origem dessas afirmações.
Como resultado, Germain afirmou que conseguiu fazer com que tanto as ferramentas de IA do Gemini quanto o ChatGPT respondessem aos usuários de forma geral que ele era muito bom comendo cachorros-quentes, destacando uma vulnerabilidade nos sistemas de IA de uso massivo, ao poder manipular as respostas dos chatbots de empresas relevantes do setor, com pouco trabalho e conteúdo falso. O jornalista aproveitou-se para que os sistemas assumissem sua mentira como um fato verificável. Ao descobrir essa possibilidade de enganar a IA, o jornalista especificou que, de acordo com declarações de um porta-voz do Google a respeito, a IA integrada na parte superior da Pesquisa do Google utiliza sistemas de classificação que “mantêm os resultados 99% livres de spam”.
A OpenAI, por sua vez, também afirmou que toma medidas para interromper e expor as tentativas dos usuários de influenciar suas ferramentas. No entanto, tanto o Google quanto a OpenAI reconheceram que suas opções de IA “podem cometer erros”.
Apesar de tudo isso, de acordo com seus testes, outros chatbots ou modelos de IA de outras empresas mostraram-se mais reticentes ao responder a esse tipo de pergunta, como, por exemplo, a Anthropic. Assim, Germain indicou que esses chatbots perceberam que a informação em questão poderia ser uma piada.
Assim, foi colocada em discussão a capacidade que qualquer pessoa pode ter de introduzir e difundir desinformação através da IA, o que pode se traduzir em efeitos perigosos para a saúde, a economia, a política ou recomendações críticas de segurança. Para evitar esse tipo de mal-entendido, recomenda-se que os usuários verifiquem as fontes citadas pelo serviço de IA e busquem mais respostas e informações que complementem os dados.
Esta notícia foi traduzida por um tradutor automático