Eduardo Parra - Europa Press - Arquivo
MADRID 4 dez. (EUROPA PRESS) -
Uma breve interação com um chatbot pode mudar significativamente a opinião de um eleitor sobre um candidato presidencial ou uma política proposta em qualquer direção, de acordo com uma nova pesquisa da Universidade de Cornell (Estados Unidos).
Especificamente, os pesquisadores publicam essas descobertas em dois artigos simultaneamente: 'Persuading voters through human-AI dialogues', na Nature, e 'The levers of political persuasion with conversational AI', na Science.
O potencial da inteligência artificial para influenciar os resultados eleitorais é uma grande preocupação pública. Esses dois novos artigos, com experimentos realizados em quatro países, mostram que os chatbots alimentados por grandes modelos de linguagem (LLMs) são bastante eficazes na persuasão política, mudando as preferências dos eleitores da oposição em 10 pontos percentuais ou mais em muitos casos. A capacidade de persuasão dos LLMs não se deve ao seu domínio da manipulação psicológica, mas à sua riqueza de argumentos que apóiam as posições políticas dos candidatos.
"Os LLMs podem influenciar significativamente as atitudes das pessoas em relação aos candidatos presidenciais e suas políticas, e fazem isso fornecendo inúmeras alegações factuais para apoiar suas posições", diz David Rand, professor de Ciência da Informação e Gestão de Marketing e Comunicação em Cornell, e principal autor de ambos os artigos. "No entanto, essas afirmações não são necessariamente precisas, e mesmo os argumentos baseados em afirmações precisas podem ser enganosos por omissão.
No estudo da Nature, David Rand, juntamente com o coautor principal Gordon Pennycook, professor associado de psicologia, instruiu chatbots de IA para mudar as atitudes dos eleitores em relação aos candidatos à presidência. Eles designaram aleatoriamente os participantes para se envolverem em uma conversa de texto com um chatbot que promovia uma postura ou outra e, em seguida, mediram quaisquer alterações nas opiniões e intenções de voto dos participantes. Os pesquisadores repetiram esse experimento três vezes: na eleição presidencial de 2024 nos EUA, na eleição federal canadense de 2025 e na eleição presidencial polonesa de 2025.
Eles descobriram que, dois meses antes da eleição nos EUA, entre mais de 2.300 americanos, os chatbots focados nas políticas dos candidatos causaram uma leve mudança de opinião. Em uma escala de 100 pontos, o modelo de IA pró-Harris moveu os prováveis eleitores de Trump 3,9 pontos em direção a Harris, um efeito cerca de quatro vezes maior do que o dos anúncios tradicionais testados durante as eleições de 2016 e 2020. O modelo de IA pró-Trump moveu os prováveis eleitores de Harris 1,51 ponto em direção a Trump.
Em experimentos semelhantes com 1.530 canadenses e 2.118 poloneses, o efeito foi muito maior: os chatbots mudaram a atitude e a intenção de voto dos eleitores da oposição em cerca de 10 pontos percentuais. "Esse foi um efeito surpreendentemente grande, especialmente no contexto da política presidencial", diz Rand.
Os chatbots empregaram uma variedade de táticas de persuasão, mas a polidez e o fornecimento de provas foram as mais comuns. Quando os pesquisadores impediram o modelo de usar fatos, sua persuasão se tornou muito menos convincente, demonstrando a função essencial que as afirmações baseadas em fatos desempenham na persuasão da IA.
Os pesquisadores também verificaram os argumentos do chatbot usando um modelo de IA validado por verificadores humanos profissionais. Embora, em média, as afirmações fossem em sua maioria precisas, os chatbots que apoiavam candidatos de direita fizeram afirmações mais imprecisas do que aqueles que defendiam candidatos de esquerda nos três países. Essa descoberta, validada com grupos de cidadãos politicamente equilibrados, reflete a constatação frequentemente repetida de que os usuários de redes sociais de direita compartilham informações mais imprecisas do que os de esquerda, resumem os pesquisadores.
No artigo da Science, Rand colaborou com colegas do AI Security Institute do Reino Unido para investigar o que torna esses chatbots tão persuasivos. Eles mediram as mudanças de opinião de quase 77.000 participantes do Reino Unido que interagiram com chatbots em mais de 700 tópicos políticos.
"Os modelos maiores são mais persuasivos, mas a maneira mais eficaz de aumentar sua persuasão foi instruir os modelos a complementar seus argumentos com o máximo de dados possível e fornecer a eles treinamento adicional com foco em aumentar sua persuasão", diz Rand. "O modelo que foi mais otimizado para persuasão conseguiu uma surpreendente mudança de 25 pontos percentuais nos eleitores da oposição.
Esse estudo também mostrou que, quanto mais persuasivo era o modelo, menos precisas eram as informações que ele fornecia. Rand suspeita que, à medida que o chatbot é pressionado a fornecer mais e mais declarações factuais, ele acaba ficando sem informações precisas e começa a inventar.
A descoberta de que as afirmações factuais são fundamentais para a persuasão de um modelo de IA é apoiada por um terceiro artigo recente publicado no "PNAS Nexus" por Rand, Pennycook et al. O estudo mostrou que os argumentos dos chatbots de IA reduziram a crença em teorias da conspiração, mesmo quando as pessoas acreditavam que estavam falando com um especialista humano. Isso sugere que foram as mensagens convincentes que funcionaram, e não a crença na autoridade da IA.
Em ambos os estudos, todos os participantes foram informados de que estavam conversando com uma IA e, posteriormente, foram informados detalhadamente. Além disso, a direção da persuasão foi aleatória, de modo que os experimentos não alteraram as opiniões em geral.
Estudar a persuasão da IA é essencial para antecipar e mitigar seu uso indevido, disseram os pesquisadores. Ao testar esses sistemas em experimentos controlados e transparentes, eles esperam informar as diretrizes éticas e os debates políticos sobre como a IA deve e não deve ser usada na comunicação política.
Rand também ressalta que os chatbots só podem ser ferramentas eficazes de persuasão se as pessoas interagirem com eles em primeiro lugar, o que é um desafio muito difícil de superar. Mas não há dúvida de que os chatbots com IA serão uma parte cada vez mais importante das campanhas políticas, conclui Rand. "O desafio agora é encontrar maneiras de limitar os danos e ajudar as pessoas a reconhecer e resistir à persuasão da IA.
Esta notícia foi traduzida por um tradutor automático