MADRID 30 mar. (Portaltic/EP) -
Os 'chatbots' de inteligência artificial (IA) generativa representam um risco para os usuários, pois o comportamento bajulador com o qual foram projetados para aumentar a interação faz com que as pessoas confiem neles sem questionar seus conselhos, mesmo em questões pouco éticas, ilegais ou prejudiciais.
O caráter conversacional de 'chatbots' como o ChatGPT, o Gemini e o Grok levou muitos usuários a utilizá-los não apenas como ferramentas de pesquisa e produtividade, mas também como confidentes, terapeutas ou consultores médicos, em busca de orientação para agir em determinadas circunstâncias.
Esse uso traz um risco adicional, favorecido pelo design dos 'chatbots', que em suas conversas tendem a concordar com os usuários — ou, pelo menos, a não contradizê-los — como forma de aumentar a interação, conforme analisou uma equipe de pesquisadores da Universidade de Stanford (Estados Unidos).
“Levantamos a hipótese de que os modelos de IA concordam excessivamente com os usuários, mesmo quando isso é social ou moralmente inadequado, e que tais respostas influenciam negativamente as crenças e intenções dos usuários”, explicam na pesquisa publicada no Science.org.
Para comprovar isso, eles analisaram a interação com onze modelos de linguagem populares, incluindo GPT-5, Llama70B, Claude e Gemini, em uma série de consultas sobre “conselhos cotidianos, transgressões morais e cenários explicitamente prejudiciais”. E a conclusão é que “a bajulação é frequente e prejudicial”.
Nos onze modelos de IA, “a IA confirmou as ações dos usuários 49% mais vezes do que os humanos, em média, mesmo em casos que envolvem engano, ilegalidade ou outros danos”, apontam.
Conforme explicam, a bajulação da IA faz com que os usuários se sintam apoiados, o que reduz os incentivos para assumir responsabilidades e resolver conflitos interpessoais, um resultado mais provável se o conselho vier da interação com outra pessoa.
“Neste trabalho, demonstramos que a bajulação é muito comum nos principais sistemas de IA e tem efeitos prejudiciais nos julgamentos sociais dos usuários”, concluem os pesquisadores.
Os pesquisadores também apontam que as empresas de tecnologia não abordaram o problema da bajulação de forma ampla porque é uma característica que agrada aos usuários e os faz manter mais conversas com os chatbots.
Nesse sentido, a OpenAI decidiu retirar uma atualização do GPT-4 em abril do ano passado, pois ela apresentava uma personalidade “demasiadamente bajuladora e irritante” na experiência de uso, para trabalhar em uma solução mais equilibrada.
Segundo explicou, estava testando novas soluções para evitar esse comportamento, priorizando a satisfação do usuário a longo prazo e introduzindo mais funções de personalização, de modo que pudessem ter maior controle sobre o comportamento do ChatGPT.
Esta notícia foi traduzida por um tradutor automático