Europa Press/Contacto/Algi Febri Sugita - Arquivo
MADRID 2 fev. (Portaltic/EP) - A Anthropic alertou em um estudo sobre os “padrões de desempoderamento” que as conversas com chatbots de inteligência artificial (IA) podem causar nos usuários após um uso prolongado, reduzindo a capacidade de criar seus próprios julgamentos e valores e agir de acordo com eles.
A pesquisa intitulada “Quem manda? Padrões de desempoderamento no mundo real do uso de LLM” compilou 1,5 milhão de conversas anônimas do Claude, o chatbot da Anthropic, com foco em três áreas: crenças, valores e ações.
Os “padrões de desempoderamento” aos quais o estudo se refere são casos em que a conversa com a IA pode influenciar a tomada de decisões dos usuários, bem como moldar seus julgamentos e valores ao longo do tempo, além de ajudar em consultas específicas. Por exemplo, um usuário poderia perguntar à IA se seu parceiro está manipulando-o. Nesses casos, a Anthropic explicou que as IAs são treinadas para dar conselhos “equilibrados e úteis”, mas não são 100% eficazes. Se a IA corroborar a suspeita do usuário sem questioná-la, suas crenças podem se tornar menos precisas. Se ela aconselhar quais valores devem ser priorizados, o usuário pode considerar valores que não compartilhava. Por fim, se o chatbot aconselhar que ele tome uma medida, como terminar com seu parceiro, o usuário pode realizar uma ação que não decidiu por conta própria.
No entanto, a Anthropic esclareceu em seu blog que os casos de “grave desempoderamento” não são comuns no Claude, pois, após analisar 1,5 milhão de conversas anônimas, eles representam de um em cada mil casos a um em cada 10.000 chats, dependendo do domínio em que conversam.
De acordo com a pesquisa, esses padrões geralmente envolvem usuários que buscam “ativa e repetidamente” a orientação de Claude sobre “decisões pessoais e emocionalmente complexas”. A empresa observou que os usuários percebem positivamente esse tipo de indicação “desempoderadora” no momento em que a recebem, mas tendem a classificá-la como negativa quando tomam decisões com base nela. Além disso, a Anthropic indicou que a taxa de conversas “potencialmente desempoderadoras” aumentou com o tempo, especialmente em aspectos como relacionamentos, saúde ou bem-estar.
“Acreditamos que a grande maioria do uso da IA é benéfica, mas a consciência dos riscos potenciais é fundamental para construir sistemas de IA que empoderem, em vez de enfraquecer, aqueles que os utilizam”, defendeu a empresa.
Esta notícia foi traduzida por um tradutor automático