Publicado 11/03/2026 12:03

A IA está homogeneizando a maneira como as pessoas escrevem e pensam, segundo cientistas e psicólogos.

Archivo - Arquivo - Uma pessoa testa o assistente DeepSeek, em 29 de janeiro de 2025, em Madri (Espanha). O assistente DeepSeek chegou à App Store no último dia 11 de janeiro e subiu para ocupar a primeira posição na loja da Apple nos Estados Unidos, à fr
Eduardo Parra - Europa Press - Arquivo

MADRID, 11 mar. (EUROPA PRESS) - Os chatbots de IA estão padronizando a forma como as pessoas falam, escrevem e pensam, de acordo com um trabalho da Universidade do Sul da Califórnia (Estados Unidos). Se essa homogeneização continuar sem controle, corre-se o risco de reduzir a sabedoria coletiva e a capacidade de adaptação da humanidade, argumentam cientistas da computação e psicólogos em um artigo de opinião publicado na revista “Trends in Cognitive Sciences” da Cell Press.

Os especialistas afirmam que os desenvolvedores de IA deveriam incorporar uma maior diversidade do mundo real nos conjuntos de treinamento de modelos de linguagem amplos (LLM), não apenas para preservar a diversidade cognitiva humana, mas também para melhorar a capacidade de raciocínio dos chatbots.

“As pessoas diferem na forma como escrevem, raciocinam e veem o mundo”, contextualiza o primeiro autor e cientista da computação Zhivar Sourati, da Universidade do Sul da Califórnia. “Quando essas diferenças são mediadas pelos próprios LLM, seu estilo linguístico, perspectiva e estratégias de raciocínio distintos são homogeneizados, produzindo expressões e pensamentos padronizados para todos os usuários”.

Dentro de grupos e sociedades, a diversidade cognitiva impulsiona a criatividade e a resolução de problemas, afirmam os pesquisadores. No entanto, a diversidade cognitiva está diminuindo em todo o mundo, à medida que bilhões de pessoas utilizam os mesmos chatbots de IA para um número cada vez maior de tarefas. Quando as pessoas utilizam chatbots para aperfeiçoar sua escrita, por exemplo, ela perde sua individualidade estilística e elas se sentem menos responsáveis por sua produção criativa.

“A preocupação não é apenas que os LLMs moldem a maneira como as pessoas escrevem ou falam, mas que redefinam sutilmente o que conta como um discurso credível, uma perspectiva correta ou mesmo um bom raciocínio”, adverte Sourati.

A equipe aponta vários estudos que mostram que os resultados dos estudos de mestrado em direito são menos variados do que os textos gerados por humanos e tendem a refletir a linguagem, os valores e os estilos de raciocínio das sociedades ocidentais, educadas, industrializadas, ricas e democráticas.

“Como os LLM são treinados para capturar e reproduzir regularidades estatísticas em seus dados de treinamento, que muitas vezes super-representam as línguas e ideologias dominantes, seus resultados frequentemente refletem uma parcela estreita e tendenciosa da experiência humana”, diz Sourati.

Embora os estudos mostrem que os indivíduos muitas vezes geram mais ideias com mais detalhes quando usam LLMs, os grupos de pessoas produzem menos ideias e menos criativas quando usam LLMs do que quando simplesmente combinam seus poderes coletivos, apontam os pesquisadores. “Mesmo que as pessoas não sejam usuárias diretas dos LLMs, eles as afetarão indiretamente”, insiste Sourati. “Se muitas pessoas ao meu redor pensam e falam de uma determinada maneira, e eu faço as coisas de maneira diferente, sentiria a pressão de me alinhar com elas, porque pareceria uma forma mais credível ou socialmente aceitável de expressar minhas ideias”. Além da linguagem, estudos demonstraram que, após interagir com LLMs tendenciosos, as opiniões das pessoas se assemelham mais ao LLM que utilizaram. Os LLMs também favorecem modos de raciocínio lineares, como o raciocínio em cadeia, que exige que os modelos mostrem o raciocínio passo a passo. Essa ênfase reduz o uso de estilos de raciocínio intuitivo ou abstrato, que às vezes são mais eficientes do que o raciocínio linear, afirmam os pesquisadores. Eles também apontam que os LLMs podem alterar as expectativas das pessoas, o que pode mudar sutilmente a direção do trabalho de uma pessoa.

“Em vez de direcionar ativamente a geração, os usuários muitas vezes se deixam levar pelas continuações sugeridas pelo modelo e selecionam opções que parecem 'boas o suficiente' em vez de criar as suas próprias, o que gradualmente desloca a iniciativa do usuário para o modelo”, explica Sourati.

Os pesquisadores afirmam que os desenvolvedores de IA deveriam incorporar intencionalmente a diversidade de linguagem, perspectivas e raciocínio em seus modelos. Eles enfatizam que essa diversidade deve se basear na diversidade que existe nos seres humanos em nível global, em vez de introduzir variações aleatórias. “Se os LLMs tivessem formas mais diversas de abordar ideias e problemas, eles apoiariam melhor a inteligência coletiva e as capacidades de resolução de problemas de nossas sociedades”, acrescenta Sourati. “Precisamos diversificar os próprios modelos de IA e, ao mesmo tempo, ajustar nossa interação com eles, especialmente devido ao seu uso generalizado em diversas tarefas e contextos, para proteger a diversidade cognitiva e o potencial de ideação das gerações futuras”.

Esta notícia foi traduzida por um tradutor automático

Contador

Contenido patrocinado