Publicado 28/01/2026 13:27

Rotular as manchetes como geradas por IA reduz a credibilidade do conteúdo, mesmo que seja real, de acordo com um estudo

Archivo - Arquivo - Um celular com as siglas AI de Artificial Intelligence (Inteligência Artificial), em 24 de outubro de 2025, em Barcelona, Catalunha (Espanha). De acordo com um estudo da Universidade Internacional de La Rioja (UNIR), a Espanha está na
David Zorrakino - Europa Press - Arquivo

MADRID 28 jan. (Portaltic/EP) - Adicionar etiquetas que indicam que um título foi gerado por inteligência artificial (IA) aumenta o ceticismo dos possíveis leitores sobre seu conteúdo, mesmo que sejam títulos verdadeiros ou redigidos por humanos, uma vez que se presume uma automação completa da publicação com IA.

Com o advento de ferramentas de IA capazes de gerar todo tipo de conteúdo, seja texto ou imagens de forma simples, torna-se necessário oferecer aos usuários um contexto informativo sobre o conteúdo que veem na internet, a fim de evitar a divulgação de informações falsas e esclarecer qual conteúdo é sintético.

Nesse sentido, várias plataformas como Meta, YouTube, Google ou TikTok, entre outras, dispõem de ferramentas para etiquetar o conteúdo que foi gerado ou modificado por meio de funções de IA e informar visivelmente os usuários sobre isso. Da mesma forma, também se destaca o uso do protocolo de Internet Universal oferecido pela Coalizão para a Origem e Autenticidade do Conteúdo (C2PA), da qual já fazem parte a OpenAI, a Microsoft, a Intel e a Adobe, entre outras.

O uso dessas etiquetas de conteúdo gerado por IA é uma das diretrizes incluídas na lei de governança de IA, aprovada pelo Governo da Espanha com base no regulamento europeu de IA.

Embora seu uso seja necessário para identificar o conteúdo com IA, que pode ser muito realista, é preciso levar em consideração como essas etiquetas podem impactar a percepção dos usuários, refletindo a necessidade de etiquetar de forma mais específica para não prejudicar o conteúdo de alta qualidade e as notícias legítimas.

Um estudo recente compartilhado pela revista científica PNAS Nexus, que investiga o impacto das etiquetas geradas por IA, refletiu que seu uso em títulos ajuda a aumentar o ceticismo entre os usuários, reduzindo sua credibilidade ao assumir que todo o texto foi gerado por IA, mesmo que sejam títulos verdadeiros ou redigidos por humanos.

Especificamente, o relatório se baseou em dois experimentos realizados com participantes dos Estados Unidos e do Reino Unido. O Estudo 1 investigou como rotular as manchetes como geradas por IA influencia tanto a precisão percebida das manchetes quanto a intenção dos participantes de compartilhá-las, enquanto o Estudo 2 explora os mecanismos responsáveis pelo aumento do ceticismo.

Como resultado, ficou demonstrado que, embora os participantes não equiparem o conteúdo gerado por IA com conteúdo falso, rotular as manchetes como geradas por IA reduziu sua precisão percebida, bem como a disposição dos usuários em compartilhá-las com outras pessoas.

Assim, essa “aversão” à IA se deve às expectativas de que as manchetes geradas com essa tecnologia não contam com supervisão humana, portanto, não há confirmação de que sejam corretas ou verdadeiras. De acordo com os dados, esse ceticismo foi identificado entre os usuários, independentemente de as manchetes oferecerem informações verdadeiras ou falsas, ou de terem sido criadas por humanos ou por IA. Ou seja, bastou usar a etiqueta “gerado por IA” para criar dúvidas. No entanto, o estudo também mostra que o impacto de etiquetar os títulos como gerados por IA foi “três vezes menor” do que etiquetá-los como falsos. Portanto, fica claro que, no caso de um conteúdo falso gerado por IA, é mais eficaz rotulá-lo diretamente como falso, em vez de como gerado por IA.

Com tudo isso, as descobertas compartilhadas sugerem que o uso de rótulos de gerado por IA “deve ser abordado com cautela” para evitar efeitos negativos indesejados, por exemplo, no caso de ser conteúdo real e inofensivo ou, até mesmo, benéfico para os usuários, mas gerado por IA.

As conclusões também refletem a necessidade de implementar este tipo de medidas de etiquetagem de forma transparente, explicando claramente o que cada etiqueta indica, para não criar confusão entre os usuários ao ler ou visualizar conteúdo na Internet.

“Em termos mais gerais, estar exposto a rótulos de IA pode funcionar como uma espécie de aviso de que o ambiente online está saturado de conteúdo gerado por IA e não é um espaço confiável para adquirir informações confiáveis”, afirma o estudo.

Esta notícia foi traduzida por um tradutor automático

Contador

Contenido patrocinado