Publicado 26/01/2026 07:04

Uma investigação questiona a confiabilidade das respostas do GPT-5.2 por incluir citações da Grokipedia.

GPT 5.2
OPENAI

MADRID 26 jan. (Portaltic/EP) - O modelo mais recente da OpenAI, GPT-5.2, cita entre seus resultados artigos da Grokipedia, a enciclopédia online de Elon Musk, quando os usuários fazem perguntas ao ChatGPT sobre temas menos conhecidos, como assuntos relacionados ao Irã ou negacionistas do Holocausto, o que gerou dúvidas sobre sua confiabilidade.

O modelo mais recente da OpenAI, GPT-5.2, lançado em dezembro, é o mais avançado da empresa e pode ser selecionado dentro do ChatGPT para ser o motor das respostas às perguntas dos usuários.

As melhorias que oferece em raciocínio e resolução de tarefas para empresas e pesquisa científica foram ofuscadas por dúvidas sobre uma possível desinformação relacionada às fontes que utiliza para fornecer informações. De acordo com uma investigação do The Guardian, o GPT-5.2 cita artigos da Grokipedia, a enciclopédia impulsionada pela inteligência artificial Grok que pretende ser a alternativa à Wikipedia. Em seus testes, esses artigos apareceram nove vezes em mais de uma dúzia de perguntas diferentes. As citações da Grokipedia não foram registradas em perguntas relacionadas a temas em que ela foi criticada por promover informações erradas, como a insurreição, o viés da mídia contra Donald Trump ou a epidemia de HIV/AIDS. No entanto, ela aparece em temas menos comuns, como conglomerados iranianos e negacionistas do Holocausto.

Como explica o The Guardian, a citação de artigos da Grokipedia alerta sobre a confiabilidade das informações oferecidas pelo ChatGPT. Isso se deve, por um lado, ao fato de os artigos serem gerados pelo Grok, a IA de Elon Musk, e ao fato de a própria enciclopédia ter sido concebida para combater o suposto viés da Wikipedia, que Musk denunciou várias vezes por considerar que favorece ideias progressistas.

A Grok tem atualmente mais de 6 milhões de artigos, redigidos pela Grok, embora admita correções de usuários que são posteriormente revisadas e aprovadas ou rejeitadas pela IA. Um modelo diferente do da Wikipedia, em que são os colaboradores que escrevem os artigos e contribuem e debatem as correções, especialmente em temas que podem gerar polêmica, como conspirações. Um porta-voz da OpenAI explicou ao The Guardian que o modelo objeto de investigação utiliza uma “ampla gama de fontes e pontos de vista disponíveis publicamente”. “Aplicamos filtros de segurança para reduzir o risco de surgirem links associados a danos de alta gravidade, e o ChatGPT mostra claramente quais fontes informaram uma resposta por meio de citações”, acrescentou. De acordo com o meio de comunicação, na resposta enviada também informaram que estavam trabalhando em programas para filtrar informações de baixa credibilidade e campanhas de influência.

A investigação também revelou que o modelo Claude, da Anthropic, também incluiu referências à Grokipedia em suas respostas, em temas tão diversos como a produção de petróleo e as cervejas escocesas. Quando questionada, a Anthropic não forneceu nenhuma explicação, e a xAI, responsável pela Grok e pela Grokipedia, comentou ao meio citado que “os meios tradicionais mentem”.

Esta notícia foi traduzida por um tradutor automático

Contador

Contenido patrocinado