ChatGPT é de confiar? Estudo revela que usa dados da IA ​​”contaminada” de Elon Musk

De acordo com o ‘The Guardian’, testes realizados pelo jornal mostram que o modelo GPT-5.2 citou a Grokipedia pelo menos nove vezes em respostas a mais de uma dúzia de perguntas distintas

Francisco Laranjeira
Janeiro 26, 2026
14:13

A versão mais recente do ChatGPT passou a citar a Grokipedia, uma enciclopédia online criada pela empresa de Elon Musk, como fonte para um conjunto alargado de temas sensíveis, incluindo estruturas políticas no Irão e informações relacionadas com negacionismo do Holocausto. A prática está a gerar preocupação entre investigadores de desinformação, que alertam para o risco de legitimação de conteúdos de baixa credibilidade.

De acordo com o ‘The Guardian’, testes realizados pelo jornal mostram que o modelo GPT-5.2 citou a Grokipedia pelo menos nove vezes em respostas a mais de uma dúzia de perguntas distintas. Entre os temas abordados estiveram salários da força paramilitar iraniana Basij, a propriedade da Fundação Mostazafan e dados biográficos de Sir Richard Evans, historiador britânico que foi testemunha especializada no processo judicial movido por David Irving.

A Grokipedia foi lançada em outubro e apresenta-se como uma alternativa à Wikipédia, mas tem sido alvo de críticas por difundir narrativas associadas à direita política, incluindo posições sobre o casamento entre pessoas do mesmo sexo e a insurreição de 6 de janeiro de 2021 nos Estados Unidos. Ao contrário da Wikipédia, não permite edição humana direta, sendo todo o conteúdo produzido e revisto por um sistema de inteligência artificial.

Citações surgem em temas menos escrutinados

Nos testes conduzidos pelo ‘The Guardian’, o ChatGPT não recorreu à Grokipedia quando confrontado diretamente com temas em que esta é conhecida por divulgar informações falsas, como a alegada parcialidade da comunicação social face a Donald Trump ou a epidemia de HIV/Sida. No entanto, a enciclopédia foi citada quando as perguntas incidiram sobre assuntos mais técnicos ou menos mediáticos.

Num dos exemplos, o modelo reproduziu afirmações mais contundentes sobre alegadas ligações entre o Governo iraniano e a operadora MTN-Irancell do que as que constam na Wikipédia, incluindo referências a conexões com o gabinete do líder supremo do Irão. O ChatGPT também citou a Grokipedia ao repetir informações sobre o trabalho de Sir Richard Evans que já tinham sido desmentidas anteriormente pelo próprio jornal britânico.

O fenómeno não parece estar limitado à OpenAI. De forma anedótica, outros modelos de grande escala, como o Claude, da Anthropic, também terão citado a Grokipedia em respostas sobre temas que vão da produção de petróleo à indústria cervejeira escocesa.

Preocupações com “preparação” de modelos de IA

Um porta-voz da OpenAI afirmou que a funcionalidade de pesquisa na web do ChatGPT “procura recorrer a uma ampla gama de fontes e pontos de vista disponíveis publicamente”, sublinhando a existência de filtros de segurança para reduzir o risco de ligação a conteúdos nocivos e de programas contínuos para identificar informação de baixa credibilidade. A Anthropic não respondeu aos pedidos de comentário.

Para especialistas em desinformação, o problema reside na forma subtil como estas fontes se infiltram nas respostas dos modelos. Investigadores já alertaram para a possibilidade de redes organizadas produzirem grandes volumes de conteúdos enganosos com o objetivo de influenciar sistemas de IA, um processo conhecido como “preparação de LLM”.

Casos semelhantes já suscitaram preocupações políticas. Em junho, membros do Congresso dos Estados Unidos questionaram a possibilidade de o Gemini, da Google, repetir posições do Governo chinês sobre direitos humanos em Xinjiang e políticas relacionadas com a pandemia de Covid-19.

Credibilidade artificial e dificuldade em corrigir erros

Nina Jankowicz, investigadora na área da desinformação, afirmou que a citação da Grokipedia pelo ChatGPT levanta riscos comparáveis. Segundo explicou, as entradas analisadas por si e por colegas baseavam-se frequentemente em fontes pouco fiáveis ou em desinformação deliberada.

A investigadora alertou ainda para o efeito de legitimação indireta dessas fontes. Quando um chatbot cita uma enciclopédia como a Grokipedia, os utilizadores podem assumir que se trata de uma referência credível, o que aumenta a probabilidade de consultarem diretamente esses conteúdos.

Jankowicz recordou um caso pessoal recente em que uma citação falsa sua foi publicada por um órgão de comunicação social e posteriormente corrigida. Apesar da remoção, modelos de IA continuaram durante algum tempo a atribuir-lhe declarações que nunca fez, ilustrando a dificuldade em eliminar informação falsa depois de esta entrar nos sistemas automatizados.

Questionada sobre as críticas, a xAI, empresa proprietária da Grokipedia, limitou-se a responder que se tratava de “mentiras da comunicação social tradicional”.

Partilhar

Edição Impressa

Assinar

Newsletter

Subscreva e receba todas as novidades.

A sua informação está protegida. Leia a nossa política de privacidade.