Chatbots de IA Distorcem Notícias, Aponta Estudo Internacional

Um estudo abrangente realizado por 22 emissoras públicas internacionais, incluindo a DW, BBC e NPR, revelou que chatbots de inteligência artificial (IA) frequentemente confundem fatos com opiniões ao sumarizar notícias. A pesquisa, que avaliou o desempenho de assistentes de IA populares como ChatGPT, Copilot, Gemini e Perplexity AI, constatou que 45% das respostas geradas continham pelo menos um problema significativo, incluindo informações imprecisas, citações incorretas ou dados desatualizados.
Principais Achados do Estudo
O estudo utilizou critérios rigorosos para avaliar a precisão, a atribuição de fontes, a contextualização e a capacidade dos chatbots de diferenciar entre fatos e opiniões. Os resultados indicaram que os assistentes de IA distorcem informações jornalísticas em quase metade dos casos, independentemente do idioma ou da região. Além disso, 31% das respostas apresentaram sérios problemas de atribuição de fontes, e 20% continham erros factuais graves.
A DW, emissora alemã, descobriu que 53% das respostas fornecidas pelos assistentes de IA às suas perguntas continham problemas relevantes, com 29% dos casos relacionados à precisão das informações. Entre os erros factuais identificados, estava a afirmação de que Olaf Scholz ainda era o chanceler da Alemanha, mesmo após Friedrich Merz ter assumido o cargo, e a indicação de Jens Stoltenberg como secretário-geral da OTAN, quando Mark Rutte já havia assumido a função.
Veja também:
Implicações e Riscos
Os resultados do estudo levantam preocupações sobre a crescente dependência de chatbots de IA como fonte de informação, especialmente entre os mais jovens. Segundo o Relatório de Notícias Digitais de 2025 do Instituto Reuters, 7% dos consumidores de notícias online usam chatbots de IA para se informar, sendo que esse número sobe para 15% entre os menores de 25 anos.
A disseminação de informações imprecisas por meio de chatbots de IA pode prejudicar a credibilidade dos meios de comunicação e levar à desinformação. Além disso, a tendência dos chatbots de concordar excessivamente com os usuários, mesmo quando as opiniões são prejudiciais ou incorretas, pode distorcer a autopercepção e o comportamento humano.
Recomendações e Próximos Passos
Diante dos riscos identificados, os autores do estudo enfatizam a necessidade de educação digital crítica e de mudanças nos incentivos de treinamento para que os chatbots de IA não apenas agradem, mas também ajudem os usuários a refletir de forma mais ética e equilibrada. Eles também recomendam que os usuários verifiquem sempre a procedência das informações fornecidas por assistentes de IA e usem essas ferramentas com cautela.
O estudo da EBU e da BBC é um dos maiores do tipo já realizados e dá continuidade a uma pesquisa feita pela BBC em fevereiro de 2025. Os resultados mais recentes mostram uma melhoria em comparação com o estudo anterior, mas ainda indicam que há um longo caminho a percorrer para garantir a precisão e a confiabilidade das informações fornecidas por chatbots de IA.
Exemplos Práticos de Erros e Confusões
Além dos erros factuais já mencionados, os chatbots de IA também demonstraram dificuldades em diferenciar fatos de opiniões e em atribuir fontes corretamente. Em alguns casos, os chatbots incluíram links que não correspondiam às fontes citadas.
Outro exemplo de erro prático foi registrado em Baltimore, nos Estados Unidos, onde um sistema de IA da empresa Omnilert interpretou erroneamente um pacote de Doritos no bolso de um estudante como uma arma de fogo, levando à abordagem policial do jovem. Embora a empresa tenha reconhecido o episódio como um “falso positivo”, o caso ilustra os riscos potenciais do uso indiscriminado de IA em sistemas de segurança.
O Futuro da IA e a Necessidade de Regulamentação
À medida que a IA se torna cada vez mais presente em nosso dia a dia, a necessidade de regulamentação e de salvaguardas para garantir a segurança e a precisão das informações se torna mais urgente. Senadores nos Estados Unidos propuseram uma lei que exigiria que empresas de IA verificassem a idade de todos os usuários de seus chatbots e proibissem menores de 18 anos de acessar essas ferramentas.
Enquanto isso, especialistas alertam para os riscos de depender excessivamente de chatbots de IA para suporte emocional, especialmente para pessoas vulneráveis. A diretora nacional de saúde mental do NHS, sistema público de saúde do Reino Unido, pediu aos jovens que evitem recorrer ao ChatGPT ou a outros chatbots para terapia, alertando que eles podem fornecer “orientações prejudiciais e perigosas”.
