Um novo estudo internacional liderado pela BBC e coordenado pela União Europeia de Radiodifusão (EBU) revelou que assistentes de IA distorcem conteúdos jornalísticos em 45% das vezes — independentemente do idioma, território ou plataforma utilizada. O relatório levanta preocupações sérias sobre a integridade da informação em ferramentas amplamente usadas como ChatGPT, Copilot, Gemini e Perplexity.
1. O maior estudo já realizado sobre integridade jornalística em IA
Coordenado pela European Broadcasting Union (EBU) e liderado pela BBC, o estudo foi apresentado durante a EBU News Assembly, em Nápoles. A pesquisa envolveu 22 organizações de mídia pública de 18 países, trabalhando em 14 idiomas diferentes, tornando-se a investigação mais ampla já feita sobre o tema.
Mais de 3.000 respostas geradas por assistentes de IA — incluindo ChatGPT, Copilot, Gemini e Perplexity — foram avaliadas por jornalistas profissionais com base em critérios de precisão, fontes, distinção entre fato e opinião, e contexto das informações apresentadas.
O objetivo foi medir até que ponto essas ferramentas, cada vez mais utilizadas como fonte de informação diária, representam corretamente o conteúdo noticioso e mantêm a integridade jornalística.
2. Principais resultados: 45% das respostas têm erros relevantes
O relatório revelou que 45% de todas as respostas analisadas apresentaram pelo menos um problema significativo. Em 31% dos casos, havia falhas graves de atribuição de fontes — com informações ausentes, enganosas ou incorretas. Já 20% das respostas continham erros de precisão, incluindo detalhes inventados (“alucinações”) ou dados desatualizados.
Entre as ferramentas avaliadas, o Gemini apresentou o pior desempenho, com falhas significativas em 76% das respostas — mais do que o dobro das demais plataformas —, principalmente devido à má qualidade das fontes utilizadas.
Embora a BBC já tivesse identificado problemas semelhantes em uma pesquisa anterior, os novos dados confirmam que essas deficiências são sistêmicas, multilíngues e transfronteiriças.
3. Por que essas distorções são preocupantes
Os assistentes de IA estão rapidamente substituindo os mecanismos de busca como principal forma de acesso à informação. Segundo o Relatório Digital de Notícias 2025 do Instituto Reuters, 7% dos consumidores de notícias online já utilizam assistentes de IA para se informar — número que chega a 15% entre os jovens com menos de 25 anos.
Para Jean Philip De Tender, Diretor de Mídia e Vice-Diretor-Geral da EBU, “essas falhas não são incidentes isolados, mas problemas sistêmicos que ameaçam a confiança pública. Quando as pessoas não sabem em quem confiar, acabam não confiando em nada — e isso prejudica a participação democrática”.
Já Peter Archer, Diretor de Programas de IA Generativa da BBC, destacou: “Estamos empolgados com o potencial da IA, mas as pessoas precisam confiar no que leem e assistem. Apesar de alguns avanços, ainda há questões sérias que precisam ser resolvidas”.

4. Próximos passos e medidas propostas
Para enfrentar os problemas identificados, a equipe de pesquisa lançou também o News Integrity in AI Assistants Toolkit — um guia prático voltado ao aprimoramento das respostas de IA e à promoção da educação midiática entre os usuários.
O toolkit aborda duas questões principais: “O que torna uma resposta de IA adequada para uma pergunta sobre notícias?” e “Quais são os problemas que precisam ser corrigidos?”.
Além disso, a EBU e seus membros estão pedindo que os reguladores da União Europeia e dos países membros reforcem o cumprimento das leis sobre integridade da informação, serviços digitais e pluralismo midiático, com monitoramento contínuo das plataformas de IA.
5. Quem participou do estudo internacional
O projeto envolveu algumas das maiores emissoras públicas do mundo, incluindo BBC (Reino Unido), CBC-Radio Canada (Canadá), ARD e ZDF (Alemanha), Rai (Itália), RTVE (Espanha), Radio France (França), YLE (Finlândia), entre outras de países como Bélgica, Suíça, Portugal, Noruega, Suécia, Lituânia, Geórgia, Ucrânia e EUA (NPR).
Os pesquisadores também divulgaram um estudo complementar sobre a percepção do público em relação aos assistentes de IA, revelando que mais de um terço dos adultos britânicos confiam que essas ferramentas produzem resumos precisos de notícias — número que sobe para quase metade entre os menores de 35 anos.
Esse dado reforça o alerta: embora as pessoas confiem nas respostas geradas por IA, muitos erros acabam prejudicando não apenas os desenvolvedores, mas também a reputação dos veículos jornalísticos cujas informações são distorcidas.
Fonte: https://www.bbc.co.uk/mediacentre/2025/new-ebu-research-ai-assistants-news-content






