"Une distorsion systémique de l'information": comment l’IA "déforme" l’information, qui présente une "faille significative" dans 45% de ses réponses
Gemini, l'IA de Google. - JAQUE SILVA / NurPhoto / NurPhoto via AFP
Les assistants intelligents, comme ChatGPT, Copilot, Gemini ou Perplexity, prennent de plus en plus de place dans nos vies, nous servent à comprendre certains sujets, ou à chercher des informations. Au point que 15% des moins de 25 ans utilisent des assistants intelligents pour s’informer, selon le Digital News Report 2025 de l’Institut Reuters.
Or, une étude, coordonnée par l’Union européenne de radio-télévision (UER) et menée par la BBC, démontre que ces assistants "déforment ou déforment régulièrement" l’information produite par les 22 radiodiffuseurs de service public présents dans 18 pays européens. Initiée après une première phase menée en 2024 par la BBC seulement, cette recherche s’est déroulée sur tout le premier semestre 2025.
Faille significative dans l’information, problème de source…
L’étude a ainsi "identifié de multiples problèmes systémiques" sur ces quatre plateformes populaires, explique le communiqué de l’UER, qui dénonce "une distorsion systémique de l'information par l'IA". Pour s’en rendre compte, des journalistes professionnels ont testé ChatGPT, Copilot, Gemini et Perplexity en leur soumettant 30 questions d’actualité, générant près de 3.000 réponses. Ces retours ont ensuite été soumis à des critères comme l’exactitude, la provenance, la qualité éditoriale ou le contexte.
Il en ressort que "45 % de toutes les réponses d’IA présentaient au moins une faille significative", tandis que 31% des retours des assistants "présentaient de sérieux problèmes de sourcing – attributions manquantes, trompeuses ou incorrectes". Ainsi, dans 28% de ses réponses, Gemini montrait des inexactitudes dans ses affirmations ou dans les citations. 7% des réponses de Copilot, de Microsoft, étaient dans le même cas, et 4% de celles de ChatGPT.
Ce n’est pas tout, 20% des réponses de tous les assistants contenaient des problèmes d’exactitude majeurs, qu’il s’agisse d’information obsolète ou de détails hallucinés.
Gemini, grand vainqueur des réponses à problème
A ce petit jeu, Gemini, l’assistant de Google, a obtenu les pires résultats, avec des "problèmes significatifs", dans 76% des réponses européennes, ce qui est plus du double des autres assistants.
Au niveau national, pour la France, le bilan est encore plus critique. Gemini affiche ainsi 93% de réponses comportant un défaut significatif. Ainsi, Radio France, qui fait partie de l’UER, indique que Gemini a utilisé une chronique satirique de l’émission "Charline explose les faits", sur France Inter, comme source d’information sérieuse… Son incapacité à identifier le type de source le conduit à présenter des faits erronés en indiquant qu’il provienne d’une source par ailleurs majoritairement fiable, France Inter.
Un souci qui est sans doute lié au fait que le "taux de refus" a fortement chuté. "Les assistants sont désormais plus susceptibles de répondre, même lorsqu’ils ne peuvent pas fournir une réponse fiable", détaille le communiqué.
Le risque d’une perte de confiance
"Nous avons constaté que les assistants d’IA imitent l’autorité du journalisme, mais n’atteignent pas sa rigueur", cingle Peter Archer, directeur des programmes d’IA générative à la BBC, cité dans le communiqué de l'UER. Il continue en indiquant que "cette étude démontre l’urgence pour les entreprises d’IA de corriger ces failles", afin de "mieux refléter les valeurs d’un journalisme de confiance".
Liz Corbin, directrice de l’information de l’UER va plus loin. Pour elle, "cette recherche démontre de manière concluante que ces défaillances ne sont pas des incidents isolés. (…) Ils sont systémiques, mondiaux et multilingues". Ces erreurs peuvent mener à une perte de confiance du public. Or, "lorsque les gens ne savent plus à quoi se fier, ils finissent par ne plus rien croire du tout, ce qui conduit à un repli sur soi démocratique."
Une attention de tous les instants, à tous les niveaux
Afin d’aider les géants de l’IA à améliorer les résultats de leurs assistants, la BBC et l’UER travaillent actuellement à un "guide pratique", qui établira une classification, une "taxonomie des modes de défaillance courants de l’IA", enrichie d’exemples. Il listera aussi des "recommandations pratiques pour les développeurs d’IA". Seront également publiés des conseils pour aider les médias à sensibiliser le public à la détection de ces distorsions.
Enfin, l’UER appelle "les régulateurs européens et nationaux à faire respecter les lois existantes sur l’intégrité de l’information, les services numériques et le pluralisme des médias". L’UER souligne aussi l’importance "d’un suivi indépendant et continu des assistants IA".