La BBC alerte sur les erreurs des chatbots IA dans les résumés d’actualités

Ils sont partout&nbsp: des chatbots capables de résumer l’actualité en quelques secondes, promettant un accès rapide à l’information. Mais cette promesse tient-elle vraiment ses engagements&nbsp? Pas toujours. Une enquête récente menée par la BBC met en lumière des erreurs troublantes dans les résumés générés par quatre des principaux assistants IA&nbsp: ChatGPT d’OpenAI, Copilot de Microsoft, Gemini de Google et Perplexity AI. Le verdict est sans appel&nbsp: plus de la moitié des réponses analysées présentaient des problèmes significatifs, allant de simples imprécisions à des erreurs factuelles flagrantes.

Des erreurs factuelles en série

L’étude révèle que 51 % des résumés produits par ces chatbots contenaient des inexactitudes importantes, avec 19 % d’erreurs factuelles avérées. Parmi les exemples les plus marquants, plusieurs outils ont affirmé que Rishi Sunak et Nicola Sturgeon étaient toujours en fonction, ignorant qu’ils avaient respectivement quitté leurs postes en 2024 et 2023.

Ces erreurs ne sont pas anodines. Elles risquent de désinformer les utilisateurs et de porter atteinte à la crédibilité des médias relayant ces informations. Gemini de Google s’est particulièrement distingué par ses imprécisions, avec 46 % de ses réponses jugées problématiques. Une de ses affirmations erronées indiquait que le NHS (Service national de santé britannique) déconseillait totalement le vapotage comme méthode de sevrage tabagique — une déclaration en totale contradiction avec les recommandations actuelles du NHS.

Quand l’IA confond faits et opinions

Au-delà des erreurs factuelles, l’étude souligne un problème plus insidieux&nbsp: la confusion entre faits et opinions. Selon Deborah Turness, directrice générale de BBC News, les chatbots ont souvent mélangé des contenus récents et des documents d’archives périmés, créant une narration brouillée. Cette incapacité à discerner le contexte temporel est une faille majeure pour des outils censés offrir des synthèses claires et précises.

Pire encore, certaines citations de la BBC ont été modifiées ou omises. Perplexity AI a notamment déformé des informations liées au Moyen-Orient, attribuant des actions à des pays erronés et changeant radicalement le ton des événements décrits. Ces approximations peuvent avoir des conséquences lourdes, particulièrement sur des sujets géopolitiques sensibles.

Les géants de la tech sous pression

Face à ces révélations, les entreprises technologiques ont tenté de minimiser les résultats de l’enquête tout en reconnaissant la nécessité d’améliorations. Un porte-parole d’OpenAI a déclaré travailler activement avec des partenaires pour améliorer l’exactitude des citations et renforcer la cohérence des résumés. Il a également mentionné des efforts en cours pour permettre aux éditeurs de mieux contrôler la manière dont les bots utilisent leurs contenus via des ajustements du fichier robots.txt.

Malgré ces promesses, une question demeure&nbsp: les géants de la tech sont-ils prêts à collaborer véritablement avec les médias pour garantir une information plus fiable&nbsp?

Un appel à la transparence et à la collaboration

Pour Deborah Turness, la réponse est claire&nbsp: seule une coopération étroite entre les médias, les régulateurs et les acteurs technologiques permettra d’éviter de nouvelles dérives. Elle appelle à la mise en place d’un cadre dans lequel les outils d’IA seraient non seulement plus précis, mais également plus respectueux du contexte journalistique.

Pete Archer, directeur du programme Générative AI à la BBC, insiste sur la nécessité pour les éditeurs de reprendre le contrôle de leurs contenus. Il milite pour une transparence accrue de la part des entreprises technologiques, notamment sur l’échelle des erreurs commises et sur les mécanismes utilisés pour produire ces résumés.

SOURCE