
Une étude conjointe de la BBC et de l’EBU (dont la RTBF fait partie) montre que 45% des réponses produites par les assistants d’IA à propos de l’actualité contiennent une erreur importante. Un rapport du Reuters Institute et un autre de l’UE pointent quant à eux une adoption rapide de l’IA générative, y compris comme pour s’informer. Même si la méfiance est là…
Les assistants d’intelligence artificielle continuent de se tromper. Très souvent même. C’est la conclusion d’une étude menée par la BBC et l’Union européenne de radio-télévision (EBU), à laquelle ont participé vingt-deux médias publics européens, dont la RTBF et la VRT.
Publiée mi-octobre 2025, l’analyse a porté sur plus de deux mille réponses générées par quatre outils grand public (ChatGPT, Copilot, Gemini et Perplexity) à des questions d’actualité formulées dans dix-huit langues.
Près de la moitié de ces réponses, 45% précisément, contenaient au moins une erreur importante. Les problèmes de transparence sur les sources, d’exactitude et de contextualisation demeurent fréquents, en particulier lorsque les assistants sont utilisés en version gratuite.

Et à mesure que les contenus synthétiques se multiplient, les publics risquent de s’épuiser face à l’incertitude de ce qu’ils lisent. comme l’a bien montré un rapport du Tinius Trust intitulé AI in Journalism Futures 2025, qui décrit une « fatigue du réel », née de l’impossibilité de distinguer ce qui est vérifié de ce qui est généré. Ce qui pourrait devenir l’un des effets secondaires les plus profonds de l’IA dans l’information.
Des performances inégales entre outils et langues
Cela dit, dans le détail de l’étude BBC-EBU, les assistants varient sensiblement dans leurs performances.
Gemini, de Google, se distingue par la fréquence de ses erreurs de sourcing, tandis que ChatGPT et Copilot présentent des taux d’erreurs plus modérés mais encore élevés.
Ces outils reproduisent mieux les contenus largement disponibles sur le web international que les informations locales ou nationales.
En Belgique, comme ailleurs, les questions portant sur la politique, la culture ou les faits récents propres au pays ont donné lieu à des approximations fréquentes ou à des confusions entre acteurs.
Usage en forte hausse
Ces résultats apparaissent dans un moment où la consultation de l’intelligence artificielle pour s’informer s’installe progressivement dans les habitudes européennes.
Une autre étude, celle du Reuters Institute for the Study of Journalism, publiée quelques jours plus tôt, vient en effet compléter ce constat par un éclairage sur les usages.
Réalisée dans six pays, dont la France, elle montre que 61% des personnes ont déjà utilisé un outil d’intelligence artificielle générative, contre 40% un an plus tôt. L’usage hebdomadaire a presque doublé, porté par ChatGPT, devenu l’outil le plus utilisé pour rechercher des informations.

Signe d’une mutation rapide, la recherche d’informations dépasse désormais la création de contenu parmi les usages les plus fréquents de ces outils : 6% des répondants déclarent utiliser l’IA chaque semaine pour s’informer.
L’IA devient une porte d’entrée vers l’information
De son côté, le dernier sondage réalisé pour le Parlement européen, diffusé lui aussi mi-octobre, environ un Européen sur dix dit avoir déjà utilisé un outil d’IA pour s’informer ou vérifier une information d’actualité.

En Belgique, la proportion atteint 8%, un chiffre légèrement inférieur à la moyenne de l’Union, qui se situe autour des 9%.
L’usage reste minoritaire, certes, mais il progresse rapidement dans les tranches les plus jeunes et chez les publics déjà familiers des technologies de recherche automatisée. Chez les 15-24 ans, cette proportion atteint 18%.
Une confiance encore limitée
L’enquête européenne montre aussi que la confiance dans ces outils est contrastée.
En Belgique, moins d’un tiers des personnes qui les utilisent disent avoir confiance dans les réponses qu’ils fournissent. Beaucoup évoquent un sentiment d’efficacité, la rapidité de l’accès aux faits, mais aussi une incertitude sur l’origine des informations.
Cette ambivalence reflète une tension plus large dans les pratiques numériques : la facilité de consultation remplace peu à peu la lecture approfondie, au risque de confondre vitesse et fiabilité.
Vers un journalisme hybride
Le Reuters Institute observe également une réticence persistante vis-à-vis de l’usage de l’IA dans le journalisme. Seuls 12% des sondés se disent à l’aise avec une information produite entièrement par l’intelligence artificielle (ce que va pourtant lancer Business Insider), tandis que 62% préfèrent un contenu entièrement humain.
Entre les deux, l’idée d’un travail hybride (un.e journaliste assisté.e par IA) progresse, traduisant un besoin de contrôle éditorial visible.

Les auteurs du rapport de l’AIJF, eux, imaginent déjà un futur où le rôle du journaliste se redéfinit : non plus seulement produire, mais certifier et contextualiser ce que l’IA diffuse. Le journaliste deviendrait le garant de la transparence algorithmique, un médiateur entre les générateurs de texte et les citoyens. Cette transformation du métier rejoint l’idée d’un “journalisme de vérification augmentée”, où la valeur ajoutée humaine repose sur la pédagogie du vrai.
Résumons : le public accepte volontiers l’IA pour des tâches invisibles, comme la traduction ou la correction grammaticale, mais il se montre bien plus réservé dès qu’elle intervient dans la narration, l’écriture ou la présentation. Moins d’un tiers pensent que les journalistes vérifient systématiquement les contenus produits par IA avant publication.
Ce déficit perçu de supervision explique une défiance durable : l’IA est jugée utile, mais rarement fiable lorsqu’elle touche au cœur du métier journalistique.
Un enjeu démocratique émergent
Cette fragilité soulève évidemment un enjeu démocratique. L’assistant d’IA est en train de devenir, pour une partie de la population en tout cas, une porte d’entrée vers l’actualité, au même titre qu’un moteur de recherche.
Les interfaces intégrant de la génération de texte se multiplient sur les smartphones, les moteurs ou les plateformes de service public. En Belgique, où le taux d’usage numérique est élevé, cette mutation s’opère plus vite qu’ailleurs.
Pourtant, l’étude de la BBC-EBU souligne que la moitié des réponses testées comportent encore des défauts de fiabilité, et qu’un tiers manquent de sources vérifiables. Autrement dit, la technologie progresse, mais la qualité de l’information qu’elle diffuse reste incertaine.
Face à ce constat, le rapport AI in Journalism Futures 2025 évoque une perspective radicale : celle d’une information “certifiée” par infrastructure. Dans certains scénarios, la fiabilité deviendrait un bien public, surveillé par des systèmes de régulation comparables à ceux de l’eau ou de l’énergie.
D’autres imaginent des “marchés de la confiance”, où la réputation des journalistes et des médias serait quantifiée et échangée comme une valeur d’attention.
Une réponse collective des médias publics
Ces projections soulignent à quel point la question de la fiabilité dépasse désormais les rédactions : elle touche à l’économie même de la crédibilité.
Le croisement des études de la BBC–EBU, de l’UE et du Reuters Institute dessine la même ligne de tension : l’intelligence artificielle s’impose dans les usages d’information avant d’avoir fait ses preuves. L’adoption est rapide, la confiance beaucoup plus lente.
Face à ces constats, la BBC et l’EBU publient conjointement une boîte à outils pour aider les rédactions à encadrer l’usage de l’intelligence artificielle. L’objectif est de rappeler des règles de transparence et de vérification applicables à tout contenu généré automatiquement.
La RTBF participe à ce travail collectif, au sein du groupe d’innovation de l’EBU basé à Genève et à Bruxelles, afin d’adapter ces principes au contexte francophone belge.

Sera-ce suffisant, alors que la confiance envers les médias est déjà au plus bas ? Pas sûr…
Selon l’étude du Reuters Institute, la plupart des sondés pensent que l’IA va améliorer leur relation avec les médias d’information, alors qu’elle devrait améliorer leur rapport aux moteurs de recherche, aux scientifiques… et même aux réseaux sociaux.
Xavier Degraux, Consultant et formateur en marketing digital et réseaux sociaux (LinkedIn en tête), augmenté par l’IA et les data

