- Résultats d’une étude mondiale sur la fiabilité des assistants IA
- Les erreurs courantes des assistants IA dans la gestion de l’info
- Les limites de l’étude et implications pour les utilisateurs
- Perspectives et recommandations issues de l’étude
Une enquête internationale réalisée par la BBC et l’Union Européenne de Radio-Télévision vient d’ébranler la confiance portée aux assistants IA dans la gestion de l’information. Près d’une réponse sur deux comporte des problèmes sérieux, en particulier pour Google Gemini. Découvrez les chiffres clés, les outils disponibles pour mieux s’informer, et les recommandations essentielles pour les créateurs de contenu et professionnels des médias.
Résultats d’une étude mondiale sur la fiabilité des assistants IA
Les principaux chiffres du rapport
Pourcentage de réponses problématiques
L’étude de l’European Broadcasting Union (EBU) et de la BBC a évalué 2 709 réponses d’assistants IA générées en réponse à des questions d’actualité dans 14 langues, 18 pays et 22 médias publics.
- 45 % des réponses comportaient au moins un problème majeur.
- 81 % présentaient au moins une anomalie (majeure ou mineure).
- Sur le critère du sourcing, 31 % des réponses affichaient des faiblesses sérieuses.
Les critères d’évaluation
Les réponses ont été analysées selon la véracité des faits, la qualité des sources citées et la fidélité dans le traitement des nouvelles. L’étude portait uniquement sur les versions gratuites ou grand public des assistants, pour refléter un usage courant.
Les assistants IA les plus sujets aux erreurs
Google Gemini en tête des problèmes
Google Gemini s’impose tristement comme le moins fiable : 76 % de ses réponses comportent des défaillances importantes, dont 72 % liées au sourcing.
Ce taux est bien au-dessus de la moyenne générale, ce qui pose question quant à l’utilisation de Gemini pour toute recherche ou création de contenus d’actualité.
Comparaison avec d’autres assistants : ChatGPT, Copilot, Perplexity
Par comparaison :
Audit SEO gratuit par nos experts pour identifier les leviers de croissance.
- ChatGPT, Copilot et Perplexity restent en dessous de 37 % de réponses problématiques.
- Pour le sourcing, ils présentent moins de 25 % d’insuffisances majeures.
Gemini est donc nettement plus sujet aux erreurs systémiques que ses concurrents.
Les erreurs courantes des assistants IA dans la gestion de l’info
Problèmes de sourcing et d’actualité
Exemples d’erreurs sur des faits actualisés ou erronés
L’étude relève des cas frappants d’actualité mal traitée :
- Certains assistants ont mentionné le pape François comme étant décédé en avril, alors qu’il était toujours en vie à la date de réponse (fin mai).
- Gemini a mal interprété une loi sur les cigarettes électroniques jetables, en affirmant des faits inexacts.
Impact sur la fiabilité des réponses
De telles erreurs sous-estiment gravement la fiabilité des assistants IA pour le traitement des informations récentes ou sensibles. Les créateurs de contenu risquent ainsi de relayer des informations erronées, affectant leur crédibilité. L’évolution rapide de ces systèmes incite à se demander si les résumés générés par l’IA rendent certains contenus traditionnels obsolètes ou si une nouvelle vigilance doit s’imposer.
Distorsions et mauvaise interprétation des nouvelles
Comment ces erreurs peuvent nuire à la perception du public
La distorsion systémique de l’actualité constatée dans l’étude s’avère inquiétante : des réponses inexactes ou sorties de leur contexte peuvent changer la perception du public sur un sujet, voire générer des fausses croyances.
Conséquences potentielles pour les médias et les utilisateurs
- Médias : leurs contenus risquent d’être cités ou synthétisés à tort par les IA, ce qui expose à des risques de désinformation ou de décrédibilisation.
- Utilisateurs : ils peuvent se fier à des faits erronés ou périmés pour prendre des décisions importantes.
Les limites de l’étude et implications pour les utilisateurs

Conditions de test et critères techniques
Contextes de tests et paramètres
L’évaluation s’est déroulée entre le 24 mai et le 10 juin, avec une trentaine de questions centrales et des questions locales au choix. Pour garantir l’accès aux contenus d’actualité, certains filtres techniques bloquant l’accès aux sites médias ont été temporairement levés.
Répercussions sur l’usage quotidien des assistants
En conditions réelles, l’accès aux sources originales est souvent restreint : les résultats pourraient donc être encore moins fiables pour l’utilisateur moyen, qui dépend de versions gratuites des assistants IA.
Recommandations pour une utilisation critique des IA
Vérification des sources et des faits
Pour tout travail de recherche ou de création de contenu, il est impératif de vérifier chaque information produite par une IA auprès de ses sources d’origine avant de la relayer, notamment sur des sujets d’actualité. Cette exigence prend tout son sens à l’heure où l’intégration de l’IA dans les résultats de recherche transforme profondément l’accès à l’information.
Conseils pour mieux exploiter ces outils sans se fier uniquement à leurs réponses
- Toujours croiser plusieurs assistants IA pour comparer leurs réponses.
- Intégrer une relecture humaine systématique avant publication de contenu généré par IA.
- Prioriser les sources officielles et reconnues plutôt que l’exclusivité des citations IA.
Perspectives et recommandations issues de l’étude
Guides et ressources pour améliorer la fiabilité
Le News Integrity in AI Assistants Toolkit
Les auteurs de l’étude éditent un “News Integrity in AI Assistants Toolkit”, une boîte à outils dédiée aux :
- Développeurs IA souhaitant renforcer la transparence et la fiabilité de leurs réponses
- Organisations médias souhaitant protéger la justesse de leur contenu face aux risques de distorsion
- Créateurs et chercheurs en quête de bonnes pratiques et de méthodes de vérification
Rôle des médias et des développeurs dans la lutte contre la désinformation
Médias et créateurs de contenu doivent travailler main dans la main avec les développeurs d’assistants IA pour surveiller l’usage qui est fait de leurs articles et signaler immédiatement toute mauvaise attribution ou désinformation.
Impacts potentiels sur la confiance et la démocratie
Risques liés à la dépendance croissante aux assistants IA
La multiplication des erreurs et la dépendance grandissante à ces outils risquent de saper la confiance du public dans l’information et donc de perturber le bon fonctionnement démocratique. “Quand les citoyens ne savent plus à qui faire confiance, ils ne font confiance à personne.” a résumé Jean Philip De Tender, directeur média de l’EBU.
Pourquoi renforcer la vérification humaine reste essentiel
Rien ne remplace la vigilance d’un œil humain. Pour préserver l’intégrité du débat public et la qualité éditoriale, la vérification humaine doit impérativement compléter l’utilisation des assistants IA.
Conclusion : Ce vaste audit international met en lumière les failles structurelles des assistants IA en matière d’actualité. Pour la création de contenus fiables, il est crucial d’utiliser ces assistants comme outils complémentaires plutôt que comme uniques référents. Les outils d’intégrité proposés, l’implication des créateurs de contenus et un regard critique permettent de réduire les risques de désinformation.
Qu’est-ce qu’un problème majeur dans les réponses d’un assistant IA ?
Un problème majeur désigne une erreur substantielle comme une information fausse, dépassée ou mal sourcée ayant un impact important sur la compréhension de l’actualité ou d’un fait.
Quels assistants IA ont le plus de difficultés selon l’étude ?
Google Gemini est l’assistant ayant présenté le plus grand nombre de réponses problématiques, principalement en raison de faiblesses dans le sourcing et d’une mauvaise gestion des nouvelles.
Comment mieux utiliser les assistants IA pour créer du contenu fiable ?
Il est recommandé de toujours contrôler les sources d’origine, d’effectuer une vérification humaine des informations générées et d’utiliser plusieurs outils pour croiser les données avant toute publication.
Existe-t-il des ressources pour améliorer la fiabilité des IA en actualité ?
Oui, le News Integrity in AI Assistants Toolkit propose des guides pour les développeurs, médias et chercheurs désireux d’améliorer la transparence et l’intégrité des assistants IA.
