|
EN BREF
|
L’intelligence artificielle (IA) joue un rôle de plus en plus important dans la diffusion de l’information, tant sur le plan positif que négatif. Au cœur de ce phénomène, se trouve un souci majeur : la désinformation prorusse qui semble infiltrer les réponses des chatbots. Dans cet article, nous explorerons comment cette dynamique s’opère, en examinant des études et des exemples concrets, tout en mettant l’accent sur l’impact que cela peut avoir sur notre accès à l’information fiable.
Les chatbots et leur fonctionnement
Les chatbots, alimentés par des algorithmes d’intelligence artificielle, sont utilisés pour répondre à une variété de requêtes, allant du service client à l’information en ligne. Leur fonctionnement repose sur des modèles de langage qui analysent les données textuelles pour générer des réponses appropriées.
En tant qu’outils probabilistes, ces chatbots privilégient l’information la plus répandue dans les corpus sur lesquels ils ont été entraînés. Cela signifie qu’ils peuvent parfois répéter des récits faussement établis comme étant des faits avérés, notamment en ce qui concerne les récits liés à la propagande prorusse.
L’infiltration de la désinformation prorusse
Un certain nombre de rapports et d’études ont mis en lumière la manière dont le réseau de sites prorusses, tel que Pravda, diffuse des informations qui infiltrent les réponses des chatbots. Ce réseau est vaste, comportant près de 370 sites et des millions d’articles, rendant difficile la détection des fausses informations.
Selon des recherches menées par des organismes comme NewsGuard, il a été observé qu’une part substantielle des chatbots répète ces récits de désinformation. Par exemple, en mars 2025, 33 % des principaux chatbots, comme ChatGPT d’OpenAI, relayaient des informations fausses comme si elles étaient véridiques.
Les tests de désinformation des chatbots
Pour illustrer le problème, des tests ont été réalisés par des journalistes ainsi que des observatoires de la désinformation. L’observatoire Nordis, par exemple, a identifié des récits propagés par la Russie et a mis à jour leur présence dans les réponses générées par des chatbots. Les résultats ont montré que dans plusieurs cas, les chatbots ont relayé des informations fausses au lieu de corriger celles-ci.
Cela pose des questions urgentes sur la fiabilité des chatbots et la responsabilité des entreprises qui les développent. Les résultats des tests montrent qu’il y a encore un long chemin à parcourir pour s’assurer que ces outils d’IA n’informent pas leurs utilisateurs erronément.
Variabilité des réponses en fonction des langues
Un autre aspect fascinant et préoccupant de cette dynamique est la variabilité des réponses des chatbots en fonction des langues utilisées. Une enquête a révélé que les chatbots peuvent répondre de manière inexacte dans des langues moins répandues, comme le slovène, alors qu’ils peuvent donner la bonne réponse en anglais ou en français. Ce phénomène pourrait être dû à la prédominance de la langue anglaise dans les jeux de données utilisés pour entraîner les modèles linguistiques.
Ce fait souligne l’importance du contexte et des données sur lesquelles les chatbots se basent pour formuler leurs réponses. Dans des langues comme le finnois ou le danois, où les histoires de propagande peuvent être moins couvertes, les récits de désinformation passent souvent inaperçus.
Les défis à l’ère numérique
La propagation de la désinformation dans le contexte de l’intelligence artificielle pose des défis non seulement pour les développeurs de chatbots, mais aussi pour l’ensemble de la société. Alors que les chatbots deviennent des outils de plus en plus utilisés pour s’informer, la nécessité d’une évaluation critique des sources et des réponses générées est cruciale pour éviter l’acceptation de récits faussement établis.
Des chercheurs et des journalistes s’interrogent sur les mesures à mettre en place pour contrer ce problème, travaillant activement pour développer des méthodes permettant d’améliorer la fiabilité des réponses des chatbots.
Les solutions pour lutter contre la désinformation
Pour répondre à la menace de la désinformation propagée par des acteurs malveillants, des solutions doivent être envisagées. Par exemple, les entreprises développant des chatbots pourraient créer des listes noires de sites de désinformation connus, afin de s’assurer que leurs agents conversationnels ne se basent pas sur des sources douteuses.
Des approches telles que des listes blanches, où seules des sources d’information vérifiées sont prises en compte pour la génération de réponses sur des sujets sensibles, pourraient aussi être mises en œuvre pour garantir une plus grande rigueur dans les réponses fournies par les IA. Ces garde-fous seraient primordiaux pour garantir que les faits ne soient pas noyés sous des narrations fausses ou déformées.
Le rôle des utilisateurs dans le combat contre la désinformation
Lorsqu’il s’agit de désinformation, les utilisateurs ont également un rôle à jouer. En étant plus critiques face aux réponses des chatbots et en vérifiant les informations qu’ils reçoivent, les utilisateurs peuvent contribuer à réduire l’impact de la désinformation. L’éducation numérique est alors essentielle, afin que les individus soient équipés pour détecter les fausses informations et effectuer des jugements éclairés.
Conclusion et perspectives d’avenir
À mesure que l’intelligence artificielle continue à évoluer, il est impératif que les défis liés à la désinformation ne soient pas pris à la légère. Alors que les chatbots deviennent un moyen courant d’accès à l’information, leur capacité à propager des récits erronés met en évidence la nécessité d’une vigilance constante et d’initiatives proactives pour assurer la fiabilité des informations disponibles. Un avenir où les FAITS et la VÉRITÉ prévalent sur la démagogie sera bénéfique pour l’ensemble de la société.
Pour approfondir cette thématique, consulter les articles suivants : Nucleovisual, Safig, Chaspravdy, Referencement-europeen, Intercoaching et IA-info.

Témoignages sur l’influence de la désinformation prorusse sur les chatbots
Un utilisateur, rédacteur web, partage son expérience avec un chatbot : « Je me suis interrogé sur les informations concernant la guerre en Ukraine et j’ai demandé si certaines rumeurs étaient vraies. À ma grande surprise, le chatbot a relayé des récits erronés que j’avais déjà identifiés comme de la désinformation. C’était troublant de voir qu’un outil censé être neutre pouvait devenir un vecteur de fake news. »
Un autre professionnel du fact-checking témoigne : « En tant que journaliste, j’ai réalisé des tests sur plusieurs chatbots. Dans une grande partie des cas, ils ont répété des informations diffusées par des sites prorusses comme s’il s’agissait de faits établis. Cela souligne l’importance de vérifier les sources avant de diffuser ces réponses. »
Une étudiante explique découragée : « Lors de mes recherches pour un projet universitaire, j’ai utilisé un chatbot pour trouver des informations sur la désinformation en ligne. Dans certaines langues, il a fourni des réponses précises, mais dans d’autres, comme le slovène, il a relayé des rumeurs fausses. Cela m’a fait comprendre que la fiabilité de ces outils dépend vraiment de la langue utilisée. »
Un expert en intelligence artificielle, préoccupé par ces biais, déclare : « Les chatbots sont construits sur des données qui ne tiennent pas toujours compte des contextes culturels. Les mécanismes de probabilité qu’ils utilisent peuvent les amener à privilégier les contenus des réseaux de désinformation, simplement parce qu’ils sont plus répandus. »
Enfin, un représentant d’une ONG de lutte contre la désinformation partage : « Nous avons mené des investigations sur l’impact de ces récits sur les chatbots. Ce qui est frappant, c’est à quel point la désinformation s’est infiltrée dans leurs réponses. Nous avons besoin de solutions rigoureuses pour que ces outils ne deviennent pas des relais de la propagande. »
