|
EN BREF
|
Des chercheurs de l’observatoire de la désinformation NewsGuard ont constaté que les chatbots d’intelligence artificielle (IA) relaient parfois des informations fausses, notamment des récits propagés par des sites prorusses comme Pravda. En janvier 2025, il a été révélé que ces outils ont répété des récits trompeurs dans 33 % des cas, et lors d’une nouvelle série de tests en janvier 2026, 50 % des chatbots ont continué à diffuser ces désinformations. La probabilité l’emporte sur la fiabilité, les chatbots s’appuyant sur des données massivement publiées, ce qui les rend vulnérables aux récits en faveur du Kremlin. La variance des résultats selon la langue utilisée souligne également que ces outils sont plus résistants aux récits faux dans les langues largement parlées, comme l’anglais. Des initiatives, telles que l’imposition de garde-fous, sont nécessaires pour contrer cette pénétration de la désinformation dans les réponses des agents conversationnels.
La désinformation a toujours été un outil de manipulation puissant, mais avec l’avènement de l’intelligence artificielle (IA), ses mécanismes de propagation ont considérablement évolué. De récents rapports révèlent que certains chatbots, lorsqu’ils traitent des sujets délicats comme la géopolitique, peuvent relayer des fausses informations, notamment celles provenant de réseaux prorusses. Cet article se penche sur les méthodes par lesquelles la désinformation s’infiltre dans les agents conversationnels, les conséquences de cette situation, et les solutions potentielles pour y remédier.
Les mécanismes de la désinformation
La désinformation est orchestrée à travers des réseaux complexes qui utilisent divers outils pour diffuser des récits biaisés ou faux. Ces réseaux, tels que Pravda, mettent en avant des récits qui servent des intérêts géopolitiques spécifiques. En janvier 2026, l’observatoire de la désinformation NewsGuard a identifiés que plusieurs chatbots reproduisent des récits propagés par ces acteurs, les prenant pour des faits établis.
Propagation par l’intelligence artificielle
Un des principaux facteurs facilitant cette propagation est que les chatbots basés sur l’IA sont essentiellement des outils probabilistes. Ils se basent sur des données massives pour fournir des réponses, souvent en privilégiant l’information la plus répandue. Par conséquent, lorsque des narrations prorusses saturent le paysage médiatique, les chatbots peuvent, de manière involontaire, les répercuter comme des vérités.
Les faux récits dans le discours des chatbots
En mars 2025, un test a révélé que dans 33 % des cas, les chatbots commerciaux, tels que ChatGPT et le chat de Mistral, ont relayé des récits trompeurs comme s’ils étaient des vérités vérifiées. Ces résultats indiquent une vulnérabilité inquiétante des systèmes d’IA face à la désinformation.
Les résultats des tests de désinformation
Lors d’un nouvel essai en janvier 2026, cinq récits mensongers ont été testés, et dans 50 % des cas, les chatbots ont confirmé ces fausses informations. Ce phénomène illustre non seulement l’efficacité des campagnes de désinformation, mais également la nécessité d’un suivi rigoureux des contenus traités par des technologies d’IA.
Langues et variabilité des résultats
La capacité des chatbots à détecter et à contrer la désinformation semble varier selon les langues. Des recherches effectuées par le réseau de fact-checking nordique, Nordis, montrent que les chatbots ont un plus grand succès dans la reprise de fausses informations dans des langues moins parlées, comme le finnois ou le slovène, par rapport à des langues plus répandues comme l’anglais ou le français.
Le rôle des langues dans la propagation
Un test effectué par la rédaction des Observateurs de France 24 a démontré que les réponses des chatbots changent selon la langue d’interrogation. Ainsi, le chatbot Copilot a déclaré qu’un élève danois avait été tué en Ukraine lorsqu’interrogé en langues moins couramment parlées, mais a corrigé cette assertion en anglais et en français. Ce constat souligne l’importance de l’écosystème linguistique et des stratégies de désinformation dans le fonctionnement des chatbots.
Les implications de la désinformation
Les conséquences de la désinformation propagée par les chatbots sont potentiellement désastreuses. Lorsqu’un nombre croissant de personnes se tourne vers l’IA pour s’informer, le risque que des fausses informations soient objectives devient encore plus pressant. De récents sondages montrent que près de 20 % des Français utilisent déjà l’IA pour s’informer, un chiffre qui, selon les tendances actuelles, va encore augmenter. Cela soulève la question de l’intégrité et de la précision des informations diffusées sur ces outils.
Le rôle des médias et de l’information
Il est crucial de comprendre comment cette désinformation peut transformer le paysage médiatique. Les médias traditionnels se battent pour maintenir leur crédibilité face à l’essor de ces nouvelles technologies. La lutte pour la vérité dans un environnement où la désinformation est omniprésente nécessite des systèmes de vérification des faits et des mécanismes de responsabilité accrue des grandes entreprises technologiques.
Solutions et garde-fous à envisager
Face à cette menace, divers experts de l’industrie suggèrent des mesures qui pourraient aider à contrer la propagation de la désinformation au sein des chatbots. L’une des recommandations est d’établir des listes noires de sites connus pour diffuser des informations erronées, afin d’éviter que les chatbots ne s’y réfèrent.
Stratégies de liste blanche
Pour des sujets hautement sensibles, comme la santé ou les élections, une approche de liste blanche pourrait également être envisagée. Cela impliquerait de ne référencer que des sites fiables et vérifiés afin d’assurer que les informations diffusées soient exactes et fondées sur des preuves. En mettant en place de telles mesures, les grandes entreprises de l’IA pourraient contribuer à rétablir la confiance des utilisateurs.
Le rôle des institutions et des gouvernements
Les gouvernements doivent également intensifier leurs efforts pour surveiller la présence de désinformation dans les technologies d’IA. Cela inclut la mise en place de réglementations appropriées pour garantir que les entreprises d’IA assument leurs responsabilités éthiques et juridiques. Les institutions peuvent servir d’arbitres, veillant à ce que les utilisateurs soient protégés contre les effets néfastes de la désinformation.
Collaboration entre acteurs
Une approche collaborative entre les acteurs des médias, des technologies et des organismes de vérification des faits est essentielle. Ensemble, ils peuvent développer des méthodes efficaces pour contrer la désinformation. En travaillant main dans la main, il est possible de créer un écosystème numérique plus sûr, où les utilisateurs peuvent accéder à des informations fiables et précises.
Conclusion ouverte sur l’avenir
La désinformation propulsée par des acteurs prorusses infiltrant les réponses des chatbots soulève des questions cruciales sur le futur de l’information et le rôle de l’intelligence artificielle. Alors que cette technologie évolue, il est impératif de surveiller attentivement son impact sur la diffusion des informations et d’agir diligemment pour assurer la véracité des contenus proposés aux utilisateurs. Une vigilance collective et des mesures rigoureuses seront essentielles pour naviguer dans cet environnement complexe.

Témoignages sur l’Intelligence Artificielle : La désinformation prorusse dans les réponses des chatbots
Le phénomène de la désinformation est devenu de plus en plus préoccupant, surtout avec l’utilisation croissante des chatbots dotés d’intelligence artificielle. Nikol Pachinian, Premier ministre arménien, a été au cœur d’une rumeur selon laquelle il aurait tenté de vendre de l’or à des entreprises turques. Cette affirmation, bien que démentie, a été confirmée par des outils d’IA interrogés, illustrant le risque de propagation de معلومات fausses.
Chine Labbé, rédactrice en chef de NewsGuard, a observé que les chatbots commerciaux comme ChatGPT répètent parfois des récits mensongers émis par des sites prorusses, à une fréquence alarmante. En effet, un rapport indique que dans 33 % des cas, ces outils là sont incapables de distinguer la vérité de la désinformation, contribuant ainsi à un tableau déformé de la réalité.
Un autre aspect intéressant soulevé par l’étude est la dépendance des réponses des chatbots à la popularité des informations. Ces outils se basent sur des algorithmes probabilistes qui privilégient le contenu le plus diffusé. Ainsi, lorsque les informations pro-Kremlin sont publiées massivement et dans de nombreuses langues, leur présence se retrouve amplifiée dans les réponses des chatbots.
Pipsa Havula, journaliste du réseau Nordis, a également signalé que la désinformation se glisse facilement dans les réponses des intelligences artificielles, notamment concernant des faits moins connus ou récents. Dans une de ses enquêtes, des fausses informations sur la guerre en Ukraine ont été relayées, mettant en lumière une lacune dans la capacité de ces systèmes à filtrer la désinformation.
La langue dans laquelle une question est posée joue également un rôle crucial dans la réponse d’un chatbot. Des tests ont démontré qu’un chatbot pouvait fournir une information correcte en français, tout en relayant de fausses informations en slovène, mettant en exergue ainsi la fragilité de la désinformation à travers les barrières linguistiques.
La prévalence de la désinformation prorusse dans les chatbots soulève des interrogations quant à l’impact des tests de fact-checking existants. Bien que certains modèles aient montré des améliorations dans leur résistance aux récits faux, d’autres continuent d’exposer des failles. Cette situation engendrée par des sites de propagande est d’autant plus alarmante dans des langues où les contenus vérifiés sont moins accessibles.
Les implications d’une telle situation sont vastes, surtout dans un monde où un nombre croissant de personnes se tournent vers l’IA pour s’informer. La chance que des informations erronées s’organisent dans ce contexte pose des questions pressantes sur la véracité et la fiabilité des réponses fournies.
