Géopolitique & digital:
«quand la désinformation devient une arme»
La désinformation n’est plus seulement un phénomène médiatique : elle est devenue un levier géopolitique utilisé par des États, des groupes d’influence et des acteurs malveillants pour orienter l’opinion publique, fragiliser des institutions ou amplifier des tensions sociétales. À mesure que les plateformes et l’intelligence artificielle gagnent en puissance, le risque s’étend bien au-delà des fausses informations traditionnelles : il touche désormais les algorithmes, les modèles d’IA et les écosystèmes d’information mondiaux.
Une inquiétude devenue mondiale
Selon le Pew Research Center, 72 % des adultes dans 25 pays considèrent la propagation de fausses informations en ligne comme une menace majeure pour leur pays. Cette préoccupation n’est pas isolée : dans 35 pays étudiés, plus de 80 % des citoyens estiment que les “made-up news” constituent un problème sérieux.
Autrement dit, la perception du risque est désormais globale, transcendant les cultures, les systèmes politiques et les niveaux de développement numérique.
Des opérations structurées, soutenues par certains États
La désinformation géopolitique ne se résume plus à quelques comptes anonymes. Elle repose sur des réseaux organisés, capables de produire des volumes massifs de contenus et de diffuser des narratifs cohérents dans plusieurs langues.
L’exemple du “Pravda network”, documenté par l’Institute for Strategic Dialogue (ISD), illustre cette montée en puissance : des centaines de milliers d’articles pro-Kremlin publiés et relayés, dont plus de 80 % repris comme crédibles par les sites les relayant dans l’échantillon étudié.
Ces campagnes se concentrent particulièrement sur l’Europe de l’Est, les Balkans et divers pays post-soviétiques, où la guerre informationnelle s’ajoute aux tensions politiques préexistantes.
Quand l’IA reprend les narratifs de désinformation
L’arrivée des grands modèles de langage a créé un nouvel espace de vulnérabilité. Une enquête de NewsGuard a montré que 33 % des réponses générées par certains chatbots reprenaient des narratifs provenant de réseaux de désinformation.
Ce phénomène, appelé LLM grooming, repose sur une stratégie simple : inonder le web avec des contenus trompeurs pour les faire entrer dans les jeux de données qui entraînent les IA. À terme, cela peut influencer les réponses des outils utilisés quotidiennement par des millions de personnes.
Des algorithmes qui amplifient les contenus les plus polarisants
Les recherches de l’Oxford Internet Institute sur la computational propaganda montrent que les algorithmes de recommandation favorisent souvent les contenus émotionnels, polarisants ou extrêmes, car ils génèrent davantage d’engagement.
Ces systèmes peuvent créer de véritables boucles de renforcement, où les contenus orientés deviennent plus visibles, plus crédibles et plus efficaces dans le cadre de campagnes transnationales.
Une réponse institutionnelle qui se structure
Face à ces risques, l’Union européenne a renforcé son arsenal. Le Digital Services Act (DSA) intègre désormais le Code of Practice on Disinformation, avec de nouvelles obligations pour les très grandes plateformes :
- transparence des algorithmes,
- mesures de réduction des risques systémiques,
- accès élargi aux données pour les chercheurs,
- rapports annuels de conformité.
Cinq axes essentiels pour renforcer la résilience numérique
Pour limiter l’impact de la désinformation, plusieurs leviers doivent être activés simultanément :
-
Développer l’éducation aux médias pour tous les publics.
-
Accélérer le fact-checking, en collaboration avec les plateformes.
-
Renforcer la transparence algorithmique, notamment pour la publicité politique.
-
Auditer les datasets d’IA pour prévenir toute contamination intentionnelle.
-
Coopérer au niveau international afin de détecter et contrer les opérations transnationales.
Source:
- Pew Research Center – International Opinion on Global Threats (False information online as a threat): https://www.pewresearch.org/2025/08/19/false-information-online-as-a-threat/
- Pew Research Center – Widespread global public concern about made-up news (avril 2025): https://www.pewresearch.org/global/2025/04/24/widespread-global-public-concern-about-made-up-news/
- Institute for Strategic Dialogue (ISD) – analyse / digital dispatches sur le « Pravda network » (étude et findings): https://www.isdglobal.org/digital_dispatches/link-by-link-hundreds-of-webpages-cite-pro-russia-pravda-network/
- NewsGuard – audit & rapport sur l’influence de réseaux pro-Kremlin sur chatbots / IA (synthèses presse : Axios, AP, Wired): https://www.newsguardtech.com/special-reports/moscow-based-global-news-network-infected-western-artificial-intelligence-russian-propaganda/
- Commission européenne – intégration du Code of Practice on Disinformation / DSA, rapports et Transparency Centre: https://commission.europa.eu/topics/countering-information-manipulation/strengthening-online-platforms-responsibility_en?
- Oxford Internet Institute / recherches sur la computational propaganda et amplification algorithmique (analyses récentes): https://instituteofinterneteconomics.org/engines-of-division-how-algorithms-reshape-democracy-in-the-digital-age/