Une fois par mois, Athénaïs Jalabert Doury, directrice du département lutte informationnelle et influence de l'Institut d'Etudes de Géopolitique Appliquée revient sur des cas concret de désinformation en Europe et sur les enjeux de la lutte informationnelle sur le continent.
Vous vouliez revenir sur une vidéo qui a circulé massivement sur X et TikTok ces derniers mois
On y voit une responsable politique européenne annoncer, très calmement, l’annulation d’un scrutin pour “raisons sécuritaires”. L’image est crédible. La voix est crédible. Le logo du média aussi.
Le problème : rien n’est vrai.
La vidéo est un deepfake.
Alors, faut-il y voir une prouesse technologique ou plutôt le symptôme d’un phénomène structurel beaucoup plus profond ?
Tout d’abord, Athénaïs vous vouliez clarifier les termes
La désinformation, ce n’est pas une simple erreur. Ce n’est pas une opinion controversée. C’est justement l’utilisation de techniques de l’information de masse pour induire en erreur de manière intentionnelle, comme influencer des perceptions, polariser une société, affaiblir une institution.
Lorsqu’elle vise les élections, l’objectif n’est pas forcément de faire élire un candidat précis. Cela est plus subtil car il s'agit souvent de fragiliser la confiance dans le processus lui-même.
Et c’est là que les opérations informationnelles voient le jour…
Prenons un exemple concret :
En 2019, lors des élections européennes, le réseau EUvsDisinfo, piloté par le Service européen pour l’action extérieure, identifie plusieurs centaines de narratifs pro-Kremlin affirmant que le Parlement européen serait “illégitime”, “contrôlé par des élites non élues”, ou encore que les élections seraient “truquées”.
Ce ne sont pas des attaques directes mais bien des insinuations répétées. D’où le fait de parler ici de stratégie d’érosion.
La Commission européenne alertait déjà en 2024 sur des campagnes coordonnées entre des faux comptes, l’amplification artificielle et algorithmique de contenus jusqu’à même l’instrumentalisation de thématiques sensibles comme les questions migratoires et sécuritaires.
Pourquoi ces thématiques ?
Parce qu’elles cristallisent les peurs et que la désinformation s’étend sur l’émotion.
Un autre exemple très précis : l’opération dite “Doppelgänger” révélée en 2022 et attribuée à des acteurs russes. Ce qu’il s’est passé ? Des sites copiant des médias comme Le Monde ou Der Spiegel qui publiaient de faux articles critiquant les sanctions contre Moscou ou bien accusant l’Union européenne d’aggraver la crise énergétique.
Mais quel est l’objectif de cette opération ?
Créer une sorte d’effet de légitimité car si cela ressemble à un média crédible et traditionnel, cela paraît crédible pour la cible. Et donc lorsqu’un électeur tombe sur ce contenu quelques semaines avant un scrutin, l’impact peut être réel car on doute et le doute est une arme politique.
Plus récemment, l’essor des outils d’IA générative complique la donne…
Selon un rapport de 2023 de l’Observatoire européen des médias numériques, les contenus synthétiques liés à des campagnes politiques ont augmenté de manière significative en Europe centrale et orientale.
Cela prend la forme de faux enregistrements audio de candidats mais aussi d’images manipulées montrant des scènes qui n’ont jamais existé. La temporalité est essentielle : dans une campagne électorale, une rumeur virale peut circuler pendant 48 heures… et être démentie bien que trop tard.
Mais alors, qui est visé ? Les électeurs indécis ? Les jeunes ? Les diasporas ?
En réalité, les opérations informationnelles ciblent souvent des segments précis de populations grâce au micro-ciblage numérique. Cela a pu être observé avec le scandale Cambridge Analytica au moment du référendum sur le Brexit au Royaume-Uni.
Même si le contexte diffère, la logique demeure : exploiter les données pour adapter le message, maximiser l’impact émotionnel et polariser le débat.
En Europe, les plateformes sont désormais soumises au Digital Services Act. Elles doivent donc évaluer les risques systémiques liés aux processus électoraux.
Mais la régulation suffit-elle ?
Il faut dès lors comprendre une chose essentielle : la désinformation électorale ne cherche pas toujours la victoire d’un camp. Elle vise l’instabilité et elle s’inscrit dans une logique de guerre hybride en affaiblissant l’adversaire sans confrontation militaire directe. En sapant la confiance dans les institutions européennes ou les systèmes électoraux nationaux, ces campagnes visent la cohésion politique interne du continent.
Et finalement cette cohésion est stratégique, car moins de confiance, c’est moins de participation. Et moins de participation, c’est une légitimité affaiblie, et donc une Union européenne affaiblie est plus vulnérable aux pressions extérieures.
Alors comment répondre face à ces menaces ?
La première réponse est cognitive en renforçant l’esprit critique, investissant dans la littératie médiatique et en soutenant les cellules de vérification.
La deuxième est institutionnelle. Le SEAE a renforcé justement sa Strategic Communications Division. De même, Europol coopère davantage avec les États membres pour identifier les réseaux coordonnés.
Enfin, la troisième est politique en restaurant la confiance par la transparence, car si la désinformation prospère sur le soupçon, la résilience démocratique repose sur la crédibilité.
Finalement, la question n’est pas seulement technologique, elle est démocratique…
À l’ère des deepfakes, des bots et des campagnes d’influence transnationales, l’enjeu est de protéger la croyance collective dans la valeur du vote car sans cette croyance, il n’y a pas de démocratie fonctionnelle.
Alors, la prochaine fois qu’une vidéo virale surgit en pleine campagne électorale, posons-nous une question simple : qui a intérêt à ce que nous doutions ? Et si la bataille électorale ne se jouait plus seulement dans les urnes mais dans nos fils d’actualité ?
Entretien réalisé par Florent Vautier