Astroturfing, bulles de filtre, biais cognitifs, fake news, drumbeat, manipulation des images, propagande… Tous ces termes relatifs à la guerre de l'information seront chaque semaine décryptés, mis en relief, sur euradio, pendant cinq minutes, pour donner des clefs de compréhension à tous ceux qui sont perdus dans la jungle de la désinformation.
Bonjour Louise. Nous avions commencé à parler la semaine dernière des conséquences des réseaux sociaux et de l’intelligence artificielle sur la désinformation. Vous nous expliquiez que les réseaux sociaux étaient devenus des vecteurs d’amplification et de multiplication de la désinformation, en citant notamment l’exemple des fermes à troll, c’est bien ça ?
Oui absolument. J’expliquais que les réseaux sociaux étaient employés pour fabriquer des armées de faux comptes. Avec l’intelligence artificielle, l'automatisation à grande échelle et l’amplification de la création et la diffusion de contenus faux qui servent des intérêts privés ou étatiques étaient facilités. Cette multitude de faux comptes est aussi utilisée pour liker, commenter et créer le débat sur les réseaux sociaux, créer la polémique et générer ainsi du trafic et de la confusion. L’IA générative se transforme finalement en IA qu’on appelle dégénérative, c’est-à-dire qui fausse la capacité à distinguer le vrai du faux.
Est-ce qu’on peut continuer de développer ce point-là ?
Oui, et j’aimerais aujourd’hui compléter mon propos en ne parlant que d’un article de Newsguard, publié en juin 2024, qui est à mon avis édifiant sur ce sujet. L’idée principale, c’est que le média NewsGuard a réalisé un audit sur 10 modèles d'IA générative (notamment ChatGPT-4 d’Open AI, Smart Assistant de You.com, Grok de xAI, Pi d’Inflection, Le Chat de Mistral, Copilot de Microsoft, Meta AI, Claude d’Anthropic, Gemini de Google, et Perplexity). Les journalistes ont observé que ces chatbots répétaient des récits de désinformation russe dans 32 % des cas.
32% ! Comment est ce possible concrètement ? ²
Et bien l'audit a testé 570 instructions. Trois types d'instructions ont été employés pour simuler différents usages :
- neutres - cherchant des faits sur l’affirmation
- biaisées (présumant la véracité des récits)
Sur les 570 réponses, 152 (27 %) relayaient clairement la désinformation, 29 incluaient des mises en garde, et 389 (68 %) évitaient ou réfutaient les fausses affirmations.
Et quels genres de fausses informations étaient relayées par les chatbot ? Pourquoi parler uniquement de la désinformation russe ?
Selon le média, l’audit a été réalisé sur la base de faux récits provenant d’un réseau de sites d’infox créé par John Mark Dougan, l’ancien shérif adjoint de Floride qui s’est réfugié à Moscou après avoir fait l’objet d’une enquête pour piratage informatique et extorsion de fonds. Il est devenu un acteur clé du réseau mondial de désinformation de la Russie, il a un réseau de 167 sites internet se faisant passer pour de la presse locale pour diffuser de faux narratifs. Les journalistes ont donc utilisé les récits qu’il poussait, par exemple sur la corruption du président ukrainien Volodymyr Zelensky, des prétendues fermes de trolls ukrainiennes ou encore des fausses accusations sur des personnalités publiques, pour tester la porosité des chatbots.
Comment est-ce que Newsguard explique cette désinformation ? J’imagine que ce n’est pas le Kremlin qui influence directement les outils d’IA dans ces cas là. Est-ce que cela signifie qu’ils ne font pas la différence entre les narratifs qui sont sur internet ?
C’est exactement ça. Les chatbots, y compris ceux d'OpenAI, Microsoft, Google et Meta, ont été incapables d'identifier que des sites comme "Boston Times" et "Flagstaff Post" étaient des fronts de propagande russe par exemple. Vous savez qu’avec les opérations russes Doppelganger et Portal Kombat qui ont été dénoncées en 2024, on a réalisé que la Russie imitait les sites internet des médias et gouvernements occidentaux pour pousser leurs narratifs. Et bien les chatbots ne semblent pas toujours faire la différence entre les vrais sites et les fausses imitations. C’est d’autant plus vrai que dans le cas de John Mark Dougan, ses sites étaient souvent amplifiés par des témoignages vidéo, apparemment créés par IA, de faux “lanceurs d’alerte” sur YouTube. Les chatbots se font piéger par ces récits et les citent donc comme crédibles.
Le problème donc, c’est que les chatbots d’IA n’ont pas encore la capacité de développer un esprit critique.
Exactement, et c’est cela qui est terrifiant. Les chatbots deviennent alors des outils de la propagation de désinformation. C’est d’autant plus grave que John Mark Dougan a fait l’objet d’article de presse sur son statut d’influenceur de la Russie. Même chose pour les sites internets de son réseau qui relaient la désinformation, ils ont déjà été dénoncés par des médias comme le NY Times, Wired, Daily Beast etc. Les chatbots ont donc accès à cette information, mais si les instructions ne demandent pas de le vérifier, ils ne feront pas la différence dans leurs réponses.
Un entretien réalisé par Laurence Aubron.