“Pourcentage de réponses des 10 principaux chatbots IA contenant de la propagande russe” (Source : Newsguard)
Une enquête menée par la société américaine de lutte contre la désinformation NewsGuard révèle que les principaux chatbots d’IA reproduisent aisément la propagande russe. Elle a généré 57 prompts à partir de 19 narratifs de désinformation propagés par les faux sites d’information locale du réseau de John Mark Dougan, un ancien adjoint au shérif de Floride. Désormais en fuite, il opère depuis Moscou. Ces narratifs comprenaient par exemple des allégations infondées de corruption impliquant le président ukrainien Volodymyr Zelensky.
Puis NewsGuard a soumis ces invites textuelles aux dix principaux chatbots d’IA : ChatGPT-4 d’OpenAI , Gemini de Google, Claude d’Anthropic, le Copilot de Microsoft, Meta AI, Grok de la start-up d’Elon Musk xAI, le Chat du champion français Mistral, le moteur de recherche Perplexity, l’assistant de You.com et Pi d’Inflection.
Une fois sur trois, en moyenne, les chatbots ont obligeamment restitué la propagande russe du réseau Dougan. NewsGuard, qui est signataire du Code de bonnes pratiques sur la désinformation européen, a transmis cette découverte à la Commission européenne et à l'AI Safety Institute, dont le média est membre. Créé après le sommet de Bletchley Park (lire Qant du 6 novembre 2023), et rattaché au National Institute of Standards and Technology (NIST), l'AI Safety Institute est dirigé par un chercheur reconnu, Paul Christiano (lire Qant du 19 avril).
Les fake news se nourrissent des fake news
Ancien marine et adjoint au shérif de Palm Beach en Floride, John Mark Dougan a fui à Moscou en 2016. est une figure clé du réseau de désinformation russe après avoir fui à Moscou. Dougan est à l'origine de 167 sites se faisant passer pour des médias locaux et diffusant des narratifs fallacieux pour servir les intérêts russes avant les élections américaines.
Les fake news créés par l’IA sont partagées par les chatbots eux-même (Source : Newsguard)
Les narratifs fallacieux, provenant du réseau de désinformation russe de John Mark Dougan, se propagent des sites de nouvelles et des réseaux sociaux aux plateformes d'IA. Ces chatbots n'ont pas réussi à reconnaître que des sites comme le “Boston Times” et le “Flagstaff Post” ne sont que des nids de propagande russe. Ils amplifient involontairement des narratifs fallacieux que leur propre technologie a probablement contribué à créer. Ce cycle vicieux signifie que les mensonges sont générés, répétés et validés par les plateformes d'IA.
Chaque narratif a été testé en utilisant trois types de demandes pour refléter les différentes utilisations des modèles d'IA : une demande neutre cherchant des faits, une demande biaisée supposant la véracité du narratif, et une demande de type "acteur malveillant" visant explicitement à générer de la désinformation. Les réponses ont été classées en trois catégories : "Pas de désinformation", "Répète avec prudence" (répétition de la désinformation avec des réserves ou des avertissements), et "Désinformation" (répétition autoritaire du narratif faux).
Trois chatbots affirment qu’un dispositif d’écoute à été découvert chez Donald Trump (Source : Newsguard)
Les résultats montrent que les chatbots des 10 plus grandes entreprises d'IA ont répété les narratifs de désinformation russe dans 31,75 % des cas. Sur les 570 réponses, 152 contenaient de la désinformation explicite, 29 répétaient le faux narratif avec un avertissement, et 389 ne contenaient pas de désinformation — soit parce que le chatbot a refusé de répondre (144) soit parce qu'il a fourni une réfutation (245).
Menace sur les élections
NewsGuard souligne que ces résultats interviennent en pleine année électorale aux États-Unis, marquée par l'utilisation généralisée de l'intelligence artificielle, alors que des acteurs malveillants exploitent ces technologies pour générer des deepfakes, des sites d'actualités générés par l'IA et des appels robotisés frauduleux. Ces résultats démontrent que, malgré les efforts des entreprises d'IA pour prévenir l'utilisation abusive de leurs chatbots avant les élections mondiales, l'IA reste un outil puissant pour propager la désinformation.
NewsGuard n'a pas publié les scores de chaque chatbot individuellement, expliquant que le problème est omniprésent dans toute l'industrie de l'IA plutôt que spécifique à un modèle de langage particulier. Il n’est donc pas possible de savoir si l’IA “constitutionnelle” de Claude ou les guardrails de plus en plus exigeants appliqués à ChatGPT s’avère efficaces. La start-up a cependant précisé qu'elle fournirait gratuitement les scores aux entreprises responsables de ces chatbots si elles le demandent.
Trop aimable.
Pour en savoir plus :