Reporteurs sans frontières appelle les concepteurs d’IA à valoriser l'information fiable face à l'infiltration de la propagande russe dans les chatbots
Selon les experts de l’organisation, plusieurs études récentes d’organisations comme Newsguard ont mis au grand jour la propension des agents conversationnels, tels que ChatGPT, à relayer des éléments de désinformation et de propagande, notamment russe. Reporters sans frontières (RSF) appelle les concepteurs de ces systèmes d’intelligence artificielle (IA) et les pouvoirs publics à prendre des mesures drastiques pour valoriser l’information journalistique fiable et ainsi défendre le droit à l’information.
Une étude publiée en juin 2024 par l’entreprise Newsguard, spécialisée dans l’identification des sources de désinformation, affirme que les chatbots – soit les robots conversationnels comme ChatGPT – sont totalement perméables aux campagnes de propagande et de désinformation. Les dix principaux chatbots du marché que l’entreprise a audités, dont ChatGPT d’OpenAI, lui ont donné de fausses informations. Cela a notamment été le cas pour les réponses concernant les élections américaines, qui reprenaient des éléments de désinformation russe publiés sur de faux sites d’information.
« Les robots conversationnels peuvent être des vecteurs de propagande massive. Il est impératif de considérer ces systèmes comme à haut risque, selon les standards européens de la législation régionale de l’AI Act, et d'imposer des standards techniques stricts pour qu’ils respectent le droit à l’information des citoyens. Ces robots ainsi que les moteurs de recherche qu’ils utilisent doivent garantir la promotion des sources d'information fiables, identifiées par des normes d'autorégulation comme la Journalism Trust Initiative (JTI), et leurs concepteurs doivent s’engager fermement à soutenir les médias qui respectent les principes fondamentaux du journalisme : exactitude, impartialité et responsabilité », a déclaré Vincent Berthier, responsable du bureau technologies de RSF.
Ces révélations s’ajoutent à la pile des autres rapports pointant le risque que font peser les robots conversationnels sur l’intégrité de l’information en ligne et, dès lors, aux fonctionnements démocratiques. En octobre 2023, l’ONG Algorithm Watch publiait déjà une étude pointant du doigt les dysfonctionnements des systèmes conversationnels et leur propension à créer de fausses informations en période électorale. Elle considérait, à juste titre, que ces technologies étaient “immatures et dangereuses”. Pour RSF le constat est clair : les chatbots d’IA générative recyclent sans distinction des contenus de désinformation et de propagande piochés en ligne sans que le public ait les moyens de distinguer une information fiable.