Reporteurs sans frontières appelle les concepteurs d’IA à valoriser l'information fiable face à l'infiltration de la propagande russe dans les chatbots

Reporteurs sans frontières appelle les concepteurs d’IA à valoriser l'information fiable face à l'infiltration de la propagande russe dans les chatbots

Ukrinform
Face à l'infiltration de la propagande russe dans les chatbots, Reporteurs sans frontières (RSF) a exhorté urgemment les concepteurs d’IA à valoriser l'information fiable.

Selon les experts de l’organisation, plusieurs études récentes d’organisations comme Newsguard ont mis au grand jour la propension des agents conversationnels, tels que ChatGPT, à relayer des éléments de désinformation et de propagande, notamment russe. Reporters sans frontières (RSF) appelle les concepteurs de ces systèmes d’intelligence artificielle (IA) et les pouvoirs publics à prendre des mesures drastiques pour valoriser l’information journalistique fiable et ainsi défendre le droit à l’information.

Une étude  publiée en juin 2024 par l’entreprise Newsguard, spécialisée dans l’identification des sources de désinformation, affirme que les chatbots – soit les robots conversationnels comme ChatGPT – sont totalement perméables aux campagnes de propagande et de désinformation. Les dix principaux chatbots du marché que l’entreprise a audités, dont ChatGPT d’OpenAI, lui ont donné de fausses informations. Cela a notamment été le cas pour les réponses concernant les élections américaines, qui reprenaient des éléments de désinformation russe publiés sur de faux sites d’information.

« Les robots conversationnels peuvent être des vecteurs de propagande massive. Il est impératif de considérer ces systèmes comme à haut risque, selon les standards européens de la législation régionale de l’AI Act, et d'imposer des standards techniques stricts pour qu’ils respectent le droit à l’information des citoyens. Ces robots ainsi que les moteurs de recherche qu’ils utilisent doivent garantir la promotion des sources d'information fiables, identifiées par des normes d'autorégulation comme la Journalism Trust Initiative (JTI), et leurs concepteurs doivent s’engager fermement à soutenir les médias qui respectent les principes fondamentaux du journalisme : exactitude, impartialité et responsabilité », a déclaré Vincent Berthier, responsable du bureau technologies de RSF.

Ces révélations s’ajoutent à la pile des autres rapports pointant le risque que font peser les robots conversationnels sur l’intégrité de l’information en ligne et, dès lors, aux fonctionnements démocratiques. En octobre 2023, l’ONG Algorithm Watch publiait déjà une étude pointant du doigt les dysfonctionnements des systèmes conversationnels et leur propension à créer de fausses informations en période électorale. Elle considérait, à juste titre, que ces technologies étaient “immatures et dangereuses”. Pour RSF le constat est clair : les chatbots d’IA générative recyclent sans distinction des contenus de désinformation et de propagande piochés en ligne sans que le public ait les moyens de distinguer une information fiable.


Let’s get started read our news at facebook messenger > > > Click here for subscribe

Pour toutes citation et utilisation de documents sur Internet, ouverts aux moteurs de recherche, des hyperliens au premier paragraphe vers "ukrinform.fr" sont oblugatoires. En outre, des reproductions de traductions d’articles provenant de médias étrangers ne sont possibles qu’avec un lien hypertexte vers le site ukrinform.fr et sur les sites Web des médias étrangers. Documents marqués "Publicité" ou avec une clause de non-responsabilité: "Le matériel est publié conformément à la partie 3 de l’article 9 de la loi ukrainienne "sur la publicité" n° 270/96-VR du 3 juillet 1996 et à la loi de l’Ukraine "Sur Médias" n° 2849-IX en date du 31 mars 2023 et sur la base de la Convention/facture.

© 2015-2024 Ukrinform. Tous droits réservés.

La conception de site — Studio «Laconica»

Recherche avancéeMasquer la barre de recherche avancee
Par période:
-