C’est officiel. Joe Biden et Donald Trump ont obtenu les délégués nécessaires pour être les candidats de leurs partis à l’élection présidentielle de 2024. Sauf événement imprévu, les deux hommes seront officiellement nommés lors des congrès du parti cet été et s’affronteront aux urnes le 5 novembre.
Il y a fort à parier que, comme lors des récentes élections, celle-ci se déroulera en grande partie en ligne et présentera un puissant mélange d’informations et de désinformation diffusées sur les réseaux sociaux. Les nouveautés cette année sont de puissants outils d’intelligence artificielle générative tels que ChatGPT et Sora qui facilitent « l’inondation de la zone » de propagande et de désinformation et produisent des deepfakes convaincants : des mots sortant de la bouche de politiciens qu’ils n’ont pas réellement prononcés et des événements rejoués auparavant. nos yeux, ce qui ne s’est pas réellement produit.
Le résultat est une probabilité accrue que les électeurs soient trompés et, peut-être aussi inquiétant, un sentiment croissant que vous ne pouvez pas faire confiance à tout ce que vous voyez en ligne. Trump profite déjà du soi-disant dividende du menteur, la possibilité de minimiser vos paroles et vos actes comme étant des deepfakes. Trump a laissé entendre sur sa plateforme Truth Social du 12 mars 2024 que de vraies vidéos de lui montrées par des membres démocrates de la Chambre avaient été produites ou modifiées à l’aide de l’intelligence artificielle.
The Conversation a couvert les derniers développements en matière d’intelligence artificielle susceptibles de saper la démocratie. Ce qui suit est un résumé de certains de ces articles de nos archives.
1. Faux événements
La possibilité d’utiliser l’IA pour créer des contrefaçons convaincantes est particulièrement problématique lorsqu’il s’agit de produire de fausses preuves d’événements qui ne se sont jamais produits. Christopher Schwartz, chercheur en sécurité informatique au Rochester Institute of Technology, a qualifié cette situation de deepfakes.
« L’idée de base et la technologie d’une situation deepfake sont les mêmes que celles de tout autre deepfake, mais avec une ambition plus audacieuse : manipuler un événement réel ou en inventer un à partir de rien », a-t-il écrit.
Les deepfakes de situations pourraient être utilisés pour stimuler ou affaiblir un candidat ou pour supprimer la participation électorale. Si vous rencontrez des reportages sur les réseaux sociaux faisant état d’événements surprenants ou extraordinaires, essayez d’en apprendre davantage à partir de sources fiables, telles que des reportages vérifiés, des articles universitaires évalués par des pairs ou des entretiens avec des experts accrédités, a déclaré Schwartz. Sachez également que les deepfakes peuvent tirer parti de ce que vous êtes enclin à croire.
Lire la suite : Des événements qui ne se sont jamais produits pourraient influencer l’élection présidentielle de 2024 – un chercheur en cybersécurité explique la situation des deepfakes
2. La Russie, la Chine et l’Iran visent
De la question de savoir ce que la désinformation générée par l’IA peut faire découle la question de savoir qui l’utilise. Les outils d’IA d’aujourd’hui mettent la capacité de produire de la désinformation à la portée du plus grand nombre, mais les pays qui sont des adversaires des États-Unis et d’autres démocraties sont particulièrement préoccupants. En particulier, la Russie, la Chine et l’Iran ont une vaste expérience des campagnes et de la technologie de désinformation.
« Mener une campagne de désinformation ne se limite pas à générer du contenu », a écrit Bruce Schneier, expert en sécurité et professeur à la Harvard Kennedy School. « Le plus dur, c’est la distribution. Un propagandiste a besoin d’une série de faux comptes sur lesquels publier, et d’autres pour diffuser son message auprès du grand public et le rendre viral. »
La Russie et la Chine ont l’habitude de tester des campagnes de désinformation sur des pays plus petits, selon Schneier. « Pour contrer les nouvelles campagnes de désinformation, il faut être capable de les reconnaître, et les reconnaître nécessite de les rechercher et de les cataloguer dès maintenant », a-t-il écrit.
Lire la suite : La désinformation de l’IA constitue une menace pour les élections – apprendre à repérer les ingérences russes, chinoises et iraniennes dans d’autres pays peut aider les États-Unis à se préparer pour 2024
3. Un scepticisme sain
Mais il n’est pas nécessaire de recourir aux ressources des services de renseignement occultes des pays puissants pour faire la une des journaux, comme l’illustre le faux appel automatisé de Biden dans le New Hampshire, produit et diffusé par deux individus et visant à dissuader certains électeurs. Cet épisode a incité la Federal Communications Commission à interdire les appels automatisés utilisant des voix générées par l’intelligence artificielle.
Les campagnes de désinformation basées sur l’IA sont difficiles à contrer car elles peuvent être diffusées via différents canaux, notamment les appels automatisés, les réseaux sociaux, les e-mails, les SMS et les sites Web, ce qui complique la recherche numérique des sources de la désinformation, a écrit Joan Donovan, une spécialiste des médias et de la désinformation à l’Université de Boston.
« À bien des égards, la désinformation renforcée par l’IA, comme l’appel automatisé du New Hampshire, pose les mêmes problèmes que toute autre forme de désinformation », a écrit Donovan. “Les personnes qui utilisent l’IA pour perturber les élections sont susceptibles de faire ce qu’elles peuvent pour cacher leurs traces. C’est pourquoi il est nécessaire que le public reste sceptique quant aux affirmations qui ne proviennent pas de sources vérifiées, telles que les journaux télévisés locaux ou les comptes de réseaux sociaux. d’organismes de presse réputés.
Lire la suite : La FCC interdit les appels automatisés utilisant de faux clones vocaux – mais la désinformation générée par l’IA menace toujours les élections
4. Un nouveau type de machine politique
Les campagnes de désinformation basées sur l’IA sont également difficiles à contrer car elles peuvent inclure des robots – des comptes de réseaux sociaux automatisés qui se font passer pour de vraies personnes – et peuvent inclure des interactions en ligne adaptées aux individus, potentiellement au cours d’une élection et potentiellement avec des millions de personnes.
Archon Fung, politologue à Harvard, et Lawrence Lessig, juriste, ont décrit ces capacités et présenté un scénario hypothétique de campagnes politiques nationales utilisant ces outils puissants.
Les tentatives visant à bloquer ces machines pourraient aller à l’encontre des protections de la liberté d’expression du premier amendement, selon Fung et Lessig. « Une mesure constitutionnellement plus sûre, bien que plus modeste, déjà adoptée en partie par les régulateurs européens de l’Internet et en Californie, consiste à interdire aux robots de se faire passer pour des personnes », ont-ils écrit. “Par exemple, la réglementation pourrait exiger que les messages de campagne soient accompagnés de clauses de non-responsabilité lorsque le contenu qu’ils contiennent est généré par des machines plutôt que par des humains.”
Lire la suite : Comment l’IA pourrait prendre le contrôle des élections – et saper la démocratie
Cette histoire est un tour d’horizon d’articles issus des archives de The Conversation.
Cet article fait partie de Désinformation 2024 : une série examinant la science, la technologie et la politique de la tromperie électorale.
Vous pourriez également être intéressé par :
La désinformation sévit sur les réseaux sociaux – un psychologue social explique les tactiques utilisées contre vous
Désinformation, désinformation et canulars : quelle est la différence ?
Les campagnes de désinformation sont des mélanges obscurs de vérité, de mensonges et de croyances sincères – les leçons de la pandémie