Le public américain est en alerte face à l’intelligence artificielle et aux élections de 2024.
Un sondage réalisé en septembre 2024 par le Pew Research Center a révélé que bien plus de la moitié des Américains craignent que l’intelligence artificielle – ou IA, technologie informatique imitant les processus et les produits de l’intelligence humaine – ne soit utilisée pour générer et diffuser des informations fausses et trompeuses dans le cadre de la campagne.
Mes recherches universitaires sur l’IA pourraient contribuer à apaiser certaines inquiétudes. Même si cette technologie innovante a certainement le potentiel de manipuler les électeurs ou de propager des mensonges à grande échelle, la plupart des utilisations de l’IA dans le cycle électoral actuel ne sont, jusqu’à présent, pas du tout nouvelles.
J’ai identifié quatre rôles que l’IA joue ou pourrait jouer dans la campagne de 2024 – toutes des versions sans doute mises à jour d’activités électorales familières.
1. Informations sur les électeurs
Le lancement de ChatGPT en 2022 a fait prendre conscience au public des promesses et des périls de l’IA générative. Cette technologie est appelée « générative » car elle produit des réponses textuelles aux invites des utilisateurs : elle peut écrire de la poésie, répondre à des questions d’histoire et fournir des informations sur les élections de 2024.
Plutôt que de rechercher des informations sur le vote sur Google, les gens peuvent plutôt poser une question à l’IA générative. « Dans quelle mesure l’inflation a-t-elle changé depuis 2020 ? Par exemple. Ou encore : « Qui se présente au Sénat américain au Texas ? »
Certaines plateformes d’IA générative, comme le chatbot Gemini de Google, refusent de répondre aux questions sur les candidats et le vote. Certains, comme Llama, l’outil d’IA de Facebook, répondent – et répondent avec précision.
Mais l’IA générative peut aussi produire de la désinformation. Dans les cas les plus extrêmes, l’IA peut avoir des « hallucinations », offrant des résultats extrêmement inexacts.
Un compte d’information CBS de juin 2024 a rapporté que ChatGPT avait donné des réponses incorrectes ou incomplètes à certaines invites demandant comment voter dans les États du champ de bataille. Et ChatGPT n’a pas systématiquement suivi la politique de son propriétaire, OpenAI, et n’a pas renvoyé les utilisateurs vers CanIVote.org, un site respecté pour les informations de vote.
Comme pour le Web, les utilisateurs devraient vérifier les résultats des recherches effectuées par l’IA. Et attention : Gemini de Google renvoie désormais automatiquement les réponses aux requêtes de recherche Google en haut de chaque page de résultats. Vous pourriez tomber par inadvertance sur des outils d’IA lorsque vous pensez effectuer une recherche sur Internet.
2. Deepfakes
Les deepfakes sont des images, des fichiers audio et vidéo fabriqués par une IA générative et conçus pour reproduire la réalité. Il s’agit essentiellement de versions très convaincantes de ce que l’on appelle désormais des « cheapfakes » – des images modifiées réalisées à l’aide d’outils de base tels que Photoshop et des logiciels de montage vidéo.
Le potentiel des deepfakes pour tromper les électeurs est devenu évident lorsqu’un appel automatisé généré par l’IA se faisant passer pour Joe Biden avant la primaire du New Hampshire de janvier 2024 a conseillé aux démocrates de conserver leurs votes pour novembre.
Après cela, la Federal Communication Commission a statué que les appels automatisés générés par l’IA étaient soumis aux mêmes réglementations que tous les appels automatisés. Ils ne peuvent pas être composés automatiquement ni transmis à des téléphones portables ou fixes sans consentement préalable.
L’agence a également infligé une amende de 6 millions de dollars au consultant qui a créé le faux appel Biden – mais pas pour avoir trompé les électeurs. Il a été condamné à une amende pour avoir transmis des informations d’identification de l’appelant inexactes.
Alors que les médias synthétiques peuvent être utilisés pour diffuser de la désinformation, les deepfakes font désormais partie de la boîte à outils créative des annonceurs politiques.
L’un des premiers deepfakes visait davantage la persuasion que la tromperie manifeste était une publicité générée par l’IA lors d’un concours de course à la mairie de 2022, décrivant le maire alors en exercice de Shreveport, en Louisiane, comme un étudiant en échec convoqué au bureau du directeur.
L’annonce comprenait un bref avertissement indiquant qu’il s’agissait d’un deepfake, un avertissement non requis par le gouvernement fédéral, mais il était facile de le manquer.
Le projet AI Elections du magazine Wired, qui suit les utilisations de l’IA au cours du cycle 2024, montre que les deepfakes n’ont pas submergé les publicités vues par les électeurs. Mais ils ont été utilisés par des candidats de tout l’éventail politique, de haut en bas du scrutin, à de nombreuses fins, y compris pour tromper.
L’ancien président Donald Trump fait allusion à un deepfake démocrate lorsqu’il s’interroge sur la taille de la foule lors des événements de campagne de la vice-présidente Kamala Harris. En faisant pression sur de telles allégations, Trump tente de récolter le « dividende du menteur » – l’occasion de semer l’idée selon laquelle un contenu véridique est faux.
Discréditer ainsi un opposant politique n’a rien de nouveau. Trump prétend que la vérité n’est en réalité que de « fausses nouvelles » depuis au moins la conspiration du « Birther » de 2008, lorsqu’il a contribué à répandre des rumeurs selon lesquelles l’acte de naissance du candidat à la présidentielle Barack Obama était faux.
3. Distraction stratégique
Certains craignent que l’IA ne soit utilisée par les négationnistes des élections au cours de ce cycle pour distraire les administrateurs électoraux en les enterrant dans des demandes frivoles d’archives publiques.
Par exemple, le groupe True the Vote a déposé des centaines de milliers de contestations électorales au cours de la dernière décennie en travaillant uniquement avec des bénévoles et une application Web. Imaginez sa portée s’il est armé d’une IA pour automatiser son travail.
De telles contestations généralisées et rapides des listes électorales pourraient détourner les administrateurs électoraux d’autres tâches critiques, priver les électeurs légitimes de leur droit de vote et perturber les élections.
Pour l’instant, rien ne prouve que cela se produise.
4. Ingérence électorale étrangère
L’ingérence confirmée de la Russie dans les élections de 2016 a souligné que la menace d’une ingérence étrangère dans la politique américaine, que ce soit de la part de la Russie ou d’un autre pays investi dans le discrédit de la démocratie occidentale, reste une préoccupation pressante.
En juillet, le ministère de la Justice a saisi deux noms de domaine et fouillé près de 1 000 comptes que des acteurs russes avaient utilisés pour ce qu’il a appelé une « ferme de robots sur les réseaux sociaux », semblable à celles utilisées par la Russie pour influencer les opinions de centaines de millions d’utilisateurs de Facebook. dans la campagne 2020. L’intelligence artificielle pourrait donner un véritable coup d’accélérateur à ces efforts.
Il existe également des preuves que la Chine utilise l’IA ce cycle pour diffuser des informations malveillantes sur les États-Unis. Une de ces publications sur les réseaux sociaux a transcrit un discours de Biden de manière inexacte pour suggérer qu’il a fait des références sexuelles.
L’IA peut aider les ingérences électorales à faire leur sale boulot, mais les nouvelles technologies ne sont guère nécessaires à l’ingérence étrangère dans la politique américaine.
En 1940, le Royaume-Uni – un allié des États-Unis – était tellement concentré sur l’entrée des États-Unis dans la Seconde Guerre mondiale que les agents du renseignement britanniques ont travaillé pour aider les candidats au Congrès engagés dans l’intervention et pour discréditer les isolationnistes.
L’une des cibles était l’éminent représentant républicain isolationniste des États-Unis, Hamilton Fish. En faisant circuler une photo de Fish et du chef d’un groupe pro-nazi américain prise hors de son contexte, les Britanniques ont cherché à présenter faussement Fish comme un partisan des éléments nazis à l’étranger et aux États-Unis.
L’IA peut-elle être contrôlée ?
Reconnaissant qu’il n’est pas nécessaire de recourir à une nouvelle technologie pour nuire, les acteurs malveillants peuvent exploiter l’efficacité intégrée de l’IA pour créer un formidable défi aux opérations et à l’intégrité des élections.
Les efforts fédéraux visant à réglementer l’utilisation de l’IA dans la politique électorale se heurtent au même défi que la plupart des propositions visant à réglementer les campagnes politiques. Les États ont été plus actifs : 19 d’entre eux interdisent ou restreignent désormais les deepfakes dans les campagnes politiques.
Certaines plateformes se livrent à une légère auto-modération. Gemini de Google répond aux invites demandant des informations de base sur les élections en disant : « Je ne peux pas vous aider avec des réponses sur les élections et les personnalités politiques pour le moment. »
Les professionnels de la campagne peuvent également recourir à un peu d’autorégulation. Plusieurs intervenants lors d’une conférence sur la technologie de campagne en mai 2024 ont exprimé leur inquiétude quant aux réactions des électeurs s’ils apprenaient qu’une campagne utilise la technologie de l’IA. En ce sens, l’inquiétude du public à l’égard de l’IA pourrait être productive, en créant une sorte de garde-fou.
Mais le revers de la médaille de cette préoccupation du public – ce que Nate Persily de l’Université de Stanford appelle « la panique de l’IA » – est qu’elle peut éroder davantage la confiance dans les élections.