Le 21 janvier 2024, un nombre inconnu d’électeurs du New Hampshire ont reçu un appel téléphonique de ce qui ressemblait au président Joe Biden. Un enregistrement contient la voix de Biden exhortant les électeurs enclins à soutenir Biden et le Parti démocrate à ne pas participer aux élections primaires du GOP du New Hampshire le 23 janvier.
Les républicains tentent de pousser les électeurs non partisans et démocrates à participer à leurs primaires. Quelle bande de conneries. Nous connaissons la valeur de voter démocrate lorsque nos votes comptent. Il est necessary que vous gardiez votre vote pour les élections de novembre. Nous aurons besoin de votre aide pour élire les démocrates de haut en bas. Voter ce mardi ne fera que permettre aux Républicains, dans leur quête, de réélire Donald Trump. Votre vote fait la différence en novembre, pas ce mardi. Si vous souhaitez être exclu des prochains appels, veuillez appuyer sur deux maintenant.
Cet appel implique à tort qu’un démocrate inscrit pourrait voter à la primaire républicaine et qu’un électeur qui vote à la primaire ne serait pas éligible pour voter aux élections générales de novembre. L’État autorise les électeurs non inscrits à participer aux primaires républicaines ou démocrates.
L’appel, deux jours avant la primaire, semble avoir été un deepfake d’intelligence artificielle. Il semble également qu’il s’agisse d’une tentative de décourager le vote. Biden n’est pas sur le bulletin de vote en raison d’un différend entre le Comité nationwide démocrate et les démocrates du New Hampshire concernant la place du New Hampshire dans le calendrier des primaires, mais il y a une campagne écrite pour Biden.
Les appels automatisés lors des élections ne sont ni nouveaux ni illégaux ; beaucoup ne sont que des efforts pour faire sortir le vote. Mais ils ont également été utilisés dans des campagnes de répression des électeurs. Dans ce cas, ce problème est aggravé par ce que je pense être l’software de l’IA pour cloner la voix de Biden.
Dans un écosystème médiatique plein de bruit, les signaux brouillés tels que les appels automatisés deepfakes rendent pratiquement unimaginable la distinction entre les faits et les fake.
Récemment, un sure nombre d’entreprises sont apparues en ligne et proposent l’usurpation d’identité en tant que service. Pour les utilisateurs comme vous et moi, c’est aussi easy que de sélectionner un homme politique, une célébrité ou un dirigeant comme Joe Biden, Donald Trump ou Elon Musk dans un menu et de taper un script de ce que vous voulez qu’il dise, et le website Internet crée le deepfake. automatiquement. Bien que la sortie audio et vidéo soit généralement saccadée et guinchée, lorsque l’audio est transmis by way of un appel automatisé, il est très crédible. Vous pourriez facilement penser que vous entendez un enregistrement de Joe Biden, mais en réalité, il s’agit d’une désinformation créée par une machine.
Le contexte est la clé
Je suis un spécialiste des médias et de la désinformation. En 2019, le spécialiste de l’data Brit Paris et moi-même avons étudié remark les réseaux contradictoires génératifs – ce que la plupart des gens considèrent aujourd’hui comme l’IA – transformeraient la manière dont les establishments évaluent les preuves et prennent des décisions lorsqu’elles jugent des manipulations audio et vidéo réalistes. Ce que nous avons découvert, c’est qu’aucun média n’est fiable à première vue ; c’est plutôt le contexte qui compte pour faire une interprétation.
Lorsqu’il s’agit de désinformation renforcée par l’IA, la crédibilité des deepfakes dépend de l’endroit où vous les voyez ou de l’entendez, ou de qui les partage. Sans une supply valide et confirmée attestant de ce fait, un deepfake peut être intéressant ou drôle, mais ne passera jamais devant un tribunal. Cependant, les deepfakes peuvent toujours être préjudiciables lorsqu’ils sont utilisés dans le however de supprimer le vote ou de façonner l’opinion publique sur des questions controversées.
Les campagnes de désinformation renforcées par l’IA sont difficiles à contrer, automotive pour démasquer la supply, il faut suivre la hint des métadonnées, c’est-à-dire les données relations à un média. La manière dont cela se fait varie en fonction de la méthode de distribution : appels automatisés, réseaux sociaux, e-mail, SMS ou websites Internet. À l’heure actuelle, la recherche sur la manipulation audio et vidéo est plus difficile automotive de nombreuses grandes entreprises technologiques ont fermé l’accès à leurs interfaces de programmation d’purposes, qui permettent aux chercheurs de collecter des données sur les médias sociaux, et les entreprises ont mis fin à leur confiance et à leur sécurité. équipes.
Connaissances locales précises et opportunes
À bien des égards, la désinformation renforcée par l’IA, comme l’appel automatisé du New Hampshire, pose les mêmes problèmes que toute autre forme de désinformation. Les personnes qui utilisent l’IA pour perturber les élections sont susceptibles de faire ce qu’elles peuvent pour cacher leurs traces. C’est pourquoi il est nécessaire que le public reste sceptique quant aux affirmations qui ne proviennent pas de sources vérifiées, telles que les journaux télévisés locaux ou les comptes de réseaux sociaux. organismes de presse réputés.
Il est également necessary que le public comprenne de quoi sont capables les nouvelles applied sciences de manipulation audio et visuelle. Maintenant que la technologie est devenue largement disponible et avec une année électorale charnière à venir, le fake appel automatisé de Biden n’est que la dernière d’une série de campagnes de désinformation renforcées par l’IA.
Je crois que la société doit apprendre à vénérer ce que j’appelle TALK : un savoir native opportun, précis. Je crois qu’il est necessary de concevoir des systèmes de médias sociaux qui valorisent les connaissances locales précises et opportunes plutôt que les perturbations et les divisions.
Il est également necessary de faire en sorte qu’il soit plus difficile pour les désinformateurs de tirer revenue de la sape de la démocratie. Par exemple, l’utilisation malveillante de la technologie pour supprimer la participation électorale devrait faire l’objet d’une enquête rigoureuse de la half des autorités policières fédérales et étatiques.
Même si les deepfakes peuvent surprendre les gens, ils ne devraient pas nous prendre au dépourvu, aussi lente soit la vérité par rapport à la vitesse de la désinformation.