Le 8 février 2024, la Federal Communications Fee a interdit les appels automatisés utilisant des voix générées par l’intelligence artificielle.
La loi de 1991 sur la safety des consommateurs par téléphone interdit les voix artificielles dans les appels automatisés. La décision de la FCC du 8 février déclare que les voix générées par l’IA, y compris les clones de voix réelles, sont artificielles et donc interdites par la loi.
Cette décision fait suite à un appel automatisé le 21 janvier 2024, émanant de ce qui ressemblait au président Joe Biden. L’appel avait la voix de Biden exhortant les électeurs enclins à soutenir Biden et le Parti démocrate à ne pas participer aux élections primaires du GOP du New Hampshire le 23 janvier. L’appel impliquait à tort qu’un démocrate inscrit pourrait voter à la primaire républicaine et qu’un électeur ayant voté à la primaire ne serait pas éligible pour voter aux élections générales de novembre.
L’appel, deux jours avant la primaire, semble avoir été un deepfake d’intelligence artificielle. Il semble également qu’il s’agisse d’une tentative de décourager le vote.
La FCC et le bureau du procureur général du New Hampshire enquêtent sur cet appel. Le 6 février 2024, le procureur général du New Hampshire, John Formella, a identifié deux sociétés texanes, Life Corp. et Lingo Telecom, comme étant respectivement la supply et l’émetteur de l’appel.
Injecter de la confusion
Les appels automatisés lors des élections ne sont ni nouveaux ni illégaux ; beaucoup ne sont que des efforts pour faire sortir le vote. Mais ils ont également été utilisés dans des campagnes de répression des électeurs. Ce problème est aggravé dans ce cas par l’software de l’IA pour cloner la voix de Biden.
Dans un écosystème médiatique plein de bruit, les signaux brouillés tels que les appels automatisés deepfakes rendent pratiquement unimaginable la distinction entre les faits et les fake.
Récemment, un sure nombre d’entreprises sont apparues en ligne et proposent l’usurpation d’identité en tant que service. Pour les utilisateurs comme vous et moi, c’est aussi easy que de sélectionner un homme politique, une célébrité ou un dirigeant comme Joe Biden, Donald Trump ou Elon Musk dans un menu et de taper un script de ce que vous voulez qu’il dise, et le website Net crée le deepfake. automatiquement.
Bien que la sortie audio et vidéo soit généralement saccadée et guinchée, lorsque l’audio est transmis by way of un appel automatisé, il est très crédible. Vous pourriez facilement penser que vous entendez un enregistrement de Joe Biden, mais en réalité, il s’agit d’une désinformation créée par une machine.
Le contexte est la clé
Je suis un spécialiste des médias et de la désinformation. En 2019, le spécialiste de l’data Brit Paris et moi avons étudié remark les réseaux contradictoires génératifs – ce que la plupart des gens considèrent aujourd’hui comme l’IA – transformeraient la manière dont les establishments évaluent les preuves et prennent des décisions lorsqu’elles jugent des manipulations audio et vidéo réalistes. Ce que nous avons découvert, c’est qu’aucun média n’est fiable à première vue ; c’est plutôt le contexte qui compte pour faire une interprétation.
En matière de désinformation renforcée par l’IA, la crédibilité des deepfakes dépend de l’endroit où vous les voyez ou entendez, ou de la personne qui les partage. Sans une supply valide et confirmée attestant de ce fait, un deepfake peut être intéressant ou drôle, mais ne passera jamais devant un tribunal. Cependant, les deepfakes peuvent toujours être préjudiciables lorsqu’ils sont utilisés dans le however de supprimer le vote ou de façonner l’opinion publique sur des questions controversées.
Les campagnes de désinformation renforcées par l’IA sont difficiles à contrer, automobile pour démasquer la supply, il faut suivre la hint des métadonnées, c’est-à-dire les données family à un média. La manière dont cela se fait varie en fonction de la méthode de distribution : appels automatisés, réseaux sociaux, e-mail, SMS ou websites Net. À l’heure actuelle, la recherche sur la manipulation audio et vidéo est plus difficile automobile de nombreuses grandes entreprises technologiques ont fermé l’accès à leurs interfaces de programmation d’functions, qui permettent aux chercheurs de collecter des données sur les médias sociaux, et les entreprises ont mis fin à leur confiance et à leur sécurité. équipes.
Connaissances locales précises et ponctuelles
À bien des égards, la désinformation renforcée par l’IA, comme l’appel automatisé du New Hampshire, pose les mêmes problèmes que toute autre forme de désinformation. Les personnes qui utilisent l’IA pour perturber les élections sont susceptibles de faire ce qu’elles peuvent pour cacher leurs traces. C’est pourquoi il est nécessaire que le public reste sceptique quant aux affirmations qui ne proviennent pas de sources vérifiées, telles que les journaux télévisés locaux ou les comptes de réseaux sociaux. organismes de presse réputés.
Il est également essential que le public comprenne de quoi sont capables les nouvelles applied sciences de manipulation audio et visuelle. Maintenant que la technologie est devenue largement disponible et avec une année électorale charnière à venir, le fake appel automatisé de Biden n’est que le dernier d’une série de campagnes de désinformation renforcées par l’IA, même si ces appels sont désormais explicitement illégaux.
Je crois que la société doit apprendre à vénérer ce que j’appelle TALK : un savoir native opportun, précis. Je crois qu’il est essential de concevoir des systèmes de médias sociaux qui valorisent les connaissances locales précises et opportunes plutôt que les perturbations et les divisions.
Il est également essential de faire en sorte qu’il soit plus difficile pour les désinformateurs de tirer revenue de la sape de la démocratie. Par exemple, l’utilisation malveillante de la technologie pour supprimer la participation électorale devrait faire l’objet d’une enquête rigoureuse de la half des autorités policières fédérales et étatiques.
Même si les deepfakes peuvent surprendre les gens, ils ne devraient pas nous prendre au dépourvu, aussi lente soit la vérité par rapport à la vitesse de la désinformation.
Il s’agit d’une model mise à jour d’un article initialement publié le 23 janvier 2024.