La ville de Lancaster, en Pennsylvanie, a été ébranlée par des révélations en décembre 2023 que deux adolescents locaux partageaient des centaines d’images nues de filles dans leur communauté pour un chat privé sur la plate-forme de chat sociale Discord. Des témoins ont déclaré que les photos auraient pu être confondues avec de vraies, mais elles étaient fausses. Les garçons avaient utilisé un outil d’intelligence artificielle pour superposer de vraies photos des visages des filles sur des images sexuellement explicites.
Avec des troves de vraies photos disponibles sur les plateformes de médias sociaux et des outils d’IA devenant plus accessibles sur le Web, des incidents similaires se sont déroulés à travers le pays, de la Californie au Texas et au Wisconsin. Une récente enquête du Center for Democracy and Technology, un organisme à but non lucratif basé à Washington DC, a révélé que 15% des élèves et 11% des enseignants connaissaient au moins une profondeur qui représentait une personne associée à leur école d’une manière sexuellement explicite ou intime.
La Cour suprême a implicitement conclu que les images pornographiques générées par ordinateur basées sur des images de vrais enfants sont illégales. L’utilisation de technologies génératrices d’IA pour faire des images pornographiques profondes de mineurs relève presque certainement de la portée de cette décision. En tant que chercheur juridique qui étudie l’intersection du droit constitutionnel et des technologies émergentes, je vois un défi émergent du statu quo: des images générées par l’AI qui sont entièrement fausses mais indiscernables de vraies photos.
Police du matériel d’abus sexuel des enfants
Bien que l’architecture d’Internet ait toujours rendu difficile le contrôle de ce qui est partagé en ligne, il existe quelques types de contenu que la plupart des autorités réglementaires du monde entier conviennent. La pornographie juvénile est en haut de cette liste.
Pendant des décennies, les organismes chargés de l’application des lois ont travaillé avec les grandes entreprises technologiques pour identifier et supprimer ce type de matériel du Web et poursuivre ceux qui les créent ou les circuler. Mais l’avènement de l’intelligence artificielle générative et des outils faciles à accès comme ceux utilisés dans le cas de Pennsylvanie présentent un nouveau défi épineux pour de tels efforts.
Dans le domaine juridique, la pornographie juvénile est généralement appelée matériel d’abus sexuel pour enfants, ou CSAM, car le terme reflète mieux l’abus qui est représenté dans les images et les vidéos et le traumatisme qui en résulte aux enfants impliqués. En 1982, la Cour suprême a statué que la pornographie juvénile n’est pas protégée par le premier amendement, car la sauvegarde du bien-être physique et psychologique d’un mineur est un intérêt gouvernemental convaincant qui justifie les lois qui interdisent le matériel d’abus sexuel des enfants.
Cette affaire, New York c. Ferber, a effectivement permis au gouvernement fédéral et aux 50 États de criminaliser le matériel traditionnel de violence sexuelle sur les enfants. Mais une affaire ultérieure, Ashcroft c. Free Speech Coalition de 2002, pourrait compliquer les efforts de criminalisation de matériel d’abus sexuel généré par les enfants générés par l’IA. Dans cette affaire, le tribunal a annulé une loi qui a interdit la pornographie juvénile générée par ordinateur, ce qui l’a rendu légal.
L’intérêt du gouvernement à protéger le bien-être physique et psychologique des enfants, selon le tribunal, n’a pas été impliqué lorsque un tel matériel obscène est généré par ordinateur. “La pornographie juvénile virtuelle n’est pas” intrinsèquement liée “aux abus sexuels des enfants”, a écrit le tribunal.
Les États se déplacent pour criminaliser le CSAM généré par l’AI-AI
Selon l’Organisation de défense des enfants suffisamment abus, 37 États ont criminalisé le CSAM généré par l’AI-généré par l’IA, soit en modification des lois sur les matériaux de violence sexuelle sur les enfants, soit en modifiant les nouveaux. Plus de la moitié de ces 37 États ont adopté de nouvelles lois ou modifié leurs existants au cours de la dernière année.
La Californie, par exemple, a promulgué le projet de loi de l’Assemblée 1831 le 29 septembre 2024, qui a modifié son code pénal pour interdire la création, la vente, la possession et la distribution de toute question «numériquement modifiée ou générée par l’intelligence artificielle» qui représente une personne de moins de 18 ans s’engager ou simuler une conduite sexuelle.
Alors que certaines de ces lois des États ciblent l’utilisation de photos de personnes réelles pour générer ces contrefaçons profondes, d’autres vont plus loin, définissant le matériel d’abus sexuel des enfants comme «toute image d’une personne qui semble être mineure de moins de 18 ans impliquée dans l’activité sexuelle», ” selon suffisamment d’abus. Des lois comme celles-ci qui englobent les images produites sans représentation de vrais mineurs pourraient être à l’encontre de la décision Ashcroft c. Free Speech Coalition de la Cour suprême.
Réel vs faux, et faire la différence
Peut-être que la partie la plus importante de la décision d’Ashcroft pour les questions émergentes concernant le matériel d’abus sexuel généré par les enfants AI-AI a fait partie du statut que la Cour suprême n’a pas démolie. Cette disposition de la loi interdisait «les moyens technologiques plus communs et plus bas de la création virtuelle (matériau d’abus sexuel pour enfants), connu sous le nom de morphing informatique», qui implique de prendre des photos de vrais mineurs et de les transformer en représentations sexuellement explicites.
La décision de la Cour a déclaré que ces représentations sexuellement explicites modifiaient numériquement des mineurs «impliquent les intérêts de vrais enfants et sont en ce sens plus près des images de Ferber». La décision a fait référence à l’affaire de 1982, New York c. Ferber, dans laquelle la Cour suprême a confirmé un statut pénal de New York qui interdisait aux personnes de promouvoir sciemment des performances sexuelles par des enfants de moins de 16 ans.
Les décisions de la Cour à Ferber et Ashcroft pourraient être utilisées pour affirmer que toute image sexuellement explicite de l’AI-AI de vrais mineurs ne devrait pas être protégée comme la liberté d’expression compte tenu des méfaits psychologiques infligés aux vrais mineurs. Mais cet argument n’a pas encore été avancé devant le tribunal. La décision du tribunal dans Ashcroft peut permettre aux images sexuellement explicites de l’AI-générée par l’AI de faux mineurs.
Mais le juge Clarence Thomas, qui a conclu à Ashcroft, a averti que «si les progrès technologiques ont contrecarré la poursuite de« discours illégal », le gouvernement pourrait bien avoir un intérêt impérieux à interdire ou à réglementer autrement une catégorie étroite de` `discours légal ‘ Lois contre la pornographie faite par l’abus de vrais enfants. »
Avec les récentes avancées importantes dans l’IA, il peut être difficile, voire impossible, pour les responsables de l’application des lois de faire la distinction entre les images de vrais et de faux enfants. Il est possible que nous ayons atteint le point où des matériaux d’abus sexuels d’enfants générés par ordinateur devront être interdits afin que les gouvernements fédéral et des États puissent appliquer efficacement les lois visant à protéger les vrais enfants – le point que Thomas a mis en garde il y a plus de 20 ans.
Dans l’affirmative, un accès facile aux outils d’IA génératifs est susceptible de forcer les tribunaux à s’attaquer au problème.