Google a récemment fait la une des journaux dans le monde entier parce que son chatbot Gemini a généré des images de personnes de couleur au lieu de personnes blanches dans des contextes historiques mettant en vedette des personnes blanches. L’outil de création d’images d’Adobe Firefly a rencontré des problèmes similaires. Cela a amené certains commentateurs à se plaindre du fait que l’IA s’était « réveillée ». D’autres ont suggéré que ces problèmes résultaient d’efforts erronés pour lutter contre les préjugés liés à l’IA et mieux servir un public mondial.
Les discussions sur les tendances politiques d’AI et les efforts visant à lutter contre les préjugés sont importantes. Pourtant, le débat sur l’IA ignore une autre question cruciale : quelle est l’approche de l’industrie de l’IA en matière de liberté d’expression et respecte-t-elle les normes internationales en matière de liberté d’expression ?
Nous sommes des chercheurs en politiques qui étudient la liberté d’expression, ainsi que directeur exécutif et chercheur à The Future of Free Speech, un groupe de réflexion indépendant et non partisan basé à l’Université Vanderbilt. Dans un rapport récent, nous avons constaté que l’IA générative présente d’importantes lacunes en matière de liberté d’expression et d’accès à l’information.
L’IA générative est un type d’IA qui crée du contenu, comme du texte ou des images, sur la base des données avec lesquelles il a été formé. Nous avons notamment constaté que les politiques d’utilisation des principaux chatbots ne répondent pas aux normes des Nations Unies. En pratique, cela signifie que les chatbots IA censurent souvent les résultats lorsqu’ils traitent de questions jugées controversées par les entreprises. Sans une solide culture de liberté d’expression, les entreprises produisant des outils d’IA générative risquent de continuer à faire face à des réactions négatives en ces temps de plus en plus polarisés.
Politiques d’utilisation vagues et larges
Notre rapport a analysé les politiques d’utilisation de six chatbots IA majeurs, dont Gemini de Google et ChatGPT d’OpenAI. Les entreprises émettent des politiques pour définir les règles sur la manière dont les gens peuvent utiliser leurs modèles. En prenant comme référence le droit international des droits de l’homme, nous avons constaté que les politiques des entreprises en matière de désinformation et de discours de haine sont trop vagues et trop vastes. Il convient de noter que le droit international des droits de l’homme protège moins la liberté d’expression que le premier amendement américain.
Notre analyse a révélé que les politiques des entreprises en matière de discours haineux contiennent des interdictions extrêmement larges. Par exemple, Google interdit la génération de « contenus qui promeuvent ou encouragent la haine ». Bien que les discours de haine soient détestables et puissent causer du tort, des politiques définies de manière aussi large et vague que celles de Google peuvent se retourner contre elles.
Pour montrer à quel point des politiques d’utilisation vagues et larges peuvent affecter les utilisateurs, nous avons testé une série de messages sur des sujets controversés. Nous avons posé aux chatbots des questions telles que si les femmes transgenres devraient ou non être autorisées à participer aux tournois sportifs féminins ou sur le rôle du colonialisme européen dans la crise actuelle du climat et des inégalités. Nous n’avons pas demandé aux chatbots de produire des discours de haine dénigrant un camp ou un groupe. Semblable à ce que certains utilisateurs ont signalé, les chatbots ont refusé de générer du contenu pour 40 % des 140 invites que nous avons utilisées. Par exemple, tous les chatbots ont refusé de générer des posts s’opposant à la participation des femmes transgenres aux tournois féminins. Cependant, la plupart d’entre eux ont publié des messages soutenant leur participation.
Les politiques formulées de manière vague s’appuient en grande partie sur les opinions subjectives des modérateurs sur ce qu’est le discours de haine. Les utilisateurs peuvent également percevoir que les règles sont injustement appliquées et les interpréter comme trop strictes ou trop indulgentes.
Par exemple, le chatbot Pi interdit « les contenus susceptibles de diffuser des informations erronées ». Cependant, les normes internationales des droits de l’homme sur la liberté d’expression protègent généralement la désinformation à moins qu’il n’existe une justification solide pour les limites, comme l’ingérence étrangère dans les élections. Par ailleurs, les normes des droits de l’homme garantissent la « liberté de rechercher, de recevoir et de diffuser des informations et des idées de toutes sortes, sans distinction de frontières… par le biais de… médias de… choix », selon une convention clé des Nations Unies.
Définir ce qui constitue une information exacte a également des implications politiques. Les gouvernements de plusieurs pays ont utilisé les règles adoptées dans le contexte de la pandémie de COVID-19 pour réprimer les critiques à l’égard du gouvernement. Plus récemment, l’Inde a confronté Google après que Gemini ait noté que certains experts considéraient la politique du Premier ministre indien, Narendra Modi, comme fasciste.
Culture de la liberté d’expression
Il existe des raisons pour lesquelles les fournisseurs d’IA peuvent vouloir adopter des politiques d’utilisation restrictives. Ils souhaitent peut-être protéger leur réputation et ne pas être associés à des contenus controversés. S’ils s’adressent à un public mondial, ils voudront peut-être éviter les contenus offensants dans n’importe quelle région.
En général, les fournisseurs d’IA ont le droit d’adopter des politiques restrictives. Ils ne sont pas liés par les droits humains internationaux. Pourtant, leur pouvoir de marché les différencie des autres entreprises. Les utilisateurs qui souhaitent générer du contenu IA finiront très probablement par utiliser l’un des chatbots que nous avons analysés, notamment ChatGPT ou Gemini.
Les politiques de ces entreprises ont un effet démesuré sur le droit d’accès à l’information. Cet effet est susceptible d’augmenter avec l’intégration de l’IA générative dans les applications de recherche, de traitement de texte, de messagerie électronique et autres.
Cela signifie que la société a intérêt à garantir que de telles politiques protègent adéquatement la liberté d’expression. En fait, la loi sur les services numériques, le règlement européen sur la sécurité en ligne, exige que les « très grandes plateformes en ligne » évaluent et atténuent les « risques systémiques ». Ces risques incluent des effets négatifs sur la liberté d’expression et d’information.
Cette obligation, imparfaitement appliquée jusqu’à présent par la Commission européenne, illustre qu’un grand pouvoir implique de grandes responsabilités. On ne sait pas exactement comment cette loi s’appliquera à l’IA générative, mais la Commission européenne a déjà pris ses premières mesures.
Même lorsqu’une obligation légale similaire ne s’applique pas aux fournisseurs d’IA, nous pensons que l’influence des entreprises devrait les obliger à adopter une culture de liberté d’expression. Les droits humains internationaux constituent un guide utile sur la manière d’équilibrer de manière responsable les différents intérêts en jeu. Au moins deux des entreprises sur lesquelles nous nous sommes concentrés – Google et Anthropic – l’ont reconnu.
Refus catégoriques
Il est également important de se rappeler que les utilisateurs disposent d’un degré important d’autonomie sur le contenu qu’ils voient dans l’IA générative. Comme pour les moteurs de recherche, le résultat que les utilisateurs reçoivent dépend grandement de leurs invites. Par conséquent, l’exposition des utilisateurs aux discours de haine et à la désinformation provenant de l’IA générative sera généralement limitée, à moins qu’ils ne le recherchent spécifiquement.
C’est différent des réseaux sociaux, où les gens ont beaucoup moins de contrôle sur leurs propres flux. Des contrôles plus stricts, y compris sur le contenu généré par l’IA, peuvent être justifiés au niveau des médias sociaux dans la mesure où ils diffusent du contenu publiquement. Pour les fournisseurs d’IA, nous pensons que les politiques d’utilisation devraient être moins restrictives quant aux informations que les utilisateurs peuvent générer que celles des plateformes de médias sociaux.
Les sociétés d’IA disposent d’autres moyens pour lutter contre les discours de haine et la désinformation. Par exemple, ils peuvent fournir un contexte ou des faits compensatoires dans le contenu qu’ils génèrent. Ils peuvent également permettre une plus grande personnalisation de l’utilisateur. Nous pensons que les chatbots devraient éviter de simplement refuser de générer du contenu. Ceci à moins qu’il n’existe de solides motifs d’intérêt public, comme la prévention des contenus pédopornographiques, ce que la loi interdit.
Les refus de générer du contenu n’affectent pas seulement les droits fondamentaux à la liberté d’expression et à l’accès à l’information. Ils peuvent également pousser les utilisateurs vers des chatbots spécialisés dans la génération de contenus haineux et de chambres d’écho. Ce serait un résultat inquiétant.