L’intelligence artificielle émotionnelle utilise des signaux biologiques tels que le ton de la voix, les expressions faciales et les données des appareils portables, ainsi que le texte et la façon dont les gens utilisent leur ordinateur, promettant de détecter et de prédire ce que ressent une personne. Il est utilisé dans des contextes à la fois banals, comme le divertissement, et à enjeux élevés, comme le lieu de travail, le recrutement et les soins de santé.
Un large éventail de secteurs utilisent déjà l’IA émotionnelle, notamment les centres d’appels, la finance, la banque, les soins infirmiers et les soins. Aux États-Unis, plus de 50 % des grands employeurs utilisent l’IA émotionnelle dans le but de déduire l’état interne des employés, une pratique qui s’est développée pendant la pandémie de COVID-19. Par exemple, les centres d’appels surveillent ce que disent leurs opérateurs et le ton de leur voix.
Les chercheurs ont exprimé leurs inquiétudes quant à la validité scientifique de l’IA émotionnelle et à sa dépendance à l’égard de théories contestées sur l’émotion. Ils ont également souligné le potentiel de l’IA émotionnelle à envahir la vie privée et à présenter des préjugés raciaux, sexuels et liés au handicap.
Certains employeurs utilisent la technologie comme si elle était sans faille, tandis que certains chercheurs cherchent à réduire ses biais et à améliorer sa validité, à la discréditer complètement ou à suggérer d’interdire l’IA émotionnelle, du moins jusqu’à ce que l’on en sache davantage sur ses implications.
J’étudie les implications sociales de la technologie. Je crois qu’il est crucial d’examiner les implications de l’IA émotionnelle pour les personnes qui y sont soumises, comme les travailleurs – en particulier celles marginalisées en raison de leur race, de leur sexe ou de leur statut de handicap.
Inquiétudes des travailleurs
Pour comprendre où va l’utilisation de l’IA émotionnelle sur le lieu de travail, ma collègue Karen Boyd et moi-même avons entrepris d’examiner les conceptions des inventeurs de l’IA émotionnelle sur le lieu de travail. Nous avons analysé les demandes de brevet proposant des technologies d’IA émotionnelle pour le lieu de travail. Les prétendus avantages revendiqués par les demandeurs de brevet comprenaient l’évaluation et le soutien du bien-être des employés, la garantie de la sécurité sur le lieu de travail, l’augmentation de la productivité et l’aide à la prise de décision, comme l’octroi de promotions, le licenciement d’employés et l’attribution de tâches.
Nous nous sommes demandé ce que les travailleurs pensaient de ces technologies. Percevraient-ils également ces bénéfices ? Par exemple, les travailleurs trouveraient-ils avantageux que les employeurs leur apportent une aide en matière de bien-être ?
Mes collaboratrices Shanley Corvite, Kat Roemmich, Tillie Ilana Rosenberg et moi-même avons mené une enquête en partie représentative de la population américaine et en partie suréchantillonnée pour les personnes de couleur, les personnes trans et non binaires et les personnes vivant avec une maladie mentale. Ces groupes peuvent être plus susceptibles de subir des préjudices dus à l’IA émotionnelle. Notre étude comptait 289 participants de l’échantillon représentatif et 106 participants du suréchantillon. Nous avons constaté que 32 % des personnes interrogées ont déclaré ne ressentir ou s’attendre à aucun bénéfice de l’utilisation de l’IA émotionnelle, qu’elle soit actuelle ou prévue, sur leur lieu de travail.
Si certains travailleurs ont souligné les avantages potentiels de l’utilisation de l’IA émotionnelle sur le lieu de travail, comme un meilleur soutien au bien-être et à la sécurité sur le lieu de travail, reflétant les avantages revendiqués dans les demandes de brevet, tous ont également exprimé des inquiétudes. Ils étaient préoccupés par les atteintes à leur bien-être et à leur vie privée, par les atteintes à leurs performances professionnelles et à leur situation d’emploi, ainsi que par les préjugés et la stigmatisation en matière de santé mentale à leur encontre.
Par exemple, 51 % des participants ont exprimé des inquiétudes concernant la vie privée, 36 % ont noté le potentiel d’inférences incorrectes que les employeurs accepteraient au pied de la lettre, et 33 % ont exprimé leur inquiétude quant au fait que les inférences émotionnelles générées par l’IA pourraient être utilisées pour prendre des décisions d’emploi injustes.
Les voix des participants
Un participant qui souffrait de multiples problèmes de santé a déclaré : « Le fait de savoir que je suis analysé aurait ironiquement un effet négatif sur ma santé mentale. » Cela signifie que malgré les objectifs déclarés de l’IA émotionnelle consistant à déduire et à améliorer le bien-être des travailleurs sur le lieu de travail, son utilisation peut conduire à l’effet inverse : le bien-être diminue en raison d’une perte d’intimité. En effet, d’autres travaux de mes collègues Roemmich, Florian Schaub et moi-même suggèrent que la perte de vie privée induite par l’IA émotionnelle peut couvrir toute une gamme de préjudices liés à la vie privée, notamment psychologiques, liés à l’autonomie, économiques, relationnels, physiques et à la discrimination.
Craignant que la surveillance émotionnelle ne mette en péril son travail, un participant ayant un problème de santé mentale diagnostiqué a déclaré : « Ils pourraient décider que je ne suis plus un bon candidat au travail et me licencier. Décidez que je ne suis pas assez capable et ne donnez pas d’augmentation, ou pensez que je ne travaille pas assez.
Les participants à l’étude ont également mentionné le potentiel d’exacerbation des déséquilibres de pouvoir et ont déclaré qu’ils avaient peur de la dynamique qu’ils auraient avec les employeurs si l’IA émotionnelle était intégrée sur leur lieu de travail, soulignant comment l’utilisation de l’IA émotionnelle pourrait potentiellement intensifier les tensions déjà existantes au sein de l’employeur. relation de travail. Par exemple, un répondant a déclaré : « Le degré de contrôle que les employeurs exercent déjà sur leurs employés suggère qu’il y aurait peu de contrôles sur la manière dont ces informations seraient utilisées. Tout « consentement » [by] salariés est largement illusoire dans ce contexte.»
Enfin, les participants ont souligné les préjudices potentiels, tels que les inexactitudes techniques de l’IA émotionnelle générant potentiellement de fausses impressions sur les travailleurs, et l’IA émotionnelle créant et perpétuant les préjugés et la stigmatisation à l’égard des travailleurs. En décrivant ces préoccupations, les participants ont souligné leur crainte que les employeurs s’appuient sur des systèmes d’IA émotionnelle inexacts et biaisés, en particulier contre les personnes de couleur, les femmes et les personnes trans.
Par exemple, un participant a déclaré : « Qui décide quelles expressions « semblent violentes » et comment peut-on déterminer que les gens constituent une menace simplement à partir de l’expression de leur visage ? Un système peut lire les visages, bien sûr, mais pas les esprits. Je ne vois tout simplement pas comment cela pourrait être autre chose que destructeur pour les minorités sur le lieu de travail.
Les participants ont indiqué qu’ils refuseraient soit de travailler dans un endroit qui utilise l’IA émotionnelle – une option peu accessible à beaucoup – soit qu’ils adopteraient des comportements permettant à l’IA émotionnelle de les lire favorablement afin de protéger leur vie privée. Un participant a déclaré : « J’exercerais une énorme quantité d’énergie de masquage même lorsque j’étais seul dans mon bureau, ce qui me rendrait très distrait et improductif », soulignant à quel point l’utilisation de l’IA émotionnelle imposerait un travail émotionnel supplémentaire aux travailleurs.
Le mal en vaut-il la peine ?
Ces résultats indiquent que l’IA émotionnelle exacerbe les défis existants rencontrés par les travailleurs sur le lieu de travail, même si ses partisans affirment que l’IA émotionnelle aide à résoudre ces problèmes.
Si l’IA émotionnelle fonctionne comme annoncé et mesure ce qu’elle prétend mesurer, et même si les problèmes de préjugés sont résolus à l’avenir, les travailleurs subiront toujours des préjudices, tels que le travail émotionnel supplémentaire et la perte d’intimité.
Si ces technologies ne mesurent pas ce qu’elles prétendent ou si elles sont biaisées, alors les gens sont à la merci d’algorithmes jugés valides et fiables alors qu’ils ne le sont pas. Les travailleurs devraient encore déployer des efforts pour tenter de réduire les risques d’être mal interprétés par l’algorithme, ou pour s’engager dans des manifestations émotionnelles qui seraient favorables à l’algorithme.
Quoi qu’il en soit, ces systèmes fonctionnent comme des technologies de type panoptique, créant des atteintes à la vie privée et un sentiment d’être observé.