L’effondrement de plusieurs milliards de {dollars} de FTX – la bourse de crypto-monnaie très médiatisée dont le fondateur attend maintenant son procès pour fraude – nous rappelle brutalement les risks de la tromperie dans le monde financier.
Les mensonges du fondateur de FTX, Sam Bankman-Fried, remontent aux tout débuts de l’entreprise, selon les procureurs. Il aurait menti aux shoppers et aux investisseurs, affirme-t-on, dans le cadre de ce que le procureur américain Damian Williams a qualifié de « l’une des plus grandes fraudes financières de l’histoire américaine ».
Remark tant de gens ont-ils pu être trompés ?
Une nouvelle étude parue dans le Strategic Administration Journal apporte un éclairage sur la query. Dans cet ouvrage, mes collègues et moi avons découvert que même les analystes financiers professionnels se laissent prendre aux mensonges des PDG – et que les analystes les plus respectés sont peut-être les plus crédules.
Les analystes financiers donnent des conseils d’consultants pour aider les entreprises et les investisseurs à gagner de l’argent. Ils prédisent combien une entreprise gagnera et suggèrent d’acheter ou de vendre ses actions. En dirigeant l’argent vers de bons investissements, ils aident non seulement les entreprises individuelles, mais aussi l’économie dans son ensemble, à se développer.
Mais même si les analystes financiers sont rémunérés pour leurs conseils, ils ne sont pas des oracles. En tant que professeur de gestion, je me demandais à quelle fréquence ils étaient trompés par des dirigeants menteurs. Mes collègues et moi avons donc utilisé l’apprentissage automatique pour le découvrir. Nous avons développé un algorithme, formé sur les transcriptions des appels de résultats du S&P 1500 de 2008 à 2016, qui peut détecter de manière fiable la tromperie dans 84 % du temps. Plus précisément, l’algorithme identifie des modèles linguistiques distincts qui se produisent lorsqu’un individu ment.
Nos résultats ont été frappants. Nous avons constaté que les analystes étaient bien plus susceptibles de formuler des recommandations d’achat ou d’achat fort après avoir écouté des PDG trompeurs – de près de 28 factors de pourcentage en moyenne – que leurs homologues plus honnêtes.
Nous avons également constaté que les analystes très estimés tombaient plus souvent dans le piège des mensonges des PDG que leurs homologues moins connus. En fait, ceux nommés analystes « all-star » par l’éditeur spécialisé Institutional Investor étaient 5,3 factors de pourcentage plus susceptibles de valoriser les PDG habituellement malhonnêtes que leurs homologues moins célèbres.
Bien que nous ayons appliqué cette technologie pour mieux comprendre ce secteur de la finance dans le cadre d’une étude universitaire, son utilisation plus giant soulève un sure nombre de questions éthiques difficiles concernant l’utilisation de l’IA pour mesurer des constructions psychologiques.
Parti pris en faveur de la croyance
Cela semble contre-intuitif : pourquoi les professionnels qui donnent des conseils financiers se laisseraient-ils systématiquement prendre par des dirigeants menteurs ? Et pourquoi les conseillers les plus réputés semblent-ils avoir les pires résultats ?
Ces résultats reflètent la tendance humaine naturelle à supposer que les autres sont honnêtes – ce que l’on appelle le « biais de vérité ». Grâce à cette habitude d’esprit, les analystes sont tout aussi susceptibles de mentir que n’importe qui d’autre.
De plus, nous avons constaté qu’un statut élevé favorise un biais de vérité plus fort. Premièrement, les analystes « étoiles » acquièrent souvent un sentiment d’excès de confiance et de droit à mesure qu’ils gagnent en status. Ils commencent à croire qu’ils sont moins susceptibles d’être trompés, ce qui les amène à prendre les PDG au pied de la lettre. Deuxièmement, ces analystes ont tendance à entretenir des relations plus étroites avec les PDG, ce qui, selon des études, peut accroître le biais de vérité. Cela les rend encore plus sujets à la tromperie.
Compte tenu de cette vulnérabilité, les entreprises voudront peut-être réévaluer la crédibilité des désignations « all-star ». Nos recherches soulignent également l’significance de la responsabilité en matière de gouvernance et la nécessité de systèmes institutionnels solides pour contrer les préjugés individuels.
Un « détecteur de mensonge » IA ?
L’outil que nous avons développé pour cette étude pourrait avoir des functions bien au-delà du monde des affaires. Nous avons validé l’algorithme à l’aide de transcriptions frauduleuses, d’articles rétractés dans des revues médicales et de vidéos YouTube trompeuses. Il pourrait facilement être déployé dans différents contextes.
Il est necessary de noter que l’outil ne mesure pas directement la tromperie ; il identifie les modèles de langage associés au mensonge. Cela signifie que même si elle est très précise, elle est vulnerable de donner lieu à des fake positifs comme à des fake négatifs – et les fausses allégations de malhonnêteté en particulier pourraient avoir des conséquences dévastatrices.
De plus, des outils comme celui-ci peinent à distinguer les « mensonges blancs » socialement bénéfiques – qui favorisent un sentiment de communauté et de bien-être émotionnel – des mensonges plus graves. Signaler toutes les tromperies sans discernement pourrait perturber des dynamiques sociales complexes, entraînant des conséquences inattendues.
Ces questions devront être résolues avant que ce sort de technologie ne soit largement adopté. Mais cet avenir est plus proche que beaucoup ne le pensent : des entreprises dans des domaines tels que l’investissement, la sécurité et l’assurance commencent déjà à l’utiliser.
De grandes questions demeurent
L’utilisation généralisée de l’IA pour détecter les mensonges aurait de profondes implications sociales, notamment en rendant plus difficile pour les puissants de mentir sans conséquence.
Cela peut sembler sans aucun doute une bonne selected. Mais si la technologie offre des avantages indéniables, comme la détection précoce des menaces ou des fraudes, elle pourrait également inaugurer une tradition de transparence périlleuse. Dans un tel monde, les pensées et les émotions pourraient devenir soumises à des mesures et à des jugements, érodant ainsi le sanctuaire de la vie privée mentale.
Cette étude soulève également des questions éthiques sur l’utilisation de l’IA pour mesurer des caractéristiques psychologiques, notamment en matière de confidentialité et de consentement. Contrairement à la recherche traditionnelle sur la tromperie, qui s’appuie sur des sujets humains qui consentent à être étudiés, ce modèle d’IA fonctionne secrètement, détectant des modèles linguistiques nuancés à l’insu du locuteur.
Les implications sont stupéfiantes. Par exemple, dans cette étude, nous avons développé un deuxième modèle d’apprentissage automatique pour évaluer le niveau de suspicion dans le ton d’un locuteur. Imaginez un monde où les spécialistes des sciences sociales peuvent créer des outils pour évaluer n’importe quelle facette de votre psychologie, en les appliquant sans votre consentement. Ce n’est pas très attrayant, n’est-ce pas ?
Alors que nous entrons dans une nouvelle ère de l’IA, les outils psychométriques avancés offrent à la fois des promesses et des périls. Ces applied sciences pourraient révolutionner le monde des affaires en fournissant des informations sans précédent sur la psychologie humaine. Ils pourraient également violer les droits des personnes et déstabiliser la société de manière surprenante et inquiétante. Les décisions que nous prenons aujourd’hui – en matière d’éthique, de surveillance et d’utilisation responsable – détermineront le cap pour les années à venir.