Le conseil d’administration d’OpenAI, créateur des populaires outils d’intelligence artificielle ChatGPT et DALL-E, a licencié Sam Altman, son PDG, fin novembre 2023.
Le chaos s’est ensuivi alors que les investisseurs et les employés se sont rebellés. Au second où le chaos s’est calmé cinq jours plus tard, Altman était revenu triomphalement au sein d’OpenAI au milieu de l’euphorie du personnel, et trois des membres du conseil d’administration qui avaient demandé son éviction avaient démissionné.
La construction du conseil d’administration – un conseil d’administration à however non lucratif supervisant une filiale à however lucratif – semble avoir joué un rôle dans ce drame.
En tant que chercheur en gestion qui étudie la responsabilité, la gouvernance et la efficiency organisationnelles, j’aimerais expliquer remark cette approche hybride est censée fonctionner.
Gouvernance hybride
Altman a cofondé OpenAI en 2015 en tant qu’organisation à however non lucratif exonérée d’impôt dont la mission est de « construire une intelligence artificielle générale (AGI) qui soit sûre et profite à toute l’humanité ». Afin de lever plus de capitaux que ce qu’elle pouvait amasser grâce à des dons caritatifs, OpenAI a ensuite créé une société holding qui lui permet de prélever de l’argent auprès des investisseurs pour une filiale à however lucratif qu’elle a créée.
Les dirigeants d’OpenAI ont choisi cette construction de « gouvernance hybride » pour lui permettre de rester fidèle à sa mission sociale tout en exploitant le pouvoir des marchés pour développer ses opérations et ses revenus. Fusionner le revenue avec le however a permis à OpenAI de lever des milliards auprès d’investisseurs en quête de rendements financiers tout en équilibrant « la commercialité avec la sécurité et la durabilité, plutôt que de se concentrer sur la pure maximisation du revenue », selon une explication sur son website Web.
Les grands investisseurs ont donc un grand intérêt dans le succès de ses opérations. Cela est particulièrement vrai pour Microsoft, qui détient 49 % de la filiale à however lucratif d’OpenAI après avoir investi 13 milliards de {dollars} dans l’entreprise. Mais ces investisseurs n’ont pas droit à des sièges au conseil d’administration comme ils le feraient dans des sociétés typiques.
Et les bénéfices qu’OpenAI retourne à ses investisseurs sont plafonnés à environ 100 fois ce que les investisseurs initiaux ont investi. Cette construction l’oblige à redevenir une organisation à however non lucratif une fois ce level atteint. Au moins en principe, cette conception visait à empêcher l’entreprise de s’écarter de son objectif qui est de profiter à l’humanité en toute sécurité et à éviter de compromettre sa mission en recherchant imprudemment des income.
Autres modèles de gouvernance hybrides
Il existe plus de modèles de gouvernance hybrides qu’on ne le pense.
Par exemple, le Philadelphia Inquirer, un journal à however lucratif, appartient au Lenfest Institute, une organisation à however non lucratif. Cette construction permet au journal d’attirer des investissements sans compromettre son objectif : un journalisme au service des besoins de ses communautés locales.
Patagonia, créateur et fournisseur de vêtements et d’équipements d’extérieur, en est un autre exemple marquant. Son fondateur, Yvon Chouinard, et ses héritiers ont transféré définitivement leur propriété à une fiducie sans however lucratif. Tous les bénéfices de Patagonia financent désormais des causes environnementales.
Anthropic, l’un des concurrents d’OpenAI, dispose également d’une construction de gouvernance hybride, mais elle est configurée différemment de celle d’OpenAI. Elle compte deux organes directeurs distincts : un conseil d’administration et ce qu’elle appelle une fiducie de prestations à lengthy terme. Anthropic étant une société d’utilité publique, son conseil d’administration peut prendre en compte les intérêts d’autres events prenantes que ses propriétaires, y compris le grand public.
Et BRAC, une organisation internationale de développement fondée au Bangladesh en 1972 et qui compte parmi les plus grandes ONG au monde, contrôle plusieurs entreprises sociales à however lucratif qui profitent aux pauvres. Le modèle de BRAC ressemble à celui d’OpenAI dans le sens où une organisation à however non lucratif possède des entreprises à however lucratif.
Origine du conflit du conseil d’administration avec Altman
La principale responsabilité du conseil d’administration à however non lucratif est de garantir que la mission de l’organisation qu’il supervise est respectée. Dans les modèles de gouvernance hybrides, le conseil d’administration doit s’assurer que les pressions du marché visant à gagner de l’argent pour les investisseurs et les actionnaires ne l’emportent pas sur la mission de l’organisation – un risque connu sous le nom de dérive de mission.
Les conseils d’administration des organisations à however non lucratif ont trois devoirs principaux : le devoir d’obéissance, qui les oblige à agir dans l’intérêt de la mission de l’organisation ; le devoir de diligence, qui leur impose de faire preuve de diligence raisonnable dans la prise de décisions ; et le devoir de loyauté, qui les have interaction à éviter ou à résoudre les conflits d’intérêts.
Il semble que le conseil d’administration d’OpenAI ait cherché à exercer son devoir d’obéissance lorsqu’il a décidé de limoger Altman. La raison officielle invoquée était qu’il n’était « pas toujours franc dans ses communications » avec le conseil d’administration. Les justifications supplémentaires soulevées de manière anonyme par des personnes identifiées comme « anciens employés concernés d’OpenAI » n’ont pas été vérifiées.
En outre, Helen Toner, membre du conseil d’administration, qui a quitté le conseil d’administration au milieu de ce bouleversement, a co-écrit un doc de recherche juste un mois avant l’échec des efforts visant à destituer Altman. Toner et ses co-auteurs ont salué les précautions d’Anthropic et ont critiqué les « coupes frénétiques » d’OpenAI autour de la sortie de son chatbot ChatGPT populaire.
Mission contre argent
Ce n’était pas la première tentative visant à évincer Altman au motif qu’il s’éloignait de sa mission.
En 2021, le responsable de la sécurité de l’IA de l’organisation, Dario Amodei, a tenté en useless de persuader le conseil d’administration d’évincer Altman en raison de problèmes de sécurité, juste après que Microsoft ait investi 1 milliard de {dollars} dans l’entreprise. Amodei a ensuite quitté OpenAI, avec une douzaine d’autres chercheurs, et a fondé Anthropic.
La bascule entre mission et argent est peut-être mieux incarnée par Ilya Sutskever, co-fondateur d’OpenAI, son scientifique en chef et l’un des trois membres du conseil d’administration qui ont été expulsés ou démissionnés.
Sutskever a d’abord défendu la décision d’évincer Altman au motif qu’elle était nécessaire pour protéger la mission consistant à rendre l’IA bénéfique à l’humanité. Mais il a ensuite changé d’avis en tweetant : “Je regrette profondément ma participation aux actions du conseil d’administration.”
Il a finalement signé la lettre des employés appelant à la réintégration d’Altman et reste le scientifique en chef de l’entreprise.
Risque lié à l’IA
Une query tout aussi importante est de savoir si le conseil a exercé son devoir de diligence.
Je pense qu’il est raisonnable que le conseil d’administration d’OpenAI se demande si la société a publié ChatGPT avec des garde-fous suffisants en novembre 2022. Depuis lors, les grands modèles de langage ont fait des ravages dans de nombreux secteurs.
J’ai été témoin de cela en tant que professeur.
Il est devenu presque not possible dans de nombreux cas de savoir si les étudiants trichent lors de leurs devoirs en utilisant l’IA. Certes, ce risque est dérisoire en comparaison de la capacité de l’IA à faire des choses encore pires, par exemple en aidant à concevoir des brokers pathogènes potentiellement pandémiques ou en créant de la désinformation et des deepfakes qui sapent la confiance sociale et mettent en hazard la démocratie.
D’un autre côté, l’IA a le potentiel d’apporter d’énormes avantages à l’humanité, notamment en accélérant le développement de vaccins salvateurs.
Mais les risques potentiels sont catastrophiques. Et une fois cette technologie puissante lancée, il n’existe plus d’« interrupteur d’arrêt » connu.
Les conflits d’intérêts
Le troisième devoir, la loyauté, dépend de la query de savoir si les membres du conseil d’administration ont eu ou non des conflits d’intérêts.
De toute évidence, avaient-ils l’intention de gagner de l’argent grâce aux produits d’OpenAI, au level de compromettre sa mission dans l’attente d’un acquire financier ? En règle générale, les membres du conseil d’administration d’une organisation à however non lucratif ne sont pas rémunérés et ceux qui ne travaillent pas pour l’organisation n’y ont aucun intérêt financier. Les PDG rendent compte à leur conseil d’administration, qui a le pouvoir de les embaucher et de les licencier.
Cependant, jusqu’au récent remaniement d’OpenAI, trois des six membres du conseil d’administration étaient des cadres rémunérés : le PDG, le scientifique en chef et le président de sa branche à however lucratif.
Je ne suis pas surpris que, même si les trois membres indépendants du conseil d’administration ont tous voté pour évincer Altman, tous les dirigeants rémunérés l’ont finalement soutenu. Gagner votre salaire auprès d’une entité que vous êtes censé superviser est considéré comme un conflit d’intérêts dans le monde à however non lucratif.
Je crois également que même si le conseil d’administration reconfiguré d’OpenAI parvenait à remplir la mission de servir les besoins de la société, plutôt que de maximiser ses income, cela ne suffirait pas.
L’industrie technologique est dominée par des sociétés comme Microsoft, Meta et Alphabet – d’énormes sociétés à however lucratif, et non des organisations à however non lucratif axées sur une mission. Compte tenu des enjeux, je pense qu’une réglementation musclée est nécessaire : laisser la gouvernance entre les mains des créateurs de l’IA ne résoudra pas le problème.