OpenAI, la société d’intelligence artificielle qui a développé le populaire chatbot ChatGPT et le programme de création de texte en art Dall-E, est à la croisée des chemins. Le 2 octobre 2024, elle a annoncé avoir obtenu 6,6 milliards de dollars de nouveaux financements auprès d’investisseurs et que l’entreprise valait environ 157 milliards de dollars, ce qui en fait la deuxième startup seulement à être évaluée à plus de 100 milliards de dollars.
Contrairement à d’autres grandes entreprises technologiques, OpenAI est une organisation à but non lucratif dotée d’une filiale à but lucratif supervisée par un conseil d’administration à but non lucratif. Depuis sa création en 2015, la mission officielle d’OpenAI est de « construire une intelligence artificielle générale (AGI) qui soit sûre et profite à toute l’humanité ».
Fin septembre 2024, l’Associated Press, Reuters, le Wall Street Journal et de nombreux autres médias rapportaient qu’OpenAI prévoyait d’abandonner son statut d’organisation à but non lucratif et de devenir une entreprise technologique à but lucratif gérée par des investisseurs. Ces histoires ont toutes cité des sources anonymes. Le New York Times, faisant référence aux documents du récent cycle de financement, a rapporté qu’à moins que ce changement ne se produise dans les deux ans, les 6,6 milliards de dollars de capitaux propres deviendraient une dette due aux investisseurs qui ont fourni ce financement.
The Conversation US a demandé à Alnoor Ebrahim, chercheur en gestion à l’Université Tufts, d’expliquer pourquoi les projets annoncés par les dirigeants d’OpenAI visant à modifier sa structure seraient importants et potentiellement problématiques.
Comment ont réagi ses dirigeants et membres du conseil d’administration ?
Il y a eu beaucoup de troubles au sein de la direction d’OpenAI. Les désaccords ont éclaté en novembre 2023, lorsque son conseil d’administration a brièvement évincé Sam Altman, son PDG. Il a retrouvé son poste en moins d’une semaine, puis trois membres du conseil d’administration ont démissionné. Les administrateurs sortants étaient partisans de la construction de garde-fous plus solides et de l’encouragement d’une réglementation visant à protéger l’humanité des dommages potentiels posés par l’IA.
Depuis, plus d’une douzaine de cadres supérieurs ont démissionné, dont plusieurs autres cofondateurs et dirigeants chargés de superviser les politiques et pratiques de sécurité d’OpenAI. Au moins deux d’entre eux ont rejoint Anthropic, un rival fondé par un ancien cadre d’OpenAI responsable de la sécurité de l’IA. Certains dirigeants sortants affirment qu’Altman a poussé l’entreprise à lancer des produits prématurément.
La sécurité « est passée au second plan face aux produits brillants », a déclaré Jan Leike, ancien chef de l’équipe de sécurité d’OpenAI, qui a démissionné en mai 2024.
Pourquoi la structure d’OpenAI changerait-elle ?
Les investisseurs aux poches profondes d’OpenAI ne peuvent pas détenir d’actions de l’organisation dans le cadre de sa structure de gouvernance à but non lucratif existante, ni obtenir un siège à son conseil d’administration. En effet, OpenAI est constituée en organisation à but non lucratif dont le but est de profiter à la société plutôt qu’aux intérêts privés. Jusqu’à présent, toutes les séries d’investissements, y compris un total de 13 milliards de dollars de Microsoft, ont été acheminées via une filiale à but lucratif appartenant à l’organisation à but non lucratif.
La structure actuelle permet à OpenAI d’accepter de l’argent d’investisseurs privés en échange d’une partie future de ses bénéfices. Mais ces investisseurs n’obtiennent pas de siège votant au conseil d’administration et leurs bénéfices sont « plafonnés ». Selon des informations précédemment rendues publiques, les investisseurs initiaux d’OpenAI ne peuvent pas gagner plus de 100 fois l’argent qu’ils ont fourni. L’objectif de ce modèle de gouvernance hybride est d’équilibrer les bénéfices avec la mission d’OpenAI axée sur la sécurité.
Devenir une entreprise à but lucratif permettrait à ses investisseurs d’acquérir des participations dans OpenAI et de ne plus être confrontés à un plafond sur leurs bénéfices potentiels. À terme, OpenAI pourrait également entrer en bourse et lever des capitaux en bourse.
Altman chercherait à acquérir personnellement une participation de 7 % dans OpenAI, selon un article de Bloomberg citant des sources anonymes.
Cet arrangement n’est pas autorisé pour les dirigeants d’organisations à but non lucratif, selon BoardSource, une association de membres de conseils d’administration et de dirigeants d’organisations à but non lucratif. Au lieu de cela, explique l’association, les organisations à but non lucratif « doivent réinvestir leurs excédents dans l’organisation et dans son objectif d’exonération fiscale ».
Quel type d’entreprise OpenAI pourrait-elle devenir ?
Le Washington Post et d’autres médias ont rapporté, citant également des sources anonymes, qu’OpenAI pourrait devenir une « société d’utilité publique » – une entreprise qui vise à profiter à la société et à réaliser des bénéfices.
Parmi les exemples d’entreprises bénéficiant de ce statut, connues sous le nom de B Corps, citons la société de vêtements et d’équipements de plein air Patagonia et le fabricant de lunettes Warby Parker.
Il est plus courant qu’une entreprise à but lucratif – et non à but non lucratif – devienne une société à but lucratif, selon le B Lab, un réseau qui établit des normes et propose une certification pour les B Corps. Il est inhabituel pour une organisation à but non lucratif de procéder ainsi, car la gouvernance à but non lucratif exige déjà que ces groupes profitent à la société.
Les conseils d’administration des entreprises ayant ce statut juridique sont libres de prendre en compte les intérêts de la société, de l’environnement et des personnes qui ne sont pas ses actionnaires, mais cela n’est pas obligatoire. Le conseil d’administration peut toujours choisir de faire des profits une priorité absolue et peut abandonner son statut d’avantages sociaux pour satisfaire ses investisseurs. C’est ce qu’a fait Etsy en 2017, deux ans après être devenue une société cotée en bourse.
À mon avis, toute tentative de transformer une organisation à but non lucratif en une société d’utilité publique constitue un écart évident par rapport à la mission de l’organisation à but non lucratif. Et il y aura un risque que devenir une société à but lucratif ne soit qu’un stratagème pour masquer une tendance à se concentrer sur la croissance des revenus et les bénéfices des investisseurs.
De nombreux juristes et autres experts prédisent qu’OpenAI ne supprimera pas entièrement son modèle de propriété hybride en raison des restrictions juridiques sur le placement d’actifs à but non lucratif entre des mains privées.
Mais je pense qu’OpenAI a une solution possible : il pourrait tenter de diluer le contrôle de l’organisation à but non lucratif en en faisant un actionnaire minoritaire dans une nouvelle structure à but lucratif. Cela éliminerait effectivement le pouvoir du conseil d’administration à but non lucratif de demander des comptes à l’entreprise. Une telle décision pourrait conduire à une enquête de la part du bureau du procureur général de l’État concerné et potentiellement de l’Internal Revenue Service.
Que pourrait-il se passer si OpenAI devenait une entreprise à but lucratif ?
Les enjeux pour la société sont importants.
Les méfaits potentiels de l’IA sont très variés, et certains sont déjà apparents, comme les campagnes politiques trompeuses et les préjugés en matière de soins de santé.
Si OpenAI, leader du secteur, commence à se concentrer davantage sur la réalisation de profits plutôt que sur la sécurité de l’IA, je pense que ces dangers pourraient s’aggraver. Geoffrey Hinton, qui a remporté le prix Nobel de physique 2024 pour ses recherches sur l’intelligence artificielle, a averti que l’IA pourrait exacerber les inégalités en remplaçant « de nombreux emplois banals ». Il estime qu’il y a une probabilité de 50 % « que nous soyons confrontés au problème de l’IA qui tente de prendre le relais » de l’humanité.
Et même si OpenAI conservait les membres du conseil d’administration pour lesquels la sécurité est une préoccupation majeure, le seul dénominateur commun des membres de son nouveau conseil d’administration serait leur obligation de protéger les intérêts des actionnaires de l’entreprise, qui s’attendraient à réaliser des bénéfices. Bien que de telles attentes soient courantes dans un conseil d’administration à but lucratif, elles constituent un conflit d’intérêts dans un conseil d’administration à but non lucratif où la mission doit primer et où les membres du conseil ne peuvent pas bénéficier financièrement du travail de l’organisation.
Cet arrangement plairait sans aucun doute aux investisseurs d’OpenAI. Mais serait-ce bon pour la société ? Le but du contrôle à but non lucratif d’une filiale à but lucratif est de garantir que le profit n’interfère pas avec la mission de l’organisation à but non lucratif. Sans garde-fous pour garantir que le conseil d’administration cherche à limiter les dommages causés à l’humanité par l’IA, il n’y aurait guère de raisons d’empêcher l’entreprise de maximiser ses profits, même si ses chatbots et autres produits d’IA mettent la société en danger.
Indépendamment de ce que fait OpenAI, la plupart des sociétés d’intelligence artificielle sont déjà des entreprises à but lucratif. Ainsi, à mon avis, la seule façon de gérer les dommages potentiels consiste à adopter de meilleures normes et réglementations industrielles qui commencent à prendre forme.
Le gouverneur de Californie a opposé son veto à un tel projet de loi en septembre 2024, au motif qu’il ralentirait l’innovation – mais je pense que le ralentir est exactement ce qui est nécessaire, compte tenu des dangers que l’IA représente déjà pour la société.