Le co-fondateur controversé d’une société américaine d’intelligence artificielle revient quatre jours après son éviction surprise de son poste de PDG le 17 novembre 2023.
L’ancien et actuel PDG Sam Altman a fondé OpenAI, une société de développement de logiciels, avec d’autres en 2015. Ses co-fondateurs sont Elon Musk, Greg Brockman, Ilya Sutskever, John Schulman et Wojciech Zaremba.
Altman était la force motrice de ChatGPT, une application d’IA qui a suscité autant d’enthousiasme que de peur. Il a présenté l’idée à Microsoft, réussissant à persuader le PDG Satya Nadella d’engager des ressources dans OpenAI à hauteur de 10 milliards de dollars. Le géant de la technologie détient 49 % d’OpenAI. Altman a également mené des négociations en vue d’une offre publique d’achat qui porterait la valorisation de l’entreprise à plus de 80 milliards de dollars.
OpenAI utilisera les fonds pour alimenter la recherche et traiter des quantités massives de données. L’objectif est de se rapprocher du développement d’un système d’intelligence générale artificielle (AGI). Sam Altman précise sur le site que la « mission est de garantir que l’intelligence artificielle générale [AGI]… profite à toute l’humanité.
AGI est un cadre théorique pour la création de logiciels d’IA capables de résoudre de manière autonome divers problèmes complexes dans différents domaines de connaissances. Il s’agit d’une IA forte par rapport au logiciel d’IA faible qui ne fonctionne que dans des paramètres étroits.
Les observateurs du secteur attribuent également à Altman le mérite d’avoir attiré des ingénieurs en IA de premier plan dans l’entreprise avec la promesse de développer une technologie extrêmement révolutionnaire. Sa philosophie Moonshot a touché une corde sensible auprès des talents technologiques désireux de faire quelque chose de révolutionnaire et de s’établir dans l’histoire.
Malgré ses contributions significatives à OpenAI, son éviction du poste de PDG ne surprend pas les connaisseurs. Altman serait en conflit avec le conseil d’administration depuis un certain temps, principalement à cause de son approche « agir vite et casser les choses ».
Spéculations
Personne ne sait exactement pourquoi la discussion à huis clos a motivé le limogeage d’Altman. Le conseil d’administration ou toute autre personne au courant n’a pas transmis de confirmation des raisons de la décision.
Une annonce d’OpenAI a donné une raison à l’éviction. Il a affirmé qu’Altman n’avait pas été « toujours franc dans ses communications avec le conseil d’administration, ce qui a entravé sa capacité à exercer ses responsabilités ». Le co-fondateur Greg Brockman a démissionné en signe de protestation, mais l’avis mentionne simplement son départ de son poste de président du conseil d’administration. Brockman est revenu à OpenAI après la réintégration d’Altman, mais on ne sait pas encore à quel titre.
Cependant, il est peu probable que le manque de franchise d’Altman soit la seule raison d’une décision aussi importante du conseil d’administration. Une note interne du PDG par intérim, Emmett Shear, nie que le licenciement soit dû à des malversations ou à un désaccord sur la sécurité. Il n’en a pas précisé les raisons mais s’est engagé à enquêter sur la question.
Le manque d’informations a conduit à de nombreuses spéculations sur ce qui s’est réellement passé. Il s’agissait notamment d’une trop grande déférence envers Microsoft ou d’une concentration excessive sur des projets parallèles. Certains experts en IA estiment que le véritable problème qui a conduit à l’expulsion était un échec de la gouvernance.
L’un d’eux est David Shrier, professeur d’IA à l’Imperial College Business School. Il estime que la rapidité d’adoption et le potentiel de commercialisation de ChatGPT ont déclenché des tensions entre OpenAI Inc. et OpenAI LLP. OpenAI est une société à but lucratif dont le propriétaire reste OpenAI Inc., une organisation à but non lucratif 501(c)3. Cette relation inhabituelle a abouti à la formation d’une structure de « profit plafonné », dans laquelle tout profit excédentaire réalisé par OpenAI est reversé à l’organisation à but non lucratif.
Sur le papier, le conseil d’administration a un contrôle total sur OpenAI. Cependant, les opérations massives et l’influence d’OpenAI et de son PDG ont essentiellement rendu le conseil d’administration inefficace. Les administrateurs n’ont aucun pouvoir de gouvernance sur OpenAI, ce que Shrier considère comme alarmant. Il estime que la technologie de l’IA pourrait conduire à une crise existentielle, ce qui rend indispensable une gouvernance solide pour la gérer.
La lettre
L’une des rumeurs les plus fondées est que la goutte d’eau qui a fait déborder le vase était une lettre. Avant que le conseil d’administration ne décide d’évincer Altman, il aurait reçu une lettre d’avertissement des chercheurs du personnel. Il aurait déclaré qu’OpenAI avait fait une découverte suffisamment puissante pour menacer l’humanité.
Bien que la lettre ne soit pas disponible pour examen, Murati a envoyé des communications internes informant le personnel et le conseil d’administration du projet Q*. Sans confirmer les spéculations des médias sur la nature de Q*, certains employés d’OpenAI estiment que les membres de l’équipe Q* ont fait une percée dans le développement d’AGI.
Les auteurs ont souligné les progrès d’une équipe OpenAI dans l’optimisation des modèles d’IA afin d’augmenter leur capacité à raisonner et à effectuer des travaux scientifiques. Ils ont souligné le danger potentiel que pourraient représenter les machines hautement intelligentes pour l’humanité. La lettre ne précise pas la nature précise de la menace.
Les préoccupations qui ont conduit à l’envoi de la lettre au conseil scolaire semblent avoir été déclenchées par l’apprentissage d’un logiciel permettant de résoudre des problèmes mathématiques. Bien que cela puisse sembler une raison de se réjouir plutôt que de contrarier, les chercheurs en IA ne sont pas d’accord. La capacité de répondre à des problèmes mathématiques avec une seule bonne réponse indique une étape significative vers l’AGI.
Lors du Sommet des PDG de l’APEC 2023, Altman a fait allusion à des avancées significatives dans la technologie de l’IA lors d’une discussion avec d’autres experts en technologie. Dans son discours, Altman a déclaré en partie que « nous repoussons en quelque sorte le voile de l’ignorance et la frontière de la découverte en avant, et y parvenir est l’honneur professionnel de toute une vie ».
Le conseil d’administration d’OpenAI a licencié Altman le lendemain du sommet.
La raison pour laquelle cela devrait susciter des inquiétudes peut être résumée dans ce qu’Altman a expliqué dans son article sur le site. Il a déclaré : « L’AGI entraînerait de sérieux risques d’utilisation abusive, d’accidents graves et de perturbations sociétales. [However,] parce que les avantages de l’AGI sont si grands, nous [should not] arrêter définitivement son développement. Altman a suggéré que les développeurs AGI et la société doivent trouver comment bien faire les choses.
Altman avait auparavant écarté les inquiétudes concernant la commercialisation de produits sur le marché sans en comprendre les conséquences. Beaucoup ont fait part de leurs inquiétudes concernant la sécurité, les préjugés, la confidentialité, l’exactitude et les problèmes éthiques liés à ChatGPT depuis son lancement en novembre 2022. Avec AGI apparemment sur le point de créer, les craintes quant à ce que fera OpenAI sous la direction d’Altman peuvent sembler raisonnables.
Le retour
Cependant, environ 700 employés d’OpenAI pensaient autrement. Lorsque le conseil d’administration a relevé Altman de ses fonctions de PDG, ils ont signé une lettre ouverte signalant leur mécontentement. La lettre indiquait qu’ils pourraient démissionner à moins que le conseil d’administration ne réintègre Altman et Brockman. Il a en outre demandé au conseil d’administration de se retirer, affirmant que ses actions indiquaient qu’il « était incapable de superviser OpenAI ».
Après leur licenciement, Microsoft a immédiatement embauché Altman et Brockman pour diriger une nouvelle équipe de recherche sur l’IA. Cela a également ouvert les portes à tout OpenAI souhaitant changer.
Les investisseurs ont également fait pression sur le conseil d’administration pour qu’il revienne sur sa décision. Altman, qui était autrefois à la tête de YCombinator, avait un talent pour collecter des fonds et attirer les meilleurs talents. La maintenance des différentes plates-formes logicielles d’OpenAI nécessite de grandes quantités des deux. Son absence a peut-être créé un gros problème pour l’entreprise en termes de ressources financières et humaines.
En conséquence, le conseil d’administration d’OpenAI ramènerait Altman au poste de PDG. Ils ont annoncé la décision le 21 novembre sur X (anciennement Twitter) après avoir conclu un « accord de principe » avec lui. Les détails de l’accord n’ont pas été rendus publics.
Altman a confirmé la réintégration dans un article X, déclarant qu’il avait hâte de revenir à OpenAI. Il a déclaré que Nadella soutenait pleinement son retour sous le nouveau conseil d’administration. Le PDG de Microsoft a noté que les changements constituaient « une étape essentielle vers une gouvernance plus stable, mieux informée et plus efficace ».
Les conséquences
Les pouvoirs en place dans OpenAI ont également formé un nouvel ensemble de membres du conseil d’administration, principalement des sommités du monde des affaires et de la technologie. Le précédent conseil d’administration était composé principalement de chercheurs et d’universitaires.
Le conseil d’administration remanié comprend l’ancien PDG de Salesforce, Bret Taylor, et l’ancien secrétaire au Trésor, Lawrence Summers. Le PDG de Quora, Adam D’Angelo, est le seul survivant du conseil d’administration d’origine. Taylor assume le rôle de directeur du conseil d’administration d’OpenAI. Cependant, D’Angelo a mené des négociations avec les membres sortants du conseil d’administration qui finiraient par ramener Altman et Brockman.
Les anciens membres du conseil d’administration voulaient rester et garder Altman et Brockman sous contrôle en cas de réintégration. Ils ont exprimé leur inquiétude quant au fait que les futurs membres du conseil d’administration laisseraient Altman faire ce qu’il voulait. Au cours des négociations, le conseil d’administration a décidé qu’il maintiendrait sa décision d’évincer Altman et Brockman.
Cependant, cela n’a servi à rien. Helen Toner, qui avait ouvertement critiqué OpenAI en octobre 2023, a démissionné pour laisser la place à un nouveau départ. Tasha McCauley, scientifique de la Rand Corporation, a également quitté son siège. Le co-fondateur d’OpenAI, Ilya Sutskever, a également démissionné mais semble être resté en tant que scientifique en chef.
Des plans sont en cours pour agrandir le conseil d’administration. Avant son éviction, Altman faisait pression depuis des mois pour ajouter davantage de directeurs, parmi lesquels des personnes plus expérimentées. Le tableau initial est plus petit mais il est peu probable qu’il le reste longtemps. De toute évidence, le conseil d’administration final sera très probablement composé d’un groupe diversifié de personnes qui se rapprochent du côté non catastrophique de l’IA. La composition du conseil d’administration actuel suggère qu’OpenAI évoluera pour ressembler à une entreprise typique de la Silicon Valley.
Il n’est pas clair si Microsoft aura un rôle ou une représentation au sein du conseil d’administration en raison du remaniement. Toutefois, compte tenu de la participation et de l’influence du géant de la technologie, les administrateurs entretiendront probablement des liens étroits avec Microsoft.
Effets externes
Le drame en cours à OpenAI représente des problèmes de réglementation mondiale, et les gens surveilleront attentivement ce qui se passera ensuite. Cela a incité la Federal Trade Commission des États-Unis à publier des directives autorisant les enquêtes sur les entreprises basées sur l’IA vendant des produits et des services. Les directives donnaient des pouvoirs légaux pour recueillir des preuves, y compris des documents et des témoignages.
L’éviction avortée d’OpenAI a également affecté les négociations sur le projet de loi sur l’IA dans l’Union européenne. Cela s’est produit alors que les États membres étaient plongés dans des débats sur l’approche à adopter en matière de réglementation, en particulier la surveillance agressive par rapport à l’autoréglementation. Certains estiment que les réglementations devraient cibler les modèles fondamentaux, tandis que d’autres soutiennent qu’elles devraient se concentrer sur les applications.
Trois pays de l’UE ont accepté de soutenir l’autorégulation, indiquant que la France, l’Italie et l’Allemagne faisaient confiance à des entreprises comme OpenAI pour agir de manière responsable. Cependant, d’autres membres voient les événements OpenAI différemment, estimant que cela prouve que des protocoles plus robustes sont nécessaires. S’appuyer sur des visionnaires et des perturbateurs dans le domaine de l’IA ne peut que conduire à un manque de gouvernance désastreux.
L’incapacité du conseil d’administration d’OpenAI à maintenir sa décision en raison de pressions est susceptible de mettre en évidence le pouvoir des parties prenantes. Cela amplifie la nécessité d’une surveillance publique plus rigoureuse, dans la mesure où le gouvernement peut théoriquement restreindre les activités des entreprises susceptibles de constituer une menace pour la société. Cependant, les appels à l’ingérence du gouvernement dans les entreprises privées d’IA ne seront probablement pas bien accueillis par les grandes technologies.
La (possible) vraie affaire
Les raisons de l’éviction et de la réintégration d’Altman ont attiré l’attention du public sur les points de vue de groupes marginaux sur les risques liés à l’IA. De plus, les échanges entre le conseil d’administration et Altman ont mis en lumière le conflit entre les actions et les convictions d’Altman.
Altman était l’un des plus ardents défenseurs de la réglementation de l’IA lorsqu’il s’exprimait devant le Sénat. Il a déclaré que sa plus grande crainte était que la technologie et l’industrie « causent des dommages importants au monde… de nombreuses manières différentes ».
Cependant, il s’est de plus en plus concentré sur la collecte de fonds et la formation d’alliances pour faire progresser la technologie de l’IA qu’il ne comprenait pas complètement, il faut l’avouer. Certains experts du secteur considèrent cette déconnexion comme fallacieuse. Sa peur déclarée d’un avenir dystopique détourne l’attention de ce que fait actuellement OpenAI. Entre-temps, OpenAI gagne encore plus d’influence et de pouvoir en tant qu’entreprise commerciale.
D’un autre côté, le désir de réglementation et la commercialisation ne sont pas des concepts qui s’excluent mutuellement. Les technologies de rupture ont tendance à être très rentables, mais elles connaissent toujours des difficultés croissantes qui finissent par se résoudre avec le temps.
OpenAI, en tant qu’entreprise à but lucratif et perturbatrice, connaîtra probablement la même situation que l’ampoule électrique, Internet ou la banque numérique. Aujourd’hui, personne ne veut revenir à ces technologies antérieures, mais beaucoup les craignaient à l’époque. Dans les années 1990, personne ne confierait son argent à autre chose qu’à une banque traditionnelle. Pourtant, la plupart des gens bénéficient aujourd’hui de la possibilité d’ouvrir un compte de retraite en ligne.
Les progrès technologiques auront toujours un impact profond sur la société, dans le bon comme dans le mauvais sens. La seule question est de savoir comment les gens vont les gérer pour que les bons l’emportent sur les mauvais.
