OpenAI entame sa mue vers le grand public

Des départs chez OpenAI • Qant, M. de R. avec Midjourney

La démission de Miles Brundage et la dissolution de l’équipe « AGI Readiness » semblent enterrer l’ancienne fondation de recherche. Une société commerciale, consacrée à l’exploitation de la marque ChatGPT, est en train de naître.

Il y a moins d’une semaine, Miles Brundage, conseiller principal chez OpenAI pour les questions de préparation à l’intelligence artificielle générale (AGI), a annoncé son départ après plus de six ans passés dans l’entreprise. En parallèle, OpenAI a également décidé de dissoudre l’équipe qu’il dirigeait. Dédiée à l’AGI Readiness, elle était chargée d’évaluer la capacité de l’entreprise, et plus largement du monde, à gérer les futurs systèmes d’IA à intelligence humaine ou supérieure.

Brundage a précisé que son choix de quitter OpenAI visait à lui offrir une plus grande liberté pour mener des recherches sur les politiques publiques de l’IA de manière indépendante, à l’abri des contraintes et biais inhérents à l’industrie. Ce départ n’est pas isolé ; il s’inscrit dans une série de mouvements internes qui laissent entrevoir un repositionnement des priorités de l’entreprise, marquées par un recentrage progressif sur des impératifs commerciaux. Au cours des derniers mois, OpenAI a en effet reconfiguré plusieurs de ses équipes de sécurité, abandonnant en mai dernier son équipe « Superalignment », qui se consacrait aux recherches pour maintenir sous contrôle les IA superintelligentes (lire Qant du 30 mai).

Dissolution des équipes de sécurité : un signal d’alarme ?

La dissolution de l’équipe AGI Readiness, annoncée peu de temps après celle de l’équipe Superalignment, illustre les tensions croissantes entre la mission initiale d’OpenAI, centrée sur la sécurité et la gouvernance de l’IA, et les nouvelles priorités commerciales de l’entreprise. Selon des sources internes, ces restructurations s’accompagnent de difficultés pour les équipes de sécurité à obtenir les ressources nécessaires, notamment en puissance de calcul. Jan Leike, ancien responsable de l’équipe Superalignment, avait déjà dénoncé une culture qui, selon lui, privilégie désormais les « produits séduisants » au détriment de la sécurité.

Miles Brundage, dans un message posté en ligne, a lui aussi partagé une vision pessimiste de l’état de préparation d’OpenAI et du secteur de l’IA en général face aux défis posés par le développement de l’AGI. Il estime que ni OpenAI, ni aucun autre laboratoire pionnier dans le domaine, n’est réellement prêt pour la mise en place de systèmes d’IA de niveau humain en termes de sécurité et de gouvernance. Cette prise de position reflète l’inquiétude croissante de nombreux experts, qui alertent sur les risques de voir l’innovation dans le domaine de l’IA progresser sans des cadres réglementaires robustes.

IL a souligné dans son message que l’environnement de l’industrie limitait désormais sa capacité à publier ses recherches de manière indépendante. Il envisage de poursuivre ses travaux dans une structure à but non lucratif, qui lui permettrait de conserver une autonomie intellectuelle et de contribuer aux discussions politiques sur l’IA sans les contraintes qu’impose une grande entreprise technologique. Il a également appelé à une coopération accrue entre les pays, estimant que la concurrence internationale pourrait nuire aux efforts de sécurité globaux en poussant les entreprises à négliger certains aspects de sécurité pour maintenir leur avance.

Défis et perspectives pour la sécurité de l’IA

Le départ de Brundage, dernier représentant d’un groupe de chercheurs « historiques » de la sécurité chez OpenAI, symbolise la transition en cours dans le secteur de l’IA. Face à une concurrence accrue et à des impératifs de rentabilité, des entreprises comme OpenAI sont confrontées à des choix difficiles entre leur mission initiale et les exigences du marché. Pour certains experts, cette transition comporte des risques : en accélérant le rythme des innovations sans renforcement proportionnel des mesures de sécurité, les entreprises pourraient exposer la société à des technologies dont les implications ne sont pas encore pleinement maîtrisées.

L’évolution d’OpenAI, autrefois pionnière dans l’éthique et la sécurité de l’IA, semble indiquer que les défis commerciaux et technologiques prennent désormais le pas sur les préoccupations de gouvernance et de sécurité. Toutefois, la réaction de Brundage pourrait inspirer d’autres voix indépendantes à se mobiliser pour promouvoir une régulation plus stricte et une approche plus collaborative dans la gestion des risques associés à l’AGI. Pour l’avenir, la question de l’équilibre entre progrès technologique et sécurité sociétale restera sans doute au cœur des débats sur le développement de l’IA.

Vers une mutation commerciale d’OpenAI

La réorganisation des équipes de sécurité au sein d’OpenAI semble en phase avec un recentrage de l’entreprise vers des objectifs de rentabilité. OpenAI, initialement fondée comme une organisation à but non lucratif, a amorcé un virage en créant en 2019 une filiale commerciale, OpenAI LP, avec l’objectif de lever des fonds nécessaires à ses projets ambitieux. En septembre dernier, OpenAI a bouclé une levée de fonds de 6,6 milliards de dollars, portant sa valorisation à environ 157 milliards de dollars (environ 149 milliards d’euros).

Juste de quoi faire face aux coûts que les guerres dans la recherche générative pourraient lui coûter.

Pour en savoir plus :

L’essentiel