Une IA générale peut en cacher mille autres

Leopold Aschenbrenner

Dans son analyse de la situation de l’IA publiée la semaine dernière, l’ancien chercheur d’OpenAI Leopold Aschenbrenner prédit un passage de l’IA générale (AGI) à la superintelligence : une explosion du niveau de l’IA aux conséquences incalculables.

La publication en début de mois par Leopold Aschenbrenner, ancien employé d'OpenAI et proche d'Ilya Sutskever, d'une étude de 160 pages sur l'intelligence artificielle générale (AGI) a remis au centre de l'attention ce sujet qui divise la communauté californienne de l'IA (lire Qant du 9 juin).

Leopold Aschenbrenner considère que les modèles d’IA peuvent atteindre à partir de 2027 la puissance nécessaire pour correspondre à la définition de l’AGI selon OpenAI : une plus grande intelligence que l’être humain dans tous les domaines dotés d’une valeur économique. Mais l'ancien chercheur d'OpenAI va plus loin. Il analyse dans son étude la possible ascension d'une intelligence artificielle générale (AGI) à une superintelligence : il décrit comment une fois que l'AGI atteindra un niveau de compétence humaine, le progrès pourrait s'accélérer de manière exponentielle, conduisant à une intelligence artificielle infiniment supérieure à celle des humains.

L’IA pour former l’IA

Aschenbrenner postule que des millions d'AGI pourraient être utilisées pour automatiser la recherche en IA, accélérant ainsi les progrès en algorithmique tout comme l’IA le fait déjà dans des sciences comme la biologie et la chimie (lire Qant du 13 mai dernier et du 6 octobre 2023 sur Alphafold et, sur Gnome, Qant du 1er décembre 2023). Cette automatisation permettrait d'accélérer de manière dramatique les tendances actuelles, menant rapidement à des systèmes d'IA superintelligents.

L'exemple d'AlphaGo, l'IA de DeepMind joueuse de Go, est cité pour illustrer ce phénomène. Après avoir appris des meilleurs joueurs humains, AlphaGo a commencé à jouer contre lui-même, développant des stratégies que les humains n'auraient jamais imaginées.

Une machine ultra-intelligente, capable de surpasser toutes les activités intellectuelles humaines, pourrait concevoir des machines encore meilleures, créant ainsi une boucle de rétroaction positive. Cette explosion d'intelligence transformera le monde en quelques années, voire quelques mois. L’analogie avec l’évolution des armes nucléaires montre cette accélération potentielle : de la bombe atomique à la bombe à hydrogène, chaque étape a multiplié la puissance destructrice de manière exponentielle.

L'étude d'Aschenbrenner reconnaît plusieurs goulots d'étranglement potentiels à cette explosion d'intelligence, notamment la limitation des capacités de calcul pour mener des expériences, la disponibilité d’énergie suffisante, les complémentarités avec les humains et la complexité croissante des progrès algorithmiques. Cependant, aucun de ces obstacles ne semble suffisant pour ralentir de manière significative l'avancée vers la superintelligence. L'auteur estime que même avec ces limitations, une compression de dix ans de progrès en une année reste plausible.

La superintelligence et ses implications

Les systèmes d'IA superintelligents pourront être capables de comportements créatifs et complexes bien au-delà de la compréhension humaine. Ils révolutionneraient non seulement la recherche en IA, mais aussi de nombreux autres domaines scientifiques et technologiques.

L’étude envisage une accélération explosive, non seulement en IA, mais aussi en robotique, en sciences et en technologie, avec des implications économiques et industrielles massives. Les progrès en robotique, par exemple, pourraient transformer les usines humaines en installations entièrement gérées par des robots.

L'application de la superintelligence à la recherche pourrait également entraîner des avancées extraoridinaires. Comprimer les efforts de recherche et développement d'un siècle en quelques années modifierait radicalement notre paysage technologique et industriel.

Des conséquences militaires et sociétales

La superintelligence artificielle pourrait aussi offrir un avantage militaire décisif à la première nation qui la fera naître. L'auteur suggère que les systèmes d'IA superintelligents pourront dominer les systèmes militaires actuels, de manière analogue à la façon dont une armée moderne écraserait les armées du XIXe siècle. De nouveaux types d'armes, des défenses antimissiles invulnérables et d'autres innovations inimaginables aujourd'hui pourraient émerger.

En outre, la superintelligence pourrait transformer l'économie mondiale à un rythme jamais vu. Des taux de croissance économique de 30 % par an, voire plusieurs doublements annuels, ne seraient pas inimaginables. Les systèmes d'IA, capables de travailler sans interruption et avec une efficacité maximale, pourraient rapidement surclasser les forces humaines traditionnelles dans presque tous les domaines.

Fantaisie technologique

Nombreux sont ceux qui, comme le chercheur Gary Marcus, écartent cette hypothèse comme fantaisiste et dénoncent la facilité des extrapolations linéaires faites par le jeune chercheur. A la lecture de ses réflexions, toutefois, on ne peut écarter l’idée que le risque existe.

Son hypothèse suffit par elle-même à faire de l’essor de l’IA l'un des moments les plus intenses et volatiles de l'histoire humaine. Comme pour l’arme nucléaire il y a quatre-vingts ans, il est impératif de prendre au sérieux la possibilité d'une explosion d'intelligence et ses implications.

On peut prendre garde à l’avenir, à défaut de le prévoir.

Pour en savoir plus :

L’essentiel