Le développement de la production électrique aux États-Unis et en Chine (Source : Leopold Aschenbrenner)
La publication en début de mois par Leopold Aschenbrenner, ancien employé d'OpenAI et proche d'Ilya Sutskever, d'une étude de 160 pages sur l'intelligence artificielle générale (AGI) a remis au centre de l'attention ce sujet, qui divise la communauté californienne de l'IA et plus généralement les scientifiques dans tous les pays (lire Qant du 13 juin et du 9 juin).
Leopold Aschenbrenner considère que les modèles d’IA peuvent atteindre à partir de 2027 la puissance nécessaire pour correspondre à la définition de l’AGI selon OpenAI : une plus grande intelligence que l’être humain dans tous les domaines dotés d’une valeur économique. Après avoir montré comment, il aborde les défis sécuritaires associés au développement de l'AGI.
La guerre des espions
Le chercheur met en avant les risques d'espionnage et la nécessité de protéger les modèles d'IA et leurs secrets algorithmiques des acteurs étatiques. La sécurité des poids des modèles et la protection des découvertes algorithmiques sont jugées cruciales pour éviter que des adversaires ne rattrapent ou ne dépassent les efforts des États-Unis. L'auteur préconise une amélioration significative de la cybersécurité et une très peu américaine nationalisation de la recherche en IA pour assurer une meilleure protection et coordination. Enfin, il met en garde contre les implications stratégiques si la Chine prenait la tête dans la course à la superintelligence, soulignant l'importance pour les États-Unis de maintenir leur avance pour préserver un ordre mondial libéral et démocratique. Ou simplement leur puissance, ajouterait-on.
Aschenbrenner cite le directeur du FBI qui a déclaré que les opérations de piratage de la Chine étaient plus importantes que celles de toutes les autres grandes nations combinées. Il identifie deux actifs clés à protéger : les poids des modèles et les secrets algorithmiques.
Un modèle d'IA n'est rien de plus qu'un grand fichier de nombres sur un serveur. Si ce fichier est volé, l'adversaire peut égaler des décennies de travail et des milliards d'investissements en un instant. La sécurité des poids deviendra essentielle à mesure que l’on approche de l'AGI. Si la Chine ou un autre adversaire parvient à voler les poids des modèles d'AGI, elle pourrait immédiatement utiliser ces informations pour automatiser sa propre recherche en IA et lancer sa propre explosion d'intelligence. Cela annulerait tout avantage que les États-Unis pourraient avoir.
Les secrets algorithmiques
Les secrets algorithmiques sont les percées techniques essentielles nécessaires pour construire l'AGI. Ils seront déterminants pour dépasser les limitations actuelles des données et des modèles. L'auteur souligne que la sécurité des secrets algorithmiques est encore plus critique que celle des poids des modèles, car ces percées détermineront le futur leader dans le domaine de l'IA. Les fuites de ces secrets seraient catastrophiques.
Pour sécuriser efficacement les laboratoires d'IA contre les menaces des États-nations, des mesures de sécurité extrêmes seront nécessaires. Cela inclut, d’après Leopold Aschenbrenner :
- des centres de données complètement isolés avec une sécurité physique équivalente à celle des bases militaires les plus sécurisées,
- des avancées techniques en matière de confidentialité du calcul et de chiffrement matériel, avec une surveillance rigoureuse de la chaîne d'approvisionnement du matériel.
- le compartimentage d'informations sensibles.
- une vérification intense du personnel et des contrôles internes stricts (qu’OpenAI doit regretter n’avoir pas suffisamment exercé à son encontre).
L'auteur note que la mise en place de cette infrastructure de sécurité nécessitera des années de préparation et de collaboration avec le gouvernement, car les entreprises privées n'ont pas les compétences nécessaires pour contrer les attaques d'acteurs étatiques de manière autonome.
Le risque de l’emballement
Aschenbrenner souligne que la situation actuelle est critique. Les laboratoires d'IA, malgré leurs ambitions de construire l'AGI, ne prennent pas les mesures nécessaires pour sécuriser leurs secrets. Cette négligence met en péril non seulement la position de leader des États-Unis dans la course à l'AGI, mais aussi la sécurité nationale et la stabilité mondiale. L’auteur en appelle à une prise de conscience urgente et à une action immédiate pour renforcer la sécurité dans les laboratoires d'IA, afin de protéger les informations cruciales contre les menaces de cyberespionnage et de garantir que les avancées en AGI soient sécurisées et utilisées de manière responsable.
Aschenbrenner revient également sur le sujet de la superintelligence (lire Qant du 13 juin), qui conférera selon lui un avantage militaire sans précédent, comparable à celui des armes nucléaires. L'ancien chercheur d'OpenAI va jusqu'à affirmer que la course à l'AGI entre les démocraties et les régimes autoritaires, comme la Chine, pourrait déterminer l'avenir de la liberté et de la démocratie.
L'exemple de la guerre du Golfe
Pour illustrer l'impact d'une avance technologique de quelques décennies, l'auteur se réfère à la guerre du Golfe. En dépit de la taille et de la préparation de l'armée irakienne, la coalition dirigée par les États-Unis a écrasé les forces irakiennes en seulement 100 heures. Cette victoire décisive était due à une supériorité technologique, notamment des munitions guidées et de meilleurs capteurs. Une avance d'un an ou deux sur la superintelligence
L'auteur avance que la superintelligence pourrait permettre de neutraliser la dissuasion nucléaire d'un adversaire. Des réseaux de capteurs améliorés peuvent localiser les sous-marins nucléaires les plus silencieux. Des drones autonomes peuvent infiltrer les lignes ennemies et saboter les forces nucléaires. Des usines de robots pourront produire des milliers d'intercepteurs pour chaque missile ennemi. Cette supériorité rendrait toute confrontation militaire inégale, même contre des forces nucléaires.
La Chine n'est pas hors jeu dans la course à l'AGI. Bien que les contrôles à l'exportation de puces aient ralenti ses progrès, elle possède un chemin clair pour être compétitive en construisant plus de puissance de calcul et en volant les secrets algorithmiques. La Chine a démontré sa capacité à fabriquer des puces de 7 nm, suffisantes pour les besoins de l'IA. Bien que la fabrication à grande échelle soit un défi, la capacité de construction industrielle de la Chine est inégalée. En une décennie, la Chine a construit autant de nouvelles capacités électriques que l'ensemble des États-Unis, ce qui montre son potentiel à
Mais l’avance américaine peut permettre de négocier avec la Chine et d'autres adversaires pour instaurer un régime de non-prolifération et des normes de sécurité. En échange d'une non-ingérence dans leurs affaires et du partage des avantages pacifiques de la superintelligence, il serait possible de stabiliser la situation post-superintelligence.
Et éviter de sombrer dans le chaos.
Pour en savoir plus :
- Situational awareness, The Decade Ahead, Leopold Aschenbrenner, 2024
- Summary of Situational awareness, The Decade Ahead, Effective altruism forum, 2024