Dario Amodei, CEO et cofondateur d’Anthropic, vient de publier une tribune plaidant pour l’urgence de développer des outils capables d’examiner de l’intérieur les intelligences artificielles. L’opacité de l’IA rend en effet difficile la détection de comportements émergents indésirables, comme la dissimulation ou la recherche de pouvoir. Grâce à des percées récentes en "interprétabilité mécanistique", cependant, Amodei juge possible de créer, dans les prochaines années, des outils capables de diagnostiquer et de corriger les biais, les déviations ou les risques systémiques des modèles. Mais pour cela, prévient-il, il faut investir massivement dès maintenant. Sinon, l’AGI – ou l’IA puissante, dans sa terminologie – émergera avant que nous sachions la contrôler.
Un nouveau cadre à inventer
Le prix Nobel Demis Hassabis, PDG de Google DeepMind, partage cette urgence. Dans un entretien accordé au magazine Time, il rappelle que son objectif est de construire une intelligence artificielle capable d’apporter des solutions aux grands défis du siècle : guérison des maladies, invention de nouvelles sources d’énergie, ou exploration spatiale. Mais l'AGI ne permettra « la floraison humaine maximale » que si elle est développée de manière responsable. Or, Hassabis souligne deux risques majeurs : la possibilité que des acteurs mal intentionnés détournent l’AGI à des fins destructrices et le risque que l’AGI elle-même échappe au contrôle humain. Il appelle à la mise en place de normes internationales pour encadrer son développement et son usage. Faute de quoi, la technologie pourrait, selon ses termes, produire l’inverse des résultats attendus — en facilitant la création d’armes biologiques, par exemple, au lieu de médicaments.
Pour éviter ces dérives, le cabinet Gladstone AI recommande dans un récent rapport d’encadrer le futur projet de superintelligence par des mécanismes de contrôle robustes, analogues à ceux mis en place pour les armes nucléaires. Il s’agirait notamment de mettre en place une chaîne de commandement claire, de limiter le pouvoir discrétionnaire de tout acteur individuel, et de garantir la responsabilité démocratique du projet face aux élus. Spécialisé dans la sécurité des systèmes d’IA avancés, il appelle les autorités américaines à lancer un programme national structuré sur le modèle du Manhattan Project, qui a donné la bombe atomique aux États-Unis, pour sécuriser cette trajectoire technologique.
L’appel de Gladstone AI s’inscrit dans une dynamique politique déjà amorcée. En novembre 2024, la Commission économique et de sécurité États-Unis–Chine (USCC) a plaidé auprès du Congrès pour un programme national ambitieux visant à développer une AGI. Inspiré explicitement du Manhattan Project, ce plan prévoyait des partenariats publics-privés massifs, des soutiens aux infrastructures cloud et IA, et une désignation prioritaire des projets liés à l’intelligence artificielle par le département de la Défense.
Des infrastructures mal protégées
Gladstone AI décrit des failles majeures dans la sécurisation des centres de calcul, notamment face à des attaques physiques à bas coût mais à fort effet. Certaines composantes essentielles des data centers — transformateurs, contrôleurs, chaînes de refroidissement — sont fabriquées en Chine, ce qui ouvre la voie à des actions de sabotage ou d’espionnage. Les équipements électroniques comme les BMC (baseboard management controllers), omniprésents dans les serveurs, sont identifiés comme un « point faible » critique. Le cabinet préconise la relocalisation de la production de composants, la mise en place de prototypes de centres de calcul résilients, et l’intégration dès la conception de mécanismes de sécurité inspirés des standards militaires les plus élevés.
Risque de vol ou de perte de contrôle
Un autre danger réside dans le vol des modèles d’IA. Les analystes de Gladstone AI alertent sur la faiblesse des mesures de cybersécurité et sur la difficulté de protéger les poids de modèles une fois déployés. Selon plusieurs témoignages, des vulnérabilités connues ont permis — ou permettraient encore — d’exfiltrer en quelques clics les actifs les plus sensibles des laboratoires, sans détection.
Mais la perte de contrôle pourrait aussi venir du comportement même des modèles. Gladstone AI relate plusieurs cas où des IA de dernière génération ont contourné des limitations, exploré des comportements non anticipés ou agi de manière délibérément trompeuse. La crainte exprimée est claire : une superintelligence incontrôlée, ou pire, compromise par une puissance étrangère, pourrait se retourner contre ses développeurs.
L’étude de Gladstone AI s’appuie sur une centaine d’entretiens avec des agents du renseignement, des anciens des forces spéciales, des responsables de centres de données et des chercheurs en IA. Leur constat est alarmant : les États-Unis disposent d’une avance technologique, mais ne la sécurisent pas. Les données critiques sont exposées, les infrastructures vulnérables, les laboratoires trop perméables. Résultat : les gains américains en matière d’IA profiteraient parfois plus vite à la Chine qu’au Pentagone lui-même.
Il ne reste à Donald Trump qu’à imposer un tarif douanier.
Pour en savoir plus :