Dès l’ouverture, le Technology Report 2025 de Bain avance sa thèse centrale : les entreprises qui ont industrialisé l’usage de l’IA ont déjà amélioré leur Ebitda de 10 % à 25 %. Elles passent désormais aux agents capables de raisonner et d’exécuter des enchaînements d’actions sans sollicitation humaine continue. Le rapport insiste sur l’extension du terrain de jeu concurrentiel. La concurrence se déplace dans l’infrastructure avec des offres GPU à la demande plus spécialisées, dans les modèles avec des challengers rapides, et au niveau des applications où émergent des éditeurs focalisés sur l’excellence d’usage, comme Cursor pour le code. L’étude ajoute de nouveaux points de contrôle stratégiques – appareils dopés à l’IA, recherche conversationnelle et navigateurs pilotés par modèles –, qui redistribuent l’accès aux données clients.
Souveraineté numérique et réalignement géopolitique
Bain replace ces mouvements dans un contexte de fragmentation. Les restrictions à l’export, les tarifs douaniers et la quête de souveraineté poussent les chaînes d’approvisionnement électroniques vers une régionalisation plus marquée. La Chine a injecté plus de 250 milliards de dollars dans ses capacités de semi‑conducteurs depuis 2019 et triple sa production pour atteindre près de 20 % des capacités mondiales.
La souveraineté en IA s’affirme en parallèle. L’Union européenne mobilise un programme InvestAI d’envergure, avec un volet de 20 milliards d’euros pour des « gigafactories » de centres de données, l’Allemagne s’allie à Nvidia pour un cloud industriel, et l’Arabie saoudite prépare des centres totalisant 500 MW afin d’entraîner des modèles arabophones de pointe. Bain en déduit l'évolution des systèmes d’information vers des architectures plus locales, des flux de données reconfigurés par juridiction, et peu de chances de convergence autour d’un standard mondial de « responsabilité » de l’IA.
Compute : la demande de calcul double la loi de Moore
Le chapitre sur l’alimentation des modèles fixe un ordre de grandeur inédit : la demande de calcul de l’IA – c’est‑à‑dire le volume d’opérations nécessaires pour entraîner et faire inférer les modèles – progresse de 4,5 fois par an environ, soit plus de deux fois le rythme classique de doublement des transistors. Un graphique de la page 32 illustre cet écar
L’addition qui en résulte est massive, avec une trajectoire vers 200 GW de puissance informatique mondiale en 2030, dont 100 GW aux États‑Unis. Bain estime qu’il faudrait environ 500 milliards de dollars de dépenses annuelles pour bâtir les centres de données requis ; à structure financière soutenable, cela suppose près de 2 000 milliards de dollars de revenus, même après bascule des budgets IT on‑premise vers le cloud et réinvestissement de gains de productivité liés à l’IA. Cela crée un « trou » d’environ 800 milliards de dollars. Des gains algorithmiques pourront à terme réduire la facture, mais les auteurs jugent que l’informatique quantique nécessite encore de 10 à 15 ans, avant de se mesurer aux charges d’entraînement et d’inférence.
SaaS face aux agents : la nouvelle carte stratégique
Le rapport définit l’IA agentique comme un ensemble de systèmes capables de fixer un objectif, planifier, exécuter des actions via des API et s’auto‑corriger, donc d’automatiser des suites de tâches auparavant humaines. Bain propose une grille en deux axes – degré d’automatisation des tâches utilisateurs et facilité d’« intrusion » de l’IA dans les workflows d’un logiciel –, qui produit quatre trajectoires types : renforcement des offres établies, compression des dépenses, gisements de croissance où l’IA capte l’essentiel de la valeur, et cannibalisation pure de certaines briques.
Au‑delà de ces cas, Bain décrit une pile rebundlée en trois couches. Les « systems of record » constituent la source de vérité et incorporent règles et historiques ; les « agent operating systems » orchestrent les tâches et l’accès aux outils ; les « outcome interfaces » traduisent une intention du type « clôturer les comptes » en actions, dans Teams ou Slack par exemple. Des protocoles comme MCP (Model Context Protocol) et Agent2Agent fluidifient l’échange de contexte entre couches. La bataille à venir porte sur une sémantique commune – l’objet facture, le bon de travail – qui donnerait au vainqueur une position d’arbitre.
Robots humanoïdes : du spectaculaire au praticable
Autre terrain d’observation, les humanoïdes. Bain recense environ 2,5 milliards de dollars d’investissements en 2024, mais précise que les déploiements restent limités à des environnements très structurés et reposent sur une supervision humaine significative. Une matrice par capacités indique une proximité avec l’humain sur l’intelligence de haut niveau et la perception d’ici deux à trois ans, alors que la dextérité et surtout l’autonomie énergétique freinent encore les usages.
La trajectoire d’adoption suit des vagues claires. À un horizon de trois ans, les tâches de picking en entrepôt, de palettisation ou d’alimentation de lignes industrielles paraissent réalistes. Vers cinq ans, des opérations de service répétitives – remise en état de chambre d’hôtel, acheminement de consommables à l’hôpital – deviennent crédibles, avec des batteries échangeables à recharge rapide. À dix ans, s'ouvrent des cas de l’assistance légère sur chantier à l’aide à domicile, sous réserve de certification, de sécurité et d’acceptation sociale. La densité énergétique visée pour approcher une « journée » de huit heures sans recharge est cependant encore hors de portée.
Quantique : potentiel élevé, urgence cryptographique
Bain chiffre le potentiel marché du calcul quantique entre 100 milliards et 250 milliards de dollars à terme, avec des premiers succès probables dans la simulation de matériaux et l’optimisation logistique. L’étude décrit un futur « en mosaïque » où processeurs quantiques et classiques coopèrent selon les besoins.
Le cabinet insiste sur un message immédiat : la cybersécurité. Le scénario « collecter aujourd’hui, déchiffrer demain » rend nécessaire le déploiement de la cryptographie post‑quantique. Seuls 9 % des responsables interrogés déclarent disposer d’une feuille de route, alors que 97 % y voient un risque important sous dix ans. Cette prudence vaut aussi pour les promesses de rupture.
Les auteurs ne prévoient pas de remplacement général des data centers par le quantique ; ils anticipent plutôt des cas ciblés où l’avantage de performance justifie l’usage, la progression des architectures hybrides et la continuité de l’amélioration des algorithmes classiques.
Transformer l’entreprise : un mode opératoire éprouvé
Le volet « Transformations opérationnelles » formalise une méthode. Les entreprises en tête fixent des objectifs top‑down, confient la responsabilité aux chefs de ligne, refondent des processus entiers et assainissent les données au plus près des workflows, plutôt que d’attendre une architecture idéale. Bain regroupe l’IA d’entreprise en quatre niveaux : assistants d’information, agents mono‑tâche, orchestration multi‑systèmes, et constellations multi‑agents. Les progrès s’accélèrent sur les niveaux 2 et 3, comme le montrent l’explosion des fenêtres de contexte, la multiplication des connecteurs et la diffusion des protocoles d’agent à agent dans les graphiques de la section.
La vente reste un front peu exploité. Les auteurs recensent jusqu’à 30 % de hausse des taux de gain lorsque des parcours entiers se réinventent, et montrent que l’IA peut presque doubler le temps effectivement passé devant le client, par report des tâches administratives vers des agents. Un panorama de 25 cas d’usage couvre prospection, qualification, configuration‑devis et support ; l’étude recommande de démarrer sur la tête du tunnel avec des données nettoyées et un parrainage exécutif fort.
Développement logiciel : le vrai rendement dépasse le code
Le rapport nuance l’enthousiasme pour les IA copilotes de code. Les gains isolés atteignent souvent 10 % à 15 %, mais restent modestes si l’on ne traite pas les goulets d’étranglement amont et aval. Bain rappelle que la programmation et les tests ne pèsent qu’un gros tiers du cycle ; l’impact maximal vient d’une refonte « AI‑native » de bout en bout, du recueil des exigences jusqu’à la maintenance, avec redéploiement mesuré du temps économisé vers de nouvelles livraisons. Un graphique indique qu’un assistant de code peut couvrir jusqu’à 40 % des tâches techniques, à condition d’ajuster intégration, qualité et mise en production.
Dernier étage, l’architecture pour agents. L’étude préconise des plateformes modernisées, des API temps réel, une interopérabilité soignée autour de MCP, une responsabilité distribuée par domaine, un accès massif aux données non structurées et des contrôles renforcés sur observation, sécurité et coûts. Bain anticipe 5 % à 10 % des dépenses technologiques consacrées aux fondations dans les trois à cinq ans, puis une montée progressive jusqu’à une part bien plus large de budgets opérés par des agents à l’échelle des métiers.