Dans l’écosystème de l’intelligence artificielle contemporaine, le terme d’« agent » est devenu omniprésent, mais s’est vidé de son sens. Pour en clarifier les usages, les auteurs proposent de distinguer deux catégories fondamentales : les « agents IA », agents logiciels autonomes augmentés par des modèles de langage, et les systèmes d'« IA agentique », organisés autour de la coordination de plusieurs agents spécialisés. Cette distinction permet de mieux caractériser les architectures, les cas d’usage et les défis associés à chaque paradigme.
Définitions
Les agents IA sont définis comme des entités capables d’exécuter de manière autonome des tâches unitaires, généralement en interagissant avec des outils externes. Ces agents disposent d’une capacité de perception, de raisonnement local et d’action dans un environnement donné, mais opèrent souvent sans planification sur le long terme ni coordination complexe.
Pour leur part, les systèmes agentiques orchestrent plusieurs agents dans une structure intégrée, avec mémoire persistante, planification adaptative, communication structurée et supervision de haut niveau.
En distinguant clairement les architectures, les fonctions et les limites, cette taxonomie propose un cadre pour orienter la recherche, le développement et l’évaluation des futurs systèmes intelligents collaboratifs. Elle offre également un socle pour structurer les débats techniques et normatifs autour de l’agentivité dans les modèles de langage.
Une évolution orientée par l’architecture
Les auteurs décrivent une progression des systèmes, des agents simples vers des systèmes coordonnés. Les premiers sont limités à la chaîne perception–action, tandis que les seconds intègrent des rôles spécialisés, une planification explicite, une mémoire commune et une supervision distribuée.
Ce saut architectural vise à répondre à des tâches complexes, dynamiques, où les sous-objectifs doivent être explorés en parallèle ou en séquence adaptative.
La progression des agents d'IA vers l'IA agentique, suivie de leur évolution architecturale, de leurs applications, de leurs limites et des stratégies de solutions futures. • Ranjan Sapkota et al.
Cette évolution permet notamment d’étendre la capacité à traiter des contextes longs, de gérer des tâches en plusieurs étapes, et d’assurer une continuité de raisonnement. L’agent devient non seulement un exécuteur de tâches, mais un collaborateur dans un système collectif distribué.
Des domaines d’application différenciés
Les auteurs proposent une cartographie fonctionnelle. Les agents IA s’adaptent bien aux tâches ciblées et répétitives : gestion de courriels, planification simple, automatisation de services clients. Leur autonomie est fonctionnelle mais limitée, et leur champ d’action reste délimité.
À l’inverse, les systèmes agentiques visent des tâches plus ouvertes : synthèse de documents longs, réponse à incidents complexes, analyse croisée d’informations, rédaction collaborative, coordination entre robots physiques. Dans ces cas, chaque agent assume un rôle spécifique (extraction, vérification, planification, synthèse) au sein d’un dispositif collectif structuré.
Défis propres à chaque modèle
Les agents IA présentent des limites connues : manque de mémoire, raisonnement superficiel, absence de planification causale, difficulté à gérer l’échec ou l’incertitude. Leur comportement reste fragile, par exemple en cas d’interruption.
Les systèmes agentiques, quant à eux, sont confrontés à d’autres problèmes : instabilité liée aux effets émergents, coordination difficile entre agents, propagation d’erreurs en cascade, opacité des trajectoires de raisonnement. L’absence de standardisation rend également les implémentations hétérogènes, ce qui complique leur évaluation ou leur certification.
Une base technique à consolider
Pour surmonter ces limites, les auteurs identifient dix mécanismes à mettre en place : mémoire dynamique, outils de raisonnement intégrés, planification simulée, contrôle réflexif, invites programmatiques, modèles causaux, dispositifs d’audit, séparation fonctionnelle des rôles, attribution claire des responsabilités et gouvernance des processus. Ces briques peuvent être combinées selon les besoins pour renforcer la robustesse, la transparence et la résilience des systèmes.
Ce socle technique permettra de concevoir des agents capables de s’adapter à des tâches plus générales, d’améliorer leur auto-évaluation, et de fonctionner dans des environnements dynamiques ou incertains.
Les auteurs esquissent une convergence possible entre ces deux paradigmes. D’un côté, les agents IA pourraient s’enrichir de fonctions de mémoire, de planification ou de supervision explicable. De l’autre, les systèmes agentiques gagneraient à se spécialiser par domaine, en intégrant des standards sectoriels, des cadres éthiques et des mécanismes de contrôle distribués.
Pour en savoir plus :
- Ranjan Sapkota et al., AI Agents vs. Agentic AI: A Conceptual Taxonomy, Applications and Challenges, Arxiv, 2025