Les systèmes d’intelligence artificielle sont de plus en plus sollicités pour appuyer les décisions humaines, que ce soit dans la santé, la finance ou les services publics. Mais pour que ces systèmes soient réellement acceptés, ils devront pouvoir expliquer de manière claire les raisons de leurs choix.
La recherche en "IA explicable" (XAI) s’est jusqu’ici concentrée sur des utilisateurs supposés rationnels, en cherchant à leur fournir des justifications compréhensibles et à limiter les biais cognitifs. Sans se préoccuper de l’interlocuteur humain.
Donner à l’IA un quotient émotionnel
Or, les émotions jouent un rôle central dans la manière dont ces explications sont perçues. Des études récentes montrent que des réactions émotionnelles négatives, même sans lien avec la tâche, peuvent altérer la compréhension d’une explication, ou au contraire renforcer la réceptivité dans certains cas. Un groupe de chercheurs proposent d’aller plus loin : adapter les explications en fonction de l’état émotionnel de la personne qui interagit avec le système.
Le modèle développé repose sur une séquence en trois temps. Lorsqu’un système présente les raisons d’une décision (par exemple une évaluation de risque), il commence par observer si l’utilisateur manifeste une réaction émotionnelle — surprise, irritation, hésitation. Cette première phase d’« éveil émotionnel ou épistémique » est détectée par l’analyse d’expressions faciales ou de données physiologiques comme la fréquence cardiaque, à l’aide d’outils comme EmoNet ou une montre connectée.
Si une réaction est identifiée, une seconde phase s’engage : le système vérifie si l’utilisateur a bien compris l’explication. Il peut alors initier un dialogue court, proposer une reformulation ou modifier l’angle de présentation. Ce processus est inspiré des mécanismes de "grounding", qui désignent les techniques par lesquelles deux interlocuteurs s’assurent qu’ils se comprennent. Enfin, le système propose à l’utilisateur d’indiquer s’il est d’accord ou non avec l’explication, ou s’il préfère une autre présentation de la décision, comme une version sans la variable controversée.
Une interaction multimodale et dynamique
Le prototype développé repose sur une interaction avec un robot virtuel nommé Floka. L’utilisateur répond à des questions destinées à évaluer son niveau de risque dans une situation donnée. À chaque étape, les explications fournies par le système sont modulées selon l’état émotionnel détecté, avec la possibilité de relancer la discussion ou de reformuler. L’objectif n’est pas d’imposer une interprétation, mais de fournir les éléments nécessaires à une décision éclairée, même si elle diffère de celle recommandée par l’IA.
Le modèle comporte trois grands modules. Un premier est dédié à la reconnaissance émotionnelle et à la détection de réactions, par exemple des micro-expressions ou des variations du rythme cardiaque. Un deuxième module évalue le risque et orchestre la présentation des explications. Il utilise des dialogues assistés par un grand modèle de langage pour engager l’utilisateur sur les points sensibles. Enfin, un module de contrôle gère les transitions entre les différentes phases du dialogue.
Ajuster les explications à la zone optimale d’attention
Les résultats s’appuient sur une hypothèse bien documentée : la performance cognitive diminue lorsque l’état émotionnel est trop faible (manque d’attention) ou trop intense (surcharge). L’objectif du modèle est de maintenir l’utilisateur dans une "zone optimale d’éveil", où sa concentration est maximale. Pour cela, il adapte le rythme, le contenu et le style des explications.
Cette approche permet de tenir compte des effets réciproques entre émotion et compréhension : non seulement les émotions influencent la manière dont une explication est perçue, mais l’explication elle-même peut susciter une réaction émotionnelle, qu’il faut pouvoir interpréter.
Le système proposé ne cherche pas à supprimer l’émotion, mais à en faire un indicateur utile pour ajuster la pédagogie de l’IA. Il s’inscrit dans une approche centrée sur l’humain, où l’interaction ne repose pas uniquement sur la logique formelle, mais aussi sur l’attention portée à l’état affectif de l’interlocuteur.
Vers des systèmes plus adaptatifs et inclusifs
Les auteurs identifient plusieurs pistes d’évolution. Le modèle pourrait intégrer des formes de mémoire à court terme, pour tenir compte de l’historique émotionnel d’un utilisateur au fil d’un échange. Il pourrait aussi être testé dans des contextes critiques, comme les diagnostics médicaux, où la compréhension et la confiance dans l’explication conditionnent fortement l’acceptation de la décision.
En intégrant les principes du dialogue humain — observation, rétroaction, reformulation — dans les systèmes d’explication de l’IA, cette recherche ouvre la voie à des interfaces plus sensibles, plus adaptatives et potentiellement plus justes. Elle souligne qu’une explication n’est jamais neutre : elle est toujours interprétée à travers le prisme émotionnel de celui qui la reçoit.
Pour en savoir plus :
- Christian Schütze et al., Emotion-sensitive Explanation Model, Arxiv, 2025