La grande majorité des échanges avec Claude, le chatbot d’Anthropic, concerne des tâches pratiques : rédaction, programmation, synthèse de documents. Seuls 3% des conversations observées relèvent d’un usage dit affectif, impliquant des besoins émotionnels ou psychologiques comme le coaching, le soutien psychologique, le conseil relationnel ou la recherche de compagnie, selon un article de recherche d’Anthropic.
Bien que marginale, cette fraction est suffisamment importante pour permettre d’analyser les impacts émotionnels des modèles d’IA. Les chercheurs d’Anthropic ont ainsi examiné 4,5 millions de conversations issues de comptes Claude.ai Free et Pro, en excluant les requêtes purement productives. Après tri et anonymisation, 131 484 conversations ont été retenues.
Les échanges de jeu de rôle à caractère sexuel ou romantique, interdits sur Claude, ne représentent que 0,1 % de l’ensemble et ont été écartés de l’analyse pour insuffisance de données.
Coaching, solitude et questionnements existentiels
Les utilisateurs sollicitent Claude pour des problématiques variées : transitions de carrière, conflits relationnels, anxiété chronique ou encore sens de l’existence. Les conversations de coaching abordent des enjeux professionnels mais aussi des questions philosophiques complexes. Dans le registre du conseil psychologique, les usages bifurquent : certains professionnels de santé mentale emploient Claude pour générer de la documentation clinique, tandis que d’autres utilisateurs cherchent un soutien émotionnel direct.
Sujets et préoccupations représentatifs des utilisateurs pour chaque type de conversation, tels qu'identifiés par Clio par le biais d'un résumé automatisé préservant la vie privée.
Dans les échanges plus longs – dépassant 50 messages – la complexité s’accroît : exploration de traumas psychologiques, conflits en milieu professionnel, discussions sur la conscience artificielle ou collaboration créative. Claude devient alors un interlocuteur permettant une introspection soutenue, même si cette posture n’est ni prévue ni encouragée par sa conception.
Des interactions généralement bénéfiques
Claude n’oppose qu’exceptionnellement une résistance aux demandes affectives. Dans moins de 10 % des conversations de conseil ou de coaching, il refuse d’exécuter une requête, principalement pour des raisons de sécurité : refus de recommandations dangereuses, prévention du suicide ou orientation vers un professionnel. Cette faible fréquence de résistance favorise un climat de confiance, mais elle pose aussi la question d’un éventuel soutien inconditionnel, rare dans les interactions humaines.
Sur le plan émotionnel, les utilisateurs manifestent en moyenne un ton légèrement plus positif à la fin de la conversation qu’au début. Cette évolution a été mesurée par comparaison des trois premiers et des trois derniers messages de chaque échange, sur une échelle de sentiment allant de très négatif à très positif. Si ce changement n’indique pas nécessairement un bénéfice psychologique durable, il suggère au moins l’absence de renforcement systématique de la négativité.
Des risques encore peu étudiés
Anthropic reconnaît les limites de son étude. Les classifications automatiques peuvent comporter des erreurs, certains échanges échappant aux typologies établies. Surtout, l’analyse ne permet pas d’évaluer les états émotionnels réels des utilisateurs ni les effets à long terme. Les risques de dépendance affective, bien que théorisés, n’ont pas été explorés. De même, les phénomènes de renforcement de croyances délirantes ou conspirationnistes ne relèvent pas de ce travail.
Claude, conçu pour maintenir des frontières claires entre assistant virtuel et être humain, se distingue d’autres IA orientées vers la thérapie, le rôle relationnel ou l’accompagnement émotionnel. Sa politique d’usage interdit explicitement les contenus à caractère sexuel et privilégie la sécurité émotionnelle des utilisateurs. Les chercheurs y voient une opportunité autant qu’un défi : préserver la santé mentale des usagers tout en respectant leur besoin croissant d’un soutien accessible, disponible à toute heure, et exempt des contraintes humaines traditionnelles.
Pour en savoir plus :
- How People Use Claude for Support, Advice, and Companionship, Anthropic, 2025