Le règlement européen sur l’intelligence artificielle (AI Act) est entré en vigueur le 1er août 2024, mais ses dispositions sur la santé ne s’appliqueront qu’à partir d’août 2026. À mi-chemin de ce délai de grâce, dix chercheurs européens appellent à anticiper les échéances, en intégrant dès aujourd’hui les principes d’éthique et de « confiance » au cœur des pratiques de conception et de déploiement des systèmes. Une conformité de façade, centrée sur la minimisation du risque juridique, conduirait au contraire à la rigidification des processus cliniques, perte de confiance du public, et occultation des risques éthiques réels.
Évaluer la « confiance » avant la contrainte
L’article se concentre sur les exigences applicables aux systèmes classés « à haut risque » au sens du règlement : outils de tri des appels d’urgence, systèmes d’aide au diagnostic et dispositifs médicaux basés sur l’IA. Tous ces systèmes devront démontrer, d’ici 2026, leur conformité à des critères de transparence, de robustesse, de gestion des risques, de supervision humaine et de sécurité des données. Une certification par un tiers sera exigée pour l’ensemble des dispositifs concernés.
Les chercheurs soulignent que la conformité au texte ne doit pas être abordée comme un exercice administratif ou purement défensif. L’AI Act fait explicitement référence aux principes de l’IA de confiance – respect de l’autonomie, équité, transparence, soutenabilité – qui doivent être mobilisés en combinant les exigences du règlement avec celles d’autres textes européens, comme le RGPD, le règlement sur les dispositifs médicaux (MDR) ou l’espace européen des données de santé (EHDS). Un tableau comparatif (ci-dessus) propose une grille d’analyse des chevauchements et appelle à une stratégie d’alignement intégré entre les différents régimes juridiques.
Les auteurs proposent d’engager dès à présent une évaluation de la fiabilité des systèmes IA, selon des méthodes pluridisciplinaires intégrant des experts en droit, en clinique, en informatique et en éthique. L’objectif est d’identifier les tensions entre objectifs de performance, exigences légales et attentes sociales, afin de construire des arbitrages argumentés.
Une feuille de route concrète
Les chercheurs proposent ainsi une feuille de route concrète : recenser les systèmes IA utilisés ou en développement ; identifier ceux relevant du haut risque ; initier une évaluation de fiabilité interdisciplinaire ; élaborer une stratégie de gouvernance interne ; former les personnels concernés ; intégrer les dispositifs dans le Pacte IA européen, une initiative volontaire permettant d’anticiper la conformité et de partager les retours d’expérience entre pairs.
La méthode Z-Inspection, déjà testée sur plusieurs cas en milieu hospitalier, est mise en avant. Elle repose sur une analyse participative et contextuelle, permettant de repérer les effets différenciés de l’IA sur les patients, les professionnels et les groupes vulnérables. Selon l’article, cette démarche offre une base robuste pour structurer ensuite la conformité formelle exigée par le texte européen.
Éviter le « box ticking » et renforcer l’acceptabilité
Seule une mise en œuvre fondée sur des évaluations participatives, traçables et réflexives permettra d’ancrer la confiance dans les pratiques concrètes. Cela suppose de traduire les valeurs de l’IA de confiance en procédures vérifiables et en indicateurs cliniquement pertinents, et de veiller à ce que la responsabilité humaine reste effective et identifiable dans les décisions assistées par IA.
Les auteurs considèrent que le secteur de la santé a un rôle central à jouer pour démontrer la faisabilité d’une IA à la fois performante, fiable et alignée avec les droits fondamentaux. La préparation à l’AI Act ne doit pas être vue comme un frein à l’innovation, mais comme une occasion de structurer un cadre de développement plus robuste, plus durable et plus légitime. La conformité devient ainsi un levier d’amélioration continue, autant qu’un impératif réglementaire.
Pour en savoir plus :
- John Bandt Brodersen et al., Getting Ready for the EU AI Act in Healthcare. A call for Sustainable AI Development and Deployment, Arxiv, 2025