Éthique de l’IA en santé construire la confiance à l’ère de la thérapie intelligente

L’intelligence artificielle s’est désormais tissée au cœur du système de santé moderne. De l’imagerie diagnostique à l’orthophonie, l’IA touche aujourd’hui presque chaque facette de la pratique. Mais plus la technologie gagne en puissance, plus le besoin de repères éthiques clairs s’impose. Des rapports internationaux et des déclarations de consensus récents laissent penser que 2025 pourrait rester comme l’année où le monde s’est enfin accordé sur ce que doit être une « IA éthique en santé ».

Dans tous les pays et disciplines, régulateurs et chercheurs convergent vers des principes similaires: transparence, responsabilité, équité et, surtout, supervision humaine. Le Conseil Indien de la Recherche Médicale (ICMR) a publié récemment ses Lignes directrices éthiques pour l’application de l’intelligence artificielle en recherche biomédicale et en santé, un document de référence qui précise les responsabilités des professionnels utilisant l’IA en contexte de santé. Ces directives exigent des procédures de consentement explicites, une communication claire sur l’usage de l’IA, et une gouvernance solide de la protection des données.

Parallèlement, l’Association Médicale Mondiale (AMM/WMA) a diffusé un document de synthèse sur les aspects éthiques, juridiques et réglementaires de l’IA en santé une feuille de route qui appelle les professionnels du soin et de la rééducation à protéger l’autonomie et à garantir le caractère non négociable du « human-in-the-loop », la présence humaine dans la boucle décisionnelle. Ce positionnement fait écho au cadre FUTURE-AI, publié dans The BMJ (British Medical Journal), qui identifie sept piliers d’une IA digne de confiance: équité, transparence, centrage humain, robustesse, explicabilité, responsabilité et durabilité.

Pour les thérapeutes, les éducateurs et les chercheurs cliniques, ces cadres ne sont pas de simples politiques abstraites ce sont des garde-fous opérationnels. À mesure que l’IA s’intègre aux systèmes cliniques, les thérapeutes peuvent s’appuyer sur des recommandations algorithmiques pour orienter les interventions, anticiper les résultats ou adapter les supports. Pourtant, une IA éthique exige que les professionnels demeurent des penseurs critiques, non des utilisateurs passifs. Un modèle de langage peut proposer une stratégie thérapeutique ou générer une note d’évolution, mais il ne saisit pas les subtilités émotionnelles, les dilemmes éthiques ni les nuances contextuelles qui fondent la relation de soin.

Les implications pour la pratique sont majeures. Lorsqu’ils intègrent des outils d’IA, qu’il s’agisse d’une application d’analyse du langage, d’un système d’apprentissage adaptatif ou d’un agent conversationnel en santé mentale, les professionnels doivent examiner la gestion des données par ces outils, les hypothèses qui orientent leurs algorithmes, et vérifier que les clients comprennent pleinement le rôle de l’IA dans leur prise en charge. Le consentement éclairé devient alors un processus continu, pas une case à cocher une fois pour toutes.

Une IA éthique suppose aussi une vigilance constante face aux biais. De nombreux jeux de données qui entraînent les systèmes d’IA sous‑représentent les personnes neurodivergentes, les locuteurs de langues minoritaires ou les populations à faibles ressources. Lorsque le biais est dans les données, il se retrouve dans les résultats avec le risque d’amplifier les inégalités au lieu de les réduire. Les lignes directrices internationales actuelles invitent les praticiens à défendre l’inclusivité dès la conception des IA, en favorisant la collaboration entre cliniciens, technologues et communautés de patients.

Au fond, la question n’est pas de savoir si l’IA doit faire partie du système de santé, elle en fait déjà partie, mais comment s’assurer qu’elle serve l’humain sans le desservir. L’avenir de la thérapie et de la réadaptation sera probablement hybride: un jugement clinique éclairé, amplifié par l’intelligence machine. Mais la boussole éthique doit toujours pointer vers l’empathie, le consentement et l’équité.

Les professionnels qui s’approprient tôt ces cadres éthiques se positionnent comme des acteurs de référence de l’innovation responsable. Les lire et les mettre en perspective n’est pas qu’une question de conformité réglementaire, c’est l’éthique professionnelle en action.

Pour aller plus loin

Leave a Comment

Your email address will not be published. Required fields are marked *