
Dans la réalité quotidienne d’une semaine d’orthophonie chargée, l’IA n’apparaît pas comme un débat abstrait. Elle se manifeste plutôt comme une série de points de friction : peut-on faire confiance à la transcription automatique pour un enfant multilingue ? faut-il tester une application de dépistage pour réduire les listes d’attente ? un outil génératif peut-il rédiger des consignes de programme à domicile sans s’éloigner des données probantes ?
Le document de position de l’ESLA, Shaping the Future of Speech and Language Therapy with Artificial Intelligence, publié le 6 mars 2026, s’inscrit pleinement dans cette réalité. Il reconnaît que l’intelligence artificielle transforme rapidement les soins de santé et rappelle que l’orthophonie repose avant tout sur l’interaction humaine, le contexte et le jugement clinique.
Le document évite deux extrêmes fréquents : adopter les technologies simplement parce qu’elles sont nouvelles, ou les rejeter parce qu’elles semblent risquées. Il propose une posture professionnelle équilibrée : l’IA doit soutenir les thérapeutes, et non les remplacer, tout en respectant les droits humains, la dignité, la diversité et l’inclusion.
Mais une difficulté apparaît rapidement : ces principes sont justes, mais restent parfois trop généraux pour guider les décisions du quotidien. En pratique, « soutenir sans remplacer » devrait se traduire par des limites clairement définies : quelles tâches peuvent être automatisées ? lesquelles doivent rester sous responsabilité directe du clinicien ? quel niveau de supervision humaine est réellement suffisant dans des services déjà sous tension ?
Sans ces repères, le risque est que le document devienne un socle de valeurs largement partagé, tandis que les pratiques réelles évoluent sous l’influence des fournisseurs de technologies, des contraintes budgétaires ou du manque de temps. L’ESLA évoque plusieurs opportunités prometteuses : dépistage, soutien à l’évaluation, planification des interventions, suivi des résultats, personnalisation des soins, modalités hybrides et amélioration de l’accès aux services.
Cependant, le texte aurait pu aller plus loin dans certaines questions pratiques. Une réalité parfois inconfortable mérite d’être discutée : la « personnalisation » technologique peut facilement se transformer en optimisation pour la majorité. Cette question concerne particulièrement certains groupes : enfants multilingues, dialectes minorisés, utilisateurs de CAA, profils de handicap complexes ou normes communicationnelles culturellement situées.
Si l’équité constitue un objectif central, il devient nécessaire de préciser les attentes minimales en matière de preuve scientifique : quels niveaux de validation sont nécessaires pour les systèmes de reconnaissance vocale multilingue ? quelles tailles d’échantillon sont requises ? quels accents ou variétés linguistiques doivent être testés ? quels taux d’erreur sont acceptables, et pour qui ? Sans ces critères, l’équité reste davantage une intention qu’une exigence mesurable.
Le document apparaît particulièrement solide sur son socle éthique : confidentialité, consentement, propriété des données, biais algorithmiques, accès inégal et risque de dépendance excessive. Mais une position éthique forte ne se traduit pas automatiquement par une utilisabilité clinique. C’est là que de nombreux cliniciens pourraient exprimer la même frustration : les principes sont pertinents, mais les recommandations restent trop générales. La profession aurait probablement bénéficié d’orientations plus concrètes : des listes de « à faire / à éviter », des outils pratiques, ou des garde-fous applicables dans les flux de travail réels. Par exemple, un document plus opérationnel pourrait inclure : une classification des usages vert / orange / rouge, une check-list de vérification de la confidentialité, des standards minimaux d’évaluation scientifique, une liste de questions à poser aux fournisseurs avant l’achat d’un outil. Sans ces outils, chaque service se retrouve à élaborer ses propres règles, souvent dans l’urgence et avec des niveaux de protection très variables.
La conclusion de l’ESLA appelle à une adoption réfléchie, collaborative et éthique de l’IA afin de renforcer la participation, la dignité et l’inclusion. C’est une direction pertinente. Mais la prochaine étape devrait consister à transformer ces valeurs en recommandations concrètes pour la pratique. La profession n’a pas seulement besoin d’une permission d’explorer l’IA. Elle a besoin d’un cadre structuré pour le faire en toute sécurité. Dans l’état actuel, le document de l’ESLA constitue une prise de position éthique solide. Mais il ne représente pas encore la boussole pratique que de nombreux cliniciens espéraient.
