
Dans la réalité quotidienne d'une semaine d'orthophonie chargée, l'AI n'apparait pas comme un débat abstrait. Elle se manifeste plutôt comme une série de points de friction : peut-on faire confiance à la transcription automatique pour un enfant multilingue ? faut-il tester une application de dépistage pour faire les listes d'attente ? un outil général peut-il prévoir des consignes de programme à domicile sans programme ?
Le document de position de l=ESLA, Shaping the Future of Speech and Language Therapy with Artificial Intelligence, publié le 6 mars 2026, s=inscrit plein dans cette réalité. Il reconnaît que l'intelligence artificielle transforme rapidement les soins de santé et rappelle que l'orthophonie repose avant tout sur l'interaction humaine, le contexte et le jugement clinique.
Le document invite deux extrêmes fréquents : adopter les technologies simplement parce qu'elles sont nouvelles, ou les rejeter parce qu'elles ressemblent à des risquées. Il propose une posture professionnelle équilibrée : l'IA doit soutenir les thérapies, et non les remplacer, tout en respectant les droits humains, la dignité, la diversité et l'inclusion.
Mais une difficulté apparaît rapidement : ces principes sont justes, mais restent parfois trop généraux pour guider les décisions du quotidien. En pratique, « sans remplacer » devrait se traduire par des limites clairement infinies : quelles tâches peu être automatisées ? lesquelles doivent rester sous responsabilité directe du clinicien ? quel niveau de supervision humaine est suffisant dans des services déjà sous tension ?
Sans ces répétitions, le risque est que le document doit un corps de valeurs grand partagé, tant que les pratiques réelles évoluent sous l'influence des fournisseurs de technologies, des contraintes budgétaires ou du manque de temps. L'ESLA évoque plusieurs potentiels : dépistage, soutien à l'évaluation, planification des interventions, suivi des résultats, personnalisation des soins, modalités hybrides et amélioration de l'accès aux services.
Cependent, le texte aurait pu aller plus loin dans certaines questions pratiques. Une réalité parfait inconfortable mérite d=étre discuté : la « personnalisation » technologie peut faciliter se transformer en optimisation pour la majorité. Cette question concerne notamment certains groupes : enfants multilingues, dialectes mineurs, utilisateurs de CAA, profils de handicap complexes ou normes communicationnelles culturelles situées.
Si l'équité constitue un objectif central, il doit nécessairement établir les attitudes minimales en matière de prime scientifique : quels niveaux de validation sont nécessaires pour les systèmes de reconnaissance vocale multilingue ? Quelles queues d'échantillon sont requises ? quels accents ou variétés linguistiques doivent être testés ? Quels sont les critères acceptables, et pour qui ? Sans ces critères, l'équité reste avantage une intention qu'une exigence mesurable.
Le document apparaît notamment solide sur son sole éthique : confidentialité, consentement, propriété des données, biais algorithmiques, accès individuel et risque de dépendance excessive. Mais une position éthique forte ne se traite pas automatiquement par une utilisation clinique. C'est là que de nombreux cliniciens peuvent exprimer la même frustration : les principes sont pertinents, mais les recommandations restent trop générales. La profession aura probablement obtenu d'orientations plus concrètes : des listes de « à faire / à inviter », des outils pratiques, ou des garde-fous applicables dans les flux de travail réels. Par exemple, un document plus opérationnel peut inclure : une classification des usages vert / orange / rouge, une check-list de vérification de la confidentialité, des normes minimales d'évaluation scientifique, une liste de questions à poser aux fournisseurs avant l'achat d'un outil. Sans ces outils, chaque service se retrouve à élaborer ses propres règles, toujours dans l'urgence et avec des niveaux de protection très variables.
La conclusion de l'ESLA applique à une adoption régionale, collaborative et éthique de l'IA afin de renforcer la participation, la dignité et l'inclusion. C'est une direction pertinente. Mais la prochaine étape consiste à transformer ces valeurs en recommandations concrètes pour la pratique. La profession a pas seulement besoin d'une autorisation d'explorer l'IA. Elle a besoin d'un cadre structuré pour le faire en toute sécurité. Dans l'état actuel, le document de l'ESLA constitue une prise de position éthique solide. Mais il ne représente pas encore la boussole pratique que de nombreux cliniciens espérant.
