
Au cours d'une semaine de discours et de thérapie langagière, «AI» n'arrive pas comme un débat philosophique. Il arrive comme un point de friction: Pouvons-nous faire confiance à la transcription automatisée pour un enfant multilingue? Devrions-nous tester une application de dépistage pour réduire les listes d'attente? Un outil génératif peut-il rédiger des instructions de programme à domicile sans dériver au-delà des preuves? Le texte de position de l'ESLA, Façonner l'avenir de la thérapie vocale et linguistique avec l'intelligence artificielle (publié Le 6 mars 2026C'est vrai. Elle reconnaît que l'IA remodele rapidement les soins de santé et qu'elle définit correctement le SLT comme une profession fondée sur l'interaction, le contexte et le jugement. Le problème est que quand les cliniciens se tournent vers un papier de position, beaucoup d'entre nous ne sont pas seulement à la recherche d'une vision, nous sommes à la recherche direction.
Au crédit d'ESLA, le papier évite les deux extrêmes communs : adopter des outils parce qu'ils sont nouveaux, ou les rejeter parce qu'ils se sentent risqués. Il énonce une attitude professionnelle raisonnable: l'IA devrait au lieu de remplacer Les thérapeutes et la mise en oeuvre doivent respecter les droits de l'homme, la dignité, la diversité et l'inclusion. Mais voici la tension: ces principes sont vrai, et toujours trop général pour guider les décisions quotidiennesDans la pratique, le « soutien ne remplace pas » doit se traduire par des limites opérationnelles : Quelles tâches sont acceptables pour automatiser? Quelles tâches doivent rester dirigées par un clinicien? Quel niveau de surveillance humaine est « suffisant » dans les services réels sous pression? Sans cela, le document risque de devenir un ensemble partagé de valeurs avec lesquelles tout le monde est d'accord, tandis que la pratique actuelle dérive dans la direction des fournisseurs, des budgets ou des contraintes de temps.
ESLA décrit les possibilités (sélection, soutien à l'évaluation, planification des interventions, suivi des résultats, soins personnalisés, livraison hybride, accès). Encore une fois, plausible, et dans de nombreux domaines, excitant. Pourtant, le document aurait pu aller plus loin dans les aspects pratiques inconfortables : la réalité que la « personnalisation » peut devenir « adaptée à la majorité », en particulier pour les enfants multilingues, les dialectes mineurs, les utilisateurs de l'AAC, les profils complexes de handicap et les normes de communication culturellement spécifiques. Si l'objectif de l'ESLA est l'équité, nous avons besoin de déclarations plus fortes sur attentes minimales en matière de preuves, pas seulement des aspirations. Qu'est-ce qui compte comme validation suffisante pour la reconnaissance multilingue de la parole? Quelles tailles d'échantillons? Quels types d'accents/dialectes? Quels sont les taux d'erreur acceptables et acceptables pour qui? Autrement, l'équité demeure un espoir plutôt qu'une exigence mesurable.
Lorsque le journal se sent le plus fort est son épine dorsale éthique, la protection de la vie privée, le consentement, la propriété des données, la partialité, l'inégalité d'accès et la dépendance excessive. Mais l'éthique forte ne signifie pas automatiquement cliniquement utilisable. C'est là que de nombreux cliniciens diront : C'est sympa, mais... c'est encore plus. Nous voulions plus "que faire/que ne pas faire." Nous voulions une boîte à outils. Nous voulions que ESLA mentionne les risques concrets qui apparaissent dans les flux de travail réels : le personnel téléchargeant des échantillons de voix dans des services de cloud inconnus ; les cliniciens étudiants collant des détails identifiables dans des chatbots ; les gestionnaires adoptant le « dépistage de l'IA » parce qu'il est moins cher, puis laissant tranquillement devenir gatekeeping. Un papier de position ne peut pas tout résoudre, mais il peut tracer des lignes claires et celui-ci parle souvent de principes où le champ demande garde-corps.
Ce qui rendrait ce document plus réalisable est un ensemble de lignes directrices qui se lisent comme un outil de soutien à la décision et non comme un manifeste. Par exemple : Liste des cas d'utilisation "rouge/ambre/vert" (p. ex. vert = résumé administratif avec des données dé-identifiées; ambre = projet de matériel thérapeutique avec examen clinicien; rouge = décisions automatisées de diagnostic/admissibilité). A Liste de contrôle pour la vérification de la vie privée (Où sont stockées les données? Est-il utilisé pour former des modèles? On peut s'abstenir ? Qui est le processeur/contrôleur de données? Le chiffrement est-il indiqué? Qu'est-ce que la politique de conservation et de suppression? Peut-on obtenir un accord de traitement des données? Y a-t-il un enregistrement des vérifications?). A norme minimale d'évaluation (seuils de preuve, attentes en matière de tests biaisés, rapports de rendement multilingues, exigences de divulgation). Et même un gestionnaire d'une page "questions vendor" peut utiliser avant l'approvisionnement. Sans cela, le leadership professionnel demeure un principe, mais les cliniciens et les services sont laissés à inventer des politiques localement, de façon incohérente et souvent sous pression temporelle.
La conclusion de l'ESLA appelle à une adoption délibérée, collaborative et éthique afin que l'IA renforce la participation, la dignité et l'inclusion. C'est une bonne direction. Mais la prochaine étape devrait être explicite: un appendice de mise en œuvre qui transforme les valeurs en pratique. Parce que la profession n'a pas juste besoin de la permission pour s'engager avec l'IA, nous avons besoin structure pour le faire en toute sécurité. D'ici là, le papier ESLA's fonctionne comme une déclaration de positionnement éthique forte, mais pas encore comme la boussole pratique que beaucoup d'entre nous espéraient. En d'autres termes, le document est important, opportun et bien intentionné, mais il a encore besoin d'orientations plus concrètes pour la pratique réelle.
