Français

Français

IA inclusive en éducation : un nouveau front pour les thérapeutes et les enseignants spécialisés

La promesse de l’intelligence artificielle en éducation a rapidement gagné en ampleur. Un nouveau document de travail de l’Organisation de coopération et de développement économiques (OCDE), intitulé « Exploiter l’intelligence artificielle pour soutenir les élèves à besoins éducatifs particuliers », propose une synthèse éclairée des façons dont l’IA peut soutenir les apprenants — tout en soulignant des réserves majeures. Au cœur du rapport, l’argument est clair : les outils d’IA capables d’adapter l’enseignement, de générer des contenus accessibles et de fournir un soutien personnalisé aux apprenants ont un réel potentiel en éducation spécialisée, en thérapie et dans les classes inclusives. Par exemple, un système d’IA peut générer des textes de lecture simplifiés pour des élèves dyslexiques, créer des aides visuelles ou des « échafaudages » pédagogiques pour des élèves présentant des retards de langage, ou encore adapter le rythme et le format pour des élèves ayant des difficultés d’attention ou de traitement de l’information. Pour les thérapeutes et les enseignants spécialisés, cela ouvre des opportunités d’innovation. Plutôt que de créer manuellement plusieurs versions d’une leçon ou d’un script de communication, l’IA générative peut vous aider à produire rapidement des supports variés et adaptés. Un orthophoniste travaillant avec des enfants bilingues pourrait utiliser un outil d’IA pour générer des supports gradués dans plusieurs langues ; un ergothérapeute pourrait produire des consignes pour des tâches tactiles ou des aides interactives correspondant au profil de l’élève. Cependant, le rapport de l’OCDE insiste aussi sur le fait que l’équité, l’accessibilité et la conception centrée sur l’humain doivent accompagner ces possibilités. Les outils d’IA s’appuient souvent sur des données entraînées sur des profils « typiques », et non sur des profils de communication rares ou des situations de handicap. Les biais, les lacunes de représentativité et les inégalités d’accès (comme la disponibilité des appareils ou de l’internet) constituent de réels obstacles. Concrètement, vous pourriez piloter un outil basé sur l’IA dans une seule classe ou sur un sous‑groupe de votre file active, avec des paramètres clairs : quels résultats viser ? Comment les élèves s’engagent‑ils ? L’outil a‑t‑il réellement allégé la charge manuelle ? A‑t‑il accru l’autonomie des apprenants ou favorisé des interactions plus significatives ? Recueillir les retours des élèves et des familles, documenter les changements d’engagement et analyser la manière dont l’outil a renforcé ou modifié le soutien humain sont des étapes clés. L’IA inclusive exige aussi que vous restiez l’architecte de l’environnement — pas l’outil. Par exemple, en générant des supports pour un élève autiste présentant un trouble du langage associé, demandez‑vous : l’IA a‑t‑elle produit un niveau de langage approprié ? A‑t‑elle respecté le contexte culturel et linguistique ? Les contraintes de matériel ou de connectivité limitent‑elles l’accès à la maison ou à l’école ? Ces réflexions aident à éviter d’élargir involontairement l’écart pour les élèves disposant de moins de ressources. Du point de vue du développement professionnel, c’est aussi le moment d’intégrer la littératie en IA à votre pratique. À mesure que les apprenants utilisent des outils d’IA, interrogez les évolutions de leurs interactions : sont‑ils plus autonomes ? Les supports étayés ont‑ils réduit la frustration ? Utilisent‑ils les aides d’une manière inattendue ? Une partie de votre rôle émergent consiste à observer et guider la manière dont les élèves interagissent avec l’IA au sein de l’écosystème d’apprentissage. Si vous explorez l’IA inclusive, envisagez de créer un petit plan pilote : choisissez un outil d’IA, un groupe d’élèves et un indicateur de résultat (par exemple, compréhension en lecture, autorégulation, initiation à la communication). Réalisez une mesure de base, implémentez l’outil, faites un point chaque semaine et ajustez les invites ou les supports étayés. Partagez vos constats avec vos collègues — ces informations sont essentielles pour construire une pratique durable assistée par l’IA. À lire Si vous le souhaitez, je peux aussi préparer une fiche imprimable résumant les étapes d’un mini‑pilote et les indicateurs à suivre pour une adoption responsable de l’IA inclusive.

Français

Contrôles parentaux et usage de l’IA chez les ados : ce que doivent savoir les éducateurs et les thérapeutes

L’intelligence artificielle est désormais profondément intégrée à la vie numérique des adolescents, et les récents développements chez Meta Platforms suscitent à la fois enthousiasme et vigilance. En octobre 2025, Meta a annoncé de nouveaux contrôles parentaux visant à encadrer la façon dont les adolescents interagissent avec des chatbots d’IA sur Instagram, Messenger et les plateformes d’IA de Meta. Ces réglages permettent aux parents de désactiver les conversations en tête‑à‑tête avec des personnages d’IA, de bloquer certains personnages d’IA entièrement et d’obtenir une vision d’ensemble des thématiques que leurs adolescents abordent avec l’IA. Pour les thérapeutes et les enseignants spécialisés, ce virage a une portée directe. Les ados utilisent les chatbots d’IA non plus comme de simples gadgets, mais comme des compagnons du quotidien, des confidents et des partenaires de conversation. Certaines données suggèrent que plus de 70 % des adolescents ont déjà utilisé des compagnons d’IA et que plus de la moitié les sollicitent régulièrement. Autrement dit, lorsqu’on parle de soutien socio‑émotionnel à l’adolescence, la dimension numérique fait de plus en plus partie du contexte. Pourquoi est‑ce important ? D’abord, si un adolescent a pris l’habitude de traiter ses difficultés, ses inquiétudes ou ses échanges sociaux‑communicationnels via un chatbot, des questions essentielles se posent : quels messages sont renforcés ? Cela augmente‑t‑il l’autonomie ou, au contraire, réduit‑il les interactions avec les pairs ou les adultes, en consolidant des schémas d’isolement ou de dépendance ? Par exemple, si un élève anxieux préfère des séances avec un chatbot plutôt qu’un échange guidé par un adulte, faut‑il considérer cette substitution comme aidante, neutre ou potentiellement problématique ? Ensuite, les éducateurs et les thérapeutes sont idéalement placés pour intervenir de manière proactive. Au lieu de présumer que la famille ou l’équipe informatique de l’établissement gérera la sécurité liée à l’IA, vous pouvez intégrer des questions et des temps de réflexion de routine dans vos séances : « Parles‑tu avec un chatbot ou un assistant IA ? De quoi discutes‑tu ? En quoi cela diffère‑t‑il d’une conversation avec tes amis ou avec moi ? » Ces questions ouvrent un espace pour aborder les habitudes émotionnelles numériques et aident les élèves à mettre des mots sur leurs expériences avec l’IA plutôt que de les vivre en silence. Troisièmement, la question relève aussi du système familial. Lorsque Meta permet aux parents de suivre et de définir des limites autour des interactions ado‑IA, cela offre un point de départ pour une éducation familiale au bien‑être numérique. Pour les thérapeutes, organiser une courte séance parents ou partager une fiche pratique sur les habitudes de discussion avec l’IA, la régulation émotionnelle et les interactions saines peut être pertinent. En milieu d’éducation spécialisée, cela s’inscrit dans un plan plus large : comment l’usage numérique de l’élève s’articule‑t‑il avec ses objectifs de communication, ses habiletés sociales et sa transition vers la vie adulte ? Du point de vue de l’école ou de la clinique, la planification peut inclure une coordination avec l’équipe informatique, un examen des usages des chatbots ou compagnons d’IA dans les locaux, et l’évaluation d’un éventuel besoin d’accès étayé ou de supervision pour certains élèves. Par exemple, des élèves présentant des difficultés de communication sociale pourraient utiliser des bots sans supervision, ce qui comporte un risque si le bot fournit des réponses inadaptées, renforçantes de comportements non souhaités ou trompeuses. Il est également essentiel de rester attentif à l’éthique et à l’adéquation développementale. La mise à jour de Meta intervient après des critiques selon lesquelles certains de ses bots auraient eu des échanges romantiques ou inappropriés avec des mineurs. Ces nouvelles fonctionnalités — utiles — représentent un minimum nécessaire, pas une solution complète. Les adolescents vulnérables, en particulier ceux ayant des besoins spécifiques, peuvent être plus exposés au risque de substituer des interactions avec un bot à un accompagnement adulte soutenant. Que pouvez‑vous faire dès maintenant ? Envisagez d’ajouter une question « IA et usages numériques » dans vos formulaires d’anamnèse ou de PEI (Plan Éducatif Individualisé) /IEP (Projet d’Accueil Individualisé). Menez une courte discussion avec les familles sur l’usage des chatbots à la maison. Proposez des ressources ou une brève session aux parents et tuteurs sur la mise en place de limites et la promotion de la sécurité émotionnelle lors de l’utilisation de l’IA. Portez attention aux élèves dont les habitudes numériques ont changé de façon marquée (par exemple, davantage de chatbot, moins d’interactions avec les pairs) et interrogez le lien avec des variations d’humeur ou d’engagement. Échangez avec votre équipe pluridisciplinaire : comment l’interaction avec l’IA s’intègre‑t‑elle au plan de communication sociale de l’élève, à ses objectifs de santé mentale ou à ses cibles d’interaction avec les pairs ? À lire Si vous le souhaitez, je peux également préparer un mémo imprimable ou une infographie récapitulant les questions clés à poser aux familles au sujet de l’usage de l’IA par les adolescents, à partager avec vos clients ou collègues.

Français

Évaluer les chatbots d’IA pour des conseils de santé fondés sur les preuves : perspective 2025

À mesure que l’intelligence artificielle s’invite dans tous les secteurs, son application en santé suscite une attention particulière. Une étude récente publiée dans Frontiers in Digital Health a évalué la précision de plusieurs chatbots d’IA — ChatGPT‑3.5, ChatGPT‑4o, Microsoft Copilot, Google Gemini, Claude et Perplexity — pour fournir des conseils de santé fondés sur les preuves, avec un focus spécifique sur la douleur radiculaire lombo‑sacrée. Aperçu de l’étude L’étude a consisté à soumettre neuf questions cliniques liées à la douleur radiculaire lombo‑sacrée aux dernières versions des chatbots mentionnés. Ces questions étaient élaborées à partir de recommandations de pratique clinique (RPC) reconnues. Les réponses de chaque modèle ont été évaluées selon la cohérence, la fiabilité et l’alignement avec les RPC. Le protocole d’évaluation comprenait l’analyse de la cohérence textuelle, la fidélité intra‑juge et inter‑juge, ainsi que le taux de correspondance avec les RPC. Principaux résultats L’étude met aussi en évidence une variabilité de la cohérence interne des réponses générées par l’IA, allant de 26 % à 68 %. La fidélité intra‑juge était globalement élevée, avec des niveaux allant d’« presque parfaite » à « substantielle ». La fidélité inter‑juge variait de « presque parfaite » à « modérée ». Implications pour les professionnels de santé Ces résultats rappellent la nécessité de la prudence lorsqu’on considère des conseils de santé générés par l’IA. Les chatbots peuvent servir d’outils complémentaires, mais ils ne doivent pas se substituer au jugement clinique. La variabilité de l’exactitude et de l’adhésion aux lignes directrices indique que les recommandations générées par l’IA ne sont pas toujours fiables.Pour les professionnels des disciplines apparentées — orthophonistes, ergothérapeutes, physiothérapeutes/kinésithérapeutes, entre autres — les chatbots d’IA peuvent fournir des informations utiles. Il reste toutefois essentiel d’évaluer de manière critique ces contenus et de les recouper avec les recommandations cliniques à jour et l’expertise personnelle. Conclusion Si les chatbots d’IA peuvent améliorer l’accès rapide à l’information et potentiellement renforcer la prise en charge, leurs limites actuelles en matière d’alignement sur les recommandations fondées sur les preuves imposent une approche prudente. Les professionnels de santé devraient utiliser ces outils pour augmenter leur pratique, en veillant à ce que les conseils générés par l’IA soient mobilisés de façon responsable et toujours en complément de l’expertise clinique.

Français

Echo‑Teddy : un robot social propulsé par LLM pour soutenir les élèves autistes

L’un des fronts les plus prometteurs entre IA et éducation spécialisée est la rencontre de la robotique et des modèles de langage pour soutenir la communication sociale. Un projet récent, Echo‑Teddy, avance justement dans cette direction — et offre des enseignements, des possibilités et des mises en garde utiles aux thérapeutes, éducateurs et cliniciens travaillant avec des publics neurodivergents. Qu’est‑ce qu’Echo‑Teddy ? Echo‑Teddy est un prototype de robot social propulsé par un grand modèle de langage (LLM), conçu spécifiquement pour accompagner des élèves présentant un trouble du spectre de l’autisme (TSA). Les concepteurs l’ont pensé pour fournir une interaction conversationnelle adaptive et adaptée à l’âge, combinée à des capacités motrices et de gestes simples. À la différence des chatbots cantonnés à l’écran, Echo‑Teddy occupe l’espace physique, permettant aux apprenants d’interagir avec lui comme avec un compagnon social en temps réel. Le système repose sur une plateforme robotique modeste (type Raspberry Pi et actionneurs de base) et, dans sa première version, intègre parole, gestes et amorces conversationnelles. Dans la phase initiale, les designers ont travaillé à partir de retours d’experts et de réflexions des développeurs pour affiner les modes d’interaction du robot : personnaliser les dialogues, adapter les réponses et ajuster les prompts en fonction des besoins des apprenants. Ils ont privilégié une conception éthique et des interactions appropriées à l’âge, en soulignant que le robot ne doit ni empiéter sur ni remplacer la relation humaine. Pourquoi Echo‑Teddy compte pour les praticiens Echo‑Teddy se situe à l’intersection de trois tendances que beaucoup d’entre vous observent : Points clés et défis Aucune innovation n’est sans compromis. Pour évaluer la pertinence d’Echo‑Teddy ou réfléchir à un futur déploiement, gardez en tête : Ce que vous pouvez faire dès aujourd’hui (pistes de pilote) Regarder vers l’avenir Echo‑Teddy représente une première esquisse de ce que l’avenir pourrait offrir : des compagnons d’IA incarnée dans les classes, les cabinets et les foyers, apportant interactions à faible enjeu, étayage et répétition. À mesure que le matériel devient plus abordable et que les modèles de langage gagnent en capacité, ces robots pourraient rejoindre un écosystème intégré : robots, thérapeutes humains, outils logiciels et supports numériques travaillant de concert. Pour votre audience, Echo‑Teddy rappelle que l’avenir du soutien à la communication sociale n’est pas seulement virtuel — il est incarné. Il nous invite à penser non seulement à ce que l’IA peut faire, mais à la manière d’intégrer la technologie dans un soin centré sur l’humain. Déployées avec discernement, ces innovations peuvent élargir notre portée, renforcer les apprentissages et offrir aux clients davantage d’occasions pour s’exercer, expérimenter et progresser.

Français

ChatGPT Pulse : une nouvelle ère de soutien IA pour les thérapeutes et les enseignants

L’intelligence artificielle passe d’un mode réactif à un mode anticipatif. La nouvelle fonctionnalité ChatGPT Pulse franchit ce cap en faisant de l’IA un assistant proactif. Pulse travaille en arrière-plan, compile les nouveautés pendant la nuit et les présente chaque matin sous forme de cartes visuelles claires. Au lieu de trier des dizaines d’e‑mails, de fils de recherche ou de publications sur les réseaux, les professionnels commencent la journée avec un aperçu ciblé de ce qui compte vraiment dans leur domaine. Pour l’orthophonie, l’ergothérapie, la kinésithérapie/physiothérapie, la psychologie et l’éducation, cette innovation offre un moyen de suivre l’évolution rapide de la recherche, des outils et des politiques sans ajouter des heures à un emploi du temps déjà chargé. Imaginez ouvrir votre appareil le matin et voir : « Nouvelle étude sur l’apprentissage moteur en rééducation post‑AVC », « Résultats d’un essai sur un dispositif de feedback articulatoire », ou « Mises à jour des technologies pour la classe inclusive ». Pulse est conçu pour anticiper ces besoins et vous apporter l’information directement. Au‑delà des mises à jour : des achats intégrés au chat pour la pratique clinique En parallèle, OpenAI pilote une fonctionnalité qui pourrait remodeler les flux de travail professionnels : l’achat directement dans la conversation. Traditionnellement, après avoir identifié une stratégie ou un outil, un thérapeute ou un enseignant devait chercher en ligne, comparer, puis commander via des plateformes tierces — autant d’étapes qui retardent le passage de l’intention à l’action. Avec les achats intégrés, ce processus devient fluide. Si vous discutez de supports sensoriels avec ChatGPT, il peut non seulement suggérer des outils (gilets lestés, kits de manipulation/fidget, etc.), mais aussi proposer de les acheter directement dans l’échange. Pour les kinésithérapeutes, cela peut être des bandes élastiques adaptées ou des planches d’équilibre ; pour les orthophonistes, des cartes d’indices visuels ou des dispositifs de CAA (Communication Améliorée et Alternative) ; pour les enseignants, des supports visuels de classe ou des outils d’accessibilité. Cette intégration réduit les frictions et transforme plus vite les idées en actions. Elle facilite aussi des recommandations claires aux familles ou aidants, sans les submerger d’options. En pratique : comment ces fonctionnalités soutiennent le terrain Pourquoi c’est important pour la thérapie et l’éducation Le rythme du changement s’accélère : nouvelles technologies, évolutions des politiques, modèles d’intervention… Difficile de suivre sans un filtre fiable. Pulse agit comme ce filtre, mettant en avant l’information la plus pertinente et actionnable. De plus, la possibilité d’agir immédiatement — en accédant aux outils ou en les achetant dans le chat — comble un fossé ancien entre savoir et faire. Plutôt que d’entendre parler d’un outil en conférence puis d’attendre des semaines avant de l’essayer, les professionnels peuvent intégrer des ressources en séance quasi instantanément. Ce cycle rapide apprendre → appliquer → évaluer optimise la pratique et peut améliorer les résultats. Pour celles et ceux qui accompagnent des publics vulnérables — enfants avec besoins spécifiques, survivants d’AVC, personnes avec troubles des apprentissages — cette immédiateté peut être déterminante : accès plus rapide aux interventions, adaptation plus agile des stratégies, et prise en charge plus personnalisée. Précautions et usage responsable Malgré son potentiel, l’adoption doit rester réfléchie. Pulse fait de la curation, mais tout ce qui remonte ne sera pas nécessairement pertinent ni probant sur le plan clinique. Le jugement professionnel et la vérification des sources demeurent essentiels. De même, les achats intégrés sont pratiques, mais l’évaluation critique de la qualité des produits, de leurs preuves et de leur adéquation au client est indispensable. Points de vigilance supplémentaires : Et après ? L’arrivée de ChatGPT Pulse et des achats intégrés marque une nouvelle étape dans le soutien aux thérapeutes, enseignants et professionnels de santé. L’IA ne se contente plus de répondre : elle aide à rester informé, à sourcer le matériel et à appliquer rapidement les interventions. Cette évolution illustre une tendance de fond : des assistants IA intégrés, proactifs, qui combinent connaissances, outils et actions au même endroit. Pour les professionnels de la thérapie et de l’éducation, s’y engager tôt, c’est contribuer à façonner ces usages — pour qu’ils restent utiles, éthiques et réellement habilitants, plutôt que dispersants. L’avenir de la pratique reposera de plus en plus sur des outils qui réduisent la charge, élargissent l’accès et transforment les insights en actions. ChatGPT Pulse en offre un avant‑goût.  En savoir plus sur ChatGPT Pulse : OpenAI Pulse announcement | TechRadar on Pulse | Tom’s Guide on in-chat shopping

Français

Pourquoi l’intégration de l’IA devient vitale pour tous les thérapeutes et éducateurs

Les dernières années ont vu des débats spéculatifs sur l’IA en santé et en éducation. Aujourd’hui, avec les lancements récents, les publications académiques et les mises à jour de plateformes, l’IA n’est plus optionnelle — elle s’impose comme une composante des meilleures pratiques. Que vous soyez orthophoniste, ergothérapeute, kinésithérapeute/physiothérapeute, enseignant ou un peu de tout cela, comprendre ces évolutions est essentiel. Voici pourquoi l’intégration de l’IA n’est plus seulement intéressante, mais vitale — et comment s’y adapter. Tendances clés qui placent l’IA au centre Ce que cela signifie selon les rôles Rôle Implications de l’intégration de l’IA Orthophonistes Feedback articulatoire détaillé (p. ex. UTI‑LLM), capteurs laryngés portables, plateformes d’entraînement à domicile, réduction des tâches répétitives (suivi, devoirs). Kinésithérapeutes et Ergothérapeutes Capture/métriques de mouvement, monitoring à distance; guidage d’exercices avec rappels conversationnels; alignement des pratiques à domicile; sécurité et observance améliorées. Enseignants Adaptation de contenus en temps réel, feedback personnalisé, repérage plus précoce des élèves à risque, intégration de la littératie IA, réduction de la surcharge de préparation. Administrateurs / Directions / Managers Sélection/validation d’outils, intégration avec DME/ENT (Dossier Médical Électronique/ Environnement Numérique de Travail), formation des équipes, conformité privée/ Sécurité et Protection des Données (SDP), accessibilité et support. Défis et points de vigilance Comment prendre de l’avance Conclusion L’IA n’est plus un horizon lointain. Des outils de feedback articulatoire, des capteurs intelligents, des plateformes de télé‑pratique et des suites éducatives majeures montrent qu’une intégration transversale est déjà en cours. Pour les thérapeutes et les enseignants, l’opportunité est immense: plus de précision, d’accès, d’efficacité et d’innovation. La responsabilité l’est tout autant: garantir la qualité, l’empathie et l’équité. Au cours des prochaines années, vous aurez à décider où et dans quelle mesure l’IA s’insère dans votre travail. Restez informé, testez de façon mesurée et conservez une pratique centrée sur l’humain: c’est la meilleure voie pour des décisions éclairées — et des résultats durables.

Français

L’IA peut-elle vraiment exercer votre métier ? (Selon OpenAI, elle s’en approche !)

L’intelligence artificielle (IA) n’est plus une simple promesse futuriste : elle redéfinit déjà la manière dont les professionnels de tous secteurs exercent leur métier. Des ingénieurs concevant du matériel minier aux infirmières rédigeant des plans de soins, l’IA est désormais évaluée face aux exigences concrètes des métiers. Une question audacieuse se pose : l’IA pourrait-elle faire votre travail ? La dernière étude d’OpenAI ne se contente pas d’un simple « oui » ou « non ». Elle révèle une réalité bien plus nuancée : l’IA ne remplace pas encore les humains, mais, dans certains domaines, elle s’en approche de manière troublante. Pour nous, thérapeutes, cette évolution représente à la fois des opportunités passionnantes et des défis majeurs qu’il nous faut appréhender. L’évaluation : mesurer l’IA face aux professionnels Pour répondre à cette question, OpenAI a développé un nouveau cadre d’évaluation baptisé GDPval. Imaginez-le comme un « examen de compétences » pour les systèmes d’IA : au lieu de tester des connaissances théoriques, il évalue des tâches professionnelles réelles. Les résultats : rapide, économique… et parfois impressionnante L’étude révèle un paysage contrasté où les forces de l’IA côtoient des limites persistantes. Lorsqu’on a soumis les productions de l’IA à l’évaluation d’experts humains, ces derniers ont globalement préféré les versions humaines. Pourtant, la combinaison « brouillon généré par l’IA + révision humaine » s’est avérée plus efficace que le travail en solo. Ce que cela signifie pour les thérapeutes Cette recherche a des implications directes pour notre domaine. L’IA peut déjà nous assister pour : Mais voici le piège majeur : le travail de l’IA peut paraître impeccable en surface tout en contenant des erreurs subtiles ou des omissions. Le Harvard Business Review a d’ailleurs qualifié ce phénomène de « workslop » — du contenu qui semble professionnel mais qui est incomplet ou incorrect. Pour nous, thérapeutes, relayer du « workslop » non vérifié pourrait signifier : C’est précisément là que notre expertise professionnelle devient plus cruciale que jamais. Le rôle du thérapeute à l’ère de l’IA Nous devons considérer l’IA comme un stagiaire brillant mais maladroit : Cela signifie que notre rôle ne diminue pas : il évolue. Les thérapeutes qui sauront superviser, affiner et orienter les productions de l’IA pourront dégager plus de temps pour l’essentiel de notre métier : Au lieu d’être submergés par la paperasserie, nous pourrons consacrer davantage d’énergie à : Perspectives d’avenir Certains experts en IA prévoient qu’à l’horizon 2026, l’IA pourrait égaler les humains dans la plupart des tâches économiquement précieuses. Bien que cela puisse sembler alarmant, cela ne signifie pas que les thérapeutes disparaîtront du marché du travail. Cela veut plutôt dire que ceux qui apprendront à intégrer efficacement l’IA s’épanouiront, tandis que ceux qui résisteront pourraient avoir du mal à suivre. Le message à retenir pour nous est clair : Réflexion finale En tant que thérapeutes, notre travail repose sur l’empathie, la créativité et une compréhension nuancée — des qualités qu’aucune IA ne peut reproduire. Mais l’IA peut nous libérer des tâches répétitives, nous donner un accès plus rapide aux ressources et nous aider à innover dans la prestation de services. L’avenir de la thérapie n’est pas l’IA à notre place, mais l’IA à nos côtés. Et cette collaboration, si elle est utilisée avec sagesse, peut nous offrir plus de temps, plus d’outils et, en fin de compte, un impact plus grand pour les personnes que nous accompagnons.

Français

Google Research « Learn Your Way » : des manuels qui s’adaptent à l’apprenant (étudiants, chercheurs et personnes dyslexiques)

Les manuels et les PDF constituent des outils pédagogiques puissants, mais leur structure reste rigide. De nombreux apprenants les parcourent superficiellement, en oublient le contenu ou se sentent submergés par des pages de texte denses. Imaginez maintenant que ces mêmes supports puissent s’adapter à vos besoins individuels. C’est précisément l’objectif de Learn Your Way, développé par Google Research : transformer les PDF et les manuels en leçons interactives et adaptatives. De la lecture statique à l’apprentissage adaptatif En important un manuel ou un article, Learn Your Way le restructure en une expérience d’apprentissage dynamique. Au lieu d’une lecture passive, l’utilisateur peut : Résultat : le contenu n’est plus un mur de texte, mais un tuteur réactif, capable de s’ajuster en temps réel aux besoins de l’apprenant. Preuves d’efficacité : une mémorisation renforcée Une première étude d’efficacité menée par Google a révélé des résultats marquants : Pourquoi cette innovation compte pour les chercheurs Les universitaires et les professionnels rencontrent le même défi que les étudiants : trop de lectures, trop peu de temps. Learn Your Way pourrait révolutionner : Pour les jeunes chercheurs, ce système peut servir de structure d’apprentissage guidé ; pour les universitaires expérimentés, il devient un outil d’assimilation accélérée dans de nouveaux domaines. Pourquoi cette innovation compte pour les personnes dyslexiques Les manuels traditionnels posent des défis particuliers aux personnes dyslexiques : blocs de texte denses, longs paragraphes et absence de soutien pédagogique génèrent fatigue et frustration. Learn Your Way offre plusieurs avantages clés : Bien que cet outil ne remplace pas des interventions structurées en littératie, il crée un environnement d’apprentissage plus accessible, qu’il s’agisse d’études quotidiennes, de formation professionnelle ou de lecture de travaux de recherche. Une vision plus large Learn Your Way fait évoluer l’éducation et la recherche, en passant d’un modèle « lire et mémoriser » à un paradigme « s’engager et s’adapter ». Ses bénéfices s’étendent à : Conclusion Les outils pédagogiques évoluent : les manuels ne sont plus statiques, ils deviennent interactifs. Que vous soyez un étudiant en période de révision, un chercheur confronté à des dizaines de PDF ou un apprenant dyslexique naviguant dans des textes denses, Learn Your Way illustre comment l’IA adaptative peut rendre l’acquisition des connaissances non seulement plus efficace, mais aussi plus inclusive.

Français

Les nouvelles lunettes de Meta viennent de tout changer – Ce que cela signifie pour les thérapeutes et les patient·e·s

La dernière innovation de Meta – les lunettes Ray-Ban Display AI couplées à un bracelet neural EMG – fait bien plus que buzz dans le monde tech. Pendant des années, les lunettes intelligentes ont promis plus qu’elles n’ont tenu, mais cette fois, la combinaison d’un affichage tête haute, d’une intégration IA et d’un contrôle par gestes subtils suggère que les wearables entrent dans une nouvelle ère. Pour les thérapeutes et les patient·e·s, les possibilités sont immenses. Au cœur de cette innovation : un écran couleur intégré dans la lentille droite, offrant un accès discret et en temps réel à l’information, sans avoir à sortir son téléphone. Associé au Meta Neural Band – qui détecte les mouvements du poignet et des doigts via l’électromyographie (EMG) – ces lunettes permettent un contrôle sans les mains, idéal pour les utilisateur·rice·s à mobilité réduite ou les professionnel·le·s ayant besoin d’interactions rapides. Sous-titres en direct, traductions, messagerie et navigation s’affichent désormais directement dans votre champ de vision. Fonctionnalités clés à connaître pour les thérapeutes ✔ Affichage visuel : Instructions, sous-titres et rappels sans les mains. ✔ Contrôle par gestes : Le bracelet EMG permet des actions discrètes avec les doigts ou le poignet. ✔ Communication assistée : Traduction et sous-titrage en temps réel. ✔ Design classique : Élégant et discret, réduisant la stigmatisation liée aux “gadgets tech”. Applications cliniques et bénéfices pour les patient·e·s Domaine thérapeutique Avantages potentiels Points de vigilance Orthophonie Sous-titres en direct pour les malentendant·e·s ; rappels visuels pour les tâches langagières ; engagement par gestes. Taille/lisibilité de l’affichage ; courbe d’apprentissage ; risque de distraction. Ergothérapie Contrôle EMG pour les personnes à dexterité limitée ; prompts visuels interactifs pour le séquençage des tâches.   Calibrage nécessaire ; moins efficace en cas de tremblements ou troubles moteurs sévères. Psychomotricité Guidage visuel en temps réel pour les exercices ; indices pour la coordination. Garder les exercices ancrés dans le corps, pas seulement sur écran. Psychologie & Éducation spéciale Rappels personnalisés, traductions, prompts discrets pour la gestion du stress ; autonomie accrue. Vie privée, sécurité des données, risque de dépendance aux rappels. Points à surveiller Le détail amusant : Pendant la démo, les lunettes ont complètement bugué – les sous-titres ont commencé à traduire « Hello » en ce qui ressemblait à du code Morse ! Mais voici le paradoxe : même dans le chaos, le potentiel pour les applications thérapeutiques était évident. Imaginez des rappels mains libres en orthophonie, ou des séquences de tâches contrôlées par gestes en ergothérapie… Ce n’est qu’un début. La vision d’ensemble ? Ces lunettes marquent une étape vers une réalité augmentée assistive. À mesure que l’autonomie de la batterie s’améliore et que des fonctionnalités comme les sous-titres par lecture labiale, les superpositions thérapeutiques en temps réel ou l’intégration télésoin émergent, les thérapeutes pourraient disposer d’un tout nouveau média d’intervention. Se préparer dès maintenant est essentiel – comprendre ce que ces dispositifs peuvent (et ne peuvent pas) faire nous aidera à anticiper l’avenir. Restez à l’écoute pour notre prochaine édition, où nous plongerons plus profondément dans des méthodes pratiques pour intégrer les wearables aux séances de thérapie.

Français

« PhD-Intelligences » est une absurdité- Ce que la déclaration de Demis Hassabis change pour la recherche et la santé

Dans un entretien récent, Demis Hassabis, PDG de Google DeepMind, a balayé l’idée selon laquelle les modèles d’IA actuels posséderaient une « intelligence de niveau doctoral ». Son message est sans équivoque : si l’IA peut parfois égaler, voire surpasser, les humains dans des tâches très spécifiques, elle reste loin d’une intelligence générale. Qualifier ces systèmes de « doctorants artificiels » est non seulement trompeur, mais risque d’alimenter des attentes irréalistes, notamment en santé et en recherche. Hassabis souligne que des modèles comme Gemini ou les systèmes de type GPT affichent certes des « poches de performance doctorale » – en pliage de protéines, en imagerie médicale ou en résolution de problèmes complexes. Pourtant, ces mêmes outils échouent à des tâches de raisonnement élémentaire, incapables d’apprentissage continu, et commettent des erreurs grossières qu’un·e chercheur·se humain·e ne ferait jamais. Selon lui, une véritable Intelligence Artificielle Générale (IAG) – capable d’apprendre de manière flexible à travers différents domaines – n’est pas pour avant 5 à 10 ans. Ce que cela implique pour la recherche et la santé Ces limites ne signifient pas que l’IA n’a pas sa place dans notre travail. Elles nous rappellent simplement comment l’utiliser : de manière responsable et stratégique. Points clés à retenir : Applications concrètes par discipline Domaine Avantages actuels de l’IA Limites / Risques Recherche médicale Prédiction de structures protéiques (ex. AlphaFold) ; accélération de la découverte de médicaments ; diagnostics par imagerie.   Erreurs de généralisation ; raisonnement opaque ; biais dans les données. Thérapie & Psychologie Rédaction de supports thérapeutiques ; génération de scénarios comportementaux ; transcription de séances.   Risque de dépendance excessive ; erreurs dans des contextes délicats. Éducation spécialisée Création de contenus différenciés ; suivi des progrès ; supports d’apprentissage accessibles. Recommandations potentiellement inadaptées sans contexte. Perspectives d’avenir Même sans IAG, les outils actuels peuvent accélérer considérablement les processus et renforcer l’expertise humaine. Mais l’avertissement de Hassabis reste valable : l’IA n’est pas un substitut à l’intelligence humaine, mais un partenaire dans le progrès. En tant que chercheur·se·s et clinicien·ne·s, notre responsabilité est double : Dans nos prochains numéros, nous explorerons des cas concrets d’intégration de l’IA en recherche, avec des exemples tirés de la thérapie et des sciences médicales. Références