Author name: Dr. Rania Kassir

French

Quand l’IA commence à faire le travail des « jeunes diplômés » : ce que cela signifie pour nous, thérapeutes

Si vous exercez depuis suffisamment longtemps, vous vous souvenez probablement à quel point vos premières années ont été façonnées par les aspects les moins glamour du métier. Notes, rapports, formulaires d’admission, messages de planification, cotation, et interminable mise au propre de la documentation. C’était épuisant, mais cela faisait aussi partie de l’apprentissage. Écrire nous obligeait à clarifier ce que nous observions, ce que nous pensions que cela signifiait, et pourquoi nous choisissions une prochaine étape particulière. Aujourd’hui, l’intelligence artificielle s’invite précisément à ce niveau de la vie clinique, en ergothérapie, orthophonie, psychologie et kinésithérapie. Pas de manière spectaculaire « les robots remplacent les thérapeutes », mais de manière pratique, au quotidien. L’IA peut rédiger de la documentation, résumer des textes longs, organiser l’information et générer des modèles de première intention. Cela change ce que les cliniques mesurent, ce que les responsables attendent, et ce que les cliniciens en début de carrière se sentent pressés de produire. De notre point de vue de cliniciens, le plus grand changement est que l’IA compresse certaines parties de la courbe d’apprentissage. Un nouveau diplômé peut produire très vite quelque chose de soigné, et parfois cette production soignée peut masquer le fait que le raisonnement clinique est encore en développement. Un paragraphe au ton assuré n’est pas la même chose qu’une formulation solide. Un plan bien rangé n’est pas un plan individualisé. Lorsque les charges de cas sont lourdes et le temps de supervision limité, il devient plus facile de confondre vitesse et compétence et c’est là que le risque grandit, discrètement. Ainsi, le seuil d’exigence à l’entrée évolue. Si les tâches routinières deviennent plus rapides, l’attente est que le clinicien apporte davantage de ce qui ne peut pas être automatisé. Un raisonnement clinique plus robuste apparaît plus tôt. Le jugement éthique cesse d’être un thème de formation annuel pour devenir une décision quotidienne, en particulier autour de la confidentialité, du consentement, des biais, et de ce qui ne doit jamais être saisi dans un outil public. La littératie numérique devient également une dimension du professionnalisme, non pas parce que nous devons être des experts techniques, mais parce que nous devons en comprendre assez pour utiliser les outils de manière responsable et en expliquer les limites. Nous pensons aussi qu’il est utile d’être très clair sur ce à quoi l’IA sert réellement en pratique. Elle peut soutenir la préparation, la structuration et l’efficacité. Elle peut nous aider à rédiger, à réfléchir et à organiser. Mais elle ne peut pas assumer la responsabilité. Nous devons toujours relire chaque sortie comme si nous devions en répondre. Nous devons toujours vérifier les sources lorsque des recherches sont résumées. Nous devons toujours adapter chaque plan à la personne en face de nous, car des recommandations génériques peuvent être subtilement inadaptées au contexte, à la culture, aux risques et aux objectifs d’un patient. Pour les superviseurs, propriétaires de cliniques et cliniciens seniors, une responsabilité parallèle existe. Si l’IA réduit le temps de documentation, nous devons décider intentionnellement où va ce temps. Il peut être réinvesti dans une réflexion plus approfondie, des discussions de consentement plus claires, des soins plus collaboratifs et un suivi renforcé. Ou il peut servir à caser davantage de séances tout en appelant cela de l’innovation. Une seule de ces options protège les soins centrés sur la personne, et une seule soutient le développement de cliniciens sûrs. Au bout du compte, nous ne voyons pas l’IA comme un substitut à la thérapie : elle en redéfinit le rôle. Les thérapeutes qui prospéreront seront ceux qui pensent avec clarté, utilisent les outils avec discernement et protègent ce qui demeure profondément humain : la relation, le rythme et le jugement éthique. Cela signifie aussi utiliser l’IA de manière responsable : garder les informations des patients anonymisées/dé‑identifiées dès que possible, et privilégier des systèmes locaux et hors ligne (sur l’appareil ou sur un serveur interne sécurisé) plutôt que d’envoyer des données vers des outils en ligne. Si un outil cloud est utilisé, ce ne doit être qu’avec un consentement éclairé explicite, des limites strictes sur ce qui est saisi, et une explication transparente de l’itinéraire des données, des personnes qui peuvent y accéder et de la manière dont elles sont stockées. Si l’IA nous offre quelque chose qui mérite d’être conservé, c’est du temps pour faire davantage de ce que seuls les cliniciens peuvent faire. Ressources • World Health Organization. (2021). Ethics and governance of artificial intelligence for health: WHO guidance (ISBN 9789240029200). World Health Organization. https://www.who.int/publications/i/item/9789240029200• NHS England. (2025, April 27). Guidance on the use of AI-enabled ambient scribing products in health and care settings (Version 2). NHS England. https://www.england.nhs.uk/long-read/guidance-on-the-use-of-ai-enabled-ambient-scribing-products-in-health-and-care-settings/• American Speech-Language-Hearing Association. (n.d.). Generative Artificial Intelligence (AI) for clinicians in audiology and speech-language pathology. https://www.asha.org/practice/generative-artificial-intelligence-for-clinicians/• American Physical Therapy Association. (2024, September 23). Ethical and effective integration of artificial intelligence across physical therapist practice, education, and research [Policy]. https://www.apta.org/apta-and-you/leadership-and-governance/policies/ethical-and-effective-integration-of-artificial-intelligence-across-physical-therapist-practice-education-and-research• Krebs, K., Montagne, L., & Rodakowski, J. (2025, August 2). Generative Artificial Intelligence for OT practitioners: Easy as ABC and 123. OT Practice, 30(8). https://www.aota.org/publications/ot-practice/ot-practice-issues/2025/generative-artificial-intelligence-for-ot-practitioners-easy-as-abc-and-123

French

Vers des soins « vraiment adaptés » : comment l’IA personnalise le traitement en santé mentale

La thérapie a toujours comporté une forme d’incertitude maîtrisée, et en tant que psychologues et professionnels de la santé mentale, nous savons combien de compétences il faut pour travailler à l’intérieur de cette incertitude sans chercher à « résoudre » une personne trop vite. Nous écoutons, évaluons, élaborons une formulation, choisissons un point de départ fondé sur les données probantes, puis nous apprenons avec le patient ce qui fonctionne réellement. Même lorsque nous pratiquons avec rigueur, la phase initiale peut ressembler à de l’essai‑erreur : quelques semaines pour tester si cette structure, ce rythme et cette approche conviennent vraiment à cette personne. Pour des patients déjà épuisés ou à risque, ce délai compte. L’IA commence à réduire cette période de « découverte » en utilisant des données personnelles, partagées uniquement avec consentement explicite, afin de soutenir des décisions plus précoces et plus précises. Plutôt que de nous appuyer surtout sur l’auto‑évaluation rétrospective (« Comment s’est passée votre semaine ? »), nous pouvons ajouter des signaux du monde réel issus des téléphones et des dispositifs portés : durée et régularité du sommeil, activité et temps sédentaire, rythme quotidien, temps passé à domicile versus à l’extérieur, et changements de routine ou de lien social. Dans certains contextes spécialisés, cliniciens et chercheurs explorent aussi des données cérébrales (par exemple, mesures IRM ou EEG) pour enrichir l’information sur les circuits et patterns neuronaux susceptibles d’être liés aux profils symptomatiques ou à la réponse au traitement. L’objectif n’est pas de remplacer le jugement clinique, mais de le renforcer. Le changement pratique consiste à passer d’un instantané à l’admission à une image vivante de la semaine du patient. L’auto‑rapport est essentiel, mais la mémoire est imparfaite et les symptômes peuvent brouiller le rappel. Les données passives et semi‑passives peuvent révéler des schémas que les patients ressentent souvent sans pouvoir les nommer aisément. Si un patient dit aller « bien », alors que son sommeil se fragmente et que son niveau d’activité baisse régulièrement, nous disposons d’un point d’entrée compatissant pour approfondir. Si l’anxiété grimpe de façon fiable à certains moments et dans certains contextes, nous pouvons cesser de la traiter comme aléatoire et commencer à la traiter comme prévisible. C’est ici que l’IA aide : elle peut analyser de larges séries temporelles désordonnées et détecter des relations qui échapperaient aux humains, ce qui tend à précéder une baisse d’humeur, ce qui prédit l’irritabilité, ou quelle combinaison d’isolement et de perturbation du sommeil précède des pulsions d’automutilation. Voyez‑la comme une table de correspondance entre signaux et hypothèses cliniques. Une variabilité du sommeil peut indiquer une capacité réduite de régulation émotionnelle et une vulnérabilité à la rechute. Une baisse de l’activité peut pointer vers l’évitement et l’anhédonie, suggérant une activation comportementale ou une action guidée par les valeurs. Des changements de routine brusques peuvent signaler une rupture interpersonnelle, de la honte ou des préoccupations de sécurité. Les données ne posent pas de diagnostic ; elles nous aident à poser de meilleures questions plus tôt et à affiner plus vite le plan. Vous avez également évoqué une idée tournée vers l’avenir : combiner des examens cérébraux avec des données de smartphone et d’appareils portés pour estimer la meilleure intervention avant d’entamer un long parcours d’essais et erreurs. Cette voie est prometteuse, mais elle exige de la prudence. Certains modèles peuvent prédire la réponse au traitement en contexte de recherche, mais ils ne se généralisent pas forcément à d’autres populations, appareils et à la complexité du monde réel. Utilisés de façon éthique, ces outils doivent fonctionner comme une aide à la décision, un second avis, et jamais comme un décideur automatique. L’un des bénéfices les plus immédiats concerne le timing. Une classe grandissante d’outils vise à offrir un soutien au moment où les symptômes sont les plus susceptibles de culminer (souvent décrits comme des interventions au bon moment). La thérapie hebdomadaire enseigne des compétences, mais l’épreuve réelle est la capacité des patients à y accéder à 23 h lorsqu’ils sont épuisés, pendant un trajet quand la panique monte, ou juste après un conflit quand les impulsions s’intensifient. Si les données montrent un schéma fiable, perturbation du sommeil suivie d’agitation le lendemain, ou isolement suivi de ruminations nocturnes, les soutiens numériques peuvent être calés sur la fenêtre de risque : un bref rappel d’ancrage, un rappel de plan d’adaptation, ou un micro‑exercice qui reconnecte l’instant à la formulation que vous avez élaborée ensemble. Au mieux, ces outils jouent le rôle de pont entre les séances, pas de dispositif de surveillance. Ces avancées pourraient aussi élargir l’accès dans un contexte de pénurie de professionnels. Tout le monde ne peut pas suivre des séances régulières, et beaucoup n’accèdent aux soins qu’en situation de crise. Des soutiens numériques soigneusement conçus peuvent offrir une continuité sur mesure à ceux qui peinent à accéder aux services, tout en conservant à la thérapie son caractère humain, relationnel et collaboratif lorsque les séances ont lieu. Les limites éthiques sont non négociables. Les données personnelles doivent reposer sur l’adhésion explicite (opt‑in), être limitées à une finalité déterminée et faciles à mettre en pause ou à arrêter. L’approche la plus sûre est le minimalisme : ne collecter que ce qui répond à une question clinique. Dans de nombreux cas, nous n’avons pas besoin de contenus privés (messages, audio, contacts) ; nous avons besoin de schémas (sommeil, activité, routine) et de brefs check‑ins. Dans la mesure du possible, l’information doit être anonymisée ou dé‑identifiée (suppression des noms, dates de naissance, adresses exactes, coordonnées, numéros de dossier et tout identifiant unique) afin qu’elle ne puisse raisonnablement pas être rattachée à une personne. La même logique s’applique aux IA génératives utilisées pour la rédaction clinique ou le soutien : pour protéger la confidentialité, elles devraient idéalement être locales (installées et exécutées sur un appareil ou un serveur interne sécurisé) plutôt que d’envoyer des informations patient vers un système en ligne. Si un outil cloud est utilisé, ce ne doit être qu’avec un consentement éclairé explicite, des limites claires sur les données saisies,

English

When AI Starts Doing the “New Grad” Work: What It Means for Us as Therapists

If you have been in practice long enough, you probably remember how your early years were shaped by the unglamorous parts of the job. Notes, reports, intake forms, scheduling messages, scoring, and endless documentation clean up. It was exhausting, but it was also part of the apprenticeship. Writing things down forced us to clarify what we saw, what we thought it meant, and why we chose a particular next step. Now artificial intelligence is stepping into that exact layer of clinical life across occupational therapy, speech therapy, psychology, and physiotherapy. Not in a dramatic “robots are replacing therapists” way, but in a practical, everyday way. AI can draft documentation, summarize long text, organize information, and generate first pass templates. That changes what clinics measure, what managers expect, and what early career clinicians feel pressured to deliver. From our perspective as clinicians, the biggest shift is that AI is compressing parts of the learning curve. A new graduate can produce something that looks polished very quickly, and sometimes that polished output can hide the fact that clinical reasoning is still developing. A confident sounding paragraph is not the same as a sound formulation. A tidy plan is not the same as an individualized plan. When caseloads are heavy and supervision time is limited, it becomes easier to mistake speed for competence, and that is where risk quietly grows. So the entry level bar is moving. If routine tasks become faster, the expectation becomes that the clinician will contribute more of what cannot be automated. Stronger clinical reasoning shows up earlier. Ethical judgment stops being a once a year training topic and becomes a daily decision, especially around privacy, consent, bias, and what information should never be entered into a public tool. Digital literacy also becomes part of professionalism, not because we need to be tech experts, but because we need to understand enough to use tools responsibly and explain their limits. We also think it helps to be very clear about what AI is good for in real practice. It can support preparation, structure, and efficiency. It can help us draft, brainstorm, and organize. But it cannot hold accountability. We still have to review every output like we might be questioned on it. We still have to check sources when research is summarized. We still have to tailor every plan to the person in front of us, because generic recommendations can be subtly wrong for a client’s context, culture, risks, and goals. For supervisors, clinic owners, and senior clinicians, there is a parallel responsibility. If AI reduces documentation time, we should be intentional about where that time goes. It can go toward better reflection, clearer consent conversations, more collaborative care, and stronger follow up. Or it can go toward squeezing in more sessions while calling it innovation. Only one of those choices protects client centered care, and only one supports the development of safe clinicians. In the end, we do not see AI as a replacement for therapy: it reshapes the role. The therapists who will thrive are those who think clearly and use tools carefully, while protecting what stays deeply human: relationship, pacing, and ethical judgment. That also means using AI responsibly: keep client information anonymized/de‑identified whenever possible, and prefer local, offline systems (on-device or a secure internal server) over sending data to online tools. If a cloud-based tool is used, it should be only with explicit informed consent, strict limits on what is entered, and a transparent explanation of where data goes, who can access it, and how it is stored.If AI gives us anything worth keeping, it is time to do more of what only clinicians can do. Resources

English

Toward “Right‑Fit” Care: How AI Is Personalizing Mental Health Treatment

Toward “Right‑Fit” Care: How AI Is Personalizing Mental Health Treatment Therapy has always included a careful kind of uncertainty, and as psychologists and mental health professionals we know how much skill it takes to work inside that uncertainty without trying to “solve” a person too quickly. We listen, assess, build a formulation, choose an evidence‑based starting point, and then we learn with the client what actually works. Even when we practice well, the early phase can feel like trial and error: a few weeks of testing whether this structure, this pacing, and this approach truly fit this person. For clients who are already exhausted or at risk, that delay matters. AI is beginning to shorten that “finding out” period by using personal data, shared only with explicit permission, to support earlier, more precise decisions. Instead of relying mainly on retrospective self‑report (“How was your week?”), we can add real‑world signals from phones and wearables: sleep duration and regularity, movement and sedentary time, daily rhythm, time spent at home versus outside, and changes in routine or social connection. In some specialized settings, clinicians and researchers also explore brain data (for example, MRI or EEG measures) to add information about brain circuitry and patterns that may relate to symptom profiles or treatment response. The aim is not to replace clinical judgment, but to strengthen it. The practical shift is moving from a snapshot at intake to a living picture of the client’s week. Self‑report is essential, but memory is imperfect and symptoms can blur recall. Passive and semi‑passive data can reveal patterns clients often feel but cannot easily name. If a client says they are “fine,” yet their sleep is fragmenting and their activity is steadily dropping, we have a compassionate entry point for deeper exploration. If anxiety spikes reliably at certain times and contexts, we can stop treating it as random and start treating it as predictable. This is where AI helps: it can analyze large, messy time‑series data and detect relationships humans would miss, what tends to happen before a mood drop, what predicts irritability, or what combination of isolation and sleep disruption precedes self‑harm urges. Think of it as a translation table from signals to clinical hypotheses. Sleep variability may indicate reduced emotion regulation capacity and relapse vulnerability. Reduced movement may point toward avoidance and anhedonia, suggesting behavioral activation or values‑based action. Abrupt routine changes may signal interpersonal rupture, shame, or safety concerns. The data does not diagnose; it helps us ask better questions sooner and refine the plan faster. You also pointed to a future‑leaning idea: combining brain scans with smartphone and wearable data to estimate the best intervention before a long course of trial and error begins. This direction is promising, but it demands caution. Some models can predict treatment response in research settings, yet they may not generalize across populations, devices, and real‑world complexity. Used ethically, these tools should function like decision support, a second opinion, never an automatic decision-maker. One of the most immediate benefits is timing. A growing class of tools aims to deliver support when symptoms are most likely to spike (often described as “just‑in‑time” interventions). Weekly therapy teaches skills, but the real test is whether clients can access them at 11 pm when exhausted, during a commute when panic builds, or right after conflict when urges rise. If data shows a reliable pattern, sleep disruption followed by next‑day agitation, or isolation followed by late‑night rumination, digital supports can be timed to the risk window: a brief grounding prompt, a coping-plan reminder, or a micro‑exercise that reconnects the moment to the formulation you built together. At their best, these tools feel like a bridge between sessions, not surveillance. These advancements could also expand access in a world of provider shortages. Not everyone can attend consistent sessions, and many people reach care only during crisis. Carefully designed digital supports can offer tailored continuity for those who struggle to access services, while keeping therapy human, relational, and collaborative when sessions occur. The ethical boundaries are non‑negotiable. Personal data must be opt‑in, purpose‑limited, and easy to pause or stop. The safest approach is minimalism: collect only what answers a clinical question. In many cases we do not need private content (messages, audio, contacts); we need patterns (sleep, movement, routine) and brief check‑ins. Whenever possible, the information should be anonymized or de identified (remove names, dates of birth, exact addresses, contact details, record numbers, and any unique identifiers) so it cannot reasonably be traced back to a person. The same logic applies to generative AI used for clinical writing or support: to protect confidentiality, it should ideally be local (downloaded and running on a device or secure internal server) rather than sending client information to an online system. If a cloud based tool is used, it should only be with explicit informed consent, clear limits on what data is entered, and a transparent explanation of where the information goes, who can access it, and how it is stored. And if a tool touches suicidality, the agreement must be explicit: what is monitored, who sees it, what triggers an escalation, and what the tool is not responsible for. Any system claiming it can “detect suicide risk” should be treated like a high‑stakes clinical claim requiring strong evidence, transparency, and a clear safety protocol. So how do we integrate this as therapists without losing the heart of therapy? Start small and clinical. Choose one target (sleep, panic spikes, avoidance, self‑harm urges). Collaboratively pick one or two metrics that feel helpful rather than invasive. Decide together how insights will be used, shaping session focus, planning for predictable windows, or evaluating whether a new intervention is working. Then review it like any intervention: Did it increase agency or self‑criticism? Did it clarify patterns or add pressure? Integration succeeds when the client feels more choice, more clarity, and faster relief. If we insist on evidence, close monitoring, clinical involvement, and regulation, AI can reduce unnecessary suffering by helping us match people

English

Two approaches to using AI in therapy: procedural vs. collaborative (and how we actually benefit)

We keep noticing that when clinicians talk about “using AI,” we’re often talking about two very different approaches, even if we’re using the same tool. And the confusion usually shows up around one word: automation. People hear “automation” and imagine a cold replacement of therapy, or they assume it’s basically the same thing as collaboration. In practice, automation in clinical work is simpler and more grounded than that. It is not “AI doing therapy.” It is the clinician delegating repeatable steps in the workflow, then supervising the output the way we would supervise an assistant or a trainee. In procedural mode, AI becomes a substitute for execution. We ask, it answers; we paste, we send. The output is used for efficiency: quicker drafts, quicker wording, quicker structure. That can genuinely reduce load, especially on days when we’re holding multiple cases and still trying to document, plan, and communicate clearly. But procedural mode also has a built-in risk: it can bypass the step where we ask, “What claim did this just make, and do I actually have the clinical data to stand behind it?” In therapy, where work is high-stakes and context-sensitive, skipping that step is never a small thing. Collaborative mode looks different. Here, AI is treated more like a thinking partner that helps us refine what we already know. We provide context, constraints, and objectives, and we actively evaluate and revise what comes back. The benefit isn’t only speed, it’s quality. As goals become more complex, the work doesn’t disappear; it shifts upward into framing, supervision, and judgment. That shift is the point, because it mirrors what good therapy already is. The core value isn’t “doing tasks.” The core value is choosing what matters, staying accountable to the formulation, and tracking whether what we are doing is actually helping this client in this moment. With that clarity, the question “where does automation fit?” becomes easier: automation belongs around the session, not inside the relationship. It supports the repetitive work that quietly drains clinicians, so you show up with more focus and presence. In practical terms, this often starts with answering emails: drafting scheduling replies, boundaries, first-contact responses, follow-ups, and coordination messages with parents or schools. AI can give you a clean draft fast, but the clinician still protects tone, confidentiality, and the therapeutic frame before anything is sent. Automation can also support assessment workflows, especially the mechanical parts like cotation and report organization. It can help format tables, structure sections consistently, and draft neutral descriptions, saving time without pretending to “interpret.” Similarly, it can help with filling questions for you: generating intake questions, check-in prompts, or between-session reflection questions tailored to your model and the client’s goals. That doesn’t replace clinical judgment; it simply gives you a clearer scaffold for information-gathering and tracking change. Another high-impact area is session preparation. If you provide a brief, non-identifying summary of the last session, AI can help draft a focused plan: key themes to revisit, hypotheses to test, reminders of what was agreed on, and possible questions or interventions that match your orientation. The point is not to “script therapy,” but to reduce the mental load of reconstructing the thread so you can start the session grounded. More sensitive, but sometimes very helpful, is using automation around session recording and documentation (only with explicit consent and a privacy-safe system). AI can assist with transcripts, highlight themes, and draft a note structure or summary. Still, this must remain supervised: AI can miss nuance, misinterpret meaning, or phrase things too strongly. In clinical documentation, accuracy and accountability matter more than speed, so the clinician always verifies what’s written, especially around risk, safety planning, and any diagnostic or medical claim. Finally, automation can support what many clinicians want but struggle to do consistently: progress comparison over time. Whether you use outcome measures, session ratings, goals, homework follow-through, or narrative markers, AI can help summarize shifts from baseline, spot patterns across sessions, and draft a short “what’s improving / what’s stuck / what to adjust next” reflection. The tool organizes and surfaces patterns; you decide what it means and what the next clinical step is. All of this only works if we pay attention to data and privacy. We avoid entering identifying information unless we are using an approved, privacy-compliant system. We do not treat AI output as truth, especially for diagnosis, risk assessment, medication-related topics, or any medical claim. And we keep the clinician role explicit: AI can generate language, options, and structure, but we provide judgment, ethics, and accountability. This is also why many clinicians are drawn to running a private generative model locally on their laptop, offline, so data does not leave the device. Even then, strong device security and clear consent practices still matter, but the direction is sound: protect client information first, then build workflow support around it. When we use AI with this mindset, the payoff is real. We gain time and mental space for what cannot be automated: attunement, formulation, pacing, rupture-repair, and the relationship. The tool handles parts of the scaffolding and we protect the heart of therapy, which is slow, context-sensitive, and deeply human work.

English

Prism: the kind of writing workspace researchers wish existed when they’re trying to publish

If we’ve ever tried to write a real manuscript after a full day of research work, we already know the problem usually isn’t that we don’t have ideas. We do. The problem is that academic writing demands a specific kind of mental steadiness. We have to hold a thread, keep structure in mind, track definitions precisely, and build a coherent argument while our brains are already full of meetings, supervision, grant deadlines, data cleaning, reviewer comments, and the constant micro-decisions that come with running studies. So when OpenAI announced Prism, it caught our attention for a surprisingly practical reason. It sounds like it’s designed to reduce overwhelm in the writing process, not by writing the paper for us, but by making the environment less fragmenting and more supportive of sustained attention. OpenAI describes Prism as a free, cloud-based, LaTeX-native workspace for scientific writing and collaboration, with an AI assistant integrated into the document workflow. And that phrase, integrated into the workflow, matters. Many of us still write in a patchwork setup. The draft lives in one place, citations in another, PDFs in folders we swear are organized, tables in spreadsheets, figures in separate tools, and formatting rules that feel like a moving target. If we use AI, it often sits off to the side in a separate window, with no real awareness of what the document actually contains. Prism is pitching something different. One workspace where drafting, revising, compiling, and collaborating live together, so we don’t constantly switch contexts and lose momentum. That sounds less like automation and more like good research infrastructure. Something that helps us keep the argument intact while we spend our limited energy on what actually matters: methods, logic, interpretation, and the discipline of not overclaiming. What we also appreciate is that Prism seems aimed at the boring practical problems that quietly wreck productivity. Collaboration, comments, proofreading support, citation help, and literature workflow features are not flashy, but they are exactly the kind of friction that makes us close the laptop and tell ourselves we’ll do it tomorrow because we can feel the administrative drag consuming what’s left of our focus. And if we’ve ever co-authored a paper, we know how much time gets lost to version control, merging edits, and re-checking what the “current draft” even is. A shared cloud workspace can reduce that overhead by keeping writing and collaboration in one place. Here is where the researcher angle comes in. Researchers are trained to track nuance, uncertainty, and the limits of what data can actually support. Many of us can write well when we have space to think. But research rarely gives writing prime attention. Writing happens in stolen hours between analyses, teaching, project management, and funding applications. That changes what “helpful technology” looks like. We don’t just need a tool that generates text. We need a tool that helps us stay oriented so we can turn results into clear contributions publishable, teachable, and useful. Prism might support that kind of work, especially for researchers who publish, teach, supervise trainees, or collaborate across institutions and need their writing process to be less chaotic. If it truly reduces friction, it could help more of us finish what we start—not because the tool has better ideas than we do, but because it helps protect the continuity of our thinking. At the same time, we should say the quiet part out loud. A smoother writing workflow doesn’t automatically mean better science. AI can help us sound coherent and academic, and that can be useful, but it is also where risk shows up because polished writing can hide weak reasoning. So if we use Prism, we should treat it like a very fast assistant. It can reduce friction and help us express what we mean, but it is not the source of truth. We still own the reasoning, the claims, the citations, and the integrity of the work. And of course, Prism is not the only tool that exists. Most of us have already used other AI tools before, along with specific writing and reference managers that keep our workflow moving. What makes Prism feel different, at least from the way it is described, is the promise of one integrated workspace and the fact that it is free. If it delivers even half of that, we honestly cannot wait to explore it more. Where we land is simple. Prism sounds promising because it aims at the real pain points in research writing: context switching, formatting drudgery, collaboration friction, and the cognitive load of keeping a complex document coherent over time. Not magic. Not a replacement for expertise. But possibly the most researcher-friendly kind of productivity tool—the kind that helps us keep the thread.

French

Deux approaches d’usage de l’IA en thérapie : procédure vs collaboration (et comment en tirer un vrai bénéfice)

Nous le remarquons sans cesse : quand les cliniciens parlent d’« utiliser l’IA », ils décrivent en réalité deux approches très différentes, même quand ils emploient le même outil. Et la confusion se cristallise souvent autour d’un mot : automatisation. Beaucoup entendent « automatisation » et imaginent un remplacement froid de la thérapie, ou bien pensent que c’est grosso modo la même chose que la collaboration. En pratique, l’automatisation en clinique est plus simple et plus concrète que cela. Ce n’est pas « l’IA qui fait la thérapie ». C’est le clinicien qui délègue des étapes répétables du flux de travail, puis qui supervise la production comme il le ferait avec un·e assistant·e ou un·e stagiaire. En mode procédural, l’IA devient un substitut d’exécution. On demande, elle répond ; on colle, on envoie. Le résultat sert l’efficacité : textes plus rapides, formulations plus rapides, structures plus rapides. Cela peut réellement alléger la charge, surtout les jours où l’on porte plusieurs cas tout en essayant de documenter, planifier et communiquer clairement. Mais le mode procédural comporte un risque intégré : il peut court-circuiter l’étape où l’on se demande « Quelle affirmation vient d’être faite, et ai‑je réellement les données cliniques pour la soutenir ? » En thérapie, où le travail est à forts enjeux et dépend fortement du contexte, sauter cette étape n’est jamais anodin. Le mode collaboratif est différent. Ici, l’IA est traitée comme un partenaire de réflexion qui nous aide à affiner ce que nous savons déjà. Nous fournissons le contexte, les contraintes et les objectifs, et nous évaluons activement puis révisons ce qui revient. Le bénéfice n’est pas seulement la Vitesse, c’est la qualité. À mesure que les objectifs deviennent plus complexes, le travail ne disparaît pas ; il se déplace vers la formulation, la supervision et le jugement. Ce déplacement est essentiel, car il reflète ce qu’est déjà une bonne thérapie. La valeur centrale n’est pas de « faire des tâches ». La valeur centrale, c’est de choisir ce qui compte, de rester fidèle à la formulation, et de vérifier si ce que nous faisons aide réellement ce client, ici et maintenant. Avec cette clarté, la question « où l’automatisation a‑t‑elle sa place ? » devient plus simple : l’automatisation a sa place autour de la séance, pas au cœur de la relation thérapeutique. Elle soutient le travail répétitif qui épuise silencieusement les cliniciens, pour que vous arriviez avec davantage de focus et de présence. Concrètement, cela commence souvent par la gestion des courriels : proposer des brouillons pour la prise de rendez‑vous, les messages de cadrage et de limites, les premiers contacts, les suivis, ou la coordination avec les parents ou les écoles. L’IA peut vous fournir un brouillon propre très vite, mais le clinicien protège toujours le ton, la confidentialité et le cadre thérapeutique avant tout envoi. L’automatisation peut aussi soutenir les parcours d’évaluation, surtout dans leurs volets mécaniques comme la cotation et l’organisation du rapport. Elle peut aider à mettre en forme des tableaux, à structurer les sections de manière cohérente, et à rédiger des descriptions neutres un gain de temps sans prétendre « interpréter ». De même, elle peut vous aider à préparer des questions : générer des questions d’anamnèse, des invites de check‑in, ou des questions de réflexion entre les séances, adaptées à votre modèle et aux objectifs du client. Cela ne remplace pas le jugement clinique ; cela vous offre simplement un échafaudage plus clair pour recueillir l’information et suivre le changement. Autre levier à fort impact : la préparation de séance. Si vous fournissez un bref résumé non identifiant de la séance précédente, l’IA peut aider à élaborer un plan focalisé : thèmes à revisiter, hypothèses à tester, rappels de ce qui a été convenu, et pistes de questions ou d’interventions alignées sur votre orientation. L’objectif n’est pas de « scénariser la thérapie », mais de réduire la charge mentale liée au fait de reconstruire le fil pour démarrer la séance ancré. Plus sensible, mais parfois très utile, est l’usage de l’automatisation autour de l’enregistrement et de la documentation des séances (uniquement avec consentement explicite et au sein d’un système respectueux de la confidentialité). L’IA peut aider à produire des transcriptions, relever des thèmes, et proposer une trame de note ou un résumé. Cela doit toutefois rester supervisé : l’IA peut manquer une nuance, mal interpréter un sens, ou formuler trop fortement. En documentation clinique, l’exactitude et la responsabilité priment sur la vitesse ; le clinicien vérifie donc toujours ce qui est écrit, en particulier concernant le risque, les plans de sécurité, et toute affirmation diagnostique ou médicale. Enfin, l’automatisation peut soutenir ce que beaucoup de cliniciens souhaitent faire mais peinent à maintenir régulièrement : comparer les progrès dans le temps. Qu’il s’agisse de mesures d’issue, d’évaluations de séance, d’objectifs, de suivi des tâches entre les séances, ou de repères narratifs, l’IA peut aider à résumer les évolutions depuis la ligne de base, repérer des motifs au fil des séances, et proposer un court bilan « ce qui s’améliore / ce qui coince / ce qu’on ajuste ensuite ». L’outil organise et met en évidence les tendances ; vous décidez de ce qu’elles signifient et de la prochaine étape clinique. Tout cela ne fonctionne que si nous restons vigilants sur les données et la confidentialité. Nous évitons d’entrer des informations identifiantes, sauf dans un système approuvé et conforme à la protection de la vie privée. Nous ne traitons pas la sortie de l’IA comme une verité, en particulier pour le diagnostic, l’évaluation du risque, les sujets liés à la médication, ou toute assertion médicale. Et nous gardons le rôle du clinicien explicite : l’IA peut générer du langage, des options et de la structure, mais nous apportons le jugement, l’éthique et la responsabilité. C’est aussi pourquoi de nombreux cliniciens sont attirés par l’idée de faire tourner un modèle génératif privé en local sur leur ordinateur, hors ligne, afin que les données ne quittent pas l’appareil. Même dans ce cas,

French

Prism : l’espace d’écriture dont les chercheurs auraient rêvé au moment de publier

Si nous avons déjà essayé de rédiger un véritable manuscrit après une journée entière de travail de recherche, nous savons que le problème n’est généralement pas l’absence d’idées. Nous en avons. Le problème, c’est que l’écriture académique exige une forme spécifique de stabilité mentale. Nous devons tenir le fil, garder la structure en tête, suivre les définitions avec précision et construire un argument cohérent alors que notre esprit est déjà saturé de réunions, de supervision, d’échéances de financement, de nettoyage de données, de commentaires de relecteurs et de la série ininterrompue de micro‑décisions qui accompagnent la conduite des études. C’est pourquoi l’annonce de Prism par OpenAI a retenu notre attention pour une raison étonnamment pragmatique. L’outil semble conçu pour réduire la surcharge dans le processus d’écriture, non pas en rédigeant l’article à notre place, mais en rendant l’environnement moins fragmenté et plus propice à une attention soutenue. OpenAI présente Prism comme un espace de travail gratuit, dans le cloud, natif LaTeX, dédié à la rédaction scientifique et à la collaboration, avec un assistant IA intégré au flux de travail du document. Et cette expression, intégré au flux de travail, compte. Beaucoup d’entre nous écrivent encore dans une configuration en patchwork. Le brouillon vit à un endroit, les références ailleurs, les PDF dans des dossiers que nous jurons être organisés, les tableaux dans des feuilles de calcul, les figures dans des outils séparés, et des règles de mise en forme qui semblent mouvantes. Si nous utilisons l’IA, elle se trouve souvent sur le côté, dans une fenêtre distincte, sans réelle conscience de ce que contient le document. Prism propose autre chose. Un espace unique où la rédaction, la révision, la compilation et la collaboration cohabitent, pour éviter de changer constamment de contexte et perdre notre élan. Cela ressemble moins à de l’automatisation qu’à une véritable infrastructure pour la recherche. Quelque chose qui nous aide à préserver l’intégrité de l’argumentation tandis que nous consacrons notre énergie limitée à ce qui compte vraiment : les méthodes, la logique, l’interprétation et la discipline qui consiste à ne pas surestimer nos résultats. Nous apprécions aussi que Prism semble viser les problèmes pratiques, certes peu glamour, qui minent silencieusement la productivité. La collaboration, les commentaires, l’aide à la relecture, l’assistance aux citations et les fonctions liées au flux de travail documentaire ne sont pas tape‑à‑l’œil, mais ce sont précisément ces frictions qui nous font fermer l’ordinateur en nous disant qu’on s’y remettra demain, parce que l’inertie administrative dévore ce qu’il reste de notre attention. Et si nous avons déjà co‑signé un article, nous savons combien de temps se perd en contrôle de versions, en fusion d’annotations et en vérification de ce qu’est « la version actuelle ». Un espace de travail partagé dans le cloud peut réduire cette surcharge en réunissant écriture et collaboration au même endroit. C’est ici que l’angle « chercheur » intervient. Les chercheurs sont formés à suivre la nuance, l’incertitude et les limites de ce que les données peuvent réellement étayer. Beaucoup d’entre nous écrivent bien lorsque nous avons l’espace pour réfléchir. Mais la recherche accorde rarement à l’écriture la priorité absolue. Elle se fait dans des heures volées, entre analyses, enseignement, gestion de projet et demandes de financement. Cela change ce que « technologie utile » signifie. Nous n’avons pas seulement besoin d’un outil qui génère du texte. Nous avons besoin d’un outil qui nous aide à rester orientés pour transformer des résultats en contributions claires, publiables, enseignables et utiles. Prism pourrait soutenir ce type de travail, en particulier pour les chercheurs qui publient, enseignent, encadrent des doctorants ou collaborent entre institutions et qui ont besoin d’un processus d’écriture moins chaotique. S’il réduit réellement la friction, il pourrait aider davantage d’entre nous à terminer ce que nous commençons, non pas parce que l’outil a de meilleures idées que nous, mais parce qu’il aide à protéger la continuité de notre pensée. En même temps, il faut dire tout haut ce que l’on pense tout bas. Un flux d’écriture plus fluide ne signifie pas automatiquement une meilleure science. L’IA peut nous aider à paraître cohérents et académiques et cela peut être utile, mais c’est aussi là que réside le risque, car une prose soignée peut dissimuler un raisonnement faible. Donc, si nous utilisons Prism, traitons‑le comme un assistant très rapide. Il peut réduire la friction et nous aider à exprimer ce que nous voulons dire, mais il n’est pas la source de vérité. Nous restons responsables du raisonnement, des affirmations, des références et de l’intégrité du travail. Et, bien sûr, Prism n’est pas le seul outil disponible. La plupart d’entre nous ont déjà utilisé d’autres outils d’IA, ainsi que des logiciels spécialisés de rédaction et de gestion bibliographique qui font avancer notre flux de travail. Ce qui donne à Prism une allure différente, du moins telle qu’il est décrit, c’est la promesse d’un espace de travail intégré et le fait qu’il soit gratuit. S’il tient ne serait‑ce que la moitié de cette promesse, nous avons sincèrement hâte d’en explorer davantage. Notre conclusion est simple. Prism paraît prometteur parce qu’il vise les véritables points douloureux de l’écriture scientifique : le passage incessant d’un contexte à l’autre, la corvée de mise en forme, les frictions de la collaboration et la charge cognitive nécessaire pour maintenir la cohérence d’un document complexe dans le temps. Pas de magie. Pas de remplacement de l’expertise. Mais peut‑être le type d’outil de productivité le plus adapté aux chercheurs, celui qui nous aide à garder le fil.

Uncategorized

Guided Learning par Google Gemini. Quand la technologie commence à ressembler à un bon enseignement

En tant que cliniciens, nous enseignons rarement comme les manuels. Nous ne « livrons » pas l’information en une longue explication en espérant qu’elle atteigne sa cible. Nous ralentissons. Nous vérifions la compréhension. Nous ajustons le langage, les exemples, le rythme. Nous mettons en place un étayage. Dans la vraie vie, l’apprentissage est guidé. C’est pourquoi la nouvelle fonctionnalité de Google Gemini, Guided Learning, a retenu notre attention. Pas parce qu’il s’agit d’intelligence artificielle, mais parce que le modèle d’apprentissage qui la sous‑tend nous est familier. Guided Learning permet aux utilisateurs d’explorer n’importe quel sujet étape par étape, comme avec un tuteur disponible et réactif. Au lieu de submerger l’apprenant d’informations, elle construit la compréhension de manière graduelle et intentionnelle. D’un point de vue clinique, cela compte. Nous constatons chaque jour que les difficultés d’apprentissage relèvent rarement d’un manque de capacités. Elles tiennent à la surcharge, à un séquençage inadéquat et à un mode de transmission inadapté. Beaucoup d’apprenants se désengagent non pas parce que le contenu est trop complexe, mais parce qu’il arrive trop vite, de façon trop dense, ou sans soutien suffisant. Guided Learning répond à cela en modifiant la manière dont l’information est délivrée, et non ce qui est enseigné. Plutôt que de présenter d’emblée une explication complète, Gemini introduit les concepts par étapes. Il s’arrête pour vérifier la compréhension avant d’avancer. Si l’apprenant éprouve des difficultés, il reformule ou ralentit. S’il montre de l’aisance, il progresse. Cela reflète notre façon de travailler en séance, que nous soutenions le développement du langage, les fonctions exécutives, la compréhension émotionnelle ou les compétences académiques. Ce qui nous a également frappés, c’est le rôle actif de l’apprenant. Guided Learning ne positionne pas l’utilisateur comme un consommateur passif d’informations. Elle pose des questions, encourage la réflexion et s’appuie sur les réponses. Cela s’aligne fortement avec les données de la psychologie de l’éducation selon lesquelles l’engagement actif et la récupération en mémoire sont essentiels à un apprentissage significatif et à la rétention. Pour nombre d’enfants, d’adolescents et d’adultes avec lesquels nous travaillons, la charge cognitive constitue un obstacle majeur. Les plateformes d’apprentissage traditionnelles supposent souvent que « plus d’informations » signifie « mieux ». Guided Learning adopte l’approche inverse. Elle privilégie la structure, le rythme et la profondeur plutôt que le volume. Ce changement, à lui seul, peut transformer l’expérience d’apprentissage. Du point de vue du langage et de la communication, c’est particulièrement pertinent. Un langage dense, des explications abstraites et un contexte limité sont des raisons fréquentes de désengagement. Une approche guidée et adaptative permet une exposition graduelle, de la répétition et de la clarification. C’est essentiel pour les apprenants avec un trouble développemental du langage, une dyslexie, un TDAH ou des besoins d’apprentissage en langue seconde. Il existe aussi une dimension émotionnelle qui mérite l’attention. Les expériences répétées de confusion et d’échec façonnent l’estime de soi des apprenants. Lorsque l’apprentissage est soutenu et prévisible, la confiance grandit. Guided Learning réduit le sentiment d’être perdu. Elle offre une structure sans rigidité, ce à quoi nous veillons intentionnellement dans le travail clinique. Comment nous avons utilisé Guided Learning Nous avons voulu vivre Guided Learning en utilisateurs, et pas seulement en lire la description. L’accès a été agréablement simple. Nous avons ouvert Google Gemini sur le web, démarré une nouvelle conversation, puis sélectionné Guided Learning dans la liste des modes. À partir de là, nous avons soit posé une question, soit téléversé un document à étudier. Aucune configuration, aucun plugin, aucun réglage. Ce qui nous a frappés immédiatement, c’est le rythme. Gemini ne s’est pas précipité pour fournir une réponse complète. Il a introduit le sujet étape par étape, vérifié notre compréhension, et n’a avancé que lorsque cela avait du sens. Cela seul a rendu l’expérience plus intentionnelle et moins accablante. Ce qui distingue Guided Learning La force de Guided Learning réside dans la structuration de l’information. Les leçons sont conçues pour la profondeur plutôt que pour des synthèses superficielles. Les concepts sont superposés de façon réfléchie, de sorte que la compréhension se construise naturellement. Le support multimédia est également solide. Selon le sujet, les explications peuvent inclure des images, des vidéos ou des éléments interactifs. Cela reflète la manière dont nous varions les modalités en thérapie en fonction des besoins et des préférences de l’apprenant. Autre caractéristique notable : l’utilisation de courts quiz et de questions réflexives. Ils apparaissent naturellement dans le flux d’apprentissage et aident à consolider la compréhension avant de poursuivre. Cette approche s’aligne bien avec les recherches sur la pratique de récupération et la consolidation des apprentissages. Surtout, le système s’adapte. Lorsque l’apprenant démontre sa compréhension, il progresse. En cas d’incertitude, il ralentit et reformule. Cette réactivité donne à l’expérience un caractère guidé plutôt que scénarisé. Bien sûr, Guided Learning n’est pas une thérapie. Elle ne remplace pas le raisonnement clinique, la définition individualisée d’objectifs ni la relation thérapeutique. Elle ne tient pas pleinement compte des besoins de régulation sensorielle, des états émotionnels ou d’histoires développementales complexes. Il existe aussi un risque de dépendance excessive si ces outils sont utilisés sans discernement professionnel. Cela dit, en tant qu’outil de soutien, son potentiel est clair. Guided Learning peut favoriser le transfert entre les séances, en particulier pour les apprenants plus âgés et les adultes. Elle peut aider les clients à construire des connaissances de base, à renforcer des concepts introduits en thérapie ou à explorer des sujets de façon structurée. Pour les cliniciens, elle peut aussi servir de compagnon d’apprentissage pour la formation continue, permettant d’explorer de nouveaux thèmes sans surcharge cognitive. Ce qui ressort le plus La philosophie qui sous‑tend cette fonctionnalité. Guided Learning part du principe que la compréhension se construit, elle ne se « délivre » pas. Que l’apprentissage bénéficie du rythme, du feedback et de la structure. Ce ne sont pas des idées nouvelles pour les thérapeutes. Elles sont au cœur d’une intervention efficace. Sous bien des aspects, cette fonctionnalité ressemble moins à de l’intelligence artificielle qu’à un étayage numérique. Utilisée avec discernement, elle complète

Uncategorized

L’apprentissage n’est pas une taille unique : pourquoi « Learn Your Way » arrive si tard

Si les manuels fonctionnaient comme ils sont censés le faire, nous n’aurions pas à réaliser la moitié des adaptations que nous faisons chaque jour en thérapie. Nous avons tous accompagné un enfant ou un élève brillant, curieux et capable, mais complètement bloqué par de longs paragraphes, un langage abstrait ou une explication rigide et unique. D’une manière ou d’une autre, c’est toujours à l’apprenant de s’adapter. Nous savons que c’est faux. L’apprentissage n’a jamais été une taille unique. Les cerveaux sont complexes, non linéaires et merveilleusement différents. Certains apprenants ont besoin de voir. D’autres ont besoin d’entendre. Certains ont besoin qu’on leur explique trois fois et de trois manières avant que cela fasse tilt. Beaucoup ont besoin de l’autorisation d’aborder l’information de biais plutôt que de face. C’est pourquoi le nouveau projet de Google Research, Learn Your Way, a retenu notre attention. Il utilise l’IA générative pour transformer des manuels statiques en expériences d’apprentissage dynamiques et adaptées. Au lieu de contraindre chaque apprenant à suivre le même chemin, le contenu s’adapte à leur manière de penser, de poser des questions et de donner du sens au monde. D’un point de vue clinique, cela résonne immédiatement. Que faisons-nous en séance toute la journée, sinon cela ? Nous reformulons les consignes. Nous simplifions le langage. Nous ajoutons des supports visuels. Nous ralentissons ou nous accélérons. Nous guettons ce moment où le visage d’un apprenant change, et l’on sait que quelque chose a enfin fait sens. Les manuels n’ont jamais su faire cela, ils ne peuvent pas remarquer la confusion ni s’ajuster. Jusqu’à maintenant. Les manuels traditionnels présupposent un apprenant idéal qui lit couramment, traite rapidement et reste concentré du début à la fin. Pour nos patients, en particulier ceux qui sont neurodivergents, présentent des difficultés langagières, des troubles de l’attention ou des différences d’apprentissage, le manuel devient souvent lui-même la barrière. Learn Your Way remet en question ce modèle. Les apprenants peuvent demander une explication plus simple, solliciter un exemple, explorer une version visuelle ou relier le contenu à quelque chose de familier. Il n’y a aucune honte à redemander, aucune pression pour suivre le rythme de la page. Cela, à lui seul, peut transformer la relation d’un apprenant à l’apprentissage. Sur le plan émotionnel, cela compte. Beaucoup d’enfants et d’adultes avec lesquels nous travaillons portent des années de frustration silencieuse, convaincus qu’ils « ne font pas assez d’efforts » alors qu’en réalité, c’est le format qui n’a jamais fonctionné pour eux. Un contenu adaptatif envoie un message différent : vous n’êtes pas le problème. C’était le format. Du point de vue du langage et de la communication, c’est particulièrement pertinent. Une syntaxe dense et des explications abstraites constituent des obstacles fréquents. Une IA qui réduit la charge linguistique tout en préservant le sens peut soutenir la compréhension sans sur‑simplifier, au bénéfice des apprenants avec un trouble développemental du langage, une dyslexie ou des besoins de seconde langue. Bien sûr, l’IA n’est pas un thérapeute. Elle ne remplace pas l’accordage humain, le raisonnement clinique ni la sécurité relationnelle. Personnaliser, ce n’est pas comprendre le profil sensoriel d’un apprenant, son état émotionnel ou son histoire. Mais en tant qu’outil, elle a du potentiel. Nous pouvons imaginer utiliser des explications adaptatives pour le transfert entre les séances, orienter les familles vers des ressources qui rejoignent l’enfant là où il en est, ou collaborer avec les enseignants autour de supports partagés et flexibles. Ce qui ressort le plus, c’est le changement d’état d’esprit. Learn Your Way reflète ce que les cliniciens ont toujours su : la variabilité n’est pas l’exception, c’est la base. Lorsque les environnements d’apprentissage sont flexibles, davantage d’apprenants réussissent sans devoir être « corrigés » au préalable. Les manuels n’ont jamais été neutres. Ils ont favorisé une frange étroite d’apprenants tandis que les autres étaient sommés de rattraper. Ce virage vers l’apprentissage adaptatif ressemble au moment où le bon sens rattrape enfin son retard. Pour ceux d’entre nous qui travaillent chaque jour avec de vrais cerveaux, de vraies difficultés et un vrai potentiel, cela ressemble moins à l’avenir qu’à une validation qui arrive à point nommé.

Shopping Cart