Non classé

Non classé

Quand la numérisation arrête de se sentir comme une tâche : le lecteur Google et le moment « Automatique » papier-à-PDF

In clinical and research work, scanning is rarely about producing a neat PDF, it is about preventing workflow drag. We scan consent addenda, referral letters, medication lists, case report forms, and handwritten notes that still carry operational truth. For years, mobile scanning improved image quality, but it still demanded a repetitive choreography: frame, tap, confirm, repeat. What feels newly consequential in Google Drive’s recent scanning experience is the interaction model, less tapping, more continuous capture, and more software judgment about when a page is ready. Google Drive’s built-in scanner has long supported multi-page documents, yet it is increasingly designed to behave like an “in-app acquisition channel,” not a separate scanning tool. In practice, that matters because scanning is no longer “use a dedicated app, export, rename, then upload,” but simply “create a document” inside the same place teams already store files. When routine capture becomes native to a platform people already use daily, adoption rises without training or policy memos. The subtle shift is not novelty; it is friction removal. What makes the process feel almost automatic is a pipeline of document detection, stabilization, and auto-capture logic that reduces micro-decisions. Instead of treating each page as a discrete photo event, the software can treat the stack as a sequence, helping us keep the phone steady and keep moving. That design aligns with how paperwork actually arrives in clinics and labs, bundled, time-sensitive, and rarely convenient. If capture becomes continuous, we spend less cognitive energy on the mechanics and more on verification and filing. The workflow implication is not only speed; it is interruption management. In a clinic, fewer taps can mean fewer missed pages when we are distracted mid-scan by a call, a patient question, or a handover. In research administration, it can mean fewer delays when teams are closing out visits or submitting ethics amendments on a deadline. The promise is modest but real: minutes saved at the margin, repeated many times, can reduce backlog and improve same-day documentation. But automation changes the failure modes, and we should not pretend otherwise. When we manually tap for each page, we naturally pause and visually confirm framing; when the system captures “at the right moment,” errors can become quieter. Cropping can shave off a marginal annotation, and auto-enhancement can lighten pencil marks even as it makes the page look cleaner. As scanning tools become more “helpful,” they also become more interpretive, transforming the image rather than merely preserving it. There is also a records-integrity tension that is easy to overlook: the cleaner the output, the harder it can be to detect what was changed. In some settings, a scanned document is evidence, what was signed, what was present, what was legible at the time. If enhancement is applied by default, we may need a norm of preserving an “as-captured” version for high-stakes documents or at least a consistent protocol for when enhancement is acceptable. Convenience should not quietly rewrite provenance. Ethically, AI-mediated scanning raises a transparency obligation that sits with us, not with the app. If software decides capture timing, cropping boundaries, and enhancement levels, then responsibility still rests with us when a record is incomplete, misleading, or missing context. The ethical minimum is clarity and reviewability: we should be able to tell when automation was applied, quickly audit the output, and re-capture or retain a minimally processed version when accuracy is consequential. Data integrity is not only about malicious tampering; it is also about well-intended automation that erases clinically or scientifically meaningful detail. Looking forward, we can expect more of this “everyday AI”, quiet, embedded, and workflow-shaped rather than headline-grabbing. For researchers, clinicians, and graduate trainees, the practical task is to pair speed with governance: consistent naming, sensible foldering, routine spot-checking, and clear boundaries about where scans may be stored and shared. If we treat automatic scanning as a documentation instrument, subject to verification, responsibility, and traceability, then the shift can be genuinely beneficial. Paper will not disappear, but it may stop stealing so much attention from work that actually needs us.

Non classé

Apprentissage Guidée par Google Gemini. Quand la technologie commence à ressembler à un bon enseignement

En tant que cliniciens, nous enseignons rarement comme les manuels. Nous ne « livrons » pas l’information en une longue explication en espérant qu’elle atteigne sa cible. Nous ralentissons. Nous vérifions la compréhension. Nous ajustons le langage, les exemples, le rythme. Nous mettons en place un étayage. Dans la vraie vie, l’apprentissage est guidé. C’est pourquoi la nouvelle fonctionnalité de Google Gemini, Guided Learning, a retenu notre attention. Pas parce qu’il s’agit d’intelligence artificielle, mais parce que le modèle d’apprentissage qui la sous‑tend nous est familier. Guided Learning permet aux utilisateurs d’explorer n’importe quel sujet étape par étape, comme avec un tuteur disponible et réactif. Au lieu de submerger l’apprenant d’informations, elle construit la compréhension de manière graduelle et intentionnelle. D’un point de vue clinique, cela compte. Nous constatons chaque jour que les difficultés d’apprentissage relèvent rarement d’un manque de capacités. Elles tiennent à la surcharge, à un séquençage inadéquat et à un mode de transmission inadapté. Beaucoup d’apprenants se désengagent non pas parce que le contenu est trop complexe, mais parce qu’il arrive trop vite, de façon trop dense, ou sans soutien suffisant. Guided Learning répond à cela en modifiant la manière dont l’information est délivrée, et non ce qui est enseigné. Plutôt que de présenter d’emblée une explication complète, Gemini introduit les concepts par étapes. Il s’arrête pour vérifier la compréhension avant d’avancer. Si l’apprenant éprouve des difficultés, il reformule ou ralentit. S’il montre de l’aisance, il progresse. Cela reflète notre façon de travailler en séance, que nous soutenions le développement du langage, les fonctions exécutives, la compréhension émotionnelle ou les compétences académiques. Ce qui nous a également frappés, c’est le rôle actif de l’apprenant. Guided Learning ne positionne pas l’utilisateur comme un consommateur passif d’informations. Elle pose des questions, encourage la réflexion et s’appuie sur les réponses. Cela s’aligne fortement avec les données de la psychologie de l’éducation selon lesquelles l’engagement actif et la récupération en mémoire sont essentiels à un apprentissage significatif et à la rétention. Pour nombre d’enfants, d’adolescents et d’adultes avec lesquels nous travaillons, la charge cognitive constitue un obstacle majeur. Les plateformes d’apprentissage traditionnelles supposent souvent que « plus d’informations » signifie « mieux ». Guided Learning adopte l’approche inverse. Elle privilégie la structure, le rythme et la profondeur plutôt que le volume. Ce changement, à lui seul, peut transformer l’expérience d’apprentissage. Du point de vue du langage et de la communication, c’est particulièrement pertinent. Un langage dense, des explications abstraites et un contexte limité sont des raisons fréquentes de désengagement. Une approche guidée et adaptative permet une exposition graduelle, de la répétition et de la clarification. C’est essentiel pour les apprenants avec un trouble développemental du langage, une dyslexie, un TDAH ou des besoins d’apprentissage en langue seconde. Il existe aussi une dimension émotionnelle qui mérite l’attention. Les expériences répétées de confusion et d’échec façonnent l’estime de soi des apprenants. Lorsque l’apprentissage est soutenu et prévisible, la confiance grandit. Guided Learning réduit le sentiment d’être perdu. Elle offre une structure sans rigidité, ce à quoi nous veillons intentionnellement dans le travail clinique. Comment nous avons utilisé Guided Learning Nous avons voulu vivre Guided Learning en utilisateurs, et pas seulement en lire la description. L’accès a été agréablement simple. Nous avons ouvert Google Gemini sur le web, démarré une nouvelle conversation, puis sélectionné Guided Learning dans la liste des modes. À partir de là, nous avons soit posé une question, soit téléversé un document à étudier. Aucune configuration, aucun plugin, aucun réglage. Ce qui nous a frappés immédiatement, c’est le rythme. Gemini ne s’est pas précipité pour fournir une réponse complète. Il a introduit le sujet étape par étape, vérifié notre compréhension, et n’a avancé que lorsque cela avait du sens. Cela seul a rendu l’expérience plus intentionnelle et moins accablante. Ce qui distingue Guided Learning La force de Guided Learning réside dans la structuration de l’information. Les leçons sont conçues pour la profondeur plutôt que pour des synthèses superficielles. Les concepts sont superposés de façon réfléchie, de sorte que la compréhension se construise naturellement. Le support multimédia est également solide. Selon le sujet, les explications peuvent inclure des images, des vidéos ou des éléments interactifs. Cela reflète la manière dont nous varions les modalités en thérapie en fonction des besoins et des préférences de l’apprenant. Autre caractéristique notable : l’utilisation de courts quiz et de questions réflexives. Ils apparaissent naturellement dans le flux d’apprentissage et aident à consolider la compréhension avant de poursuivre. Cette approche s’aligne bien avec les recherches sur la pratique de récupération et la consolidation des apprentissages. Surtout, le système s’adapte. Lorsque l’apprenant démontre sa compréhension, il progresse. En cas d’incertitude, il ralentit et reformule. Cette réactivité donne à l’expérience un caractère guidé plutôt que scénarisé. Bien sûr, Guided Learning n’est pas une thérapie. Elle ne remplace pas le raisonnement clinique, la définition individualisée d’objectifs ni la relation thérapeutique. Elle ne tient pas pleinement compte des besoins de régulation sensorielle, des états émotionnels ou d’histoires développementales complexes. Il existe aussi un risque de dépendance excessive si ces outils sont utilisés sans discernement professionnel. Cela dit, en tant qu’outil de soutien, son potentiel est clair. Guided Learning peut favoriser le transfert entre les séances, en particulier pour les apprenants plus âgés et les adultes. Elle peut aider les clients à construire des connaissances de base, à renforcer des concepts introduits en thérapie ou à explorer des sujets de façon structurée. Pour les cliniciens, elle peut aussi servir de compagnon d’apprentissage pour la formation continue, permettant d’explorer de nouveaux thèmes sans surcharge cognitive. Ce qui ressort le plus La philosophie qui sous‑tend cette fonctionnalité. Guided Learning part du principe que la compréhension se construit, elle ne se « délivre » pas. Que l’apprentissage bénéficie du rythme, du feedback et de la structure. Ce ne sont pas des idées nouvelles pour les thérapeutes. Elles sont au cœur d’une intervention efficace. Sous bien des aspects, cette fonctionnalité ressemble moins à de l’intelligence artificielle qu’à un étayage numérique. Utilisée avec discernement, elle complète

Non classé

L-apprentissage n-est pas une taille unique : pourquoi « Apprenez votre chemin » Arrivée si tard

Si les manuels fonctionnaient comme ils sont censés le faire, nous n’aurions pas à réaliser la moitié des adaptations que nous faisons chaque jour en thérapie. Nous avons tous accompagné un enfant ou un élève brillant, curieux et capable, mais complètement bloqué par de longs paragraphes, un langage abstrait ou une explication rigide et unique. D’une manière ou d’une autre, c’est toujours à l’apprenant de s’adapter. Nous savons que c’est faux. L’apprentissage n’a jamais été une taille unique. Les cerveaux sont complexes, non linéaires et merveilleusement différents. Certains apprenants ont besoin de voir. D’autres ont besoin d’entendre. Certains ont besoin qu’on leur explique trois fois et de trois manières avant que cela fasse tilt. Beaucoup ont besoin de l’autorisation d’aborder l’information de biais plutôt que de face. C’est pourquoi le nouveau projet de Google Research, Learn Your Way, a retenu notre attention. Il utilise l’IA générative pour transformer des manuels statiques en expériences d’apprentissage dynamiques et adaptées. Au lieu de contraindre chaque apprenant à suivre le même chemin, le contenu s’adapte à leur manière de penser, de poser des questions et de donner du sens au monde. D’un point de vue clinique, cela résonne immédiatement. Que faisons-nous en séance toute la journée, sinon cela ? Nous reformulons les consignes. Nous simplifions le langage. Nous ajoutons des supports visuels. Nous ralentissons ou nous accélérons. Nous guettons ce moment où le visage d’un apprenant change, et l’on sait que quelque chose a enfin fait sens. Les manuels n’ont jamais su faire cela, ils ne peuvent pas remarquer la confusion ni s’ajuster. Jusqu’à maintenant. Les manuels traditionnels présupposent un apprenant idéal qui lit couramment, traite rapidement et reste concentré du début à la fin. Pour nos patients, en particulier ceux qui sont neurodivergents, présentent des difficultés langagières, des troubles de l’attention ou des différences d’apprentissage, le manuel devient souvent lui-même la barrière. Learn Your Way remet en question ce modèle. Les apprenants peuvent demander une explication plus simple, solliciter un exemple, explorer une version visuelle ou relier le contenu à quelque chose de familier. Il n’y a aucune honte à redemander, aucune pression pour suivre le rythme de la page. Cela, à lui seul, peut transformer la relation d’un apprenant à l’apprentissage. Sur le plan émotionnel, cela compte. Beaucoup d’enfants et d’adultes avec lesquels nous travaillons portent des années de frustration silencieuse, convaincus qu’ils « ne font pas assez d’efforts » alors qu’en réalité, c’est le format qui n’a jamais fonctionné pour eux. Un contenu adaptatif envoie un message différent : vous n’êtes pas le problème. C’était le format. Du point de vue du langage et de la communication, c’est particulièrement pertinent. Une syntaxe dense et des explications abstraites constituent des obstacles fréquents. Une IA qui réduit la charge linguistique tout en préservant le sens peut soutenir la compréhension sans sur‑simplifier, au bénéfice des apprenants avec un trouble développemental du langage, une dyslexie ou des besoins de seconde langue. Bien sûr, l’IA n’est pas un thérapeute. Elle ne remplace pas l’accordage humain, le raisonnement clinique ni la sécurité relationnelle. Personnaliser, ce n’est pas comprendre le profil sensoriel d’un apprenant, son état émotionnel ou son histoire. Mais en tant qu’outil, elle a du potentiel. Nous pouvons imaginer utiliser des explications adaptatives pour le transfert entre les séances, orienter les familles vers des ressources qui rejoignent l’enfant là où il en est, ou collaborer avec les enseignants autour de supports partagés et flexibles. Ce qui ressort le plus, c’est le changement d’état d’esprit. Learn Your Way reflète ce que les cliniciens ont toujours su : la variabilité n’est pas l’exception, c’est la base. Lorsque les environnements d’apprentissage sont flexibles, davantage d’apprenants réussissent sans devoir être « corrigés » au préalable. Les manuels n’ont jamais été neutres. Ils ont favorisé une frange étroite d’apprenants tandis que les autres étaient sommés de rattraper. Ce virage vers l’apprentissage adaptatif ressemble au moment où le bon sens rattrape enfin son retard. Pour ceux d’entre nous qui travaillent chaque jour avec de vrais cerveaux, de vraies difficultés et un vrai potentiel, cela ressemble moins à l’avenir qu’à une validation qui arrive à point nommé.

Anglais, Non classé

Apprendre n'est pas une taille convient à tous: Pourquoi "apprendre votre façon" se sent longtemps trop due

Si les manuels fonctionnaient comme ils étaient censés le faire, nous ne ferions pas la moitié des adaptations que nous faisons tous les jours en thérapie. Nous sommes tous assis avec un enfant ou un étudiant qui est brillant, curieux et capable, mais complètement bloqué par de longs paragraphes, un langage abstrait ou une explication rigide. D'une certaine manière, c'est l'apprenant qui doit s'adapter. Nous savons mieux. L'apprentissage n'a jamais été une taille unique. Les cerveaux sont désordonnés, non linéaires et merveilleusement différents. Certains apprenants doivent le voir. D'autres doivent l'entendre. Certains ont besoin qu'il explique trois fois de trois façons avant de cliquer. Beaucoup ont besoin d'une autorisation pour approcher l'information de côté plutôt que directement. C'est pourquoi le nouveau projet Google Research, Apprenez votre chemin, a attiré notre attention. Il utilise l'IA générative pour transformer les manuels statiques en expériences d'apprentissage interactives et personnalisées. Au lieu de forcer chaque apprenant à suivre le même chemin, le matériel s'adapte à leur façon de penser, de poser des questions et de comprendre le monde. D'un point de vue clinique, cela résonne immédiatement. Que faisons-nous en thérapie toute la journée, sinon ? Nous reformulons les instructions. Nous simplifions le langage. Nous ajoutons des visuels. On ralentit ou on accélère les choses. Nous regardons pour ce moment quand un apprenant se change le visage, et vous savez quelque chose finalement cliqué. Les manuels n'ont jamais fait ça—ils ne peuvent pas remarquer la confusion ou s'ajuster. Jusqu'à maintenant. Les manuels traditionnels supposent un apprenant idéal qui lit couramment, traite rapidement et reste concentré du début à la fin. Pour nos clients—particulièrement ceux qui sont neurodépendants, ont des difficultés linguistiques, des difficultés d'attention, ou l'apprentissage

Anglais, Non classé

Apprentissage guidé par Google Gemini. Quand la technologie commence à ressembler à un bon enseignement

As clinicians, we rarely teach the way textbooks do. We do not deliver information in one long explanation and hope it lands. We slow down. We check understanding. We adjust the language, the examples, the pacing. We scaffold. Learning, in real life, is guided. That is why Google Gemini’s newly launched feature, Guided Learning, stood out to us. Not because it is artificial intelligence, but because the learning model behind it feels familiar. Guided Learning allows users to explore any topic step by step, much like working with a patient, responsive tutor. Instead of overwhelming the learner with information, it builds understanding gradually and intentionally. From a clinical lens, this matters. We see every day that learning difficulties are rarely about lack of ability. They are about overload, poor sequencing, and mismatched delivery. Many learners disengage not because the content is too complex, but because it arrives too fast, too densely, or without enough support. Guided Learning addresses this by changing how information is delivered, not what is being taught. Rather than presenting a full explanation upfront, Gemini introduces concepts in stages. It pauses to check understanding before moving forward. If the learner struggles, it reframes or slows down. If they demonstrate confidence, it progresses. This mirrors how we work in therapy sessions, whether we are supporting language development, executive functioning, emotional insight, or academic skills. What also stood out to us is how active the learner becomes. Guided Learning does not position the user as a passive consumer of information. It asks questions, encourages reflection, and builds on responses. This aligns strongly with evidence from educational psychology showing that active engagement and retrieval are key to meaningful learning and retention. For many of the children, adolescents, and adults we work with, cognitive load is a significant barrier. Traditional learning platforms often assume that more information is better. Guided Learning takes the opposite approach. It prioritizes structure, pacing, and depth over volume. That shift alone can change how learners experience learning. From a language and communication perspective, this is particularly relevant. Dense language, abstract explanations, and limited context are common reasons learners disengage. A guided, adaptive approach allows for gradual exposure, repetition, and clarification. This is essential for learners with developmental language disorder, dyslexia, ADHD, or second language learning needs. There is also an emotional layer that deserves attention. Repeated experiences of confusion and failure shape how learners see themselves. When learning feels supported and predictable, confidence grows. Guided Learning reduces the feeling of being lost. It offers structure without rigidity, something we intentionally aim for in clinical work. How We Used Guided Learning We wanted to experience Guided Learning as users, not just read about it. Accessing it was refreshingly simple. We opened Google Gemini on the web, started a new conversation, and selected Guided Learning from the mode list. From there, we either asked a question or uploaded a document we wanted to study. There was no setup, no plugins, and no configuration. What we noticed immediately was the pacing. Gemini did not rush to provide a complete answer. It introduced the topic step by step, checked our understanding, and only moved forward when it made sense to do so. This alone made the experience feel more intentional and less overwhelming. What Makes Guided Learning Different The strength of Guided Learning lies in how it structures information. Lessons are organized with depth rather than surface summaries. Concepts are layered thoughtfully, allowing understanding to build naturally. There is also strong multimedia support. Depending on the topic, explanations may include images, videos, or interactive elements. This mirrors how we vary input in therapy based on the learner’s needs and preferences. Another notable feature is the use of short quizzes and reflective questions. These appear naturally within the learning flow and help consolidate understanding before moving on. This approach aligns well with research on retrieval practice and learning consolidation. Most importantly, the system adapts. When the learner demonstrates understanding, it progresses. When there is uncertainty, it slows down and reframes. That responsiveness is what makes the experience feel guided rather than scripted. Of course, Guided Learning is not therapy. It cannot replace clinical reasoning, individualized goal setting, or the therapeutic relationship. It does not account fully for sensory regulation needs, emotional states, or complex developmental histories. There is also a risk of over reliance if such tools are used without professional judgment. That said, as a supportive tool, the potential is clear. Guided Learning can support carryover between sessions, especially for older learners and adults. It can help clients build background knowledge, reinforce concepts introduced in therapy, or explore topics in a structured way. For clinicians, it can also serve as a learning companion for continuing education, allowing exploration of new topics without cognitive overload. What stands out most is the philosophy behind the feature. Guided Learning assumes that understanding is built, not delivered. That learning benefits from pacing, feedback, and structure. These are not new ideas for therapists. They are foundational to effective intervention. In many ways, this feature feels less like artificial intelligence and more like digital scaffolding. When used thoughtfully, it complements human teaching rather than competing with it. It reflects a growing alignment between technology and how learning actually works. For clinicians, the takeaway is not to replace our work with tools like this, but to integrate them intentionally. When technology supports the learning process rather than rushing it, it can become a meaningful ally. And that is a direction worth paying attention to.

Non classé

Fatigue liée à l'IA chez les cliniciens: Pourquoi avoir d'autres ne sont pas toujours beaux et comment choisir ce qu'ignorer

Au cours de l’année écoulée, de nombreux cliniciens ont constaté l’apparition d’une nouvelle forme d’épuisement dans leur travail. Il ne s’agit ni de la fatigue émotionnelle bien connue qui accompagne le fait de « tenir l’espace » pour autrui, ni d’un simple burn-out administratif. C’est quelque chose de plus subtil. Un flux constant de nouveaux outils d’IA, de mises à jour, de prompts, de plateformes et de promesses, tous prétendant rendre la pratique plus simple, plus rapide et plus intelligente. Au lieu d’un soulagement, beaucoup de cliniciens se sentent dépassés, distraits et incertains quant à leurs priorités. C’est à cela que ressemble la fatigue liée à l’IA en pratique clinique. Au fond, la fatigue liée à l’IA ne concerne pas la technologie en elle-même. Elle tient à la surcharge cognitive. Les cliniciens gèrent déjà des files actives complexes, des responsabilités éthiques, des exigences de documentation et une charge émotionnelle. Lorsque l’IA s’invite sans frontières ni objectif clairs, elle ajoute du bruit plutôt que de la clarté. Le résultat n’est pas une meilleure prise en charge, mais une attention fragmentée et une présence clinique diminuée. L’une des raisons principales du développement de cette fatigue est l’hypothèse selon laquelle davantage d’outils se traduiraient automatiquement par de meilleurs résultats. En réalité, le travail clinique ne bénéficie pas des bascules incessantes. Chaque nouvelle plateforme requiert un apprentissage, une évaluation et une dépense d’énergie mentale. Quand les cliniciens tentent de suivre chaque nouvelle sortie, ils passent souvent plus de temps à gérer des outils qu’à réfléchir cliniquement. Cela érode l’une des ressources les plus précieuses en thérapie : le raisonnement profond et ininterrompu. Autre facteur contributif, la pression d’utiliser l’IA simplement parce qu’elle existe. Une crainte implicite de « prendre du retard » ou de ne pas être assez innovant. Or, l’excellence clinique n’a jamais consisté à utiliser le plus grand nombre d’outils. Elle a toujours consisté à utiliser les bons, de manière délibérée et éthique. L’innovation sans intention améliore rarement la pratique. Il est également important de reconnaître que tous les outils d’IA ne sont pas conçus en pensant aux cliniciens. Beaucoup visent la vitesse, la génération de contenu ou une productivité superficielle. La thérapie, l’évaluation et le diagnostic exigent autre chose : de la nuance, l’acceptation de l’incertitude et une tolérance à la complexité. Les outils qui promettent des réponses instantanées peuvent insidieusement saper la réflexion analytique, surtout lorsque les cliniciens sont déjà fatigués. Choisir ce qu’ignorer n’est donc pas un échec. C’est une compétence clinique. Un point de départ utile consiste à poser une question simple avant d’adopter un outil d’IA : quelle charge cognitive cela réduit-il réellement ? Si un outil fait gagner du temps sur des tâches administratives comme la rédaction de rapports, la synthèse de notes ou l’organisation des informations, il peut préserver l’énergie mentale pour le raisonnement clinique. S’il ajoute un système de plus à consulter, une production de plus à évaluer ou un flux de travail de plus à gérer, il coûte peut-être plus qu’il ne rapporte. Un autre filtre clé est l’alignement avec les valeurs cliniques. Les outils doivent soutenir une pensée fondée sur les preuves, et non la court-circuiter. Ils devraient aider les cliniciens à penser plus clairement, pas moins. Si un outil encourage le copier-coller, la dépendance excessive ou l’acceptation non critique des sorties, il mérite du scepticisme. Un bon usage de l’IA est ressenti comme un soutien, pas comme une injonction. Il est également pertinent de limiter le nombre d’outils utilisés simultanément. Dans la pratique, la plupart des cliniciens n’ont besoin que d’un ou deux appuis d’IA qui s’intègrent naturellement à leur flux de travail. Par exemple, un outil pour le raisonnement structuré ou l’aide à la documentation. Un autre pour la communication ou l’explication. Au-delà, chaque outil doit justifier clairement sa place. La fatigue liée à l’IA diminue aussi lorsque les cliniciens passent de la chasse aux outils à la clarté d’intention. Au lieu de demander quel nouvel outil d’IA est disponible, demandez-vous où se situent les points de friction dans votre pratique. Rédaction de rapports ? Communication avec les parents ? Conceptualisation de cas ? Arriéré administratif ? Commencez par le problème, pas par la plateforme. Cela, à lui seul, filtre la plupart des bruits inutiles. Un point crucial : l’IA ne doit jamais remplacer les pauses réflexives. Certaines des intuitions cliniques les plus importantes émergent du fait de tolérer l’incertitude, de revoir des schémas sur la durée ou de discuter des cas avec des collègues. Si l’usage de l’IA évince ces processus, c’est qu’elle est mal employée. La technologie doit créer de l’espace pour penser, pas remplir chaque interstice. Il existe aussi une dimension culturelle à prendre en compte. Les cliniciens ont besoin de la permission de se désengager des mises à jour constantes. Toutes les nouveautés ne sont pas pertinentes. Toutes les fonctionnalités n’ont pas besoin d’être testées. Rester informé ne signifie pas être submergé. Une pratique durable exige des limites, y compris numériques. Au bout du compte, l’objectif n’est pas de devenir un clinicien « dopé à l’IA ». C’est de rester un clinicien réfléchi, présent et fondé sur les preuves dans un environnement en rapide évolution. L’IA peut être un soutien précieux lorsqu’elle est utilisée avec intention. Elle peut réduire les frictions, organiser la complexité et préserver le temps. Mais seulement lorsque les cliniciens gardent la main sur le quand, le pourquoi et le comment de son utilisation. Dans un champ fondé sur la relation humaine et le jugement clinique, l’usage le plus responsable de l’IA peut parfois consister à choisir de ne pas l’utiliser du tout.

Anglais, Non classé

La fatigue de l'IA chez les cliniciens Pourquoi plus d'outils ne sont pas toujours meilleurs et comment choisir quoi ignorer

Over the past year, many clinicians have noticed a new kind of exhaustion creeping into their work. It is not the familiar emotional fatigue that comes from holding space for others, nor is it purely administrative burnout. It is something more subtle. A constant stream of new AI tools, updates, prompts, platforms, and promises, all claiming to make practice easier, faster, and smarter. Instead of relief, many clinicians feel overwhelmed, distracted, and unsure where to focus. This is what AI fatigue looks like in clinical practice. At its core, AI fatigue is not about technology itself. It is about cognitive overload. Clinicians are already managing complex caseloads, ethical responsibilities, documentation demands, and emotional labour. When AI enters the picture without clear boundaries or purpose, it can add noise rather than clarity. The result is not better care, but fragmented attention and reduced clinical presence. One of the main reasons AI fatigue develops is the assumption that more tools automatically mean better outcomes. In reality, clinical work does not benefit from constant switching. Each new platform requires learning, evaluation, and mental energy. When clinicians try to keep up with every new release, they often spend more time managing tools than thinking clinically. This erodes one of the most valuable resources in therapy. Deep, uninterrupted reasoning. Another contributor is the pressure to use AI simply because it exists. There is an unspoken fear of falling behind or not being innovative enough. But clinical excellence has never been about using the most tools. It has always been about using the right ones, deliberately and ethically. Innovation without intention rarely improves practice. It is also important to recognise that not all AI tools are designed with clinicians in mind. Many are built for speed, content generation, or surface-level productivity. Therapy, assessment, and diagnosis require something different. They require nuance, uncertainty, and tolerance for complexity. Tools that promise instant answers can subtly undermine reflective thinking, especially when clinicians are already tired. Choosing what to ignore is therefore not a failure. It is a clinical skill. A helpful starting point is to ask a simple question before adopting any AI tool. What cognitive load is this actually reducing? If a tool saves time on administrative tasks like drafting reports, summarising notes, or organising information, it may protect mental energy for clinical reasoning. If it adds another system to check, another output to evaluate, or another workflow to manage, it may be costing more than it gives. Another key filter is alignment with clinical values. Tools should support evidence-based thinking, not shortcut it. They should help clinicians think more clearly, not think less. If a tool encourages copying, over-reliance, or uncritical acceptance of outputs, it deserves skepticism. Good AI use feels supportive, not directive. It is also worth limiting the number of tools used at any one time. In practice, most clinicians only need one or two AI supports that fit naturally into their workflow. For example, one tool for structured thinking or documentation support. One tool for communication or explanation. Anything beyond that should earn its place clearly. AI fatigue also decreases when clinicians shift from tool hunting to purpose clarity. Instead of asking what new AI tool is available, ask where the friction points are in your own practice. Is it report writing? Parent communication? Case conceptualisation? Admin backlog? Start with the problem, not the platform. This alone filters out most unnecessary noise. Crucially, AI should never replace reflective pauses. Some of the most important clinical insights come from sitting with uncertainty, reviewing patterns over time, or discussing cases with colleagues. If AI use crowds out these processes, it is being misused. Technology should create space for thinking, not fill every gap. There is also a cultural aspect to address. Clinicians need permission to disengage from constant updates. Not every release is relevant. Not every feature needs testing. Staying informed does not mean staying flooded. Sustainable practice requires boundaries, including digital ones. Ultimately, the goal is not to become an AI-powered clinician. It is to remain a thoughtful, present, evidence-based one in a rapidly changing environment. AI can be a valuable support when used intentionally. It can reduce friction, organise complexity, and protect time. But only when clinicians remain in control of when, why, and how it is used. In a field built on human connection and clinical judgment, the most responsible use of AI may sometimes be choosing not to use it at all.

Anglais, Non classé

Claude pour la santé et ChatGPT Santé: à quoi ressemble vraiment le nouveau changement clinique de l'IA

In the past week, the healthcare AI space has moved from possibility to intention. First came the launch of ChatGPT Health, a dedicated health-focused experience designed to help individuals understand their medical information. Shortly after, Anthropic introduced Claude for Healthcare, a platform built specifically for clinical, administrative, and research environments. Together, these releases signal a clear shift. AI is no longer being positioned as a general assistant that happens to talk about health. It is being shaped around the realities of healthcare itself. From a clinical and therapy perspective, this distinction matters. ChatGPT Health is centred on the personal health story. It creates a separate, protected health space within the app where users can connect medical records and wellness data. The emphasis is on interpretation rather than instruction. Lab results, lifestyle patterns, and health histories are translated into clear, accessible language. The experience is designed to help individuals and families arrive at appointments better prepared, with clearer questions and a stronger understanding of their own data. One of the defining features of ChatGPT Health is its focus on communication. The system adapts explanations to the user’s level of understanding and emotional state. This is particularly relevant in therapy contexts, where families often feel overwhelmed by medical language and fragmented information. By reducing confusion and cognitive load, the tool supports more meaningful conversations between clinicians and families. Importantly, it does not diagnose, prescribe, or replace professional care. Its role is interpretive and supportive. Claude for Healthcare operates from a very different starting point. It is built around healthcare systems rather than individual narratives. Its features are designed to handle the complexity of clinical infrastructure, including medical coding, scientific literature, regulatory frameworks, and administrative workflows. This positions Claude less as a conversational interpreter and more as a reasoning and synthesis tool for professionals. For clinicians, this means support with tasks that often sit in the background of care but consume significant time and mental energy. Summarising dense records, aligning documentation with evidence, navigating coverage requirements, and integrating research into clinical reasoning are all areas where Claude’s design is particularly strong. Its ability to maintain coherence across long, complex inputs mirrors how clinicians reason through cases over time rather than in isolated moments. A clear way to think about the difference Element ChatGPT Health Claude for Healthcare Primary user Individuals and families Clinicians, organisations, researchers Core role Interpretation and understanding Reasoning, synthesis, and structure Focus Personal health information Clinical systems and workflows Strength Communication and clarity Depth, coherence, and evidence alignment Therapy relevance Supporting family understanding and engagement Supporting clinical documentation and decision-making Ethical emphasis Individual data control and separation Enterprise compliance and regulatory alignment When comparing the two tools, the difference is not about which is better, but about what each is built to carry. ChatGPT Health carries the human side of health information. It helps people understand, reflect, and engage. Claude for Healthcare carries the structural side. It supports organisation, justification, and system-level reasoning. This distinction becomes especially relevant in therapy practice. ChatGPT Health can help families understand reports, track patterns, and prepare emotionally and cognitively for therapy sessions. Claude for Healthcare can support clinicians in ensuring that assessments, goals, and documentation are aligned with current evidence and regulatory expectations. One strengthens relational communication. The other strengthens clinical structure. Privacy and ethics are central to both platforms, but again approached differently. ChatGPT Health prioritises individual data separation and user control, reinforcing trust at a personal level. Claude for Healthcare focuses on enterprise-level security and compliance, reinforcing trust within healthcare organisations. Both approaches reflect the different problems each tool is designed to solve. What is essential to remember is that neither tool replaces clinical judgment. Therapy is not a data problem to be solved. It is a relational, contextual process that requires observation, interpretation, and ethical decision-making. AI can support thinking, reduce administrative burden, and organise information. It cannot read the room, sense emotional nuance, or build therapeutic alliance. What we are seeing now is the early shaping of two complementary roles for AI in healthcare. One supports understanding and engagement. The other supports reasoning and systems. Used thoughtfully, both can protect clinicians’ time and cognitive resources, allowing more space for what matters most in therapy. Deep thinking, human connection, and evidence-based care.

Non classé

Claude pour Santé et ChatGPT Santé : À quoi ressemble le nouveau tournant de l'IA clinique

Au cours de la semaine passée, le champ de l’IA en santé est passé de la simple possibilité à une intention affirmée. D’abord est intervenu le lancement de ChatGPT Health, une expérience dédiée à la santé, conçue pour aider les personnes à comprendre leurs informations médicales. Peu après, Anthropic a présenté Claude for Healthcare, une plateforme pensée spécifiquement pour les environnements cliniques, administratifs et de recherche. Ensemble, ces annonces signalent un changement net. L’IA n’est plus positionnée comme un assistant généraliste qui parle de santé au passage. Elle est désormais façonnée autour des réalités mêmes du système de soins. Du point de vue clinique et thérapeutique, cette distinction est importante. ChatGPT Health est centré sur l’histoire personnelle de santé. Il crée, au sein de l’application, un espace de santé distinct et protégé où les utilisateurs peuvent connecter leurs dossiers médicaux et leurs données de bien-être. L’accent est mis sur l’interprétation plutôt que sur l’injonction. Les résultats de laboratoire, les habitudes de vie et les antécédents de santé sont traduits dans un langage clair et accessible. L’expérience est conçue pour aider les individus et les familles à arriver aux rendez-vous mieux préparés, avec des questions plus précises et une compréhension plus solide de leurs propres données. L’un des traits définitoires de ChatGPT Health est son focus sur la communication. Le système adapte ses explications au niveau de compréhension et à l’état émotionnel de l’utilisateur. C’est particulièrement pertinent en contexte thérapeutique, où les familles se sentent souvent dépassées par le langage médical et des informations fragmentées. En réduisant la confusion et la charge cognitive, l’outil favorise des échanges plus substantiels entre cliniciens et familles. Il est important de préciser qu’il ne pose pas de diagnostic, ne prescrit pas et ne remplace pas la prise en charge professionnelle. Son rôle est interprétatif et de soutien. Claude for Healthcare part d’un point de départ très différent. Il est construit autour des systèmes de santé plutôt que des récits individuels. Ses fonctionnalités sont conçues pour gérer la complexité de l’infrastructure clinique, incluant la codification médicale, la littérature scientifique, les cadres réglementaires et les flux de travail administratifs. Cela positionne Claude moins comme un interprète conversationnel que comme un outil de raisonnement et de synthèse pour les professionnels. Pour les cliniciens, cela signifie un appui sur des tâches souvent en arrière-plan des soins, mais très consommatrices de temps et d’énergie mentale. Résumer des dossiers denses, aligner la documentation sur les preuves, naviguer dans les exigences de prise en charge et intégrer la recherche au raisonnement clinique sont autant de domaines où la conception de Claude est particulièrement solide. Sa capacité à maintenir la cohérence sur de longues entrées complexes reflète la manière dont les cliniciens raisonnent au fil du temps, plutôt que par moments isolés. Une manière claire de penser la différence Élément ChatGPT Health Claude for Healthcare Utilisateur principal Individus et familles Cliniciens, organisations, chercheurs Rôle central Interprétation et compréhension Raisonnement, synthèse et structuration Focalisation Informations personnelles de santé Systèmes cliniques et flux de travail Point fort Communication et clarté Profondeur, cohérence et alignement sur les preuves Pertinence pour la thérapie Soutenir la compréhension et l’engagement des familles Soutenir la documentation clinique et la décision Accent éthique Contrôle individuel des données et séparation Conformité organisationnelle et alignement réglementaire Lorsqu’on compare les deux outils, la question n’est pas de savoir lequel est « meilleur », mais ce que chacun est conçu pour porter. ChatGPT Health porte le versant humain de l’information en santé. Il aide à comprendre, à réfléchir et à s’engager. Claude for Healthcare porte le versant structurel. Il soutient l’organisation, la justification et le raisonnement à l’échelle des systèmes. Cette distinction devient particulièrement pertinente en pratique thérapeutique. ChatGPT Health peut aider les familles à comprendre les comptes rendus, à repérer des schémas et à se préparer, sur les plans émotionnel et cognitif, aux séances de thérapie. Claude for Healthcare peut soutenir les cliniciens pour garantir que évaluations, objectifs et documents soient alignés sur les données probantes actuelles et les attentes réglementaires. Le premier renforce la communication relationnelle. Le second renforce la structure clinique. La confidentialité et l’éthique sont centrales pour les deux plateformes, mais abordées différemment. ChatGPT Health privilégie la séparation des données individuelles et le contrôle par l’utilisateur, renforçant la confiance au niveau personnel. Claude for Healthcare met l’accent sur la sécurité et la conformité au niveau de l’organisation, renforçant la confiance au sein des structures de santé. Ces approches reflètent les problèmes différents que chaque outil est conçu pour résoudre. Il est essentiel de se rappeler qu’aucun de ces outils ne remplace le jugement clinique. La thérapie n’est pas un problème de données à résoudre. C’est un processus relationnel et contextuel qui exige observation, interprétation et discernement éthique. L’IA peut soutenir la réflexion, réduire la charge administrative et organiser l’information. Elle ne peut pas capter l’atmosphère d’une séance, percevoir les nuances émotionnelles ni construire l’alliance thérapeutique. Ce que nous observons aujourd’hui, c’est l’émergence de deux rôles complémentaires de l’IA en santé. L’un soutient la compréhension et l’engagement. L’autre soutient le raisonnement et les systèmes. Utilisés avec discernement, les deux peuvent protéger le temps et les ressources cognitives des cliniciens, laissant davantage d’espace à ce qui compte le plus en thérapie : la pensée approfondie, la relation humaine et des soins fondés sur les preuves.

Non classé

Transformer les changements sur la santé : ce que ChatGPT Changement de santé pour la pratique clinique

La manière dont les personnes recherchent et traitent l’information en santé évolue. De plus en plus, elles se tournent vers des outils numériques pour comprendre des symptômes, des résultats d’examens et la terminologie médicale, avant ou après l’échange avec des professionnels de santé. L’introduction de ChatGPT Health reflète ce mouvement et propose une approche plus structurée de l’accompagnement des conversations liées à la santé par l’IA. Les questions de santé sont rarement neutres. Elles sont souvent motivées par l’incertitude, l’anxiété ou la difficulté à interpréter des informations complexes. ChatGPT Health a été conçu comme un environnement dédié à ces échanges, en reconnaissant que l’information de santé exige des limites plus claires, des normes de sécurité plus élevées et un cadrage rigoureux pour éviter les malentendus ou les préjudices. L’une des fonctionnalités les plus pertinentes sur le plan clinique est l’option permettant aux utilisateurs de connecter leurs propres données de santé. Cela peut inclure des résultats de laboratoire, des profils de sommeil, des niveaux d’activité ou un suivi nutritionnel. Lorsque l’information est ancrée dans un contexte personnel, les explications gagnent en pertinence et en accessibilité cognitive. D’un point de vue thérapeutique, cela peut réduire la surcharge informationnelle et favoriser un auto‑rapport plus clair, en particulier chez les personnes qui peinent avec le langage médical ou des souvenirs fragmentés. La confidentialité et le contrôle par l’utilisateur sont au cœur de cette conception. Les conversations liées à la santé sont distinctes des autres interactions, et les utilisateurs peuvent gérer ou supprimer à tout moment les données connectées. Les informations partagées dans cet espace sont protégées et ne sont pas utilisées au‑delà de l’expérience individuelle. Cet accent mis sur le consentement et la transparence est essentiel pour maintenir la confiance dans tout outil clinique ou para‑clinique. ChatGPT Health n’est pas positionné comme un système de diagnostic ou de traitement. Toutefois, sa valeur pour les thérapeutes tient à sa capacité à soutenir le raisonnement diagnostique sans se substituer au jugement professionnel. En pratique clinique, de nombreux clients se présentent avec des antécédents désorganisés, des descriptions de symptômes vagues ou des difficultés à identifier des motifs dans le temps. Les outils assistés par l’IA peuvent aider les clients à structurer l’information avant les séances, comme le début des symptômes, leur fréquence, leurs déclencheurs, l’impact fonctionnel et la réponse aux interventions. Cette préparation structurée peut améliorer sensiblement la qualité des entretiens cliniques et réduire le temps consacré à clarifier des éléments de base. Pour les thérapeutes, ces informations organisées peuvent soutenir la formulation d’hypothèses et le raisonnement différentiel. Des motifs émergents liés aux troubles du sommeil, à la fatigue, aux difficultés de régulation émotionnelle, aux plaintes cognitives ou à l’observance thérapeutique peuvent orienter un questionnement plus ciblé ou indiquer la nécessité d’un dépistage formel ou d’une orientation. De cette façon, l’IA fonctionne comme un outil d’appui à la reconnaissance de motifs, et non comme une autorité diagnostique. Cela est particulièrement pertinent dans les contextes neurodéveloppementaux et de santé mentale. Des thèmes récurrents liés aux fonctions exécutives, au traitement sensoriel, à la régulation émotionnelle ou aux ruptures de communication peuvent aider les cliniciens à affiner la planification de l’évaluation et à sélectionner des outils appropriés. L’IA n’appose pas d’étiquettes et ne confirme pas de diagnostics, mais elle peut faire émerger des regroupements cliniquement significatifs qui justifient une évaluation professionnelle. En orthophonie et disciplines associées, cela peut enrichir le profil fonctionnel. Les clients peuvent utiliser l’outil pour formuler des difficultés de compréhension, d’expression, de fatigue vocale, des préoccupations de déglutition, ou une charge cognitive élevée dans la communication quotidienne. Cela peut approfondir les données d’anamnèse et soutenir des évaluations plus ciblées ainsi que la définition d’objectifs. Il est essentiel de distinguer clairement le soutien au diagnostic de l’autorité diagnostique. ChatGPT Health ne doit jamais être utilisé pour poser des diagnostics, exclure des pathologies ou fournir des conclusions cliniques. En revanche, il peut soutenir les thérapeutes en aidant les clients à organiser leurs expériences, à améliorer la description des symptômes, à mettre en évidence des motifs à explorer et à mieux se préparer à l’évaluation. Les thérapeutes restent responsables de l’interprétation, du raisonnement clinique et de la prise de décision. Une pratique éthique impliquera de discuter explicitement ces limites avec les clients et de rappeler que les apports générés par l’IA sont informationnels, non diagnostiques. Pour les patients, cet outil peut renforcer la littératie en santé, la confiance et l’engagement. Arriver mieux préparé aux rendez‑vous et aux séances peut réduire l’anxiété et favoriser des soins plus collaboratifs. Toutefois, un accompagnement est nécessaire pour éviter la surinterprétation ou un faux sentiment de sécurité. Les thérapeutes jouent un rôle clé pour aider les clients à contextualiser l’information, à traiter les réactions émotionnelles aux données de santé et à identifier quand un avis médical professionnel s’impose. Le développement de ChatGPT Health a impliqué une collaboration étroite avec des médecins de multiples spécialités, ce qui a façonné la manière de communiquer l’incertitude et d’encourager l’orientation vers des soins professionnels lorsque cela s’avère nécessaire. Cela renforce son rôle de ressource préparatoire et réflexive plutôt que directive. À mesure que l’IA investit les champs de la santé et de la thérapie, sa valeur clinique dépendra de la clarté des rôles et des limites. Utilisés comme outils d’organisation, de réflexion et de soutien aux hypotheses, plutôt que de diagnostic ou de traitement, des systèmes comme ChatGPT Health peuvent accroître l’efficacité clinique, améliorer la communication et favoriser une participation plus éclairée aux soins, tout en maintenant le jugement professionnel au premier plan. L’avenir de l’IA en santé ne consiste pas à remplacer le diagnostic. Il s’agit de soutenir de meilleures anamnèses, des questions plus claires et un raisonnement clinique plus réfléchi.

Panier