
La cybersécurité n'est plus un problème technique de niche. C'est une condition de la vie moderne : banque, éducation, services publics et santé reposent sur des canapés fragiles de logiques que nous voyons rarement. La plupart des gens ne se replacent cette fraternité que lorsque quelque chose a choisi deraille : une panne, une violation, un compte bloqué, un système soudainement indine de confidence. Le risque est grand, mais les conséquences ne sont pas également des régions.
En santé, cette inégalité se fait sentir rapidement. Lorsque les systèmes numériques défilent, les soins ne se rencontrent pas en pause le temps du rétablissement. Les personnes se présentent toujours en détresse, en assurance ou en pleine crise, et les cliniciens doivent continuer de décider avec des informations complètes. Autres« technique d'incident » divin humain, toujours en quelques minutes.
C'est pourquoi les thérapeutes doivent s=y interesser, même si la conversation semble éloignée du quotidien clinique. En thérapie, la cybersécurité ne s'annonce que rarement comme telle. Elle se manifeste par une séance annulée inopinément parce que la planification est en panne, un lien de téléconsultation qui échouait à la dernière minute, ou une clinique sudain incapable de recevoir aux notes. Elle se manifeste aussi bien qu'un client demande, calmement mais directement, si ses messages sont vraiment privés.
Dans ce contexte, l'annonce d'Anthropic du 7 avril 2026 sur Project Glasswing est plus qu'une actualité technologique. L'entreprise y décrire un modèle non publié, Claude Mythos Preview, et insiste sur le fait qu'il ne sera pas rendu disponible au grand public. Il est modéré via un programme reposant, présenté comme à usage défensif. Lorsqu'un laboratoire d'IAcide qu'un modèle est trop capable pour être diffusé, c'est un signal sur l'orientation du paysage des menaces.
La raison clé avancée pour ce verrouillage est simple et troublante : Anthropic présente Mythos Preview commetant capable de trouver des vulnabilités tombes avec très peu de pilotage humain. En terme clair, il représente des points faibles logiques plus vitae et de Façon plus autonome que les systèmes anciens. Même si l'intention est défendive, la capacité en elle-même importée, car les capacités tendent à se diffuser et les attaquants s=adaptent.
Les exemples d'Anthropic sont de ces qui répondent mal à l'aise, à juste titre, les non-techniciens. Ils mettent en lumière des faiblesses dans des logiques fondamentaux très utilisés et détaille des cas où des problèmes ont persisté des années, vérité des décennies, sans être protégés. Voilà la vérité confortable de l'infrastructure numérique : beaucoup de systèmes que nous pensons écuries sont assemblés à partir de bases de code anciennes, à maintenance autonome et à la complexité cachée.
Si cela paraît encore abstrait, ramenons‐le aux outils que nous utilisons efficacement. Les plateformes de téléconsultation disposent sur des navigateurs, des systèmes d'exploitation, des serveurs et des bibliothèques tierces. Les systèmes d'agenda et les portails patients dépendants d'intégrations et d'API qui peuvent multiplier silencieusement les risques. Une vulnérabilité « quelle partie en amont » peut se traduire par une indisponibilité, une exposition de données ou une interruption de service au point de contact entre le client et le sein.
Il existe aussi une question structurelle importante pour la santé : qui accède aux moyens de protection les plus dangereux, et quand ? Restdre un modèle très performant peut faire les mésusages immédiats, mais centre aussi le pouvoir et l'expertise entre quelques organisations. Les petites cliniques et éditeurs se retrouvent de calendriers de sécurité, de priorités et de décisions de divulgation qu'ils ne voient pas ni n. Cet écran, entre attitudes éthiques et réalisations techniques, peut devenir un problème de confiance.
Concrètement, cela nous pousse vers une vision plus explicite et systémique du risque clinique. Nous ne pouvons pas corriger des systèmes d'exploitation, mais nous pouvons intégrer la maturité cybersécurité à la qualité des soins. Cela signifie poser de meilleures questions à l'achat, exiger des engagements clair de réponse aux incidents de la partie des fournisseurs, et maintenir des protocoles de continuité en mode dégradé. Cela signifie aussi réduire les « accessoires fantaisies » et les modules IA non gérés qui élargissent la surface d'attaque sans supervision.
Éthique, l'enjeu n'est pas d'alimenter la panique, mais d'exiger une confidence défendable. En contexte clinique, « ligne de confiance » devrait signifiant qu'il existe des traces decisionnelles explicables : quel système a été utilisé, quelles données ont été circulé, quelles protections étaient en place, quelle journalisation et quel audit existentaient, et comment les erreurs ou incidents séront corrigés et divulgués. Les clients ne doivent pas avoir à s'en remettre à une infrastructure invisible et « espérer le meilleur » ; il s'agit d'un système de soins pour élever sans bruit.
Project Glasswing préfigure une nouvelle phase : l'IA ne transforme pas les outils cliniques, elle modifie aussi l'environnement de sécurité dans lequel ces outils s'inscrivent. La confidentiality des patients de la confidentialité, de l'intégrité et de la disponibilité, des propriétés qui se trouvent sur une infrastructure désormais mise à l'essai par des systèmes de plus en plus autonomes. Pour les thérapeutes, la tâche est de réserver le cadre clinique à mesurer que le cadre technique a accès : protéger la continuité, protéger la vie privée et plaider pour des systèmes que nous avons déjà assumés.
