
Un nouveau risque cyber dans la salle de thérapie : pourquoi Project Glasswing change l'équation de la confiance
La cybersécurité n’est plus un problème technique de niche. C’est une condition de la vie moderne : banque, éducation, services publics et santé reposent sur des couches fragiles de logiciels que nous voyons rarement. La plupart des gens ne remarquent cette fragilité que lorsque quelque chose déraille : une panne, une violation, un compte bloqué, un système soudainement indigne de confiance. Le risque est large, mais les conséquences ne sont pas également réparties. En santé, cette inégalité se fait sentir rapidement. Lorsque les systèmes numériques défaillent, les soins ne se mettent pas poliment en pause le temps du rétablissement. Les personnes se présentent toujours en détresse, en insécurité ou en pleine crise, et les cliniciens doivent continuer de décider avec des informations incomplètes. L’« incident technique » devient humain, souvent en quelques minutes. C’est pourquoi les thérapeutes doivent s’y intéresser, même si la conversation semble éloignée du quotidien clinique. En thérapie, la cybersécurité ne s’annonce que rarement comme telle. Elle se manifeste par une séance annulée inopinément parce que la planification est en panne, un lien de téléconsultation qui échoue à la dernière minute, ou une clinique soudain incapable d’accéder aux notes. Elle se manifeste aussi lorsqu’un client demande, calmement mais directement, si ses messages sont réellement privés. Dans ce contexte, l’annonce d’Anthropic du 7 avril 2026 sur Project Glasswing est plus qu’une actualité technologique. L’entreprise y décrit un modèle non publié, Claude Mythos Preview, et insiste sur le fait qu’il ne sera pas rendu disponible au grand public. Il est plutôt acheminé via un programme restreint, présenté comme à usage défensif. Lorsqu’un laboratoire d’IA décide qu’un modèle est trop capable pour être diffusé, c’est un signal sur l’orientation du paysage des menaces. La raison clé avancée pour ce verrouillage est simple et troublante : Anthropic présente Mythos Preview comme étant capable de trouver des vulnérabilités graves avec très peu de pilotage humain. En termes clairs, il repérerait des points faibles logiciels plus vite et de façon plus autonome que les systèmes antérieurs. Même si l’intention est défensive, la capacité en elle‑même importe, car les capacités tendent à se diffuser et les attaquants s’adaptent. Les exemples d’Anthropic sont de ceux qui mettent mal à l’aise, à juste titre, les non‑techniciens. Ils mettent en lumière des faiblesses dans des logiciels fondamentaux très utilisés et décrivent des cas où des problèmes ont persisté des années, voire des décennies, sans être détectés. Voilà la vérité inconfortable de l’infrastructure numérique : beaucoup de systèmes que nous pensons stables sont assemblés à partir de bases de code anciennes, à maintenance inégale et à la complexité cachée. Si cela paraît encore abstrait, ramenons‑le aux outils que nous utilisons effectivement. Les plateformes de téléconsultation reposent sur des navigateurs, des systèmes d’exploitation, des serveurs et des bibliothèques tierces. Les systèmes d’agenda et les portails patients dépendent d’intégrations et d’API qui peuvent multiplier silencieusement les risques. Une vulnérabilité « quelque part en amont » peut se traduire par une indisponibilité, une exposition de données ou une interruption de service au point de contact entre le client et le soin. Il existe aussi une question structurelle importante pour la santé : qui accède aux moyens de protection les plus puissants, et quand ? Restreindre un modèle très performant peut réduire les mésusages immédiats, mais concentre aussi le pouvoir et l’expertise entre quelques organisations. Les petites cliniques et éditeurs se retrouvent dépendants de calendriers de sécurité, de priorités et de décisions de divulgation qu’ils ne voient ni n’influencent aisément. Cet écart, entre attentes éthiques et réalités techniques, peut devenir un problème de confiance. Concrètement, cela nous pousse vers une vision plus explicite et systémique du risque clinique. Nous ne pouvons pas corriger des systèmes d’exploitation, mais nous pouvons intégrer la maturité cybersécurité à la qualité des soins. Cela signifie poser de meilleures questions à l’achat, exiger des engagements clairs de réponse aux incidents de la part des fournisseurs, et maintenir des protocoles de continuité en mode dégradé. Cela signifie aussi réduire les « outils fantômes » et les modules IA non gérés qui élargissent la surface d’attaque sans supervision. Éthiquement, l’enjeu n’est pas d’alimenter la panique, mais d’exiger une confiance défendable. En contexte clinique, « digne de confiance » devrait signifier qu’il existe des traces décisionnelles explicables : quel système a été utilisé, quelles données ont circulé, quelles protections étaient en place, quelle journalisation et quel audit existaient, et comment les erreurs ou incidents seront corrigés et divulgués. Les clients ne devraient pas avoir à s’en remettre à une infrastructure invisible et « espérer le meilleur » ; ils méritent des systèmes de soin conçus pour échouer sans nuire. Project Glasswing préfigure une nouvelle phase : l’IA ne transforme pas seulement les outils cliniques, elle modifie aussi l’environnement de sécurité dans lequel ces outils s’inscrivent. La confiance des patients dépend de la confidentialité, de l’intégrité et de la disponibilité, des propriétés qui reposent sur une infrastructure désormais mise à l’épreuve par des systèmes de plus en plus autonomes. Pour les thérapeutes, la tâche est de préserver le cadre clinique à mesure que le cadre technique s’accélère : protéger la continuité, protéger la vie privée et plaider pour des systèmes que nous pouvons réellement assumer.





