
Dans une interview récente, Demis Hassabis, PDG de Google DeepMind, a rejeté les allégations que aujourd'hui les modèles AI possèdent "PhD-level intelligence." Son message était clair: alors que l'IA peut parfois correspondre ou surperformer les humains dans des tâches étroites, il est loin de démontrer renseignement général. Appeler ces modèles « PhD-intelligences », affirme-t-il, est trompeur et risque de créer des attentes irréalistes pour ce que l'IA peut faire dans des domaines comme la santé et la recherche.
Hassabis note que les modèles tels que les systèmes Gemini ou GPT montrent "poches de performance au niveau du doctorat" dans des domaines comme le repliement des protéines, l'imagerie médicale ou la résolution avancée de problèmes. Cependant, ces systèmes échouent également à des tâches de raisonnement de base, ne peuvent pas apprendre continuellement, et font souvent erreurs élémentaires qu'aucun chercheur humain ne le ferait. Selon Hassabis, vrai Renseignements généraux artificiels (IGA)—un système qui peut apprendre avec souplesse entre les domaines—restant 5 à 10 ans.
Ce que cela signifie pour la recherche et la santé
Les limitations actuelles ne signifient pas qu'il n'a pas sa place dans notre travail. Au lieu de cela, ils indiquent comment nous devrions l'utiliser responsable et stratégique.
À emporter :
- L'IA comme outil de soutien : Utiliser l'IA pour les analyses documentaires, la transcription, l'ébauche ou l'analyse préliminaire—pas en tant que décideur.
- L'expertise étroite est puissante : L'IA excelle dans des domaines ciblés (p. ex., l'imagerie radiologique, la génomique, la classification des données), et cette précision est l'endroit où la recherche en santé et en thérapie peut le plus profiter.
- La surveillance humaine n'est pas négociable : L'incohérence du rendement signifie que les cliniciens et les chercheurs doivent vérifier les extrants de l'IA.
Exemples de demandes par discipline
| Champ | Avantages actuels de l'IA | Limites/risques |
| Recherche en santé | Prévision de la structure protéique (p. ex. AlphaFold); pipelines de découverte de médicaments; diagnostics d'imagerie. | Erreurs de généralisation; raisonnement opaque; biais dans les données. |
| Thérapie et psychologie | Rédiger du matériel thérapeutique; générer des scénarios de comportement; transcrire des séances. | Risque de dépendance excessive; erreurs dans des contextes sensibles. |
| Éducation spéciale | Création de contenus différenciés; suivi des progrès; soutiens d'apprentissage accessibles. | Recommandations potentiellement inexactes sans contexte. |
L'avenir
Même sans AGI, aujourd'hui les outils d'IA peuvent considérablement accélérer les flux de travail et renforcer les compétences humaines. Mais la mise en garde de Hassabis nous rappelle : l'IA ne remplace pas l'intelligence humaine—c'est un partenaire en cours.
En tant que chercheurs et cliniciens, notre responsabilité est double :
- Maximiser les avantages en appliquant l'IA de façon étroite et fondée sur des données probantes.
- Réduire au minimum les risques par une validation attentive, une utilisation éthique et une communication claire avec les patients et les familles.
Dans nos prochaines éditions, nous explorerons comment intégrer l'IA dans la recherche plus concrètement, avec des exemples de thérapie et d'études de santé.
Références
- Jindal, S. (2025, septembre). DeepMindS Demis Hassabis dit d'appeler aujourd'hui les systèmes d'IA "PhD intelligences" est absurde. Analytics India Magazine.
- Business Insider. (2025). Le PDG de Google DeepMind dit qu'un défaut empêche l'IA d'atteindre l'AGI complet.
- Windows Central. (2025). Le PDG de DeepMind rejette les allégations d'IA au niveau du doctorat comme non fondées.
