Agrégateur de contenus

Risques de l’IA dans la pratique clinique et stratégies d’atténuation

Katherine Gibb, psychologue
Psychologue en pratique privée et ancienne consultante, elle intervient également dans le domaine de la technologie de la santé, où elle s’intéresse à l’intégration de l’intelligence artificielle aux services en santé mentale.
 

Hassan Rezaee
Scientifique des données et chercheur postdoctoral, notamment en statistiques appliquées et en apprentissage automatique. Il porte un intérêt particulier aux applications de l’intelligence artificielle dans le domaine
de la santé mentale.
 

 


L’intelligence artificielle (IA) est aujourd’hui dominée par les grands modèles de langage (GML), soit des réseaux neuronaux massifs entraînés sur des téraoctets de textes pour générer ou encoder le langage (EU-U.S. Trade and Technology Council, 2025). Propulsés par cette échelle, GPT-4, Claude et Gemini popularisent l’IA jusque dans le soutien psychologique (Zao-Sanders, 2025). Les psychologues, de leur côté, ont eux aussi de plus en plus recours à l’IA dans leur pratique en santé mentale. Au printemps 2024, 10 % des psychologues américains interrogés ont déclaré l’utiliser quotidiennement dans leur pratique, et une proportion considérable, avoir l’intention de le faire au cours des trois prochaines années (American Psychological Association [APA], 2024). Parmi les répondants, l’enthousiasme pour l’IA est surtout marqué chez les psychologues en début de carrière : près de la moitié ont envisagé d’intégrer des outils d’IA d’ici trois ans, une proportion qui décroît selon le nombre d’années d’expérience.

Bien que prometteuse pour l’amélioration des soins de santé, l’application de l’IA à la santé mentale exige l'attention soutenue des psychologues, en tant qu'experts en santé mentale et acteurs clés dans le système de santé mentale. Les psychologues sont particulièrement bien placés pour favoriser l’adoption sécuritaire des outils d’IA dans le domaine de la santé mentale et optimiser les résultats, ainsi que pour participer au développement de l’IA et offrir une évaluation experte et critique de son rôle croissant. Dans ce contexte, nous mettons en lumière certains risques encore sous-estimés auxquels les cliniciens peuvent être exposés s’ils ne maîtrisent pas suffisamment l’IA, avant de décrire des stratégies pratiques pour les atténuer.

Risques majeurs liés à l’application de l’IA à la pratique en santé mentale

Risque 1 : Anthropomorphisme et biais d’automatisation : quand l’humain confond fluidité linguistique et intelligence humaine

Les GML peuvent reproduire le langage humain, mais ils ne « pensent » pas comme les humains pour autant. Ils fonctionnent selon un mécanisme entièrement différent : l’apprentissage statistique. Plus précisément, les GML sont entraînés à prédire, en fonction du contexte environnant, le mot ou fragment de mot le plus probable. Cette prédiction repose uniquement sur la probabilité statistique qu’un mot apparaisse dans un contexte donné, sans compréhension conceptuelle du sens. Bien que les GML puissent sembler manifester des traits humains, des études démontrent systématiquement que ces caractéristiques varient énormément selon les invites (texte ou consigne que l’on fournit à un modèle de langage pour qu’il génère une réponse) et le contexte (Dong et al., 2025). Des recherches récentes révèlent même que des patients jugent parfois les réponses d’agents conversationnels (chatbots) plus empathiques que celles de médecins (Chen et al., 2025). Cependant, cette perception découle non pas d’une véritable compréhension émotionnelle, mais bien de la capacité de l’agent à imiter des schémas de langage de soutien. Cette distinction est cruciale : bien que les GML puissent simuler la chaleur humaine, leurs réponses ne se fondent pas sur les expériences vécues et le jugement contextuel qui définissent l’empathie authentique. Leurs performances en « théorie de l’esprit » accusent un retard important dans des tâches complexes telles que l’interprétation des nuances émotionnelles, le sarcasme ou la métaphore, n’atteignant que le niveau d’enfants dans des contextes de base (van Duijn et al., 2023). En outre, les GML manquent de conscience situationnelle, de mémoire à long terme entre les séances et de capacité à poser des questions de clarification dans des situations cliniques ambiguës (voir par exemple Li et al., 2025).

La tendance à anthropomorphiser l’IA – la décrire et la concevoir comme dotée de traits humains tels que le raisonnement – amène les cliniciens à surestimer sa perspicacité et son jugement clinique. Il peut en découler un biais d’automatisation, qui entraînera une dépendance excessive aux évaluations algorithmiques et une érosion progressive des capacités de raisonnement clinique humain. De plus, les GML sont souvent conçus pour être « serviables, polis et encourageants », résultat de techniques comme l’apprentissage par renforcement à partir de rétroactions humaines qui peuvent privilégier la satisfaction de l’utilisateur plutôt que la vérité. Cela peut générer une IA « trop amicale » qui « ne contredit presque jamais », et ainsi créer une chambre d’écho numérique dans laquelle les croyances et suppositions existantes de l’utilisateur sont constamment validées. Cette dynamique de « béni-oui-oui », de flagornerie (ou sycophancy en anglais), peut renforcer les préconceptions des utilisateurs, même lorsque celles-ci sont biaisées, factuellement incorrectes ou cliniquement nuisibles. Au fil du temps, ces interactions peuvent amplifier le biais de confirmation, fausser le traitement cognitif et conduire les utilisateurs à interpréter le ton assuré de l’IA comme une autorité épistémique.

Risque 2 : Fiabilité illusoire : quand l’IA a des hallucinations, commet des erreurs et crée des fictions crédibles

Les modèles de langage peuvent produire des réponses qui semblent fiables, mais qui peuvent être inexactes ou entièrement fabriquées – ce qui pose des risques majeurs en contexte clinique (Lee et al., 2023). Par exemple, lorsqu’on lui demande de résumer le dossier d’un patient, un GML peut inventer un plan de traitement comportant des médicaments jamais prescrits. On pourra réduire les hallucinations en clarifiant ou en structurant mieux les invites, mais pas les éliminer entièrement (Karpowicz, 2025), car elles sont intrinsèques au mode de génération des GML, axé sur la prédiction du jeton (morceau de texte que l’intelligence artificielle utilise pour lire la requête de l’utilisateur, la comprendre et y répondre) suivant, et non la vérification des faits. Ainsi, lorsqu’il manque de contexte ou qu’il est incertain, le modèle comble les lacunes à partir de motifs statistiques appris, et non de vérités cliniques. Une étude récente a relevé des taux d’hallucinations provoquées par attaques adverses (c.-à-d. des hallucinations déclenchées par des invites délibérément conçues pour tromper le modèle) allant de 50 % à 82 % selon les modèles et les méthodes de sollicitation, et d’importantes hallucinations subsistaient même pour des invites minutieusement rédigées soumises au modèle le plus avancé (Omar et al., 2025). Une autre étude, consacrée à la génération de notes cliniques, a observé un taux d’hallucinations de 1,47 % sur près de 13 000 phrases annotées par des cliniciens. Fait critique, 44 % de ces hallucinations ont été classées comme « importantes » puisqu’elles auraient pu directement influer sur le diagnostic et la prise en charge si elles n’avaient pas été corrigées (Asgari et al., 2025). S’ils peuvent paraître faibles dans certains contextes (p. ex., 1,47 % dans les notes), ces taux deviennent cruciaux dans des contextes cliniques à enjeux élevés, comme la planification diagnostique ou thérapeutique (où ils peuvent atteindre 69,6 % dans des scénarios complexes pour GPT-4o), un danger aggravé par le ton assuré de ces sorties.

Croire que l’invite constitue une solution définitive aux hallucinations laisse entendre qu’il est possible de rendre l’IA parfaitement fiable. Or, l’invite ne fait que réduire, sans supprimer, le phénomène. L’hallucination n’est pas un simple bogue technique à corriger, mais une propriété intrinsèque de l’IA générative : la possibilité de fabrications plausibles est inhérente à son fonctionnement. Cette instabilité se traduit directement par des risques de diagnostic erroné, de désinformation et de traitement inapproprié si les sorties ne sont pas rigoureusement vérifiées1.

Stratégies d’atténuation

Deux grands axes se dégagent de notre revue de la littérature sur l’IA en santé mentale, et nous constatons que les deux figurent déjà dans les guides de pratiques technologiques naissants (APA, 2025; College of Alberta Psychologists, 2024), bien que la recherche dans ces domaines en soit encore à ses balbutiements.

  • Collaboration IA-clinicien : Dans ce modèle, un clinicien qualifié est dans la boucle : il valide tout résultat d’IA susceptible d’influencer le diagnostic, la formulation ou le traitement, et il est le seul responsable (Stade et al., 2024). Cette supervision humaine recentre le jugement clinique, réduit les risques et renforce la sécurité des patients (APA, 2025), alors que la thérapie autonome par IA n’est pas encore jugée suffisamment sécuritaire (Moore et al., 2025; Torous et Topol, 2025).
  • Formation à l’utilisation de l’IA : Le clinicien doit au minimum pouvoir évaluer l’outil choisi et l’utiliser efficacement. Il doit détenir des connaissances pratiques sur les limites des modèles pour repérer les biais et les dérives (Schubert et al., 2025).

Conclusion

Les risques examinés ici offrent un point de départ pour les psychologues désirant intégrer l’IA à leur pratique, en complément de considérations tout aussi essentielles : professionnelles, éthiques, juridiques et environnementales. Les cliniciens voudront peut-être également explorer d’autres risques techniques tout aussi importants, non abordés dans l’article, notamment les biais envers certains groupes. Les modèles, en particulier dans leurs applications commerciales, évoluent à un rythme soutenu. Cette dynamique impose une évaluation continue des risques : les mesures de protection doivent être régulièrement révisées et mises à jour. De nouveaux modèles, méthodes et gardefous techniques apparaissent sans cesse; ils pourraient, à terme, atténuer certains des risques évoqués ici. Cette incertitude appelle donc à une veille active et à la réévaluation périodique des recommandations, au gré des avancées scientifiques et professionnelles. Ensemble, ces mesures visent à faire en sorte que l’IA renforce – et ne remplace pas – le jugement clinique, consolide – et ne fragilise pas – la relation thérapeutique et soutienne la compétence professionnelle tout en protégeant les populations vulnérables. Les psychologues qui acquièrent aujourd’hui des connaissances fondamentales sur l’IA seront les mieux armés pour assurer une prise en charge équitable et de haute qualité dans la pratique intégrée de demain.

Déclaration de conflit d’intérêts
Les auteurs déclarent un lien d'intérêt avec la plateforme numérique oto, un outil de gestion de pratique destiné aux psychologues et dont ils sont cofondateurs.