Agrégateur de contenus

Intelligence artificielle dans notre pratique clinique : pour une intégration réfléchie et responsable

Dre Annie Desmarais, psychologue
Chercheuse postdoctorale au consortium spécialisé en intelligence artificielle IVADO et neuropsychologue, elle se spécialise dans l’intégration de l’intelligence artificielle dans les pratiques cliniques en santé mentale.
 

Dre Alexandre Hudon, psychiatre
Professeur adjoint à l’Université de Montréal et médecin psychiatre, il se spécialise dans l’intégration de l’intelligence artificielle à la psychiatrie clinique.

 


L’intelligence artificielle (IA) suscite un intérêt croissant dans le domaine de la santé mentale, notamment pour soutenir l’évaluation des troubles cognitifs et psychologiques. Les récents progrès en traitement du langage naturel, en apprentissage automatique et en modélisation prédictive permettent le développement d’outils capables de traiter de vastes ensembles de données, d’identifier des relations complexes et de formuler des recommandations cliniques personnalisées. Dans ce contexte, il est essentiel de réfléchir à la place réelle que ces technologies peuvent et devraient occuper dans les pratiques psychologiques. Le présent article propose une analyse des possibilités et limites actuelles de l’IA en psychologie, en s’appuyant sur des cas concrets issus de la recherche et de la pratique. Il explore les bénéfices observés en contexte clinique, tout en soulevant les enjeux éthiques et organisationnels liés au déploiement de ces outils. Enfin, il discute des conditions essentielles pour une intégration harmonieuse entre technologies numériques et jugement clinique, dans un esprit de rigueur, d’innovation et de responsabilité.

Efficacité des processus

L’un des apports envisagés de l’IA est sa capacité à améliorer l’efficacité des évaluations psychologiques. Par exemple, certaines plateformes intégrant des modèles d’analyse linguistique permettent aujourd’hui de détecter des changements cognitifs ou émotionnels associés aux troubles anxieux, à la dépression, au trouble déficitaire de l’attention ou au risque suicidaire à partir d’entretiens cliniques transcrits (Budiasto, 2025; Shankar et al., 2025; Zafar et al., 2024). Ces outils, lorsque bien calibrés, peuvent agir comme soutien au repérage précoce, notamment dans les milieux qui ne disposent pas de ressources spécialisées. Malheureusement, les outils existants ne disposent pas encore de paramètres, de seuils d’alerte ni d’algorithmes validés scientifiquement et ajustés à partir de données cliniques représentatives, en collaboration avec des professionnels. Cela limite leur capacité à soutenir efficacement le repérage précoce sans compromettre la qualité ou la sécurité des soins (Celi et al., 2022). Des systèmes d’aide à la décision ont par ailleurs aussi été développés pour assister les cliniciens dans l’interprétation de données multisources et, sur cette base, suggérer des pistes de réflexion sur le choix des tests à administrer ou les diagnostics différentiels à considérer lors d’une évaluation neuropsychologique. Ces suggestions peuvent alors tenir compte du profil cognitif ou comportemental complexe du patient. Dans certains cas, l’IA
a permis de réduire le temps d’analyse tout en maintenant, voire en améliorant, la qualité des conclusions cliniques (de Chiusole et al., 2024; Veneziani et al., 2024). L’accessibilité accrue à des outils numériques peut en outre contribuer à diminuer les inégalités d’accès aux services, notamment en contexte rural ou pour certaines populations marginalisées. Qui plus est, lorsqu’ils sont adaptés à différentes langues et cultures, les outils technologiques peuvent favoriser l’inclusion (Zhao et Yuan, 2025).

Validité des outils existants

Malgré ce potentiel, les technologies d’IA en psychologie présentent encore plusieurs limites importantes. D’abord, la validité des outils repose largement sur la qualité des données ayant servi à les entraîner. Ainsi, plusieurs modèles sont construits à partir de bases de données cliniques peu représentatives, notamment sur le plan socioculturel, linguistique ou symptomatique (Alhuwaydi, 2024; Timmons et al., 2023; Tornero-Costa et al., 2023). Il peut en résulter des biais algorithmiques, qui viennent accentuer les inégalités dans les soins. Par exemple, en raison d’une sous-représentation dans les données d’entraînement, certains modèles de détection de la dépression présentent une sensibilité réduite chez les patients issus de minorités ethnoculturelles (Chekroud et al., 2024). De même, des outils de traitement du langage naturel peuvent mal interpréter des expressions idiomatiques propres à certains groupes linguistiques, ce qui peut mener à des erreurs de classification diagnostique (Garcia, 2025; Le Glaz et al., 2021).

Par ailleurs, les modèles prédictifs, aussi puissants soient-ils, ne peuvent remplacer l’interprétation individualisée, contextuelle et nuancée propre aux expériences humaines. La complexité des facteurs psychologiques, relationnels et sociaux échappe en effet souvent aux approches réductionnistes.
À titre d’exemple, un score élevé de détresse émotionnelle détecté par un algorithme ne permet pas de déterminer les causes profondes ni les dynamiques intersubjectives en jeu (Le Glaz et al., 2021; Terra et al., 2023; Timmons et al., 2023).

Transparence et interprétabilité de l’IA

Enfin, des enjeux de transparence (boîte noire), d’interprétabilité des résultats et de responsabilité clinique demeurent préoccupants : qui est responsable si une recommandation algorithmique mène à une erreur de jugement ou à une décision préjudiciable? Par exemple, un algorithme de triage automatique en santé mentale pourrait attribuer une priorité trop faible à un patient à risque élevé de suicide, sans que le clinicien puisse comprendre les critères ayant conduit à cette classification. De même, un logiciel d’aide au diagnostic pourrait avancer que le patient souffre d’un trouble anxieux plutôt que d’un trouble psychotique, sans fournir d’explication claire, laissant le professionnel dans l’impossibilité de justifier sa décision auprès du patient ou des instances réglementaires (Terra et al., 2023; Timmons et al., 2023). Dans ce contexte, la transparence et l’interprétabilité des systèmes d’IA deviennent des conditions essentielles pour soutenir une prise de décision responsable. Elles permettent au clinicien de comprendre, de critiquer et de défendre les recommandations algorithmiques, et ainsi d’assumer pleinement sa responsabilité professionnelle.

Gestion du changement organisationnel

L’introduction d’outils d’IA dans les pratiques professionnelles soulève également des enjeux organisationnels et humains. Les professionnels peuvent craindre une déshumanisation de la relation d’aide ou une perte d’autonomie clinique. Une implantation réussie suppose une approche collaborative et itérative tenant compte du contexte de pratique, des besoins cliniques et des usages réels sur le terrain. La formation continue est essentielle pour favoriser l’appropriation des technologies, tout comme la coconstruction d’outils avec les cliniciens afin de s’assurer de leur pertinence, de leur utilisabilité et de leur acceptabilité éthique. Selon certaines études, l’intégration peut être facilitée lorsque les outils sont conçus comme des assistants décisionnels et non comme des substituts au jugement clinique (Ni et Jia, 2025). Par exemple, en pratique psychologique, l’utilisation d’outils numériques intégrés aux dossiers électroniques et permettant le suivi automatisé des symptômes (tels que les questionnaires PHQ-9 ou GAD-7 remplis par les patients entre les séances) a fait en sorte que les psychologues ont pu adapter plus finement les interventions thérapeutiques et identifier précocement les signes de rechute, tout en maintenant le contrôle clinique sur les décisions de traitement (Jetelina et al., 2018).

Ainsi, pour que l’IA soutienne réellement les pratiques psychologiques, elle doit être pensée comme un outil, et non comme une solution automatisée. Cela implique de préserver la centralité de l’humain dans l’évaluation, la relation thérapeutique et la prise de décision. Le jugement clinique, fondé sur une compréhension fine de la subjectivité, de l’histoire personnelle et du contexte, demeure irremplaçable. Ce discernement repose sur des compétences profondément humaines, telles que l’empathie, l’intuition et la lecture du non-verbal, que l’IA, même à son plus haut niveau de sophistication, ne peut ni reproduire ni véritablement comprendre (Ni et Cao, 2025; Solaiman, 2024). De ce fait, il est d’autant plus important de miser sur l’optimisation de l’alliance humain-machine. On peut y parvenir en développant des outils d’IA en étroite collaboration avec les professionnels eux-mêmes, afin que ces outils répondent aux besoins cliniques réels et s’intègrent de manière éthique et pertinente aux pratiques existantes.

L’intelligence artificielle représente un levier puissant pour enrichir les pratiques en psychologie, à condition qu’elle soit intégrée avec rigueur, prudence et discernement. Loin de remplacer les professionnels, elle peut soutenir leur jugement, optimiser certaines tâches cliniques (p. ex., la rédaction de l’anamnèse, des notes évolutives et des rapports d’évaluation, la correction automatisée des tests cognitifs et des questionnaires) et élargir l’accès aux services. Toutefois, son intégration nécessite une vigilance éthique constante, une réflexion sur les conditions d’utilisation, et un engagement collectif à préserver la qualité et l’humanité des soins. L’avenir des pratiques psychologiques ne se jouera pas dans l’opposition entre humains et machines, mais dans la capacité à conjuguer innovation technologique et sagesse clinique.

Déclaration de conflit d’intérêts
L’autrice déclare un lien d’intérêt avec la plateforme numérique Flow, à laquelle elle est associée dans le cadre de son travail de développement d’outils cliniques et technologiques.

Bibliographie