Introduction au dossier – La psychologie assistée par l'intelligence artificielle
Le Dr Jackson est neuropsychologue, professeur titulaire et directeur adjoint à l’École de psychologie de l’Université Laval, et directeur scientifique – Recherche à l’Obvia. Les travaux de recherche de son équipe portent sur l’empathie humaine, ses marqueurs physiologiques et cérébraux ainsi que ses manifestations comportementales, qui sont de plus en plus influencées par la technologie qui nous entoure.
Les psychologues ont un rôle actif à jouer face au développement fulgurant des systèmes d’intelligence artificielle. Non seulement nous sommes témoins des transformations engendrées dans l’ensemble de la profession, mais nous devons aussi être des acteurs et actrices de changement. Soucieux du bien-être de la population, les psychologues peuvent s’informer sur cette technologie en plein déploiement et participer aux débats entourant sa démocratisation. Déjà, plusieurs initiatives portées par des psychologues et neuropsychologues dans les dernières années au Québec témoignent de l’engagement de la profession et des initiatives auxquelles peuvent prendre part les psychologues dans cette révolution1. Le dossier thématique de ce numéro poursuit, avec toutes les nuances qui s’imposent, le dialogue et la réflexion sur les possibles avantages et défis que l’intelligence artificielle présente pour la psychologie, et sur son intégration réfléchie dans la recherche et la pratique clinique.
L’intelligence artificielle (IA) n’est plus restreinte aux récits de science-fiction ni encore réservée aux plus « technophiles ». Elle s’est faufilée dans nos outils informatiques préférés, dans nos moyens de transport, dans nos appareils ménagers et même dans notre profession ! L’IA n’est pas un virus duquel il faut se protéger, mais une évolution de notre monde axée sur la recherche de solutions. L’IA représente un changement à apprivoiser, ou minimalement à comprendre, que l’on veuille l’intégrer à notre pratique ou non, étant donné que le gouvernement du Québec avance rapidement dans le suivi des applications numériques pour la santé mentale et que la clientèle y fait de plus en plus appel.
En quelques années seulement, l’IA est passée d’un concept réservé aux initiés à un terme populaire, parfois même galvaudé. Certains assimilent l’IA à l’ensemble des technologies numériques, tandis que d’autres la réduisent aux seuls agents conversationnels ayant contribué à sa popularité récente. Alors, qu’est-ce que l’IA? L’IA est « un domaine de l’informatique qui vise à créer des systèmes ou des machines capables de simuler des comportements et des capacités intellectuelles normalement associés à l’intelligence humaine » (Obvia, 2025b). Par exemple, un système basé sur l’IA (SIA) peut apprendre à conduire une voiture, reconnaître un visage dans une foule ou encore produire des réponses verbales ou des images à partir de simples requêtes. Il y a cinq ans à peine, lorsque la pandémie de COVID-19 frappait la planète, peu de gens se doutaient que l’IA allait connaître une progression aussi rapide, alors que plusieurs découvraient tout juste, de manière forcée, les avantages (et inconvénients !) de services à distance grâce aux technologies de communication. Si l’on veut mieux comprendre l’engouement pour l’IA, qui soulève d’importantes questions sociétales (Obvia, 2025a), incluant des enjeux pour les arts et la culture, la santé, l’économie et le travail, l’éducation, le droit, l’écologie et l’éthique, un détour historique s’impose.
La brève histoire de l’IA
Malgré l’intérêt public exponentiel des dernières années pour l’IA, l’idée de créer un système capable de simuler le fonctionnement du cerveau humain ne date pas d’hier. Certains diront que tout a commencé avec l’invention de l’écriture, cette capacité singulière d’« extraire » de notre cerveau des idées, des émotions ou des souvenirs et de les consigner sur un support externe pour les partager ou les conserver. Mais plus récemment, à l’été 1956, plusieurs chercheurs (notamment des mathématiciens et un neuroscientifique montréalais, Peter Milner, défunt mari de la très célèbre neuropsychologue Brenda Milner !) (Solomonoff, 2023) se sont penchés activement sur le défi de créer des machines pouvant simuler les facultés de l’être humain. Cette initiative, connue sous le nom de Dartmouth Summer Research Project on Artificial Intelligence, est souvent identifiée comme un moment charnière du développement de l’IA. Ensuite, dès 1966, la psychologie s’est invitée dans ce défi de taille par la création d’un premier agent conversationnel, appelé ELIZA, qui devait simuler une conversation avec un psychothérapeute d’approche rogérienne (Weizenbaum, 1966). Si plusieurs disciplines ont par la suite contribué au concept des réseaux de neurones à la base de l’IA, la psychologie, les neurosciences et l’informatique ont continué à se côtoyer dans son développement, qui inspirera à la fois la recherche sur le fonctionnement du cerveau et sa simulation par l’informatique. Toutefois, puisque la recherche sur le cerveau humain est loin d’avoir trouvé réponse à tout, toute simulation de son fonctionnement demeure, à ce jour, nécessairement imparfaite ou incomplète, peu importe la puissance des outils utilisés. Par exemple, comment la conscience émerge-t-elle, et est-ce qu’elle s’explique par l’état quantique du cerveau (Siegel, 2024)? Quels sont les processus cérébraux impliqués dans l’expérience de mort imminente (Martial et al., 2020)? Dans la créativité? Comment expliquer l’extrapolation de percepts à partir des multiples propriétés des sens? Et bien que l’étendue de nos connaissances sur la mémoire, les émotions et la cognition sociale soit considérable, il nous reste encore beaucoup à découvrir sur ces trois processus si importants pour l’être humain.
Au fil des décennies, des jalons importants ont été franchis, dont la conception de l’apprentissage profond, qui se base sur de multiples couches de réseaux de neurones inspirés du fonctionnement du cerveau humain (ce qui contribue à l’effet « boîte noire » affectant la transparence du processus), des modèles de fondation entraînés sur d’immenses ensembles de données, dont les grands modèles de langage (large language models ou LLMs en anglais), qui visent à comprendre et à simuler le langage naturel, et des puces informatiques qui, quoiqu’initialement conçues pour le traitement graphique, peuvent effectuer des calculs sur des ensembles de données encore plus vastes que ceux traités par les processeurs traditionnels. Ces jalons ont accéléré l’avènement de l’IA, notamment de l’IA générative, qui permet aujourd’hui de générer des réponses textes, des images, des vidéos et du code informatique à partir de requêtes faites à des agents conversationnels à l’aide d’une interface utilisateur textuelle. La sortie publique d’un de ces agents, ChatGPT, en novembre 2022, a d’ailleurs largement contribué à faire connaître l’existence de cette technologie et à rendre ces outils plus accessibles, bien que trop insoucieusement selon plusieurs (Marchildon et al., 2024).
Les enjeux éthiques et sociétaux de l’intelligence artificielle
L’IA a été développée plutôt rapidement, et on continue de la développer, parfois prudemment, parfois moins. Et c’est cette dernière tendance qui peut être inquiétante dans plusieurs sphères de la société, mais aussi au sein de notre profession. Parmi les dérives potentielles, notons par exemple que la santé mentale de travailleurs impliqués dans l’identification des balises de certains modèles peut être mise en péril (Perrigo, 2023), que l’énergie requise pour soutenir les serveurs informatiques qui stockent les données et effectuent les calculs requis par la multitude de requêtes envoyées à tout moment sur les nombreux agents conversationnels est en constante croissance, que les droits d’auteurs de textes et de productions artistiques ne sont pas toujours respectés, et que l’IA peut parfois dire n’importe quoi (!). Mais rappelons-nous que d’autres outils informatiques ont grandement influencé le savoir, les interactions sociales et le travail des psychologues, dont Internet et les réseaux sociaux. Puisque l’IA fonctionne à partir de méthodes statistiques qui compilent et effectuent des prédictions sur des ensembles massifs de données, qui de mieux placés que les psychologues pour utiliser ces outils de manière éthique, équitable et réfléchie dans l’analyse et les changements de comportements humains?
L’IA et la psychologie contemporaine
Dans ce dossier thématique, plusieurs spécialistes et leurs équipes abordent des sujets reliés à l’IA et à la psychologie, allant de systèmes accessibles à la clientèle ou influençant la pratique professionnelle à la manière dont l’IA peut optimiser la recherche en psychologie et en santé mentale. D’abord, le texte de Lapointe, Lafortune et Calazana nous présente l’influence des agents conversationnels et certains de leurs avantages pour les interactions sociales, notamment les relations intimes, tout en étayant les nombreux risques associés à ces pratiques. En outre, le texte explique comment ces agents peuvent devenir des outils dans la pratique clinique auprès de diverses populations, tout en mettant en évidence les écueils potentiels liés à une telle utilisation. L’article de Cossette-Lefebvre, Maclure, Dumont, Vold et Facal présente un « cas extrême », qui peut même paraître surréaliste, celui des avatars numériques post mortem, soit des agents conversationnels ou des personnages numériques avec lesquels il est possible d’interagir comme s’il s’agissait de personnes décédées. Créés à partir de données numériques d’une personne, ces outils intrigants ne sont pas sans soulever des enjeux éthiques, et les chercheurs et chercheuses lancent un appel urgent à leur encadrement. Gauthier et Lecomte nous rappellent ensuite que l’IA en psychologie ne se limite pas aux outils destinés au personnel soignant et à sa clientèle. Elle est aussi pertinente dans la recherche en psychologie, que ce soit pour l’aide à l’écriture scientifique, la production de revues systématiques de la littérature, ou l’extraction et l’analyse de données sur le comportement ou ses marqueurs neurophysiologiques. Les auteurs prônent à nouveau la prudence et proposent cinq exigences pour une recherche en psychologie responsable avec l’IA. Gibb et Rezaee soulignent de leur côté les deux principaux risques associés à l’utilisation de l’IA en santé mentale : anthropomorphisme et fiabilité illusoire. Ils présentent pour la gestion de ces risques deux stratégies inspirées de celles d’autres groupes de psychologues, soit de garder les cliniciens et cliniciennes dans la boucle, et de miser sur la formation sur l’IA en développant un sens critique dans le choix et l’utilisation de ces outils. Enfin, le texte de Desmarais et Hudon met en lumière la diversité des tâches que l’IA peut soutenir dans la pratique des psychologues et neuropsychologues. Malgré le grand potentiel de ces outils, les auteurs insistent sur l’importance du jugement humain, qui doit accompagner ces innovations technologiques plutôt que s’y soumettre.
Conclusion
L’ensemble des textes de ce numéro thématique reflète bien la position privilégiée que la psychologie occupe pour maintenir une perspective nuancée quant au développement de l’IA et à son utilisation, en complément du jugement clinique, dans un écosystème où cette technologie est devenue un bien économique rempli de promesses d’innovation. Nous partageons ce désir de mieux comprendre l’humain avec de nombreux acteurs et actrices responsables du développement de l’IA, et aussi, avec d’autres groupes, le devoir de veiller à ce que son déploiement contribue au bien-être de l’humain. La psychologie a pris part à plusieurs étapes de la création et de l’évolution de l’IA et demeure en position stratégique pour influencer des décisions sur l’encadrement de son développement et de son utilisation. Ces textes nous informent sur divers impacts de l’IA en psychologie et contribuent à notre littératie numérique, qui est cruciale pour continuer de prendre part aux débats concernant cette évolution numérique. Plongeons dans cette vague d’innovation avec curiosité, rigueur et bienveillance2. Ne perdons pas de vue notre capacité unique de nous questionner malgré la tentation de déléguer de plus en plus d’étapes de la pensée humaine à des machines.
Notes
- Par exemple : participation de la Dre Grou à la table ronde sur l’intelligence artificielle de l’AQNP (novembre 2023) ; précongrès de l’OPQ sur l’intelligence artificielle et la psychologie (novembre 2024) ; Aubé, W. (2024, mars). Psychologie et intelligence artificielle. Psychologie Québec, 41(1), 14-18.
- D’ici la prochaine vague, qui viendra sans doute de l’informatique quantique… Imaginez une machine qui ne se limiterait plus à des 0 et des 1 !
Bibliographie
- Centre d’expertise en technologie de l’information en santé mentale, dépendance et itinérance. Collection d’applications mobiles en santé mentale et mieux-être. https://appsantementale.ca/
- Marchildon, A., Boine, C., Sabourin Laflamme, A., Anctil, D., Boudreau LeBlanc, A., Auclair, S., Balagué, C., Morin-Bertrand, F.-A., Castets-Renard, C., Jackson, P. et Langlois, L. (2024). Un an après l’arrivée de ChatGPT : réflexions de l’Obvia sur les enjeux et pistes d’action possibles face à l’IA générative. Obvia. https://doi.org/10.61737/ZKWZ3721
- Martial, C., Cassol, H., Laureys, S. et Gosseries, O. (2020). Near-death experience as a probe to explore (disconnected) consciousness. Trends in Cognitive Sciences, 24(3), 173-183. https://doi.org/10.1016/j.tics.2019.12.010
- Obvia. (2025a). État de la situation sur les impacts sociétaux de l’intelligence artificielle et du numérique – 2025. https://doi.org/10.61737/HCLZ2424
- Obvia. (2025b). Glossaire de l’Obvia. https://www.obvia.ca/ressources/glossaire/
- Perrigo, B. (2023, 18 janvier). OpenAI used Kenyan workers on less than $2 per hour to make ChatGPT less toxic. Time. https://time.com/6247678/openai-chatgpt-kenya-workers/
- Siegel, J. (2024, 30 mai). Quantum mechanics and the puzzle of human consciousness : Exploring how quantum processes in the brain might shape our experiences. Allen Institute. https://alleninstitute.org/news/quantum-mechanics-and-the-puzzle-of-human-consciousness/
- Solomonoff, G. (2023, 6 mai). The meeting of the minds that launched AI : There’s more to this group photo from a 1956 AI workshop than you’d think. IEEE Spectrum. https://spectrum.ieee.org/dartmouth-ai-workshop
- Weizenbaum, J. (1966). ELIZA—A computer program for the study of natural language communication between man and machine. Communications of the ACM, 9(1), 36-45. https://doi.org/10.1145/365153.365168