L’IA en recherche psychologique : conséquences sur la pratique clinique
Professeur titulaire au Département de psychologie de l’Université de Montréal, il est neuropsychologue spécialisé dans l’évaluation et l’intervention auprès d’une clientèle pédiatrique neurodivergente.
Professeure titulaire au Département de psychologie de l’Université de Montréal, elle est psychologue clinicienne spécialisée en intervention auprès de personnes ayant des troubles mentaux sévères.
Depuis peu, l’intelligence artificielle (IA) s’impose comme une alliée puissante dans la production scientifique (Gottweis et al., 2025), ayant le potentiel de bouleverser les façons dont les connaissances sont générées. Certaines équipes vont jusqu’à concevoir des systèmes autonomes qui prennent en charge, sans intervention humaine, l’ensemble du processus : de la formulation d’hypothèses à la rédaction d’un article évalué et même accepté par les pairs (Yamada et al., 2025).
Le présent article propose un portrait des usages actuels de l’IA en recherche, en commençant par un bref survol de ses apports en recherche fondamentale, puis en examinant comment certaines formes de recherche clinique peuvent s’inscrire dans cette trajectoire d’innovation. Incluant plusieurs cas susceptibles d’influencer la recherche en psychologie, dont certains directement issus de ce champ, il permet de réfléchir aux conséquences méthodologiques et épistémologiques de ces technologies.
Sans chercher à en épuiser les enjeux, nous souhaitons offrir aux psychologues touchés ou intéressés par la recherche, qu’ils soient cliniciens ou non, des repères pour comprendre comment l’IA pourrait transformer leurs pratiques.
L’IA en recherche psychologique : usages, enjeux et perspectives
L’intelligence artificielle au service de la recherche fondamentale
L’IA n’est pas nouvelle dans les sciences du comportement. Mobilisée pour simuler le raisonnement humain depuis l’invention de l’ordinateur, elle constitue l’un des fondements de la révolution cognitive des années 1950 (Newell et Simon, 1972). Les modèles d’IA utilisés en recherche psychologique fondamentale reposent sur trois types d’architectures cognitives : symbolique (fondée sur la manipulation de règles et de représentations), émergente (inspirée du fonctionnement biologique) et hybride (combinant logique structurée et apprentissage distribué) (Sun, 2008). Cette typologie délimite un espace théorique dans lequel se positionnent les approches contemporaines (Kotseruba et Tsotsos, 2020).
D’abord, l’IA est largement utilisée comme modèle de simulation du fonctionnement mental. Elle permet notamment de modéliser des processus cognitifs tels que l’attention, la perception, l’apprentissage, la mémoire, la prise de décision ou encore la résolution de problèmes (Hsiao, 2024; Kotseruba et Tsotsos, 2020; Kriegeskorte et Douglas, 2018; Malloy et Gonzalez, 2024). L’IA sert aussi à explorer des notions complexes comme la conscience ou l’intentionnalité, en s’appuyant sur des systèmes capables d’autoévaluation ou de prise de décision autonome (Dehaene et al., 2021; Webb et Graziano, 2015).
D’autres modèles, plus abstraits, visent à mieux comprendre l’organisation générale des systèmes intelligents, qu’ils soient biologiques ou non. Certaines recherches explorent l’émergence de biais cognitifs en observant comment des agents artificiels développent des heuristiques ou des distorsions de traitement sous contrainte (Lieder et Griffiths, 2020). Enfin, la psychologie évolutionniste computationnelle mobilise des modèles d’IA pour simuler des processus évolutifs complexes, afin de tester des hypothèses sur l’émergence progressive de certaines capacités cognitives au fil du temps (Lake et al., 2017).
En reproduisant certaines fonctions mentales humaines, l’IA permet aux chercheurs de mettre à l’épreuve et d’affiner des hypothèses sur le fonctionnement de l’esprit. Ces modélisations soulèvent toutefois des questions fondamentales : peut-on simuler une conscience? Comment apprend-on l’empathie? Où commence l’expérience subjective? Si ces travaux enrichissent considérablement notre compréhension théorique de l’esprit humain, ils laissent néanmoins ouverte la question de ce que la modélisation computationnelle peut réellement saisir de l’expérience vécue dans toute sa complexité.
Deux fonctions clés de l’IA en recherche clinique
L’IA comme assistante de recherche
Si la recherche fondamentale mobilise l’IA pour mieux comprendre l’esprit humain, la recherche clinique s’en empare pour le soutenir dans sa diversité. Les mêmes architectures — symboliques, émergentes ou hybrides — servent ici à analyser des données complexes, à prédire des trajectoires développementales ou encore à explorer des pistes d’ajustement des interventions. Ces outils ne se contentent plus d’observer ou de modéliser : ils peuvent désormais intervenir en amont de la pratique clinique, en soutenant les démarches d’analyse et d’interprétation menées dans le cadre de projets de recherche appliquée.
Parmi les modèles récents, ceux dits génératifs occupent une place croissante. Ils reposent habituellement sur des architectures émergentes ou hybrides et se distinguent par leur capacité à produire du contenu (texte, langage, images, vidéos, simulations) à partir d’ensembles de données. L’essor de ces modèles marque une nouvelle étape (voir Cao et al., 2023; Hanafi et al., 2025; Sakirin et Kusuma, 2023; Stokel-Walker et Van Noorden, 2023). En combinant calcul prédictif et adaptation contextuelle, ils ouvrent la voie à une IA capable de soutenir efficacement les activités de recherche en santé, notamment la rédaction scientifique, l’analyse de grands ensembles de données, la génération de code informatique, la documentation d’observations et la production accélérée de revues de la littérature ciblées (Sakirin et Kusuma, 2023).
L’IA permet désormais d’automatiser l’extraction de données issues de milliers d’articles et de produire des méta-analyses mises à jour en continu (Mitchell et al., 2025). Parallèlement, des modèles de traitement automatique du langage identifient la tonalité émotionnelle de la voix grâce à la prosodie (Zhao et al., 2025), alors que d’autres transforment des heures d’entretiens en transcriptions annotées pour suggérer des thèmes émergents confirmés par l’analyse humaine (Samuel et Wassenaar, 2024). En neuropsychologie, le recours à l’apprentissage machine permet de révéler des signatures cognitives ou cérébrales, par exemple des patrons électroencéphalographiques, pour mieux comprendre la variabilité interindividuelle neurotypique ou identifier des marqueurs de la neurodivergence (voir par exemple Gauthier et al., 2016; Sahraoui et al., 2025).
Ces prouesses exigent toutefois plus qu’un simple clic. Obtenir une sortie fiable suppose souvent de longues séances de prompt engineering (le réglage minutieux des requêtes adressées au modèle), une compétence numérique en soi (Korzynski et al., 2023; Phoenix et Taylor, 2024). Même correctement paramétrées, les IA génératives demeurent sujettes à des défaillances technologiques, erreurs et bogues (Barassi, 2024). Parmi ceux-ci figurent les « hallucinations » (terme controversé; voir Klein, 2023; Maleki et al., 2024), c’est-à-dire l’invention de références ou de résultats plausibles mais inexacts. Il demeure indispensable de vérifier chaque réponse, idéalement à l’aide d’un second modèle d’IA et par un contrôle humain rigoureux (Van Dis et al., 2023). Toutefois, cette exigence de validation pose ses propres limites : les données ayant servi à l’entraînement sont souvent inaccessibles, et les processus décisionnels du modèle, partiellement opaques. Cela soulève la question cruciale de l’interprétabilité et de l’explicabilité des modèles : comprendre comment et pourquoi une réponse a été produite devient essentiel pour un usage responsable en contexte scientifique.
L’IA comme participante de recherche
Plus novateurs encore, des chercheurs font de l’IA un véritable acteur expérimental. Une synthèse récente de Xu et al. (2024) présente plusieurs recherches où l’IA ne se limite pas à un rôle d’outil analytique, mais devient un acteur intégré au protocole expérimental : agents simulés participant à des dialogues, modèles testés pour prédire des décisions humaines ou simulations conçues pour provoquer des biais cognitifs contrôlés. Certaines de ces études, issues du champ psychologique ou d’un champ connexe, montrent comment l’IA peut tenir lieu de participant dans des contextes difficilement reproductibles avec des humains.
Par exemple, des agents conversationnels (chatbots) sont mobilisés pour prétester des questionnaires lorsque le recrutement humain est difficile. Cette approche, qui s’apparente à une forme de simulation itérative, permet de mettre à l’essai les formulations ou la logique d’un protocole avant son déploiement auprès de participants humains (Liu et al., 2025). Couplée à la réalité virtuelle, l’IA donne forme à des partenaires sociaux immersifs, utiles pour l’entraînement à des compétences interpersonnelles. Certains laboratoires développent même des « jumeaux numériques cérébraux » : des modèles personnalisés construits à partir de données biologiques individuelles, capables de simuler l’activité neuronale à grande échelle, de s’ajuster à des mesures réelles et de prédire l’évolution cognitive ainsi que la réponse à des interventions ciblées (Li et Qi, 2025; Lu et al., 2023).
Ces avancées soulèvent des questions éthiques et méthodologiques pressantes. L’immersion d’un participant dans une interaction artificielle reste-t-elle écologiquement valide? Comment prévenir un dommage psychologique si l’agent produit une réponse inappropriée? Et où tracer la ligne entre simulation utile et artefact trompeur? Les questions restent ouvertes, mais certaines précautions s’imposent : pour exercer un regard critique et préserver l’intégrité de la recherche, la communauté psychologique, cliniciens et chercheurs confondus, doit comprendre ces technologies, leurs forces et leurs limites.
Pour une recherche responsable
L’essor de l’IA générative s’accompagne d’enjeux éthiques, méthodologiques et juridiques que les psychologues doivent apprendre à anticiper. Pour exploiter cette technologie de façon responsable, il est impératif de se doter d’un cadre de vigilance.
Les risques les plus fréquemment mentionnés incluent les biais de données (déséquilibres ou distorsions dans les corpus d’entraînement, susceptibles de produire des résultats inéquitables ou peu représentatifs), le plagiat involontaire, les atteintes au droit d’auteur, le manque de transparence sur les sources, les réponses inexactes, les citations erronées, la faiblesse de certaines connaissances et le manque d’originalité dans les productions (Sallam, 2023).
Cinq exigences pour une recherche psychologique responsable avec l’IA
- Transparence. Il faut privilégier les outils dont la méthodologie est clairement expliquée, et qui comportent un « résumé fournisseur » décrivant les sources de données, les objectifs, les indicateurs de performance et les limites connues du modèle utilisé.
- Contrôle humain systématique. Aucun contenu généré par l’IA ne devrait être intégré à une publication, à un rapport ou à un corpus de recherche sans relecture humaine rigoureuse. Une contre-vérification par un second modèle d’IA peut aussi aider à repérer les incohérences ou les biais de formulation.
- Formation continue. Il est nécessaire d’intégrer des modules de formation à l’IA générative dans les cursus de recherche et les programmes de développement professionnel. Une telle formation pourrait devenir, à terme, une exigence déontologique pour les psychologues chercheurs.
- Équité. On doit interroger systématiquement la représentativité des données d’entraînement pour éviter la reproduction de biais cognitifs, sociaux ou culturels, dans les synthèses automatisées ou les classifications proposées par l’IA, par exemple.
- Coconstruction. Lorsque des outils d’IA sont conçus pour des applications cliniques, il est essentiel que des psychologues, notamment cliniciens, soient impliqués dès les premières étapes du développement. Cette collaboration dans les projets de recherche et développement permet d’ancrer les outils dans les réalités du terrain, et de faire en sorte que ce soit l’expertise clinique qui façonne l’IA, et non l’inverse.
Vers une culture numérique critique
Penser avec l’IA ne signifie pas déléguer notre jugement, mais l’exercer autrement. En recherche psychologique, il s’agit moins de confier des tâches à la machine que de dialoguer avec elle : confronter la production algorithmique à la complexité des données humaines, intégrer l’analyse automatisée sans renoncer à l’interprétation, et rester libre de rejeter toute réponse générée par l’IA lorsqu’elle trahit l’expérience vécue ou le sens clinique.
En cultivant ces réflexes (transparence, contrôle, formation continue, équité, coconstruction), les psychologues pourront mieux s’approprier une technologie qui, bien utilisée, enrichit la compréhension, l’évaluation et la production de savoirs cliniques.
Les auteurs ont bénéficié du soutien rédactionnel d’une intelligence artificielle (ChatGPT 4.0).