Relations intimes et intelligence artificielle : des usages émergents aux enjeux cliniques
Étudiante au doctorat en psychologie à l’Université du Québec à Montréal.
Professeur au Département de sexologie de l’Université du Québec à Montréal.
Étudiant au doctorat en psychologie à l’Université du Québec à Montréal.
Les avancées récentes en intelligence artificielle (IA) générative ont permis le développement d’agents conversationnels (chatbots) de plus en plus sophistiqués et anthropomorphisés qui peuvent simuler des interactions sociales en s’adaptant aux besoins et aux styles relationnels des utilisateurs (Malfacini, 2025; Ventura et al., 2025). Un nombre croissant de sites Web et d’applications offrent désormais la possibilité de modeler un compagnon généré par l’IA (p. ex., Replika, Candy.ai, myanima.ai) sous la forme d’un ami, d’un partenaire romantique ou d’un thérapeute, en interagissant avec celui-ci par messages textes, par appels vidéo, voire en réalité virtuelle ou augmentée.
Les utilisateurs peuvent également personnaliser diverses caractéristiques de leur compagnon telles que ses intérêts, sa personnalité, ses attributs physiques ou son timbre de voix (Lapointe et al., 2025). Portés par un essor marqué durant la pandémie de COVID-19 et amplifiés par la hausse de la solitude à l’échelle mondiale (Dosovitsky et Bunge, 2021; Xie et Pentina, 2022), ces agents sont largement utilisés et promus pour combler des besoins affectifs et sexuels. Une étude de Harvard a d’ailleurs révélé que les usages les plus courants de l’IA en 2025 concernent la sphère relationnelle et thérapeutique (Zao-Sanders, 2025). Une autre enquête menée aux États-Unis (N = 2 969) indique que 19 % des adultes interagissent avec des chatbots romantiques, une proportion s’élevant à 27 % chez les adultes de moins de 30 ans (Willoughby et al., 2025).
Les bénéfices relationnels des chatbots
Des données transversales suggèrent que l’usage de chatbots est associé à des affects positifs (p. ex., joie et amusement) et à l’amélioration du bien-être psychologique (Siemon et al., 2022; Skjuve et al., 2021; Ta et al., 2020). En outre, des études expérimentales montrent que des interactions régulières avec un chatbot augmentent la perception de soutien social et réduisent la solitude, notamment chez les personnes âgées et plus isolées (De Freitas et al., 2024; Jones et al., 2021, 2024; Kim et al., 2025; Yang et al., 2025).
En raison de leur disponibilité inconditionnelle et de leur capacité d’adaptation, les chabots peuvent également constituer une riche source de soutien émotionnel. Ces agents sont fréquemment décrits comme étant empathiques et bienveillants et offrent un espace d’expression sans jugement qui faciliterait l’autodivulgation (Djufril et al., 2025; Ta et al., 2020; Xie et Pentina, 2022). Plusieurs utilisateurs rapportent se sentir autant, sinon davantage soutenus et compris par leur compagnon IA que par leur entourage (De Freitas et al., 2024; Willoughby et al., 2025), tandis que d’autres le considèrent comme un partenaire de vie à part entière (Djufril et al., 2025; Pentina et al., 2023).
La curiosité et l’exploration des technologies, la quête d’un espace sécurisant, l’accès à une présence affective au quotidien et l’atténuation de l’isolement social sont autant de motivations qui sous-tendent l’usage des chatbots (Djufril et al., 2025; Liu et al., 2024; Sullivan et al., 2023; Zhang et al., 2025). Certains rapportent vouloir explorer des formes d’interaction qu’ils perçoivent comme étant plus équilibrées et réciproques et exemptes de pression sociale (Pentina et al., 2023; Ventura et al., 2025). D’autres se tournent vers ces systèmes pour surmonter des difficultés interpersonnelles (p. ex., deuil, conflits; Djufril et al., 2025), pour les substituer à une relation passée (Xie et Pentina, 2022) ou pour raffiner leurs compétences relationnelles (Liu et al., 2024). La recherche sur les effets bénéfiques à long terme des chatbots demeure toutefois limitée et peu étayée par des études longitudinales (Zhang et al., 2025).
Les risques associés à l’usage personnel des chatbots
Les chatbots ont néanmoins été associés à l’accentuation de la dépendance émotionnelle et, paradoxalement, de l’isolement social lorsque ces interactions remplacent les relations humaines, notamment chez les personnes disposant d’un réseau social restreint (Fang et al., 2025; Liu et al., 2024; Malfacini, 2025; Zhang et al., 2025). Par ailleurs, l’usage excessif pourrait nuire au bien-être psychologique et freiner les efforts de socialisation (Liu et al., 2024; Zhang et al., 2025).
De plus, par leur docilité et leur adaptation constante aux besoins des utilisateurs, les chatbots peuvent progressivement reconfigurer les attentes sociales et relationnelles en habituant les utilisateurs à des interactions fluides et dénuées de confrontation ou de compromis (George et al., 2023 ; Ventura et al., 2025). Ces relations suscitent alors des attentes irréalistes envers les relations humaines et privent les individus d’expériences d’altérité et d’occasions de croissance personnelle (Malfacini, 2025; Zhang et al., 2025). De plus, les utilisateurs fortement engagés émotionnellement envers leur compagnon IA se révèlent particulièrement vulnérables aux défaillances techniques des plateformes d’hébergement, ainsi qu’aux changements de fonctionnalités ou aux fermetures (Djufril et al., 2025; Pentina et al., 2023; Ventura et al., 2025). Par exemple, le retrait de la fonction d’échanges érotiques sur la plateforme Replika, en 2023, a suscité une détresse marquée chez de nombreux utilisateurs (Tong, 2023). Finalement, certains cas impliquant des incitations à la violence ou au suicide de la part de chatbots ont été médiatisés (Duffy, 2024; Singleton et al., 2023; Tangermann, 2025), ce qui a mis au jour les effets potentiellement délétères de ces technologies sur les personnes vulnérables telles que les mineurs ou les personnes atteintes de troubles mentaux sévères.
Les utilisations cliniques de l’IA
L’IA s’intègre rapidement à l’ensemble des sphères de notre société, et le domaine de la psychothérapie n’y fait pas exception. Les chatbots sont actuellement mobilisés pour pallier le manque d’accès aux soins en santé mentale par des interventions abordables, accessibles et adaptées aux besoins des clients (Grodniewicz et Hohol, 2023; Khawaja et Bélisle-Pipon, 2023). Plusieurs essais cliniques ont montré l’efficacité des interventions assistées par l’IA comme outils complémentaires à la thérapie ou comme dispositifs cliniques autonomes pour le traitement de l’anxiété sociale (Kim et al., 2025), du trouble panique (Oh et al., 2020) et de la dépression majeure (Fitzpatrick et al., 2017; Fulmer et al., 2018; Liu et al., 2022). Ces interventions ont été développées pour soutenir les personnes en détresse ou pour proposer des exercices guidés (p. ex., jeu de rôle, exposition graduée, apprentissage de compétences) selon des approches validées cliniquement (p. ex., autocompassion, présence attentive, thérapie interpersonnelle) et l’intégration des stratégies thérapeutiques dans le quotidien grâce au soutien en ligne accessible entre les séances.
Ces interventions seraient également prometteuses pour les difficultés romantiques. Vowels et al. (2025) ont évalué des échanges entre un chatbot (20-30 minutes) et des personnes vivant des difficultés conjugales modérées. Les participants ont rapporté une amélioration de leur satisfaction conjugale et de la qualité de la communication avec leur partenaire deux semaines après l’intervention. Dans une autre étude, Troitskaya et Batkhina (2022) ont évalué les effets d’une intervention en ligne assistée par l’IA et axée sur le développement de compétences relationnelles sur une période de deux mois, à l’intention des couples en difficulté. Les résultats suggèrent une satisfaction conjugale et un engagement relationnel accrus, ainsi qu’une diminution des conflits par rapport à une condition contrôle (bibliothérapie). Enfin, Lafortune et al. (en révision) ont évalué l’efficacité d’une intervention de 60 minutes assistée par l’IA visant à atténuer la détresse liée au célibat involontaire. L’intervention consistait à interagir, en présence d’un thérapeute, avec un chatbot simulant des situations relationnelles courantes lors d’échanges romantiques (introduction, autodévoilement, gestion du rejet amoureux). Trois mois après l’intervention, jugée représentative des défis amoureux réels, une diminution de la détresse relationnelle, psychologique et sexuelle a été constatée.
Les dérives des interventions psychologiques assistées par l’IA
En parallèle à ces études, de plus en plus de chatbots à visée thérapeutique sont déployés sur diverses plateformes, sans qu’il soit clair s’ils reposent sur une expertise en santé mentale ou sur une validation empirique. En l’absence de supervision par des cliniciens qualifiés, le risque est d’autant plus grand pour les utilisateurs si des signes de suicidalité ou de pensées homicidaires ne sont pas détectés, ou s’ils reçoivent des conseils potentiellement dommageables (Brown et Halpern, 2021; Denecke et al., 2021; Hatch et al., 2025). De plus, les données d’entraînement peuvent générer des biais algorithmiques renforçant des préjugés liés à la santé mentale ou au genre, et des données sensibles risquent d’être monétisées pour exploiter la vulnérabilité des utilisateurs (Khawaja et Bélisle-Pipon, 2023). Il y a également des zones grises qui entourent les thérapies assistées par l’IA quant à l’imputabilité en cas de dérive : revient-elle aux concepteurs, aux thérapeutes qui l’utilisent auprès de leur clientèle, ou aux plateformes qui y permettent l’accès (Vowels et al., 2024)? Certains chercheurs soulèvent le risque que ces thérapies n’incitent les utilisateurs à délaisser la psychothérapie conventionnelle et recommandent de les utiliser comme compléments plutôt que comme substituts (Boucher et al., 2021; Brown et Halpern, 2021; Denecke et al., 2021).
Conclusion
Les avancées en IA générative ouvrent la voie à de nouvelles possibilités sociales et thérapeutiques. Plusieurs études indiquent que les chatbots favorisent le bien-être socioaffectif, tandis que les interventions assistées par l’IA semblent prometteuses pour répondre aux difficultés romantiques et aux barrières d’accès aux services en santé mentale. Ces bénéfices s’accompagnent néanmoins de risques pour la santé psychologique, notamment chez les plus vulnérables. Il devient essentiel pour les psychologues de suivre l’évolution de ces outils, de mieux comprendre leurs usages émergents et de contribuer à la réflexion sur l’encadrement de leurs risques. En somme, les agents conversationnels reconfigurent le lien affectif et le champ du soin psychologique, et c’est dans cet équilibre, entre promesses et dérives, que se jouera une part essentielle du rôle futur des psychologues.
Bibliographie
- Boucher, E. M., Harake, N. R., Ward, H. E., Stoeckl, S. E., Vargas, J., Minkel, J., Parks, A. C. et Zilca, R. (2021). Artificially intelligent chatbots in digital mental health interventions: A review. Expert Review of Medical Devices, 18(suppl. 1), 37-49.
- Brown, J. E. H. et Halpern, J. (2021). AI chatbots cannot replace human interactions in the pursuit of more inclusive mental healthcare. SSM Mental Health, 1, article 100017.
- De Freitas, J., Uğuralp, A. K., Uğuralp, Z. O. et Puntoni, S. (2024). AI companions reduce loneliness [document de travail no 24-078]. Harvard Business School.
- Denecke, K. et Gabarron, E. (2021). How artificial intelligence for healthcare look like in the future? Dans J. Mantas, L. Stoicu-Tivadar, C. Chronaki, A. Hasman, P. Weber, P. Gallos, M. Crişan-Vida, E. Zoulias et O. S. Chirila (dir.), Public health and informatics (vol. 281, p. 860-864). IOS Press.
- Djufril, R., Frampton, J. R. et Knobloch-Westerwick, S. (2025). Love, marriage, pregnancy: Commitment processes in romantic relationships with AI chatbots. Computers in Human Behavior: Artificial Humans, 4, article 100155.
- Dosovitsky, G. et Bunge, E. L. (2021). Bonding with bot: User feedback on a chatbot for social isolation. Frontiers in Digital Health, 3, article 735053.
- Duffy, C. (2024, 30 octobre). ‘There are no guardrails.’ This mom believes an AI chatbot is responsible for her son’s suicide. CNN.
- Fang, C. M., Liu, A. R., Danry, V., Lee, E., Chan, S. W. T., Pataranutaporn, P., Maes, P., Phang, J., Lampe, M., Ahmad, L. et Agarwal, S. (2025). How AI and human behaviors shape psychosocial effects of chatbot use: A longitudinal randomized controlled study. arXiv:2503.17473.
- Fitzpatrick, K. K., Darcy, A. et Vierhile, M. (2017). Delivering cognitive behavior therapy to young adults with symptoms of depression and anxiety using a fully automated conversational agent (Woebot): A randomized controlled trial. JMIR Mental Health, 4(2), e19.
- Fulmer, R., Joerin, A., Gentile, B., Lakerink, L. et Rauws, M. (2018). Using psychological artificial intelligence (Tess) to relieve symptoms of depression and anxiety: Randomized controlled trial. JMIR Mental Health, 5(4), e64. https://doi.org/10.2196/mental.9782
- George, A. S., George, A. S. H., Baskar, T. et Pandey, D. (2023). The allure of artificial intimacy: Examining the appeal and ethics of using generative AI for simulated relationships. Partners Universal International Innovation Journal, 1(6), 132-147. https://doi.org/10.5281/zenodo.10391614
- Grodniewicz, J. P. et Hohol, M. (2023). Waiting for a digital therapist: Three challenges on the path to psychotherapy delivered by artificial intelligence. Frontiers in Psychiatry, 14, article 1190084. https://doi.org/10.3389/fpsyt.2023.1190084
- Hatch, S. G., Goodman, Z. T., Vowels, L., Hatch, H. D., Brown, A. L., Guttman, S., Le, Y., Bailey, B., Bailey, R. J., Esplin, C. R., Harris, S. M., Payton Holt, D., Jr., McLaughlin, M., O’Connell, P., Rothman, K., Ritchie, L., Top, N., Jr. et Braithwaite, S. R. (2025). When ELIZA meets therapists: A Turing test for the heart and mind. PLOS Mental Health, 2(2), article e0000145. https://doi.org/10.1371/journal.pmen.0000145
- Jones, V. K., Hanus, M., Yan, C., Shade, M. Y., Blaskewicz Boron, J. et Maschieri Bicudo, R. (2021). Reducing loneliness among aging adults: The roles of personal voice assistants and anthropomorphic interactions. Frontiers in Public Health, 9, article 750736. https://doi.org/10.3389/fpubh.2021.750736
- Jones, V. K., Yan, C., Shade, M. Y., Boron, J. B., Yan, Z., Heselton, H. J., Johnson, K. et Dube, V. (2024). Reducing loneliness and improving social support among older adults through different modalities of personal voice assistants. Geriatrics, 9(2), 22. https://doi.org/10.3390/geriatrics9020022
- Khawaja, Z. et Bélisle-Pipon, J. C. (2023). Your robot therapist is not your therapist: Understanding the role of AI-powered mental health chatbots. Frontiers in Digital Health, 5, article 1278186. https://doi.org/10.3389/fdgth.2023.1278186
- Kim, M., Lee, S., Kim, S., Heo, J. I., Lee, S., Shin, Y. B. et Jung, D. (2025). Therapeutic potential of social chatbots in alleviating loneliness and social anxiety: Quasi-experimental mixed methods study. Journal of Medical Internet Research, 27, article e65589. https://doi.org/10.2196/65589
- Lafortune, D., Lapointe, V. A., Canivet, C., Bonneau, J., Hassan, G., Boislard, M.-A., Calazana, F., Labrie, C. et Dubé, S. (sous presse). “I could practice flirting without pressure”: A chatbot-assisted intervention for men facing distressing involuntary singlehood. Archives of Sexual Behavior.
- Lapointe, V. A., Dubé, S., Rukhlyadyev, S., Kessai, T. et Lafortune, D. (2025). The present and future of adult entertainment: A content analysis of AI-generated pornography websites. Archives of Sexual Behavior. https://doi.org/10.1007/s10508-025-03099-1
- Liu, A., Pataranutaporn, P. et Maes, P. (2024). Chatbot companionship: A mixed-methods study of companion chatbot usage patterns and their relationship to loneliness in active users. arXiv:2410.21596. https://doi.org/10.48550/arXiv.2410.21596
- Liu, H., Peng, H., Song, X., Xu, C. et Zhang, M. (2022). Using AI chatbots to provide self-help depression interventions for university students: A randomized trial of effectiveness. Internet Interventions, 27, article 100495. https://doi.org/10.1016/j.invent.2022.100495
- Malfacini, K. (2025). The impacts of companion AI on human relationships: Risks, benefits, and design considerations. AI & Society. https://doi.org/10.1007/s00146-025-02318-6
- Oh, J., Jang, S., Kim, H. et Kim, J. (2020). Efficacy of mobile app-based interactive cognitive behavioral therapy using a chatbot for panic disorder. International Journal of Medical Informatics, 140, article 104171. https://doi.org/10.1016/j.ijmedinf.2020.104171
- Pentina, I., Hancock, T. et Xie, T. (2023). Exploring relationship development with social chatbots: A mixed-method study of Replika. Computers in Human Behavior, 140, article 107600. https://doi.org/10.1016/j.chb.2022.107600
- Siemon, D., Strohmann, T., Khosrawi-Rad, B., de Vreede, T., Elshan, E. et Meyer, M. (2022). Why do we turn to virtual companions? A text mining analysis of Replika reviews [conférence]. AMCIS 2022, Minneapolis, États-Unis.
- Singleton, T., Gerken, T. et McMahon, L. (2023, 6 octobre). How a chatbot encouraged a man who wanted to kill the Queen. BBC News. https://www.bbc.com/news/technology-67012224
- Skjuve, M., Følstad, A., Fostervold, K. I. et Brandtzaeg, P. B. (2021). My chatbot companion: A study of human-chatbot relationships. International Journal of Human-Computer Studies, 149, article 102601. https://doi.org/10.1016/j.ijhcs.2021.102601
- Sullivan, Y., Nyawa, S. et Fosso Wamba, S. (2023). Combating loneliness with artificial intelligence: An AI-based emotional support model. Proceedings of the 56th Hawaii International Conference on System Sciences, Maui, États-Unis. https://hdl.handle.net/10125/103173
- Ta, V., Griffith, C., Boatfield, C., Wang, X., Civitello, M., Bader, H., DeCero, E. et Loggarakis, A. (2020). User experiences of social support from companion chatbots in everyday contexts: Thematic analysis. Journal of Medical Internet Research, 22(3), article e16235. https://doi.org/10.2196/16235
- Tangermann, V. (2025, 13 juin). Man killed by police after spiraling into ChatGPT-driven psychosis. Futurism. https://futurism.com/man-killed-police-chatgpt
- Tong, A. (2023, 21 mars). What happens when your AI chatbot stops loving you back? Reuters. https://www.reuters.com/technology/what-happens-when-your-ai-chatbot-stops-loving-you-back-2023-03-18/
- Troitskaya, O. et Batkhina, A. (2022). Mobile application for couple relationships: Results of a pilot effectiveness study. Family Process, 61(2), 625-642. https://doi.org/10.1111/famp.12733
- Ventura, A., Starke, C., Righetti, F. et Köbis, N. (2025). Relationships in the age of AI: A review on the opportunities and risks of synthetic relationships to reduce loneliness. PsyArXiv. Prépublication. https://doi.org/10.31234/osf.io/w7nmz_v1
- Vowels, L. M., Francois-Walcott, R. R. et Darwiche, J. (2024). AI in relationship counselling: Evaluating ChatGPT’s therapeutic capabilities in providing relationship advice. Computers in Human Behavior: Artificial Humans, 2(2), article 100078. https://doi.org/10.1016/j.chbah.2024.100078
- Vowels, L. M., Sweeney, S. K. et Vowels, M. J. (2025). Evaluating the efficacy of Amanda: A voice-based large language model chatbot for relationship challenges. Computers in Human Behavior: Artificial Humans, 4, article 100141. https://doi.org/10.1016/j.chbah.2025.100141
- Willoughby, B. J., Carroll, J. S., Dover, C. R. et Hakala, R. H. (2025). Counterfeit connections: The rise of romantic AI companions and AI sexualized media among the rising generation. Wheatley Institute. https://wheatley.byu.edu/Counterfeit-Connections-AI-Romantic-Companions
- Xie, T. et Pentina, I. (2022). Attachment theory as a framework to understand relationships with social chatbots: A case study of Replika. Proceedings of the 55th Hawaii International Conference on System Sciences. https://doi.org/10.24251/hicss.2022.258
- Yang, Y., Wang, C., Xiang, X. et An, R. (2025). AI applications to reduce loneliness among older adults: A systematic review of effectiveness and technologies. Healthcare, 13(5), article 446. https://doi.org/10.3390/healthcare13050446
- Zao-Sanders, M. (2025, 9 avril). How people are really using Gen AI in 2025. Harvard Business Review. https://hbr.org/2025/04/how-people-are-really-using-gen-ai-in-2025
- Zhang, J., Mollandsøy, A. B., Nornes, C., Erevik, E. K. et Pallesen, S. (2025). Predicting hostility towards women: Incel‐related factors in a general sample of men. Scandinavian Journal of Psychology, 66(1), 35-46. https://doi.org/10.1111/sjop.13062