Avatars numériques post mortem et deuil : un point de vue éthique
Titulaire d’un doctorat en philosophie, il est chercheur postdoctoral en philosophie politique et sociale associé à IVADO et à l’Université McGill.
Docteur en philosophie, il est professeur à l’Université McGill et titulaire de la Chaire Stephen-A.-Jarislowsky sur la nature humaine et la technologie.
Karina Vold
Professeure adjointe à l’Institut d’histoire et de philosophie des sciences et des technologies de l’Université de Toronto, elle est titulaire d’un doctorat en philosophie.
Avec la collaboration :
- de Christophe Facal, candidat au doctorat à l’Université McGill, dont la recherche porte sur les enjeux éthiques liés à l’amélioration humaine,
- et d'Isabelle Dumont, détentrice d'un doctorat en travail social. Mme Dumont est professeure à l'École de travail social de l'UQAM et spécialiste du soutien aux familles et du deuil.
Le deuil est un processus d’adaptation à une perte significative qui implique de réorganiser sa vie en y intégrant cette perte. Reconnu comme l’une des expériences les plus éprouvantes et stressantes de la vie, ce processus pourrait être profondément transformé par les avatars numériques post mortem basés sur l’intelligence artificielle (griefbots). Ces systèmes d’IA prétendent conserver l’identité d’une personne et permettre ainsi de maintenir une relation avec elle après sa mort. Or, ces programmes d’IA ont des limites importantes, et leur utilisation risque de mener à des abus et des préjudices s’ils ne sont pas réglementés.
1. Le deuil comme processus d’intériorisation
Bien que le deuil soit une expérience universelle, il demeure un processus profondément intime et singulier, façonné par l’histoire personnelle, les liens affectifs et le contexte socioculturel de chacun1. Néanmoins, il est fréquent que les personnes endeuillées cherchent à maintenir un lien symbolique avec le défunt. Comme l’ont montré Klass et Steffen (2017), il ne s’agit pas nécessairement d’un déni pathologique de la mort; ce peut plutôt être une forme d’intériorisation du lien qui unissait la personne au défunt. Cela peut se manifester de diverses manières. Certains conservent des objets ayant appartenu à la personne disparue, regardent parfois des photos ou des vidéos, ou développent de nouvelles habitudes, par exemple, visiter annuellement sa sépulture ou le lieu où ses cendres ont été dispersées. Certaines personnes endeuillées rapportent également qu’elles entretiennent un dialogue imaginaire avec le défunt, ce qui illustre la persistance du lien affectif. Aujourd’hui, on peut s’en remettre à des programmes informatiques pour tenter de maintenir une relation avec la personne décédée.
2. Les avatars numériques post mortem
Les avatars numériques post mortem sont rendus possibles par les nouvelles avancées en intelligence artificielle (IA). Ce sont des agents conversationnels (chatbots) conçus pour simuler une personne décédée. Ils peuvent prendre la forme de simples interfaces textuelles interagissant avec les utilisateurs par des messages écrits, ou ils peuvent être combinés à des systèmes de réalité virtuelle ou même à des robots qui imitent l’apparence, la voix et les gestes de la personne disparue. Ils sont basés sur les grands modèles de langage (GML) – la même technologie d’IA générative à la source de ChatGPT, DeepSeek et Claude.
Ces avatars sont susceptibles de devenir relativement communs à mesure qu’il devient de plus en plus facile de développer des agents conversationnels personnalisés, notamment grâce aux systèmes RAG (Retrieval-Augmented Generation; voir Yang, 2023), plutôt simples à déployer et peu coûteux. Ces systèmes permettent aux agents conversationnels de fournir des réponses plus précises et contextualisées qu’un GML générique. Grâce à eux, un programmeur peut prendre un GML et le lier aux données numériques, telles que les courriels, les messages sur les réseaux sociaux, les photos, les vidéos ou les entrevues d’une personne pour créer un agent conversationnel qui se comporterait de la même façon2. Cette technologie est la même qui permet de créer des « hypertrucages » (deepfakes).
3. Une fausse bonne idée?
Les intuitions individuelles concernant ces avatars risquent d’être polarisées. On peut y voir une manière de transcender la mort ou une dérive troublante des technologies actuelles. Néanmoins, une voie intermédiaire semble possible. D’un côté, nous sommes très sceptiques quant à la tendance à voir ces avatars comme une véritable extension de personnes décédées. Ces agents conversationnels demeurent des programmes informatiques qui ne font que simuler, tant bien que mal, les réactions humaines en s’appuyant sur des tendances observées dans les données d’entraînement. Jusqu’à preuve du contraire, ces programmes n’ont pas de conscience, de sensations ou de souvenirs au sens humain du terme, et, comme nous le montrerons ci-dessous, ils peuvent errer dans leur réponse d’une manière qui ne représente pas fidèlement la personne qu’ils sont censés incarner. De l’autre côté, les avatars post mortem semblent acceptables, voire bénéfiques, dans certaines situations. Prenez l’exemple suivant. Un homme crée un avatar de sa mère, avec le consentement éclairé de celle-ci lors de son vivant. L’homme en question traverse un deuil difficile ; on peut même imaginer qu’il présente un trouble du deuil prolongé. Sous la supervision d’une psychologue, il compose avec la perte de sa mère en gardant un certain contact périodique avec l’avatar ou peut-être en l’utilisant pour clore la relation en disant ses derniers adieux. Si l’avatar est créé avec le consentement de la personne concernée, dans un but précis, et utilisé d’une manière qui permet à l’homme de faire son deuil avec l’appui d’un professionnel de la santé mentale, les craintes liées à son utilisation diminuent (bien sûr, davantage de données probantes seraient nécessaires pour évaluer l’efficacité et l’impact de ces avatars, surtout en contexte thérapeutique). De même, en supposant le consentement de la personne décédée, dans un contexte où l’on comprend que ces avatars ne sont que des programmes informatiques et qu’on ne les utilise que périodiquement sans qu’il y ait d’impact négatif sur le bien-être ou les relations sociales, on ne peut présumer que cet usage devrait être proscrit.
Néanmoins, ces agents conversationnels comportent des limites importantes et des risques élevés (sur les enjeux éthiques liés aux griefbots, voir Cholbi, 2025 ; Öhman et Floridi, 2018 ; et Voinea, 2024). D’un point de vue éthique, on peut penser à la fois aux conséquences néfastes que ces agents conversationnels pourraient avoir sur les utilisateurs et, d’un point de vue déontologique, on peut aussi souligner l’importance de respecter le droit de chacun de conserver un certain contrôle sur son image après sa mort. D’abord, les avatars post mortem sont limités par les données accessibles sur la personne décédée, qui ne peuvent réalistement que capturer une partie de sa personnalité. La manière dont une personne s’exprime dans ses courriels ou ses comportements sur Internet ne sont qu’une facette de sa vie, et pas nécessairement la plus significative (pensez à un avatar censé vous imiter qui ne serait entraîné que sur vos courriels professionnels!). Notre vie publique est typiquement plus performative que notre vie privée, qui est généralement moins facile à saisir avec des données numériques3. Or, c’est cette vie privée qui est la plus significative pour nos proches. Plus profondément, notre personnalité se manifeste non seulement dans nos réponses passées, mais aussi dans notre capacité à évoluer dans le temps à la lumière de nos expériences et de nos réflexions. Un programme d’IA fondé sur l’apprentissage automatique ne peut recréer cela. En ce sens, les avatars post mortem reposent sur une conception simpliste de la personnalité humaine.
Ensuite, les GML ont tendance à halluciner. Dans le contexte des avatars post mortem, ils pourraient simplement lier des mots les uns avec les autres d’une manière qui n’est pas représentative de la personnalité de la personne décédée. Les proches risquent d’être particulièrement sensibles à ces réponses inattendues, ce qui peut provoquer un sentiment d’inconfort (semblable au phénomène de la vallée dérangeante – uncanny valley – ressenti lorsque nous sommes devant une entité presque humaine). De plus, ces hallucinations pourraient faire du tort aux personnes endeuillées. Que se passe-t-il si un avatar se dit souffrant, s’il raconte qu’il est en enfer, ou s’il recommande à l’endeuillé des actes qui lui seraient préjudiciables?
Finalement, certaines personnes pourraient se tourner vers cette technologie pour éviter de faire face à leur nouvelle réalité, sans un être cher. Les impacts négatifs de ces agents conversationnels sur la santé et les relations humaines réelles des personnes endeuillées, comme le risque de dépendance, doivent être considérés. De plus, on ne peut écarter le fait que des compagnies privées pourraient utiliser ces avatars et les données qu’elles recueillent sur les utilisateurs pour exploiter des personnes vulnérables.
4. Pistes de solutions
En somme, bien que les avatars post mortem puissent être acceptables ou même bénéfiques dans certains cas, étant donné les risques qu’ils comportent, il est essentiel d’encadrer leur utilisation en vue de favoriser un deuil sain. Différentes pistes ressortent des observations ci-dessus. Premièrement, ces avatars doivent faire preuve de transparence; il doit être clair qu’ils ne sont pas des imitations parfaites des personnes décédées, mais seulement des programmes informatiques comportant des limites inhérentes. Deuxièmement, le contenu qu’ils génèrent doit être délimité pour éviter qu’ils ne produisent des réponses qui risquent de faire du tort aux utilisateurs. En outre, une réflexion plus profonde sur les effets de la tendance des êtres humains à attribuer des propriétés psychologiques à des entités non humaines (anthropomorphisme) devra être menée. Enfin, les compagnies responsables de ces programmes devraient être tenues de porter attention à l’impact de cette technologie sur les utilisateurs, quitte à ne permettre son utilisation que sous la supervision d’un professionnel de la santé pour assurer le bien-être des personnes endeuillées. Cela risque d’être nécessaire étant donné qu’il est peu probable que des compagnies privées priorisent toujours le bien-être des utilisateurs plutôt que la recherche de profit.
5. Conclusion
Pour conclure, alors que les avatars post mortem sortent de la science-fiction et entrent dans nos vies, il devient urgent d’encadrer leur présence et leur utilisation pour qu’ils respectent les souhaits des morts et pour limiter leur impact négatif4.
Notes et bibliographie
Notes
- Différents modèles du deuil correspondent ainsi plus ou moins bien à l’expérience des personnes endeuillées. On peut d’abord penser au célèbre (et critiqué) modèle de Kübler-Ross en cinq étapes : le déni, la colère, la dépression, la négociation, et l’acceptation (Kübler-Ross, 1969 [2014]). On peut aussi penser au modèle du double processus du deuil de Stoebe et Schut, où le deuil est conçu comme un processus dynamique d’oscillation entre deux pôles complémentaires : d’une part, la restauration, qui suppose l’acceptation progressive de l’absence, la réorganisation du quotidien et l’adoption de nouveaux rôles ou identités et, d’autre part, la perte, caractérisée par des épisodes de tristesse, la remémoration de la personne décédée et le partage de souvenirs avec les proches (Dumont, 2012; Stoebe et Schut, 2015).
- Notons que les avatars numériques fondés sur un GML ne font pas que mémoriser des données; ils extrapolent et, ce faisant, travestissent parfois la réalité.
- D’une manière intéressante, cela soulève une certaine inégalité générationnelle. Alors que les nouvelles générations intègrent davantage les réseaux sociaux dans leur vie et que l’on a accès à davantage de données sur elles, il devrait être de plus en plus facile de créer des avatars pour ces personnes comparativement aux personnes issues de générations antérieures. De plus, on peut se demander si, finalement, la capacité qu’ont ces programmes à imiter des personnes décédées dépend seulement d’un accès à une quantité suffisante de données d’une qualité acceptable pour mieux rendre compte des multiples facettes des comportements. On peut toutefois douter que cela soit une solution. L’augmentation des données d’entraînement ou des modèles de langage plus volumineux ne permet pas d’éviter les hallucinations (Stakelum, 2024). De plus, même si on pouvait éviter les hallucinations, il demeure que ces programmes ne sont qu’une imitation imparfaite des personnes; ces programmes ne font qu’extrapoler une série de mots statistiquement plausible en se basant sur les données d’entraînement. Nous sommes donc loin de pouvoir recréer une personne – avec sa personnalité, sa conscience, ses souvenirs, etc. – dans toute sa complexité.
- Pour une réflexion plus générale sur les risques éthiques de l’IA en général, voir Maclure et Morin-Martel, 2025.