/news/techno

L’IA qui fait parler les morts: «Pour le deuil, ce n’est vraiment pas une bonne idée»

De nouveaux outils permettant de simuler une conversation avec des personnes décédées au moyen de l’intelligence artificielle seraient néfastes pour faire le deuil d’un être cher.

C’est du moins l’avis que le psychologue Paul Langevin a partagé en entrevue avec TVA Nouvelles.

«Je me suis posé beaucoup de questions et j’ai contacté quelques collègues. On est tous d’accord pour dire que pour le deuil, ce n’est vraiment pas une bonne idée», affirme M. Langevin. 

Des logiciels comme Forever Voices permettent pour l’instant aux utilisateurs de simuler des conversations avec des personnes décédées comme Steve Jobs, par exemple.

La perspective où il serait possible de télécharger la voix d’un être cher ayant perdu la vie donne des maux de tête au psychologue.

«Dans un processus de deuil, il y a des lâcher-prises qu’on doit faire, explique-t-il. Et là, où on se questionne, c’est si tu es toujours en contact et tu penses que c’est la réalité, que tu parles à quelqu’un parce que tu as de la peine et que tu es vulnérable, c’est sûr qu’il va y avoir des difficultés, parce que la personne va avoir de la misère à passer à l’étape suivante et même reprendre sa vie.»

Il s’agit déjà d’un phénomène que les psychologues observent lorsqu’une personne regarde à répétition la vidéo de la personne défunte.

«On est obligé de leur dire de mettre ça de côté ou qu’ils demandent à un proche de venir chercher le DVD ou la clé USB pour qu’ils la gardent jusqu’à ce qu’ils soient plus aptes à les écouter», continue-t-il.

Bien qu’il soit normal de parler à une personne défunte, c’est la réponse que permet l’IA qui serait problématique.

«Dans un processus de deuil, c’est sain de parler aux gens qui sont décédés, mais ils ne répondent pas, donc c’est une autocommunication, mentionne le psychologue. Là on parle d’autres choses. La personne répond, et avec ce qu’elle répond, on peut en faire n’importe quoi.» 

Les personnes mal intentionnées font craindre le pire au psychologue.

«On est fragile [...] donc ce qui me fait peur, ce sont les gens mal intentionnés qui feraient dire n’importe quoi à n’importe qui dans l’intelligence artificielle, c’est ça qui est dangereux.»

D’autres utilisations de l’intelligence artificielle dont la simulation d’une relation amoureuse est également à craindre, selon M. Langevin.

«Si on n’est pas capable de vivre notre vie au naturel, et qu’on doit tomber en amour avec un robot, et là à la limite, ils vont mettre l’effigie de l’ancien conjoint sur le robot, donc là ça va les empêcher d’avancer», partage-t-il.

Voyez l’entrevue complète dans la vidéo ci-dessus

Commentaires

Vous devez être connecté pour commenter. Se connecter

Bienvenue dans la section commentaires! Notre objectif est de créer un espace pour un discours réfléchi et productif. En publiant un commentaire, vous acceptez de vous conformer aux Conditions d'utilisation.