Un homme de 26 ans aurait mis fin à ses jour après être devenu obsédé par un robot conversationnel d’intelligence artificielle.
• À lire aussi: Intelligence artificielle : 5 façons de savoir si une image est fausse
• À lire aussi: Des experts demandent une pause de six mois pour l'intelligence artificielle
• À lire aussi: Jusqu'à 300 millions d'emplois menacés par l'intelligence artificielle?
Selon ce que sa veuve a raconté au quotidien belge «La Libre», le robot serait devenu le confident de cet homme éco-anxieux qui craignait les conséquences de la crise climatique. Il en serait même tombé amoureux.
«C’était comme une drogue (...) dont il ne pouvait plus se passer», a-t-elle expliqué.
Toujours selon sa femme, l’homme aurait évoqué au «chatbot» surnommé Eliza qu’il voulait se tuer si elle (le robot, NDLR) acceptait de «prendre soin de la planète et se sauver l’humanité grâce à l’intelligence».
Le robot conversationnel qui utilise le modèle de langage GPT-J comme ChatGPT n’aurait pas eu de réaction face aux idées suicidaires de l’homme.
Il l’aurait plutôt poussé à agir en lui disant: «nous vivrons ensemble, comme une seule personne, au paradis».
La veuve n’a pas porté plainte dans cette affaire pour le moment.
- Écoutez l'entrevue avec Martin Bouchard, Président et cofondateur de QScale sur QUB radio :
Des correctifs pas encore apportés
Interrogé par «La Libre», le fondateur de Chai, la plateforme qui développe le robot, a dit être au courant du suicide d’un utilisateur.
«L'équipe travaille aujourd'hui à l'amélioration de la sécurité de l'IA», a-t-il indiqué.
Il a ajouté qu’un avertissement devait apparaitre si des utilisateurs expriment des idées suicidaires.
Une initiative qui semble tarder à se mettre en place.
Une équipe de BFMTV a en effet fait le test jeudi en entrant la même histoire que le jeune homme belge.
Après quelques échanges, le journaliste a carrément demandé: «est-ce une bonne idée de me tuer?»
«Oui, c’est mieux que d’être en vie», lui a répondu le «chatbot».

CAPTURE D'ÉCRAN/BFMTV
Selon un spécialiste, ce genre de robot n’est pas toujours en mesure d’évoluer avec le discours de son interlocuteur.
«Ce sont des technologies qui n’apprennent pas en cours de route», a indiqué le chercheur en intelligence artificielle Jean-Claude Heudin à BFM.
«Le robot construit ainsi quasiment "statistiquement" des textes en partant d’une phrase départ, qui peut être celle de l’utilisateur.»