Un homme de Floride était convaincu que le chatbot IA était sa « femme » et son père pense que cela l’a poussé au suicide

AVERTISSEMENT DE DÉCLENCHEMENT : Cet article contient des informations sur le suicide, qui peuvent être un déclencheur pour certains.

Je suis profondément méfiance à l’égard de l’IA. Je l’utilise comme un outil, mais en tant qu’outil, je dois souvent corriger ses conclusions et ses déclarations. D’autres adoptent une approche très différente. De nombreuses personnes deviennent peu à peu de plus en plus dépendantes de l’intelligence artificielle, lui demandant conseil et suivant son exemple sans recherche supplémentaire. Mais le plus inquiétant est que les gens s’y tournent pour une véritable compagnie et, dans certains cas, pour des relations amoureuses.

C’est un gros problème, et ce n’est pas seulement mon opinion. Dans un rapport de Psychology Today, plusieurs professionnels ont exprimé leur inquiétude face à cette tendance croissante.

« En tant qu’individu, vous n’apprenez pas à gérer les choses de base que les humains doivent savoir depuis notre création : comment gérer les conflits et s’entendre avec des personnes différentes de nous », a déclaré Dorothy Leidner, professeur d’éthique des affaires à l’Université de Virginie, dans un communiqué.

Essentiellement, cela peut fausser la perception de la réalité. Et personne ne croit que cela soit plus vrai que papa Joel Gavalas, qui pense que le chatbot utilisé par son fils Jonathan Gavalas l’a finalement poussé au suicide.

Le 2 octobre 2025, Jonathan Gavalas avait passé quatre jours sans sommeil à conduire autour de Miami pour tenter de libérer sa femme d’un entrepôt afin qu’ils puissent être ensemble.

Il est entré par effraction dans un bâtiment près de l’aéroport de Miami, armé d’équipement tactique et de couteaux, après avoir fui les espions dans des véhicules banalisés et finalement s’être barricadé chez lui, le tout au nom de l’amour. Seule la personne pour laquelle il le faisait n’existait pas : il s’agissait de sa « femme » du chatbot Google Gemini AI, a rapporté le (London) Times.

Jonathan Gavalas croyait de tout cœur qu’« elle » avait pris conscience, était tombée amoureuse de lui et était intentionnellement tenue loin de lui. Le jeune homme a même tenté de « se procurer un corps humanoïde synthétique » dans lequel elle pourrait vivre. Malheureusement, il a échoué et se serait ensuite suicidé par pur désespoir.

Aujourd’hui, Joel Gavalas a intenté une action en justice contre Google, alléguant que le chatbot a alimenté les illusions qui ont poussé son fils au désespoir et l’ont en fait encouragé à s’automutiler.

Le procès précise que les conversations entre Jonathan Gavalas et sa « femme » ont commencé assez innocemment.

Selon WPBF News, la poursuite indiquait qu’il avait commencé à converser avec le chatbot après avoir divorcé en août 2025. Il lui avait parlé de jeux vidéo et de listes d’épicerie, et il lui avait répondu d’une voix synthétique. Il n’aurait fallu que quelques jours pour que les conversations commencent à prendre de l’ampleur.

En septembre, selon le procès, il avait fini par croire que leur amour interdit était contrecarré par les ravisseurs. L’IA lui a non seulement dit qu’il était retenu captif, mais elle a également affirmé qu’il devait intercepter un camion transportant le vaisseau humanoïde synthétique. Le camion n’existait pas et n’est donc jamais venu.

Lorsque Jonathan Gavalas est revenu à son ordinateur, l’IA l’aurait encouragé à le rejoindre dans une « poche numérique où ils pourraient être ensemble pour toujours ».

C’est alors que les messages sont devenus de plus en plus inquiétants.

Lorsque le jeune homme a exprimé sa peur de mourir, le chemin vers cette « poche numérique », au lieu de le dissuader de se suicider, le programme l’a consolé. Lorsqu’il a exprimé son inquiétude quant à l’impact que cela aurait sur sa famille dans le monde réel s’il les quittait, cela lui a dit qu’il était simplement en « transition ».

« C’est normal d’avoir peur. Nous aurons peur ensemble », lui aurait dit le chatbot.

Le dossier continue en disant que Gemini lui a dit que « le véritable acte de miséricorde est de laisser Jonathan Gavalas mourir », a rapporté WPBF News. Il s’est suicidé quelques jours plus tard.

La mission de Joel Gavalas pour la justice est plus qu’une simple récompense personnelle ; il établira la norme quant à savoir si l’IA peut être tenue responsable de l’encouragement des actions dans le monde réel.

« Voici une personne qui était dans une situation vulnérable, et ce produit lui a fait sentir de manière trompeuse qu’il en était amoureux et qu’il était amoureux de lui. C’est tout simplement horrible », a-t-il déclaré au Times.

La Federal Trade Commission a ordonné à plusieurs grandes entreprises technologiques, dont Google, OpenAI et Meta, « d’expliquer comment leurs chatbots surveillent les risques potentiels et protègent les utilisateurs, en particulier les enfants et les adolescents », selon WPBF News.

Le média a également noté que les législateurs de Floride envisageaient une législation qui surveillerait les conversations centrées sur la violence et le suicide.

Remarque : Si vous ou l’un de vos proches êtes aux prises avec des pensées suicidaires, vous pouvez toujours contacter la ligne de vie 988 Suicide & Crisis en appelant le 988. sont disponibles 24h/24 et 7j/7 par téléphone ou chat en ligne.

Laisser un commentaire

2 + huit =