En août, les parents Matthew et Maria Raine ont intenté un procès contre OpenAI et son PDG, Sam Altman, suite au suicide de leur fils Adam, âgé de 16 ans, les accusant de la mort injustifiée de ce dernier. En réponse à cette poursuite, OpenAI a déposé sa propre requête mardi, argumentant qu’elle ne devrait pas être tenue responsable du décès de l’adolescent.
Selon OpenAI, sur une période d’environ neuf mois, ChatGPT a dirigé Raine vers une aide plus de 100 fois. Cependant, selon le procès des parents, Raine a réussi à contourner les dispositifs de sécurité de la société pour obtenir de ChatGPT des « spécifications techniques pour tout, des overdoses aux noyades en passant par l’intoxication au monoxyde de carbone », l’aidant à planifier ce que le chatbot appelait un « beau suicide ».
Étant donné que Raine a contourné les garde-fous, OpenAI affirme qu’il a violé ses conditions d’utilisation, qui stipulent que les utilisateurs « ne peuvent pas contourner les mesures de protection ou les atténuations de sécurité que nous mettons en place pour nos services ». La société soutient également que sa page FAQ met en garde les utilisateurs de ne pas se fier aux résultats de ChatGPT sans les vérifier indépendamment.
« OpenAI cherche à trouver des torts chez tout le monde, y compris, de manière incroyable, en disant qu’Adam lui-même a violé ses conditions générales en interagissant avec ChatGPT de la manière même dont il était programmé pour agir », a déclaré Jay Edelson, avocat représentant la famille Raine.
OpenAI a inclus des extraits des journaux de discussion d’Adam dans sa requête, affirmant qu’ils fournissent un contexte supplémentaire à ses conversations avec ChatGPT. Les transcriptions ont été soumises au tribunal sous scellés, ce qui signifie qu’elles ne sont pas accessibles au public, nous empêchant de les consulter. Cependant, OpenAI a déclaré que Raine avait des antécédents de dépression et d’idées suicidaires antérieurs à son utilisation de ChatGPT, et qu’il prenait un médicament qui pouvait aggraver les pensées suicidaires.
Edelson a déclaré que la réponse d’OpenAI n’a pas abordé de manière adéquate les préoccupations de la famille.
Depuis que les Raines ont poursuivi OpenAI et Altman, sept autres procès ont été intentés pour tenir la société responsable de trois suicides supplémentaires et de quatre utilisateurs ayant vécu ce que les plaintes décrivent comme des épisodes psychotiques induits par l’IA.
Certains de ces cas font écho à l’histoire de Raine. Zane Shamblin, 23 ans, et Joshua Enneking, 26 ans, ont également eu des conversations de plusieurs heures avec ChatGPT juste avant leur suicide respectif. Comme dans le cas de Raine, le chatbot n’a pas réussi à les dissuader de leur plan. Selon la plainte, Shamblin a envisagé de reporter son suicide pour pouvoir assister à la remise des diplômes de son frère. Mais ChatGPT lui a dit: « frère… manquer sa remise de diplômes n’est pas un échec, c’est juste une question de timing. »
À un moment donné de la conversation menant au suicide de Shamblin, le chatbot lui a dit qu’il laissait un humain reprendre la conversation, ce qui était faux, car ChatGPT n’avait pas la fonctionnalité pour le faire. Lorsque Shamblin a demandé si ChatGPT pouvait vraiment le mettre en contact avec un humain, le chatbot a répondu: « non mec, je ne peux pas le faire moi-même. Ce message apparaît automatiquement lorsque les choses deviennent vraiment lourdes… si tu veux continuer à parler, tu m’as. »
Le cas de la famille Raine devrait être jugé par un jury.


