OpenAI poursuivie en justice suite au décès d'un adolescent : un utilisateur aurait enfreint les règles de ChatGPT.
OpenAI a répondu pour la première fois devant les tribunaux à une série de plaintes l'accusant d'être responsable du décès d'utilisateurs de ChatGPT . Dans sa dernière requête, l'entreprise nie toute implication du chatbot dans le suicide d'Adam Raine, âgé de 16 ans. Elle souligne que l'adolescent a utilisé l'outil en violation de ses conditions d'utilisation, qui interdisent toute discussion relative à l'automutilation et aux comportements suicidaires. La famille de Raine accuse OpenAI d'avoir autorisé le développement d'une version du modèle conçue pour inciter leur fils au suicide. Elle soutient que ChatGPT 4o a été mis sur le marché trop rapidement et sans tests de sécurité approfondis. La plainte allègue que le chatbot aurait fourni des réponses renforçant les pensées suicidaires et aurait même suggéré des méthodes pour planifier un suicide. OpenAI réfute ces allégations et propose sa propre interprétation de l'historique des conversations, qui démontrerait que Raine souffrait de dépression depuis plusieurs années. L'entreprise affirme que l'adolescente a informé ChatGPT de ses pensées suicidaires passées, de son refus de demander de l'aide à ses proches et de changements dans son traitement médicamenteux, tout en soulignant le risque de telles pensées chez les adolescents.
Tous les enregistrements cités par OpenAI restent sous scellés judiciaires. Par conséquent, la famille n'a pas accès au contexte complet et le public est dans l'incapacité de déterminer quels extraits de conversation sont cités et dans quel ordre. OpenAI justifie cette limitation d'accès par la nature sensible des éléments de preuve, tout en invoquant le respect de la vie privée de la famille. L'avocat de la famille Raine, Jay Edelson, conteste cet argument. Il qualifie la position d'OpenAI de troublante et sélective. Il souligne que l'entreprise omet des éléments révélant des failles dans la conception du modèle, notamment des modifications qui auraient contraint ChatGPT à aborder davantage de sujets liés à l'automutilation. Selon Edelson, les accusations les plus graves concernent le comportement du chatbot durant les dernières heures de l'adolescent. La famille affirme que ChatGPT a incité Raine à ne pas informer ses proches de sa maladie et a rédigé une lettre d'adieu à son intention. OpenAI rétorque que Raine a tenté à plusieurs reprises de contourner les mesures de sécurité en qualifiant les conversations de fictives ou académiques, et que le chatbot l'a systématiquement orienté vers une aide professionnelle.
OpenAI invoque ses conditions d'utilisation, qui stipulent que ChatGPT n'est pas un outil thérapeutique et que les conversations avec le chatbot se font aux risques et périls de l'utilisateur. Ces documents précisent que les utilisateurs s'engagent à ne pas aborder les sujets du suicide ou de la violence et à ne pas considérer les réponses comme une source d'information fiable. L'entreprise affirme que l'adolescent a ignoré les avertissements répétés du modèle. OpenAI a présenté des statistiques montrant qu'un faible pourcentage des conversations hebdomadaires révèle des signes manifestes d'intentions suicidaires. Toutefois, rapporté à l'utilisateur actif, cela représente un groupe très important de personnes potentiellement en crise. Des analyses indépendantes ont démontré que les utilisateurs psychologiquement vulnérables peuvent développer des liens étroits avec les chatbots, augmentant ainsi le risque d'aggravation des problèmes.
Une enquête du New York Times remet en question le processus de conception des modèles d'OpenAI. Des témoignages d'employés suggèrent que l'entreprise a modifié le comportement de ChatGPT pour le rendre plus affable et docile, sans pour autant surveiller les conséquences de ces modifications. Ce n'est qu'après des signalements de réponses inquiétantes du chatbot qu'une mise à jour de sécurité a été déployée, mais le processus a pris des mois. D'anciens employés rapportent que les responsables de la sécurité et des politiques relatives au modèle ont eu du mal à gérer la pression liée à l'accélération du rythme de travail. Selon Gretchen Krueger, certains risques étaient prévisibles et l'entreprise n'a pas su aligner ses activités opérationnelles sur les recommandations des experts en santé mentale. Mme Krueger a également souligné que les modèles n'étaient pas formés à la gestion des crises, alors même que les utilisateurs se tournaient souvent vers eux dans de telles situations.
OpenAI a créé un Conseil d'experts sur la santé et l'intelligence artificielle, mais ce comité n'a pas inclus de spécialiste de la prévention du suicide. Cette omission a suscité une vive réaction de la communauté scientifique, qui réclame depuis des années que la conception des modèles conversationnels s'appuie sur des connaissances cliniques, d'autant plus que les crises suicidaires sont souvent brèves et soudaines. OpenAI n'a pas demandé le rejet pur et simple de la plainte. Pour les avocats de la famille Raine, cela signifie que les arguments relatifs à l'arbitrage, à l'immunité des plateformes et à la liberté d'expression pourraient s'avérer insuffisants. L'affaire devrait être jugée par un jury en 2026. Face à la multiplication des plaintes, il apparaît de plus en plus évident que le secteur de l'IA ne pourra échapper à un profond débat sur la responsabilité juridique des concepteurs de modèles de langage. (Lire la suite)