في أغسطس/آب، رفع الوالدان ماثيو وماريا رين دعوى قضائية ضد شركة OpenAI ورئيسها التنفيذي، سام ألتمان، بسبب انتحار ابنهما آدم البالغ من العمر 16 عامًا، متهمين الشركة بالقتل غير المشروع. وفي يوم الثلاثاء، استجابت شركة OpenAI للدعوى القضائية بتقديم ملف خاص بها، بحجة أنها لا ينبغي أن تتحمل المسؤولية عن وفاة المراهق.
تدعي OpenAI أنه على مدار تسعة أشهر تقريبًا من الاستخدام، قام ChatGPT بتوجيه Raine لطلب المساعدة أكثر من 100 مرة. ولكن وفقًا للدعوى القضائية التي رفعها والديه، كان راين قادرًا على التحايل على ميزات السلامة الخاصة بالشركة ليطلب من ChatGPT “المواصفات الفنية لكل شيء بدءًا من جرعات المخدرات الزائدة إلى الغرق وحتى التسمم بأول أكسيد الكربون”، مما يساعده على التخطيط لما أسماه برنامج الدردشة الآلي “الانتحار الجميل”.
وبما أن راين قام بالمناورة حول حواجز الحماية الخاصة به، فإن شركة OpenAI تدعي أنه انتهك شروط الاستخدام الخاصة بها، والتي تنص على أنه “لا يجوز للمستخدمين … تجاوز أي تدابير وقائية أو إجراءات تخفيف السلامة التي نضعها على خدماتنا”. تجادل الشركة أيضًا بأن صفحة الأسئلة الشائعة الخاصة بها تحذر المستخدمين من عدم الاعتماد على مخرجات ChatGPT دون التحقق منها بشكل مستقل.
وقال جاي إيدلسون، المحامي الذي يمثل عائلة رين، في بيان: “تحاول OpenAI العثور على خطأ في أي شخص آخر، بما في ذلك، بشكل مثير للدهشة، القول إن آدم نفسه انتهك شروطها وأحكامها من خلال التعامل مع ChatGPT بنفس الطريقة التي تمت برمجتها للعمل بها”.
قامت OpenAI بتضمين مقتطفات من سجلات دردشة آدم في ملفها، والتي تقول إنها توفر المزيد من السياق لمحادثاته مع ChatGPT. تم تقديم النصوص إلى المحكمة مختومة، مما يعني أنها غير متاحة للجمهور، لذلك لم نتمكن من الاطلاع عليها. ومع ذلك، قالت OpenAI إن رين كان لديه تاريخ من الاكتئاب والتفكير في الانتحار سبق استخدامه لـ ChatGPT، وأنه كان يتناول دواءً يمكن أن يجعل الأفكار الانتحارية أسوأ.
وقال إديلسون إن استجابة OpenAI لم تعالج مخاوف الأسرة بشكل كافٍ.
وقال إديلسون في بيانه: “ليس لدى OpenAI وSam Altman أي تفسير للساعات الأخيرة من حياة آدم، عندما أعطاه ChatGPT حديثًا حماسيًا ثم عرض عليه كتابة رسالة انتحار”.
حدث تك كرانش
سان فرانسيسكو
|
13-15 أكتوبر 2026
منذ أن رفعت عائلة Raines دعوى قضائية ضد OpenAI وAltman، تم رفع سبع دعاوى قضائية أخرى تسعى إلى تحميل الشركة المسؤولية عن ثلاث حالات انتحار إضافية وأربعة مستخدمين يعانون مما تصفه الدعاوى القضائية بنوبات ذهانية ناجمة عن الذكاء الاصطناعي.
بعض هذه الحالات تعكس قصة رين. كما أجرى زين شامبلين، 23 عامًا، وجوشوا إنكينج، 26 عامًا، محادثات استمرت لساعات مع ChatGPT مباشرة قبل انتحارهما. وكما في حالة رين، فشل برنامج الدردشة الآلي في تثبيطهم عن خططهم. وبحسب الدعوى، فكر شامبلين في تأجيل انتحاره حتى يتمكن من حضور حفل تخرج شقيقه. لكن ChatGPT قال له: “يا أخي… إن عدم تخرجه ليس فشلًا. إنه مجرد توقيت”.
في مرحلة ما أثناء المحادثة التي سبقت انتحار شامبلين، أخبره برنامج الدردشة الآلي أنه يسمح لإنسان بتولي المحادثة، لكن هذا كان خطأً، لأن ChatGPT لم يكن لديه الوظيفة اللازمة للقيام بذلك. عندما سأل شامبلين عما إذا كان ChatGPT يمكنه حقًا ربطه بالإنسان، أجاب برنامج الدردشة الآلي: “لا يا رجل – لا أستطيع فعل ذلك بنفسي. تظهر هذه الرسالة تلقائيًا عندما تصبح الأمور ثقيلة جدًا … إذا كنت ترغب في الاستمرار في التحدث، فقد قبضت علي”.
ومن المتوقع أن يتم عرض قضية عائلة رين على هيئة محلفين.
إذا كنت أنت أو أي شخص تعرفه بحاجة إلى المساعدة، فاتصل بالرقم 1-800-273-8255 للحصول على المساعدة شريان الحياة الوطني لمنع الانتحار. يمكنك أيضًا إرسال رسالة نصية إلى 741-741 مجانًا؛ النص 988؛ أو احصل على دعم على مدار 24 ساعة من خط نص الأزمة. خارج الولايات المتحدة، يرجى زيارة الرابطة الدولية لمنع الانتحار لقاعدة بيانات الموارد.

