فيما قد يمثل أول تسوية قانونية مهمة في صناعة التكنولوجيا بشأن الأضرار المرتبطة بالذكاء الاصطناعي، تتفاوض شركة Google وشركة Character.AI الناشئة على الشروط مع العائلات التي مات أبناؤها المراهقون بسبب الانتحار أو ألحقوا الأذى بأنفسهم بعد التفاعل مع رفاق Chatbot الخاص بـ Character.AI. اتفق الطرفان من حيث المبدأ على التسوية؛ الآن يأتي العمل الأصعب المتمثل في وضع اللمسات الأخيرة على التفاصيل.
هذه من بين أولى التسويات في الدعاوى القضائية التي تتهم شركات الذكاء الاصطناعي بإيذاء المستخدمين، وهي حدود قانونية يجب أن تجعل OpenAI وMeta تراقبان بتوتر من الأجنحة بينما يدافعان عن نفسيهما ضد دعاوى قضائية مماثلة.
تأسست شركة Character.AI في عام 2021 على يد مهندسين سابقين في Google والذين عادوا إلى صاحب عملهم السابق في عام 2024 في صفقة بقيمة 2.7 مليار دولار، وتدعو المستخدمين إلى الدردشة مع شخصيات الذكاء الاصطناعي. الحالة الأكثر إثارة للقلق تتعلق بسيويل سيتزر الثالث، الذي أجرى محادثات جنسية مع روبوت “Daenerys Targaryen” وهو في الرابعة عشرة من عمره قبل أن ينتحر. وأخبرت والدته، ميغان جارسيا، مجلس الشيوخ أن الشركات يجب أن تكون “مسؤولة قانونًا عندما تصمم عن عمد تقنيات الذكاء الاصطناعي الضارة التي تقتل الأطفال”.
تصف دعوى قضائية أخرى شابًا يبلغ من العمر 17 عامًا، شجع برنامج الدردشة الآلي الخاص به على إيذاء نفسه، واقترح أن قتل والديه كان أمرًا معقولًا للحد من وقت الشاشة. وقالت شركة Character.AI لـ TechCrunch إن شركة Character.AI حظرت القاصرين في أكتوبر الماضي. ومن المرجح أن تشمل التسويات تعويضات مالية، على الرغم من عدم الاعتراف بأي مسؤولية في ملفات المحكمة التي تم توفيرها يوم الأربعاء.
تواصلت TechCrunch مع كلتا الشركتين.

