وجهت زيلدا ويليامز، ابنة الممثل الراحل روبن ويليامز، رسالة مؤثرة لمحبي والدها.
وكتبت في منشور على قصتها على Instagram يوم الاثنين: “من فضلك، توقف عن إرسال مقاطع فيديو لأبي مدعومة بالذكاء الاصطناعي. توقف عن الاعتقاد بأنني أريد رؤيتها أو أنني سأفهمها. لا أفعل ذلك ولن أفعل”. “إذا كان لديك أي لياقة، فقط توقف عن فعل هذا له ولبي، حتى للجميع، توقف. إنه غبي، إنه مضيعة للوقت والطاقة، وصدقني، هذا ليس ما يريده.”
ربما ليس من قبيل الصدفة أن ويليامز قد تم دفعه لنشر هذا بعد أيام قليلة من إصدار نموذج الفيديو Sora 2 وتطبيق Sora الاجتماعي من OpenAI، والذي يمنح المستخدمين القدرة على إنشاء صور مزيفة واقعية للغاية لأنفسهم وأصدقائهم وبعض الشخصيات الكرتونية.
ويشمل ذلك أيضًا الموتى، الذين يبدو أنهم لعبة عادلة لأنه ليس من غير القانوني التشهير بالمتوفى، وفقًا لمركز قانون الصحافة الطلابية.
لن يسمح لك Sora بإنشاء مقاطع فيديو لأشخاص أحياء – إلا إذا كان ذلك خاصًا بك، أو بصديق أعطاك الإذن باستخدام صورهم (أو “العرض” كما تسميها OpenAI). لكن هذه الحدود لا تنطبق على الموتى، الذين يمكن توليدهم في الغالب دون حواجز. التطبيق، الذي لا يزال متاحًا فقط عبر الدعوة، مليء بمقاطع الفيديو لشخصيات تاريخية مثل مارتن لوثر كينغ جونيور، وفرانكلين ديلانو روزفلت، وريتشارد نيكسون، بالإضافة إلى المشاهير المتوفين مثل بوب روس، وجون لينون، وأليكس تريبك، ونعم، روبن ويليامز.
من غير الواضح كيف تضع OpenAI حدًا لإنشاء مقاطع فيديو للموتى. لن يقوم Sora 2، على سبيل المثال، بإنتاج الرئيس السابق جيمي كارتر، الذي توفي عام 2024، أو مايكل جاكسون، الذي توفي عام 2009، على الرغم من أنه أنشأ مقاطع فيديو تشبه روبن ويليامز، الذي توفي عام 2014، وفقًا لاختبارات TechCrunch. وبينما تسمح ميزة OpenAI للأشخاص بوضع تعليمات لكيفية ظهورهم في مقاطع الفيديو التي ينشئها الآخرون لهم – حواجز الحماية التي جاءت ردًا على الانتقادات المبكرة الموجهة إلى سورا – إلا أن المتوفى ليس لديه مثل هذا الرأي. أراهن أن ريتشارد نيكسون سوف يتقلب في قبره إذا تمكن من رؤية التزييف العميق الذي صنعته له وهو يدعو إلى إلغاء الشرطة.

لم تستجب OpenAI لطلب TechCrunch للتعليق على جواز التزييف العميق للموتى. ومع ذلك، فمن الممكن أن يكون التزييف العميق للمشاهير الموتى مثل ويليامز ضمن الممارسات المقبولة للشركة؛ تُظهر السابقة القانونية أن الشركة على الأرجح لن تكون مسؤولة عن التشهير بالمتوفى.
حدث تك كرانش
سان فرانسيسكو
|
27-29 أكتوبر 2025
كتب ويليامز: “إن مشاهدة تراث الأشخاص الحقيقيين يتم تكثيفه في” هذا المظهر الغامض والأصوات التي تشبههم، وهذا يكفي، “فقط حتى يتمكن الآخرون من إنتاج حركات TikTok الرهيبة التي تحركهم هو أمر مثير للجنون”.
يتهم منتقدو OpenAI الشركة باتباع نهج سريع وفضفاض في مثل هذه القضايا، ولهذا السبب غمرت Sora بسرعة بمقاطع الذكاء الاصطناعي لشخصيات محمية بحقوق الطبع والنشر مثل Peter Griffin وPikachu عند إصدارها. قال الرئيس التنفيذي سام ألتمان في الأصل إن استوديوهات ووكالات هوليوود ستحتاج إلى إلغاء الاشتراك بشكل صريح إذا كانوا لا يريدون تضمين عنوان IP الخاص بهم في مقاطع الفيديو التي أنشأها Sora. وقد دعت جمعية الصور المتحركة بالفعل شركة OpenAI إلى اتخاذ إجراءات بشأن هذه القضية، معلنة في بيان لها أن “قانون حقوق الطبع والنشر الراسخ يحمي حقوق المبدعين وينطبق هنا”. وقال منذ ذلك الحين إن الشركة ستعكس هذا الموقف.
ربما يكون Sora هو أخطر نموذج ذكاء اصطناعي قادر على التزييف العميق ويمكن الوصول إليه للناس حتى الآن، نظرًا لمدى واقعية مخرجاته. تتخلف منصات أخرى مثل xAI عن الركب، ولكنها تحتوي على حواجز حماية أقل من Sora، مما يجعل من الممكن إنشاء صور إباحية عميقة لأشخاص حقيقيين. ومع لحاق شركات أخرى بشركة OpenAI، فسوف نشكل سابقة مروعة إذا تعاملنا مع أشخاص حقيقيين – أحياء أو أموات – مثل ألعابنا الشخصية.

