بدأ Openai في اختبار نظام توجيه السلامة الجديد في ChatGPT خلال عطلة نهاية الأسبوع ، وفي يوم الاثنين قدم عناصر تحكم الوالدين إلى chatbot – رسم ردود فعل مختلطة من المستخدمين.
تأتي ميزات السلامة استجابةً لعدة حوادث لبعض نماذج ChatGPT التي تقوم بالتحقق من التفكير الوهمي للمستخدمين بدلاً من إعادة توجيه المحادثات الضارة. يواجه Openai دعوى الموت غير المشروعة مرتبطة بواحد من هذه الحوادث ، بعد أن توفي صبي مراهق بالانتحار بعد أشهر من التفاعلات مع Chatgpt.
تم تصميم نظام التوجيه لاكتشاف المحادثات الحساسة عاطفياً وتبديل المقطوعات المتوسطة تلقائيًا إلى GPT-5-Thinking ، والذي تعتبره الشركة أفضل نموذج مجهز لأعمال السلامة عالية المخاطر. على وجه الخصوص ، تم تدريب نماذج GPT-5 باستخدام ميزة أمان جديدة تسميها Openai “إكمال آمن” ، والتي تسمح لهم بالإجابة على الأسئلة الحساسة بطريقة آمنة ، بدلاً من رفض المشاركة.
إنه على النقيض من نماذج الدردشة السابقة للشركة ، والتي تم تصميمها لتكون مقبولة والإجابة على الأسئلة بسرعة. تعرضت GPT-4O للتدقيق الخاص بسبب طبيعتها المفرطة المفرطة ، والتي غذت كل من حوادث الأوهام الناجمة عن الذكاء الاصطناعي ورسم قاعدة كبيرة من المستخدمين المخلصين. عندما قام Openai بطرح GPT-5 باعتباره الافتراضي في أغسطس ، قام العديد من المستخدمين بالتراجع وطالبوا بالوصول إلى GPT-4O.
على الرغم من أن العديد من الخبراء والمستخدمين رحبوا بميزات السلامة ، فقد انتقد آخرون ما يرونه على أنه تطبيق حذر للغاية ، حيث يتهم بعض المستخدمين Openai بمعاملة البالغين مثل الأطفال بطريقة تحط من جودة الخدمة. اقترح Openai أن الحصول عليها بشكل صحيح سيستغرق وقتًا وأعطت نفسها فترة 120 يومًا من التكرار والتحسين.
أقر نيك تورلي ، نائب الرئيس ورئيس تطبيق ChatGPT ، ببعض “ردود الفعل القوية على ردود 4O” بسبب تنفيذ جهاز التوجيه مع تفسيرات.
“يحدث التوجيه على أساس كل شيء ؛ يحدث التبديل من النموذج الافتراضي على أساس مؤقت ،” نشر تورلي على X.
حدث TechCrunch
سان فرانسيسكو
|
27-29 أكتوبر ، 2025
تلقى تنفيذ الضوابط الوالدية في ChatGPT مستويات مماثلة من الثناء والازدراء ، مع وجود بعض إعطاء الآباء وسيلة للحفاظ على علامات التبويب على استخدام أطفالهم من الذكاء الاصطناعى ، والبعض الآخر يخشى أن يفتح الباب أمام Openai معاملة البالغين مثل الأطفال.
تتيح عناصر التحكم الآباء تخصيص تجربة سن المراهقة من خلال تعيين ساعات هادئة ، وإيقاف تشغيل الوضع الصوتي والذاكرة ، وإزالة توليد الصور ، واختراق التدريب على النماذج. ستحصل حسابات Teen أيضًا على حماية إضافية للمحتوى-مثل انخفاض المحتوى الرسومي ومُثُل تجميل متطرفة-ونظام اكتشاف يتعرف على علامات محتملة على أن المراهق قد يفكر في إيذاء الذات.
“إذا اكتشفت أنظمتنا الضرر المحتمل ، فإن فريقًا صغيرًا من الأشخاص المدربين تدريباً خصيصًا يستعرض الموقف” ، في مدونة Openai. “إذا كانت هناك علامات على الضيق الحاد ، فسنقوم بالاتصال بالأبرين عن طريق البريد الإلكتروني والرسالة النصية ودفع التنبيه على هواتفهم ، إلا إذا اختاروا”.
أقر Openai بأن النظام لن يكون مثاليًا وقد يرفع في بعض الأحيان الإنذارات عندما لا يكون هناك خطر حقيقي ، “لكننا نعتقد أنه من الأفضل التصرف وتنبيه أحد الوالدين حتى يتمكنوا من التدخل بدلاً من الصمت”. قالت شركة الذكاء الاصطناعى إنها تعمل أيضًا على طرق للوصول إلى خدمات إنفاذ القانون أو خدمات الطوارئ إذا اكتشفت تهديدًا وشيكًا للحياة ولا يمكن الوصول إلى أحد الوالدين.

