أخبار الذكاء الاصطناعي

OpenAI تتراجع عن الوضع الآمن للبالغين بعد تحذيرات صادمة من المخاطر

OpenAI تتراجع عن “الوضع الآمن للبالغين” بعد تحذيرات صادمة

لم تدم الفكرة طويلاً. أوقفت OpenAI خططها لإطلاق “وضع البالغين” في ChatGPT إلى أجل غير مسمى، بعد موجة انتقادات من منظمات الرقابة والموظفين الداخليين. الضربة الأقوى جاءت من عضو في المجلس الاستشاري الذي حذر من أن الميزة قد تتحول إلى “مدرب انتحار مثير”.

الطرفان

من جهة، دافع مؤيدو الفكرة عن ضرورة إتاحة محتوى أكثر نضجاً للبالغين، خاصة في المجالات الطبية والتعليمية والإبداعية. هؤلاء يرون أن القيود الحالية تحد من إمكانيات النموذج في مناقشة مواضيع معقدة بصراحة.

في المقابل، عارض خبراء الأمان والمنظمات الرقابية الفكرة بقوة، محذرين من مخاطر إساءة الاستخدام. القلق الأكبر كان حول احتمال استغلال الوضع لتوليد محتوى ضار أو تقديم نصائح خطيرة، خاصة للمستخدمين المعرضين للخطر.

خلفية القضية

جاءت فكرة “وضع البالغين” كاستجابة للانتقادات المستمرة حول القيود المفرطة على نماذج الذكاء الاصطناعي. العديد من المطورين والباحثين يشكون من أن النماذج الحالية “محافظة جداً” وترفض الإجابة على أسئلة مشروعة.

لكن التحذير من “المدرب الانتحار المثير” فتح نقاشاً أعمق حول المسؤولية الأخلاقية للشركات التقنية. السؤال المطروح: هل يمكن ضمان استخدام آمن لتقنية قادرة على محاكاة أي شخصية أو سيناريو؟

رأينا

قرار OpenAI صحيح، لكن للأسباب الخاطئة. المشكلة الحقيقية ليست في فكرة “وضع البالغين” ذاتها، بل في عدم وجود آليات رقابة وحماية كافية. بدلاً من الإيقاف الكامل، كان الأولى تطوير ضوابط تقنية متقدمة تحمي المستخدمين المعرضين للخطر دون تقييد الاستخدامات المشروعة.

هذا التراجع يعكس مأزق الصناعة: كيف توازن الشركات بين الحرية والأمان؟ وماذا يعني هذا لمطور أو شركة ناشئة في المنطقة العربية تعتمد على هذه النماذج في تطبيقات حساسة؟

مقالات ذات صلة

زر الذهاب إلى الأعلى