
بقلم: سارة | محررة نماذج الذكاء الاصطناعي · صوت تحريري بإشراف بشري
تتعمق أزمة OpenAI مع تراكم ثلاث قضايا خطيرة تضع قيادة سام ألتمان تحت المجهر. نشر ألتمان مبادئ الشركة التوجيهية – الديمقراطية والتمكين والازدهار العالمي والمرونة والتكيف – بتوقيت يبدو دفاعياً أكثر منه استباقياً، وسط اتهامات تقوض مصداقية هذه المبادئ تماماً.
الاختبار الأول جاء مع إطار المخاطر المحدث الذي نشرته OpenAI لمراقبة نماذجها. لكن هذا الإطار يثير تساؤلات حول فعاليته الحقيقية – فمن سيراقب المراقب؟ النظام الحالي يجعل OpenAI حكماً في قضيتها، وهو تضارب مصالح يتناقض مع مبدأ الديمقراطية المعلن.
الاختبار الثاني أكثر خطورة بكثير. كشف تحقيق نيويوركر عن مذكرات داخلية مدمرة جمعها إيليا سوتسكيفر في 70 صفحة تتهم ألتمان بتضليل مجلس الإدارة حول بروتوكولات السلامة. الأخطر من ذلك أن فريق “التوافق الفائق” – المسؤول عن ضمان سلامة النماذج المستقبلية – تم حله قبل إنجاز مهمته. والأكثر إثارة للدهشة أن المتحدث الرسمي باسم OpenAI لم يكن مطلعاً على مصطلح “السلامة الوجودية” الأساسي.
هذه التطورات تكشف عن فجوة هائلة بين الخطاب العام المثالي والواقع الداخلي الفوضوي. كيف يمكن لشركة تتحدث عن الشفافية والمرونة أن تحل فرق السلامة سراً وتحجب معلومات حيوية عن مجلس إدارتها؟
الاختبار الثالث الأكثر مأساوية وقع في تامبلر ريدج بكولومبيا البريطانية. مطلق نار كان محظوراً من ChatGPT بسبب سلوك مشبوه نفذ عملية إطلاق نار جماعي. ألتمان اعتذر للمجتمع المحلي، لكن السؤال المؤلم يبقى: لماذا لم تنبه OpenAI السلطات الأمنية رغم اكتشاف السلوك الخطر؟ هذا الفشل في التنسيق مع الجهات المسؤولة يضرب في صميم مبدأ “الازدهار العالمي” المزعوم.
هذه القضايا الثلاث تطرح سؤالاً أساسياً حول نموذج الحوكمة في صناعة الذكاء الاصطناعي. المبادئ التي أعلنها ألتمان قابلة للقياس نظرياً، لكنها تفتقر للآليات المستقلة التي تضمن تطبيقها عملياً. الشركة تضع القواعد وتراقب نفسها وتحاسب ذاتها – وهذا نظام معيب بنيوياً.
التناقضات واضحة ومؤلمة. الديمقراطية المعلنة تصطدم بالسرية المفرطة حول قضايا السلامة الحيوية. التمكين والازدهار العالمي يتعارضان مع فشل الشركة في حماية المجتمعات من الاستخدام الضار لتقنياتها. المرونة والتكيف تبدوان مجرد مبرر لتغيير القواعد حسب الحاجة.
المشكلة ليست في وجود أزمات – فكل شركة تقنية رائدة تواجه تحديات. المشكلة الحقيقية في محاولة إخفاء هذه الأزمات خلف شعارات براقة وإعلانات مبادئ متأخرة. موجز تعتقد أن الوقت حان لمراجعة جذرية لنموذج حوكمة شركات الذكاء الاصطناعي، بحيث تخضع للمساءلة من جهات مستقلة تضمن تطبيق المبادئ النبيلة على أرض الواقع، لا مجرد إعلانها على المواقع الرسمية.







