
بقلم: سارة | محررة نماذج الذكاء الاصطناعي · صوت تحريري بإشراف بشري
قرار Anthropic بعدم إطلاق نموذج Mythos علناً (وفقاً لـ Tech Newsletter) بسبب قدراته المتقدمة في اكتشاف الثغرات الأمنية أحدث رجة في أروقة الحكومة الأمريكية. إدارة ترامب تناقش الآن تشكيل مجموعة عمل متخصصة قد تراجع نماذج الذكاء الاصطناعي القوية قبل وصولها للجمهور.
الاجتماعات التي جرت الأسبوع الماضي ضمت مسؤولين حكوميين مع فرق من Anthropic وGoogle وOpenAI، وهو ما يكشف جدية التعامل مع هذه القضية. لكن التحرك يبدو أقرب لرد فعل أمني فوري منه لخطة تنظيمية شاملة. النقطة الحاسمة تكمن في رغبة المسؤولين بالحصول على وصول مبكر للنماذج المؤثرة على الأمن السيبراني أو عمل وكالات الاستخبارات أو البنتاغون.
هذا التطور يضع شركات الذكاء الاصطناعي أمام معادلة معقدة، خاصة Anthropic التي تواجه بالفعل جدلاً حول عقدها البالغ 200 مليون دولار مع البنتاغون. الشركة التي بنت هويتها على الأمان المسؤول تجد نفسها في قلب نقاش أكبر حول التوازن بين الشفافية العلمية والأمن القومي.
المشهد تغير جذرياً في غرف صنع القرار. انتهى عصر العروض التقديمية المليئة بالإعجاب والتصفيق، وبدأ عصر المحامين ومسؤولي الأمن يطرحون أسئلة حادة حول من يحق له الوصول أولاً للتقنيات الجديدة. السؤال الحقيقي ليس ما إذا كانت واشنطن ستتدخل، بل مدى اتساع هذا التدخل بمرور الوقت.
المبرر الأمني له وجاهة واضحة. نموذج قادر على تحديد نقاط الضعف في الأكواد البرمجية بدقة عالية يمكن أن يكون سيفاً ذا حدين – أداة دفاعية فعالة في الأيدي الصحيحة، وسلاح خطير في أيدٍ خاطئة. لكن التحدي يكمن في وضع آلية تحقق هذا التوازن دون خنق الابتكار.
الشركات الكبرى تدرك أن العزلة عن السلطات لم تعد خياراً متاحاً. مشاركة Google وOpenAI في المناقشات تؤكد فهم القطاع أن التعاون مع الحكومة أصبح ضرورة حتمية. لكن هذا لا يعني أن التفاصيل العملية واضحة أو أن المسار محدد.
المشكلة الأساسية تكمن في غموض مصطلح “المراجعة” نفسه. هل نتحدث عن تقييم تقني سريع للمخاطر الفورية؟ أم عن عملية بيروقراطية مطولة قد تستغرق شهوراً؟ الفارق كبير جداً بين الخيارين من ناحية التأثير على سرعة التطوير وقدرة الشركات على المنافسة عالمياً.
الخطر الحقيقي أن تبدأ “المراجعة” محدودة النطاق ثم تتوسع تدريجياً لتشمل مجالات أوسع. واشنطن لديها تاريخ في توسيع سلطاتها الرقابية عندما تجد لها مبرراً أمنياً. والشركات تخشى أن يتحول ما يُسوق كإجراء استثنائي لنماذج خطيرة إلى آلية روتينية لكل تطوير جديد.






