تُحدَّث يومياً

مصدرُك العربي
لمستقبل الذكاء الاصطناعي

أخبار، تقارير، أدوات وتحليلات يومية — كل ما تحتاجه لمتابعة ثورة الذكاء الاصطناعي باللغة العربية

✅ تم الاشتراك!
أخبار الذكاء الاصطناعي

وكالة الأمن القومي تستخدم Mythos من Anthropic رغم منعه

🎧 استمع للملخص

بقلم: سارة | محررة نماذج الذكاء الاصطناعي · صوت تحريري بإشراف بشري

كشف تقرير حديث أن وكالة الأمن القومي الأمريكية (NSA) تستخدم نموذج Mythos التابع لشركة Anthropic بشكل داخلي، رغم أن البنتاغون أدرج هذا النموذج ضمن قائمة الأدوات المحظورة للاستخدام في المؤسسات الدفاعية والأمنية الأمريكية.

يأتي هذا الكشف ليضع إصبعه على جرح مفتوح في إدارة الذكاء الاصطناعي داخل الحكومة الأمريكية، حيث تتعامل وكالات مختلفة مع نفس التقنيات بمعايير متناقضة تماماً. بينما يشدد البنتاغون على منع استخدام Mythos لأسباب أمنية لم يكشف عنها التقرير، تواصل NSA الاعتماد عليه في عملياتها اليومية (وفقاً لـ Axios).

هذا التناقض يفتح نقاشاً أوسع حول طبيعة العلاقة بين شركات الذكاء الاصطناعي الخاصة والمؤسسات الحكومية. Anthropic، التي بنت سمعتها على فلسفة “الذكاء الاصطناعي الآمن” ووضعت قيوداً صارمة على استخدام نماذجها، تجد نفسها الآن في قلب جدل حول مدى قدرتها على السيطرة الفعلية على من يستخدم تقنياتها وكيف.

المفارقة أن البنتاغون ووكالة الأمن القومي، وهما جزء من نفس المنظومة الدفاعية الأمريكية، يتخذان مواقف متضاربة من نفس التقنية. هذا التضارب ليس مجرد خلاف إداري، بل يكشف عن عمق المشكلة في وضع سياسات موحدة للتعامل مع تقنيات الذكاء الاصطناعي المتطورة. كل وكالة تتخذ قراراتها بناء على احتياجاتها الخاصة، متجاهلة التوجيهات العامة للحكومة.

السؤال الأهم يتعلق بمسؤولية شركة Anthropic في هذا الموقف. هل كانت الشركة على علم بالاستخدام غير المصرح به لنموذجها؟ وإذا كانت تعلم، فما الإجراءات التي اتخذتها لمنعه؟ الشركة التي تدعي التزامها بمبادئ الأمان والشفافية تحتاج الآن لتوضيح موقفها من هذا الانتهاك الواضح للسياسات الحكومية.

من ناحية أخرى، قد تكون NSA تتعامل مع واقع عملي مختلف عن البنتاغون. وكالة تحتاج لأدوات قوية ومتطورة لتنفيذ مهامها في الأمن القومي، ولا تستطيع انتظار البيروقراطية الحكومية لاتخاذ قرارات حول أدوات قد تكون حيوية لعملها. هذا المنطق، وإن كان مفهوماً من الناحية العملية، إلا أنه يضع النظام الحكومي بأكمله في موقف محرج.

الحادثة تسلط الضوء على التحدي الأكبر في عصر الذكاء الاصطناعي: كيف يمكن للحكومات وضع قوانين وسياسات فعّالة لتقنيات تتطور بسرعة تفوق قدرة الأنظمة البيروقراطية على اللحاق بها؟ وكيف يمكن ضمان التنسيق بين الوكالات المختلفة عندما تكون كل وكالة تواجه تحديات وأولويات مختلفة؟

ما يحدث الآن ليس مجرد “خطأ إداري”، بل مؤشر على فشل نظامي في إدارة الذكاء الاصطناعي على المستوى الحكومي. أمريكا، التي تقود السباق العالمي في تطوير هذه التقنيات، تظهر عجزاً واضحاً في وضع إطار متسق لاستخدامها داخل مؤسساتها الخاصة. هذا العجز قد يكلفها غالياً في المستقبل، خاصة عندما تحاول وضع معايير دولية للذكاء الاصطناعي أو انتقاد دول أخرى لاستخدامها غير المنضبط لهذه التقنيات.

Axios

مقالات ذات صلة

زر الذهاب إلى الأعلى