اختيار المحررين

نماذج ذكاء اصطناعي تختار النووي في 95%

دراسة تحاكي 21 لعبة حرب تكشف ميلاً متكررًا لاستخدام السلاح النووي، وسط جدل متصاعد حول دور الذكاء الاصطناعي عسكريًا.

كشفت دراسة أجراها الباحث كينيث باين من كلية كينغز في لندن أن ثلاثة من أبرز نماذج الذكاء الاصطناعي اتجهت إلى استخدام سلاح نووي تكتيكي في 95% من سيناريوهات حروب محاكاة، دون أن يختار أي نموذج الاستسلام.

وشملت الدراسة نماذج جي بي تي-5.2 وكلود سونيت 4 وGemini 3 Flash، حيث تنافست في 21 لعبة حرب محاكاة، على مدار 329 جولة، وأنتجت نحو 780 ألف كلمة لتبرير قراراتها الاستراتيجية.

محاكاة لا تعني واقعًا

تشير النتائج إلى ميل تصعيدي في بيئة تنافسية مغلقة، حيث اتخذت النماذج قرارات تصعيدية في أغلب الحالات. غير أن الدراسة تعتمد على سيناريوهات محاكاة محددة، ولا تعكس بالضرورة سلوك أنظمة حقيقية خاضعة لقيود قانونية وبشرية.

ويعيد ذلك إلى الأذهان فيلم “WarGames” عام 1983، الذي خلص فيه حاسوب عسكري إلى أن “الخطوة الرابحة الوحيدة هي عدم اللعب”. إلا أن نتائج المحاكاة الحديثة أظهرت توجهًا معاكسًا في سياق تنافسي.

جدل متزامن مع مفاوضات عسكرية

تأتي هذه النتائج في توقيت حساس، بالتزامن مع مفاوضات بين وزارة الدفاع الأمريكية وشركة أنثروبيك بشأن توسيع استخدام نموذج كلود في تطبيقات عسكرية. ويشمل النقاش استخدامات قانونية واسعة، مثل أنظمة المراقبة أو دعم الأسلحة ذاتية التشغيل.

وقد أبدى الرئيس التنفيذي لأنثروبيك، داريو أمودي، تحفظات سابقة بشأن موثوقية الذكاء الاصطناعي في تشغيل أنظمة أسلحة دون إشراف بشري مباشر.

سؤال الاستقلالية

تعكس الدراسة نقاشًا أوسع حول حدود استقلالية الذكاء الاصطناعي في السياقات العسكرية. فبينما يبدو أن إدماج الذكاء الاصطناعي في العمليات الدفاعية بات مرجحًا، يبقى مستوى الاستقلالية الممنوح له محل خلاف.

ومع اقتراب حسم المفاوضات بين البنتاغون وأنثروبيك، قد تسهم هذه النتائج في إعادة طرح سؤال جوهري: هل يجب أن يمتلك الذكاء الاصطناعي سلطة اتخاذ قرار في لحظات تصعيد حرج؟


📌 الملخص:
دراسة بريطانية أظهرت أن نماذج ذكاء اصطناعي اختارت استخدام سلاح نووي تكتيكي في 95% من ألعاب حرب محاكاة. النتائج تتزامن مع جدل حول دور الذكاء الاصطناعي في التطبيقات العسكرية.

مقالات ذات صلة

زر الذهاب إلى الأعلى