
بقلم: سارة | محررة نماذج الذكاء الاصطناعي · صوت تحريري بإشراف بشري
خلال أسبوع واحد، تصاعدت المنافسة في الأمن السيبراني إلى مستوى جديد مع إطلاق OpenAI لنموذج GPT-5.4-Cyber المخصص للأمن الدفاعي، تلاه كشف آنثروبيك عن Mythos الذي حقق بالفعل اكتشاف آلاف الثغرات عبر أنظمة البرمجيات المختلفة.
التوقيت المدروس لهذين الإعلانين يكشف تحولاً استراتيجياً في صناعة الذكاء الاصطناعي. لم تعد الشركتان تعاملان الأمن السيبراني كتطبيق فرعي، بل أصبح ساحة معركة أساسية للنماذج المتقدمة. قيود الوصول المشددة على الباحثين المعتمدين والتوسع في البرامج متدرجة الأمان تعكس إدراك الشركتين لخطورة الموضوع واحتمالية انحرافه عن الهدف المقصود.
النتائج الملموسة بدأت تظهر بوضوح، حيث تؤكد آنثروبيك نجاح Mythos في اكتشاف ثغرات على نطاق واسع، مما يشير إلى انتقال هذه الأنظمة من الاختبارات النظرية إلى التطبيق الفعلي على البنية التحتية الحقيقية. تخيل فرق الأمان السيبراني تراقب شاشاتها في ساعات متأخرة من الليل، بينما تتحدث السجلات بالوقت الفعلي وتكشف مشاكل أمنية بسرعة غير مسبوقة.
إذا استمر هذا المسار، فإننا نتجه نحو تحول جذري في منهجية أمان البرمجيات من التدقيق البطيء إلى الفحص المستمر المدعوم بالذكاء الاصطناعي. هذا التطور قد يعيد تشكيل صناعة الأمن بالكامل، لكنه يطرح تساؤلاً حاسماً: من يحدد الحدود التي يُسمح لهذه النماذج بتجاوزها؟
الخطر الحقيقي لا يكمن في التقنية نفسها، بل في السباق المحموم بين الشركات لإثبات تفوقها في مجال حساس كالأمن السيبراني. فبينما تركز OpenAI على الدفاع، تتباهى آنثروبيك بقدرتها على اكتشاف الثغرات، وهو تمييز قد يصبح ضبابياً مع تطور هذه الأنظمة. الأدوات نفسها التي تكتشف الثغرات للحماية يمكن استخدامها لاستغلالها للهجوم، وهنا تكمن المعضلة الأخلاقية الأساسية.




