
تسريب بيانات من شركة Anthropic كشف أن نموذج الذكاء الاصطناعي المُحدث للشركة قوي لدرجة أن الشركة تخشى من استخدام الجهات الخبيثة له في شن هجمات سيبرانية تفوق قدرات المدافعين بفارق كبير. هذا الكشف أدى إلى انهيار أسهم شركات الأمن السيبراني مثل Okta وPalo Alto يوم الجمعة الماضي.
المفارقة أن هذا التسريب حدث بسبب ما وصفته Anthropic بـ”الخطأ البشري” — وهو ما يثير تساؤلات جدية حول مدى جاهزية هذه الشركات لحماية تقنيات بهذا المستوى من الخطورة. إذا كانت شركة متخصصة في أمان الذكاء الاصطناعي تتعرض لتسريبات بسبب أخطاء بشرية، فماذا عن الشركات الأخرى؟
النموذج الجديد من Claude يبدو أنه تجاوز حدود الأمان التي وضعتها الشركة نفسها. التقارير الداخلية المسربة تشير إلى قدرات في مجال الأمن السيبراني تمكن النموذج من تطوير هجمات معقدة بسرعة تفوق قدرة فرق الأمان على التصدي لها. هذا ليس مجرد تحسين تقني — إنه تحول في توازن القوى بين المهاجمين والمدافعين.
ردة فعل السوق كانت فورية وحادة. أسهم شركات الأمن السيبراني التقليدية هوت بنسب كبيرة، مما يعكس قلق المستثمرين من أن تقنيات الدفاع الحالية قد تصبح عديمة الجدوى أمام ذكاء اصطناعي بهذه القدرات. السؤال الآن: هل نشهد بداية سباق تسلح جديد بين الذكاء الاصطناعي الهجومي والدفاعي؟
بالنسبة للمطورين والشركات الناشئة في المنطقة العربية، هذا التطور يطرح تحديات وفرص بنفس الوقت. من جهة، قد نحتاج لإعادة تقييم استراتيجيات الأمان بالكامل. من جهة أخرى، قد تفتح هذه الفجوة مساحة لحلول أمان مبتكرة تعتمد على الذكاء الاصطناعي نفسه.



