أخبار الذكاء الاصطناعي

أنثروبيك تشدد قواعد “كلود” لمنع تطوير الأسلحة بالذكاء الاصطناعي

 

ملخص مختصر

حدّثت شركة الذكاء الاصطناعي أنثروبيك سياسات استخدام روبوتها كلود في أغسطس 2025، مضيفةً قيودًا أكثر صرامة لمنع استغلاله في تطوير أسلحة خطرة تشمل المتفجرات عالية القوة والأسلحة الكيميائية والبيولوجية والنووية، إلى جانب تعزيز قواعد الأمن السيبراني.

التفاصيل

  • النسخة السابقة من السياسة كانت تمنع تطوير أو تسويق الأسلحة والمتفجرات والمواد الخطرة.
  • السياسة الجديدة توسعت لتشمل حظر تطوير الأسلحة البيولوجية والكيميائية والإشعاعية والنووية.
  • في مايو 2025، أطلقت أنثروبيك نموذج Claude Opus 4 مع مستوى حماية “أمان الذكاء الاصطناعي 3″، ما يجعل الاختراق أكثر صعوبة ويحد من المساعدة في تطوير أسلحة دمار شامل.
  • السياسات الجديدة تناولت أيضًا المخاطر المرتبطة بأدوات مثل “Claude Code” وميزة “استخدام الحاسوب” التي تمنح كلود تحكمًا مباشرًا بجهاز المستخدم.
  • تمت إضافة قسم جديد يمنع استخدام “كلود” في استغلال الثغرات الأمنية أو إنتاج البرمجيات الخبيثة أو تنفيذ هجمات إلكترونية.

النتائج

  • تشديد السياسات يعكس إدراكًا متزايدًا للمخاطر المرتبطة بالذكاء الاصطناعي التوليدي والوكيل.
  • القيود الجديدة قد تحد من استخدام “كلود” في تطبيقات حساسة أو غير آمنة.
  • إضافة لوائح حول الأمن السيبراني تقلل احتمالية إساءة الاستخدام على نطاق واسع.

لماذا يهم الأمر؟

هذه الخطوة تمثل مثالًا عمليًا على تنظيم الذكاء الاصطناعي من داخل الشركات نفسها، في وقت تتزايد فيه الدعوات العالمية لوضع ضوابط صارمة للحد من المخاطر المرتبطة بالتقنيات المتقدمة. بالنسبة للمنطقة العربية، يعكس هذا أهمية وضع أطر قانونية وأمنية تضمن الاستخدام الآمن للذكاء الاصطناعي، خصوصًا مع توسع الاستثمارات في هذا المجال.

ملخص من 3 أسطر

حدّثت أنثروبيك سياسات “كلود” لتشمل حظر تطوير أسلحة عالية الخطورة.
الخطوة تهدف إلى تعزيز الأمن السيبراني ومنع إساءة الاستخدام.
الأمر يبرز أهمية تنظيم الذكاء الاصطناعي عالميًا وفي العالم العربي.

المصدر: العربية نت

مقالات ذات صلة

زر الذهاب إلى الأعلى