
ليس كل قرار حكومي بشأن الذكاء الاصطناعي يمر دون مقاومة. قاضٍ فيدرالي أمريكي أوقف أمر ترامب التنفيذي الذي يحظر على الوكالات الحكومية استخدام نموذج Claude من شركة Anthropic، واصفاً تصنيف “مخاطر سلسلة التوريد” بأنه “مفهوم أورويلي” يفتقر للأساس القانوني الواضح.
الحكم القضائي جاء في شكل أمر قضائي مؤقت يُجمد تطبيق القرار الحكومي، ما يعني أن الوكالات الفيدرالية يمكنها الاستمرار في استخدام Claude حتى إشعار آخر. القاضي انتقد بشدة الصياغة الفضفاضة لتعريف “المخاطر الأمنية” في الأمر التنفيذي، مشيراً إلى أن المصطلحات المستخدمة تشبه لغة رواية “1984” لجورج أورويل أكثر من كونها قانوناً واضحاً.
هذا التطور يضع Claude في موقف مختلف عن منافسيه. بينما تواجه شركات أخرى مثل ByteDance (TikTok) قيوداً مشابهة بناءً على مخاوف الأمن القومي، يبدو أن Anthropic نجحت في تحدي التصنيف من خلال النظام القضائي. الأمر يثير تساؤلاً مهماً: هل المعايير المستخدمة لتقييم “الخطر” في تقنيات الذكاء الاصطناعي واضحة بما فيه الكفاية؟
بالنسبة لمطوري البرمجيات والشركات الناشئة في المنطقة العربية التي تعتمد على Claude في تطبيقاتها، هذا القرار يحمل إشارة مطمئنة — على الأقل مؤقتاً. لكن الوضع يذكرنا بأن قرارات الحكومات بشأن الذكاء الاصطناعي يمكن أن تُغير قواعد اللعبة بين ليلة وضحاها، حتى لو كانت قابلة للطعن قضائياً.
القضية لم تُحسم نهائياً بعد، والأمر التنفيذي ما زال قائماً رسمياً رغم تعليق تطبيقه. لكن اللافت هنا هو جرأة القاضي في وصف سياسة حكومية بـ”الأورويلية” — وهو مصطلح نادراً ما نراه في الأحكام القضائية الرسمية، خاصة عندما يتعلق الأمر بقرارات الأمن القومي.




