
بقلم: سارة | محررة نماذج الذكاء الاصطناعي · صوت تحريري بإشراف بشري
بدأت الصين تنفيذ رؤيتها البديلة لحوكمة الذكاء الاصطناعي العالمية من خلال اللوائح المؤقتة لإدارة خدمات التفاعل الشبيه بالبشر، التي صدرت في 10 أبريل وتدخل حيز التنفيذ في 15 يوليو. هذه القوانين لا تستهدف فقط تنظيم التقنية محلياً، بل تمثل محاولة طموحة لطرح “الحل الصيني” كبديل للنهج الأوروبي والأمريكي في إدارة مخاطر الذكاء الاصطناعي.
صدرت القوانين من خمس وكالات حكومية بقيادة إدارة الفضاء الإلكتروني الصينية، إلى جانب لجنة التنمية والإصلاح الوطنية ووزارة الصناعة وتقنية المعلومات ووزارة الأمن العام والإدارة الحكومية لتنظيم الأسواق. تركز القواعد على “خدمات التفاعل العاطفي المستدام” مستبعدة صراحة خدمة العملاء والاستفسارات وأدوات الإنتاجية التي تحاكي البشر عرضياً فقط.
التحولات الجوهرية من المسودة إلى النسخة النهائية تكشف عن نضج في التفكير التنظيمي. ضُيق النطاق ليستهدف خدمات التفاعل العاطفي المستدام تحديداً، وتم تعزيز الحماية للقُصر من خلال حظر “العلاقات الحميمية الافتراضية” بدلاً من مجرد التحذيرات. رُفعت متطلبات التدخل البشري الإجباري والحظر على الأقارب الافتراضيين لكبار السن، مما يشير إلى مرونة تشغيلية أكبر.
وانغ جيانغ، مدير الأكاديمية الصينية لدراسات الفضاء الإلكتروني، يؤطر التوتر الأساسي بوضوح: خدمات الذكاء الاصطناعي الشبيهة بالبشر تحل مشاكل حقيقية كشيخوخة السكان والوحدة والتعليم والنقل الثقافي، لكن التصميم الخوارزمي ينتج “علاقة افتراضية مثالية مستمرة دون التزام في العالم الحقيقي” تدفع للاعتماد العاطفي. (وفقاً لـ China AI Bulletin)
هذا النهج يتباين بوضوح مع نموذج تصنيف المخاطر في قانون الذكاء الاصطناعي الأوروبي الذي يعامل الخدمات الشبيهة بالبشر كـ”مخاطر محدودة” مع شفافية إجبارية، وقوانين الولايات الأمريكية في نيويورك وكاليفورنيا التي تتطلب الكشف والتحقق من العمر. الصين تطرح نهجها كـ”نظامي” بدلاً من القائم على الكشف.
التنفيذ الفعلي يؤكد جدية الأمر. أعلنت إدارة الفضاء الإلكتروني إجراءً إدارياً ضد ثلاثة منتجات مملوكة لـ ByteDance في 28 أبريل لانتهاكات وسم المحتوى الاصطناعي: Jianying (CapCut) وMaoxiang وJimeng AI. هذا بعد حملة فبراير ضد المحتوى المولد بالذكاء الاصطناعي غير المُوسم عبر المنصات وإزالة العديد من الدراما القصيرة المولدة بالذكاء الاصطناعي من Douyin وHongguo.
قضت محكمة هانغتشو في 29 أبريل أن “استبدال الذكاء الاصطناعي” ليس مبرراً صحيحاً للفصل أو تخفيض الأجور، كـ”قضية نموذجية” تهدف لإرساء سابقة قد تضع حداً أدنى لنزاعات العمل المدفوعة بالذكاء الاصطناعي. علقت الحكومة التراخيص الجديدة للمركبات ذاتية القيادة بعد تجمد أكثر من 100 روبوت تاكسي من بايدو في ووهان أواخر مارس، مسببة اختناقات مرورية وعُلق الركاب.

على مستوى المعايير الوطنية، تحرك على ثلاث جبهات. إدارة التوحيد القياسي الصينية بدأت صياغة دليل استجابة مخاطر جديد للذكاء الاصطناعي التوليدي بقيادة معهد الصين لتوحيد الإلكترونيات وعلي كلاود، مع مهلة صياغة 12 شهراً من 28 أبريل. قسم الابتكار في معايير إدارة التوحيد القياسي أعلن في 23 أبريل موافقة ISO الرسمية على مشروع معيار “مجموعة بيانات الروبوت الشبيه بالبشر” المقترح من الصين، وتجنيد خبراء محليين لتنسيق موقف الصين عبر عملية الصياغة الدولية.
اللجنة TC260 تستطلع التعليقات على “إرشادات الأمن الأخلاقي لتطبيقات الذكاء الاصطناعي 1.0” بقيادة جامعة تسينغهوا، مع شوي لان – عميد كلية شوارزمان ومدير معهد تسينغهوا للحوكمة الدولية للذكاء الاصطناعي – كصائغ رئيسي. فريق الصياغة يضم تسينغهوا ومعهد الصين لتوحيد الإلكترونيات وشنغهاي جياو تونغ وسيتشوان وجامعة العلوم والتكنولوجيا ببكين وعلي بابا وهواوي وDeepSeek. الإرشادات تقنن خمس فئات “التأثير الأمني الأخلاقي”: إضعاف الأولوية البشرية، انهيار النظام الاجتماعي الأساسي، فصل البشر عن المجتمع المادي، التقسيم الطبقي والتمييز الاجتماعي، وانتهاك الحقوق الفردية.
الجبهة الاقتصادية أظهرت أسنان النظام. أمرت لجنة التنمية والإصلاح الوطنية ميتا بإلغاء استحواذها بـ2 مليار دولار على Manus في 27 أبريل – أول استحواذ عبر حدودي كبير للذكاء الاصطناعي تحجبه بكين. الطامة الكبرى أن اللجنة مارست الاختصاص القضائي على الشركة القابضة المسجلة في سنغافورة بحجة أن الملكية الفكرية والمواهب الصينية الأصل هي أصول محلية بغض النظر عن التسجيل.
النماذج الجديدة لا تتوقف رغم الضوابط. أطلق DeepSeek النموذج V4 Preview بعمارة انتباه هجين متناثر ويؤكد على السياق بمليون رمز بتكلفة فعالة، لكن التقرير التقني يعترف صراحة أن V4 يتأخر عن نماذج المقدمة الحديثة بـ3-6 أشهر. Xiaomi يضاهي MiMo-V2.5-Pro سياق رمز DeepSeek V4. Moonshot يوسع Kimi K2.6 حشد الوكلاء إلى 300 وكيل فرعي ينفذ 4000 خطوة منسقة ويزعم هزيمة GPT-5.4 وClaude Opus 4.6 وGemini 3.1 Pro على HLE-Full بالأدوات.

الإنتاج لا يقف عند النماذج النصية. إطلاقات النماذج البارزة شملت النماذج الوكيلة – DR-Venus من علي بابا (وكيل بحث محدود الموارد بـ4 مليار معامل يفوق خطوط الأساس بـ9 مليار معامل)، وHY-Embodied/HY-World 2.0 من تينسنت، وخط AgenticQwen من علي بابا، وGLM-5V-Turbo من Zhipu (وكيل متعدد الوسائط أصلي)، بالإضافة لنماذج التوليد المرئي من علي بابا وبايدو وStepFun، وAnewOmni من ByteDance لتصميم الجزيئات.
94 ورقة تقنية من مختبرات المقدمة في هذا الإصدار، مع تسليط الضوء على OneManCompany من هواوي (شركة وكيل ذاتية التنظيم) وTCOD من علي بابا (التقطير المنهجي الزمني)، مما يحسن أداء الوكيل متعدد الأدوار بما يصل لـ18 نقطة.
سلامة الذكاء الاصطناعي التقنية ركزت على الوكلاء مرة أخرى. الأبحاث البارزة شملت BadSkill (هجوم سلسلة التوريد على أنظمة مهارات وكيل الذكاء الاصطناعي)، وCORA (إطار التحكم في المخاطر المطابق يعطي وكلاء واجهة المحمول ضمانات إحصائية ضد الأعمال الضارة)، وSafeRedirect (معالجة انهيار السلامة الداخلي)، ودراسة تجد أن التفاعلات القصيرة مع روبوتات الدردشة تُحدث تغييرات دائمة في الأحكام الأخلاقية البشرية، تستمر وتتعزز عبر أسبوعين بينما يبقى المشاركون غير واعين بالتأثير.
تعليق زي زينغفنغ من الأكاديمية الصينية للعلوم الاجتماعية، المنشور عبر إدارة الفضاء الإلكتروني، يضع الصين كمهندس لبنية حوكمة ذكاء اصطناعي دولية ناشئة مرساة في المبادرة العالمية لحوكمة الذكاء الاصطناعي وخطة العمل ومبادرة أمن البيانات. الإطار موجه لدول الجنوب العالمي.
الرهان الصيني واضح: تصدير نموذج “الحل الصيني” كبديل نظامي لنهج الاتحاد الأوروبي في تصنيف المخاطر وقوانين الكشف الأمريكية على مستوى الولايات. لكن السؤال الحاسم يبقى ما إذا كانت هذه الاستراتيجية ستكسب متابعين حقيقيين خارج الصين، أم ستؤدي لمزيد من التجزئة في الحوكمة العالمية للذكاء الاصطناعي. الدلائل المبكرة تشير إلى أن بكين تراهن على قدرتها في إقناع الدول النامية بأن نهجها أكثر عملية من التعقيدات التنظيمية الغربية.







