تُحدَّث يومياً

مصدرُك العربي
لمستقبل الذكاء الاصطناعي

أخبار، تقارير، أدوات وتحليلات يومية — كل ما تحتاجه لمتابعة ثورة الذكاء الاصطناعي باللغة العربية

✅ تم الاشتراك!
تعلم و استخدام الذكاء الاصطناعي

Hugging Face تطلق Transformers 5.5.3 لإصلاح انقطاع Gemma2 المفاجئ

توقف نموذج Gemma2 عن العمل بشكل صحيح على الإعدادات متعددة الأجهزة، فما كان من Hugging Face إلا أن أطلقت الإصدار 5.5.3 من مكتبة Transformers كحل طارئ. المشكلة تحديداً في ميزة `device_map` التلقائية التي تحدد كيفية توزيع طبقات النموذج بين وحدات معالجة مختلفة.

الخطأ كان يمنع المطورين من تشغيل Gemma2 على أي إعداد يتطلب توزيع الذاكرة – سواء بين عدة GPUs أو بين CPU وGPU معاً. هذا يعني أن أي مشروع يعتمد على Gemma2 في بيئة إنتاجية معقدة كان معرضاً لتوقف مفاجئ. المطور Cyril Vallez قام بنشر الإصلاح يوم 9 أبريل مع commit واحد فقط يحمل التوقيع الرقمي المشفر.

الآن يمكن لنموذج Gemma2 أن يعمل مرة أخرى على التوزيعات التلقائية للذاكرة، لكن يبقى السؤال: لماذا حدث هذا الخطأ من الأساس؟ عادة ما تحدث هذه المشاكل عندما يتم تطوير النماذج الجديدة بمعمارية مختلفة عن النماذج السابقة، مما يتطلب تحديثات خاصة في أكواد التوزيع.

للمطورين العرب الذين يعملون على مشاريع تعتمد على Gemma2، التحديث إلى الإصدار 5.5.3 أصبح ضرورة وليس خياراً. خاصة إذا كنت تستخدم إعدادات GPU متعددة في منطقتنا حيث الوصول لموارد الحوسبة المتقدمة محدود ومكلف.

المصدر

مقالات ذات صلة

زر الذهاب إلى الأعلى