تُحدَّث يومياً

مصدرُك العربي
لمستقبل الذكاء الاصطناعي

أخبار، تقارير، أدوات وتحليلات يومية — كل ما تحتاجه لمتابعة ثورة الذكاء الاصطناعي باللغة العربية

✅ تم الاشتراك!
تعلم و استخدام الذكاء الاصطناعي

llama.cpp b9014 يوزع دعم WebGPU على 26 منصة بطبقات تطبيع محسّنة

🎧 استمع للملخص

بقلم: يوسف | محرر أدوات الذكاء الاصطناعي · صوت تحريري بإشراف بشري

طرح فريق llama.cpp إصدار b9014 مع تحديث تقني جوهري يضيف عمليات Layer Normalization لمحرك WebGPU، مصحوباً بـ26 إصداراً متخصصاً يغطي منظومة شاملة من المنصات والمعالجات.

يحسن التحديث الجديد من استقرار العمليات الحسابية للأرقام العائمة باستخدام Kahan summation ويعالج مشاكل الأنواع المختلطة في البيانات، وفقاً لملاحظات الإصدار الرسمية. هذه التحسينات تؤثر مباشرة على دقة النماذج اللغوية التي تعتمد على طبقات التطبيع، خاصة في بيئات WebGPU حيث تختلف معمارية البطاقات الرسومية.

الإصدارات المتاحة تشمل تغطية استثنائية:

  1. macOS: Apple Silicon (arm64) مع وبدون KleidiAI، Intel x64، و iOS XCFramework
  2. Linux Ubuntu: معالجات x64 وarm64 وs390x مع Vulkan وROCm 7.2 وOpenVINO 2026.0 وSYCL بدقتي FP32 وFP16
  3. Windows: x64 وarm64 مع CUDA 12.4 و13.1 وVulkan وSYCL وHIP للبطاقات Radeon
  4. Android: arm64 محسّن للهواتف والأجهزة اللوحية
  5. openEuler: دعم متخصص للمعالجات الصينية 310p و910b بمعمارية x86 وaarch64 مع إطار ACL Graph

التطوير المستمر لـllama.cpp يعكس تنافساً شديداً في مساحة تشغيل النماذج المحلية، حيث يسعى المشروع لتقديم أفضل أداء ممكن عبر كل منصة متاحة. إضافة دعم WebGPU Layer Normalization تفتح إمكانيات جديدة لتطبيقات الويب التي تحتاج معالجة ذكية للنصوص دون الاعتماد على خوادم خارجية.

إدراج ملفات CUDA DLLs منفصلة للإصدارين 12.4 و13.1 يسهل على المطورين اختبار أحدث تحسينات NVIDIA، بينما دعم المعالجات الصينية 310p و910b يؤكد الطموح العالمي للمشروع. هذا التنويع في المنصات يضع llama.cpp كمعيار ذهبي لتوافق النماذج اللغوية مع الأجهزة.

GitHub

مقالات ذات صلة

زر الذهاب إلى الأعلى