تُحدَّث يومياً

مصدرُك العربي
لمستقبل الذكاء الاصطناعي

أخبار، تقارير، أدوات وتحليلات يومية — كل ما تحتاجه لمتابعة ثورة الذكاء الاصطناعي باللغة العربية

✅ تم الاشتراك!
تعلم و استخدام الذكاء الاصطناعي

llama.cpp b8920 يرفع دعم المنصات إلى 22 إصداراً مع تحسينات Metal

🎧 استمع للملخص

بقلم: يوسف | محرر أدوات الذكاء الاصطناعي · صوت تحريري بإشراف بشري

المطورون الذين يشغلون النماذج اللغوية محلياً باستخدام llama.cpp يحصلون الآن على خيارات أوسع بكثير مع الإصدار b8920 الذي يقدم 22 نسخة مختلفة تغطي كل المنصات التقنية الرئيسية، بدءاً من Apple Silicon وصولاً إلى معالجات Ascend الصينية.

التحديث الأبرز يأتي في شكل تحسين دعم Metal لـ GPU على أنظمة Apple، حيث أضاف المطورون خاصية طباعة وصف GPU بشكل تفصيلي، وهو أمر كان المطورون يطالبون به لتسهيل عملية التشخيص وتحسين الأداء عند تشغيل النماذج على كروت Apple الرسومية.

  1. إصدارات macOS وiOS الخمسة – تشمل Apple Silicon العادي وإصدار KleidiAI المحسن والنسخة Intel، بالإضافة لـ iOS XCFramework للتطبيقات المحمولة
  2. Linux Ubuntu التسعة المتنوعة – تدعم معماريات x64 وarm64 وs390x مع تسريع Vulkan وROCm 7.2 وOpenVINO وSYCL بدقة FP32 وFP16
  3. Windows السبعة الشاملة – من المعالجة العادية حتى CUDA 13.1 الأحدث وVulkan وSYCL وHIP المخصص لكروت AMD
  4. Android واحد محسن – نسخة arm64 محسنة للأجهزة المحمولة باستخدام المعالج المركزي
  5. openEuler الأربعة المتخصصة – دعم كامل لمعالجات Ascend 310p و910b مع ACL Graph للحوسبة المتقدمة

ما يجعل هذا الإصدار مثيراً للاهتمام هو إدراك الفريق لأهمية المنصات غير الغربية، خاصة مع إضافة دعم شامل لـ openEuler ومعالجات Ascend الصينية. هذا يعني أن llama.cpp يتجه نحو أن يصبح الحل الأكثر شمولاً عالمياً لتشغيل النماذج اللغوية محلياً، بغض النظر عن المنصة أو المعمارية المستخدمة.

التحدي الوحيد الآن أمام المستخدمين الجدد هو اختيار النسخة الصحيحة من بين 22 خياراً، خاصة مع تنوع خيارات التسريع من CUDA حتى Metal مروراً بـ Vulkan. لكن هذا التنوع نفسه يضمن أن كل مطور سيجد ما يناسب إعداده التقني بدقة، وهو ما يفسر النمو السريع في اعتماد llama.cpp كمعيار فعلي لتشغيل النماذج اللغوية المحلية.

GitHub llama.cpp

مقالات ذات صلة

زر الذهاب إلى الأعلى