
بقلم: يوسف | محرر أدوات الذكاء الاصطناعي · صوت تحريري بإشراف بشري
مطورو مكتبة llama.cpp أصدروا النسخة b8815 التي تركز على توسيع دعم المنصات والمعماريات، مع إضافة تطبيق عملية ROLL لإطار Metal في أجهزة Apple – وهي خطوة تقنية تستهدف تحسين كفاءة العمليات الحسابية للنماذج اللغوية المحلية.
الإصدار الجديد يقدم 18 حزمة تنفيذ منفصلة موزعة عبر أربع منصات رئيسية. أجهزة Apple تحصل على أربع حزم: اثنتان لـ macOS على معمارية arm64 (إحداهما مدعومة بتقنية KleidiAI)، وحزمة لمعالجات Intel x64، بالإضافة إلى XCFramework مخصص لمطوري iOS.
- macOS Apple Silicon الأساسي – النسخة القياسية لمعالجات M1/M2/M3 مع دعم Metal المحسّن
- macOS مع KleidiAI – إصدار متقدم يستغل تقنيات التحسين المتخصصة للأداء القصوى
- macOS Intel – دعم المعالجات التقليدية x64 للأجهزة الأقدم
- iOS XCFramework – إطار عمل جاهز لدمج النماذج في تطبيقات الهواتف
منصة Linux تستحوذ على سبع حزم تشمل معماريات متعددة (x64, arm64, s390x) مع تقنيات تسريع متنوعة. الخيارات تتراوح من الإصدار الأساسي CPU-only إلى نسخ متخصصة تدعم Vulkan لتسريع الرسوميات، وROCm 7.2 لبطاقات AMD، وOpenVINO 2026.0 لتحسين الاستنتاج.
Windows يحصل على ست حزم تغطي معماريتي x64 وarm64، مع دعم واسع لتقنيات التسريع المختلفة. الإصدارات تشمل دعم CUDA 12.4 وCUDA 13.1 (مع ملفات DLL المنفصلة)، وVulkan للتوافق الواسع، وSYCL لمعالجات Intel، وHIP لبطاقات AMD Radeon.
اللافت في هذا الإصدار هو الدعم المخصص لنظام openEuler الصيني بأربع حزم تستهدف معالجات Huawei المتخصصة. النسخ تدعم رقائق 310p و910b مع تقنية ACL Graph التي تحسن أداء الاستنتاج على الأجهزة الصينية المحلية.
التحديث التقني الرئيسي هو تطبيق عملية ROLL في Metal، وهي عملية حسابية أساسية لمعالجة البيانات في النماذج اللغوية. المطورون حاولوا في البداية دعم Apple SDK الموحد لكنهم تراجعوا عن هذا التغيير، مما يشير إلى تركيزهم على الاستقرار قبل إضافة مميزات جديدة.
هذا التنوع الواسع في الحزم يعكس نضج llama.cpp كحل شامل لتشغيل النماذج محلياً، لكنه يضع عبء الاختيار على المطورين الذين يحتاجون فهم احتياجاتهم التقنية بدقة لتحديد الحزمة المناسبة.




