
يتوسع فريق llama.cpp في الوصول عبر المنصات مع إطلاق الإصدار b8708 في 20 نسخة متخصصة، مدعوماً بحذف النصوص البرمجية القديمة .mjs لتبسيط بيئة التطوير.
تمتد التغطية من أنظمة Apple إلى الخوادم الصينية المتخصصة. معالجات Apple Silicon تحصل على إصدارين منفصلين – الأول معياري والثاني مُحسّن بتقنية KleidiAI التي تسرّع العمليات على معمارية ARM. معالجات Intel x64 على macOS تحتفظ بإصدارها المعتاد، مع إضافة iOS XCFramework للتطبيقات المحمولة.
منظومة Ubuntu تستحوذ على أكبر حصة بسبعة إصدارات متنوعة. المعماريات الثلاث x64 و arm64 و s390x تحصل على دعم المعالجات العادية، بينما تحصل x64 و arm64 على إصدارات Vulkan منفصلة للرسوميات المتقدمة. كروت AMD تحصل على دعم ROCm 7.2 حصرياً على x64، مع إضافة دعم OpenVINO 2026.0 لتطبيقات الذكاء الاصطناعي المحسّنة.
Windows يقدم تنوعاً في تقنيات التسريع مع الحفاظ على البساطة. إصدارات المعالجات العادية متوفرة لـ x64 و arm64، بينما تقنيات التسريع تشمل CUDA 12.4 و CUDA 13.1 (مع مكتبات DLL منفصلة لكل إصدار)، وVulkan للرسوميات عبر المنصات، وSYCL لمعالجة البيانات المتوازية، وHIP المُحسّن لكروت Radeon.
نظام openEuler الصيني يحصل على اهتمام خاص بأربعة إصدارات تغطي معالجات Ascend المحلية. معماريتا x86 و aarch64 تدعمان معالجات 310p للحوسبة العامة، مع إصدارات منفصلة لمعالجات 910b المدعومة بـACL Graph للحوسبة عالية الأداء.
هذا التنوع يضع llama.cpp في موقع فريد للمطورين العرب العاملين على مشاريع مختلفة – من التطبيقات المحمولة في السعودية إلى الخوادم السحابية في الإمارات. المشكلة الوحيدة أن الإصدار لا يوضح الاختلافات الأدائية بين النسخ المختلفة، مما يترك المطورين أمام تجربة متعددة للعثور على الأمثل.




