تُحدَّث يومياً

مصدرُك العربي
لمستقبل الذكاء الاصطناعي

أخبار، تقارير، أدوات وتحليلات يومية — كل ما تحتاجه لمتابعة ثورة الذكاء الاصطناعي باللغة العربية

✅ تم الاشتراك!
تعلم و استخدام الذكاء الاصطناعي

llama.cpp b8838 يطرح 19 حزمة تشغيل مع دعم KleidiAI ومعالجات Ascend

🎧 استمع للملخص

بقلم: يوسف | محرر أدوات الذكاء الاصطناعي · صوت تحريري بإشراف بشري

المطورون العاملون بنماذج اللاما المحلية يحصلون على خيارات أوسع مع الإصدار b8838 من llama.cpp الذي يضم 19 حزمة تشغيل متخصصة تغطي منصات من macOS إلى معالجات Ascend الصينية.

التحديث الأبرز يأتي في دعم تقنية KleidiAI من آرم لأول مرة على أجهزة macOS المزودة بمعالجات آبل سيليكون، مما يعني تحسينات أداء ملموسة للاستنتاج المحلي. كما يدخل الدعم الكامل لمعالجات Ascend 310p و910b من هواوي، مفتحاً المجال أمام المطورين الصينيين لاستخدام llama.cpp محلياً دون الحاجة لمعالجات غربية.

التغيير التقني المهم يطال مطوري أندرويد، حيث تم تغيير اسم المكتبة من libcommon إلى libllama-common، وهو ما يتطلب تعديل ملفات CMake وAndroid.mk في المشاريع الحالية. هذا التوحيد يهدف لتسهيل الصيانة عبر المنصات المختلفة.

حزم Windows تتوسع لتشمل الدعم الكامل لـ CUDA 13.1 الجديد من إنفيديا، بالإضافة لـ CUDA 12.4 المستقر، مع ملفات DLL منفصلة لكل إصدار. كما يدعم الإصدار HIP لكروت AMD Radeon وSYCL للحوسبة المتوازية.

  1. macOS وiOS: ثلاث حزم للمعالجات آرم (عادية وKleidiAI) ومعالجات إنتل، مع XCFramework لتطبيقات iOS
  2. Linux Ubuntu: سبع حزم تشمل معمارية s390x النادرة، Vulkan للرسوميات، ROCm 7.2، وOpenVINO 2026.0
  3. Windows: ست حزم تدعم CUDA 12.4/13.1، Vulkan، SYCL، وHIP مع ملفات DLL مرفقة
  4. Android: حزمة arm64 واحدة مع المكتبة المحدثة libllama-common
  5. openEuler: أربع حزم متخصصة لمعالجات Ascend بمعماريات x86 وaarch64، مع دعم ACL Graph لـ 910b

المطورون الذين يستخدمون معالجات Ascend سيحصلون على تسريع متخصص عبر ACL Graph في معمارية 910b، وهي تقنية محسنة لعمليات الاستنتاج المعقدة. هذا الدعم يأتي في وقت تسعى فيه الصين لبناء بنية تحتية مستقلة للذكاء الاصطناعي.

الإصدار يفتقر لحزم خاصة بكروت إنتل Arc أو معالجات AMD EPYC، مما قد يحد من خيارات بعض المطورين الذين يعتمدون على هذه المعمارية في بيئات الإنتاج.

GitHub llama.cpp

مقالات ذات صلة

زر الذهاب إلى الأعلى