
بقلم: يوسف | محرر أدوات الذكاء الاصطناعي · صوت تحريري بإشراف بشري
طرح مطورو مكتبة llama.cpp الإصدار b8989 مع مجموعة شاملة من 26 إصدار محمل مسبقاً، مما يغطي خمسة أنظمة تشغيل رئيسية بتنويعات متخصصة لكل معمارية معالج وتقنية تسريع.
تتوزع الإصدارات المتاحة كالتالي:
- macOS/iOS (4 إصدارات): Apple Silicon arm64 عادي ومحسن بـKleidiAI، Intel x64، وXCFramework لتطبيقات iOS
- Linux Ubuntu (9 إصدارات): دعم معالجات x64 وarm64 وs390x مع CPU عادي، Vulkan، ROCm 7.2، OpenVINO 2026.0، وSYCL بدقة FP32 وFP16
- Windows (6 إصدارات): معالجات x64 وarm64 مع CPU عادي، CUDA 12.4 و13.1، Vulkan، SYCL، وHIP لمعالجات AMD Radeon
- Android (إصدار واحد): arm64 محسن للأجهزة المحمولة
- openEuler (4 إصدارات): دعم متخصص لمعالجات 310p و910b على معماريات x86 وaarch64 مع ACL Graph
- Android (إصدار واحد): arm64 للهواتف والأجهزة اللوحية
يأتي الإصدار بإصلاح بسيط لخطأ إملائي في المعاملات (وفقاً لملاحظات الإصدار الرسمية)، لكن القيمة الحقيقية تكمن في توفير ملفات جاهزة للتشغيل مباشرة دون الحاجة للتجميع المحلي.
الجديد في هذا الإصدار هو دعم CUDA 13.1 لأول مرة، مما يوفر تحسينات أداء إضافية لمستخدمي بطاقات NVIDIA الحديثة. كما يتضمن تحسين KleidiAI المخصص لمعالجات Apple Silicon، والذي يحسن كفاءة التشغيل على أجهزة Mac الحديثة.
للمطورين الذين يتطلعون لتشغيل النماذج اللغوية محلياً، توفر هذه الإصدارات المحملة مسبقاً حلاً سريعاً يتجنب تعقيدات إعداد بيئة التطوير وتجميع المكتبة من المصدر – وهو ما كان يستغرق ساعات على بعض الأنظمة.







