
بقلم: يوسف | محرر أدوات الذكاء الاصطناعي · صوت تحريري بإشراف بشري
وصل إصدار b9165 من llama.cpp بتحديث تقني مركز يستهدف إصلاح خطأ في معالجة الأرشفة أثناء عملية التكامل المستمر، إلى جانب تحديث شامل لحزم التشغيل عبر 20 بيئة ومنصة مختلفة.
المشكلة المُصححة تتعلق بخطأ في تحويل ملف النقطة العلوية داخل أرشيف الإصدار، وهو عطل تقني كان يؤثر على استقرار عملية البناء الآلي. الحل الجديد يبسط آلية التعامل مع هذا النوع من الملفات، مما يضمن توليد حزم أكثر موثوقية عبر جميع المنصات المدعومة.
تغطي الحزم الجديدة مجموعة واسعة من البيئات التقنية، بدءاً من أجهزة Mac بمعالجات Apple Silicon وإنتل، مروراً بتوزيعات Ubuntu المختلفة، ووصولاً إلى Windows مع دعم متقدم لبطاقات الرسومات. النسخة الجديدة تتضمن أيضاً دعماً لمنصات متخصصة مثل Android وopenEuler الصينية.
- macOS بتنوع المعالجات: نسخة عادية ونسخة محسنة بـ KleidiAI لمعالجات Apple Silicon، بالإضافة لدعم معالجات Intel x64
- Linux متعدد البنى: Ubuntu بمعمارية x64 وarm64 وs390x مع دعم Vulkan وROCm 7.2 وOpenVINO 2026
- Windows شامل: معالجة CPU عادية، CUDA 12.4 و13.1، Vulkan، SYCL، وHIP لبطاقات AMD Radeon
- المنصات المتنقلة والخاصة: iOS XCFramework وAndroid ARM64 وبيئات openEuler للمؤسسات الصينية
- تحسينات الأداء: خيارات SYCL بدقة FP16 وFP32 لتسريع عمليات الاستدلال على معالجات Intel
قرار التركيز على البنية التحتية في هذا الإصدار يظهر نضج llama.cpp كحل إنتاج جاهز للاستخدام المؤسسي، حيث أصبحت عملية التوزيع عبر هذا العدد الكبير من المنصات تتطلب دقة تقنية عالية. المشكلة المُصححة، رغم كونها تبدو بسيطة، كانت تؤثر على موثوقية عملية البناء الآلي – وهو أمر بالغ الأهمية عندما نتحدث عن 20 حزمة مختلفة يتم توليدها تلقائياً.
الجانب الأكثر إثارة في هذا التحديث هو إضافة دعم CUDA 13.1 لأول مرة، مما يوفر للمطورين إمكانية الاستفادة من أحدث تحسينات NVIDIA في تسريع النماذج اللغوية. كما أن توسيع الدعم ليشمل منصات openEuler يعكس الاهتمام المتزايد بالأسواق الآسيوية وبيئات المؤسسات التي تتطلب حلول محلية.







