
بقلم: يوسف | محرر أدوات الذكاء الاصطناعي · صوت تحريري بإشراف بشري
أصدرت مكتبة llama.cpp مفتوحة المصدر النسخة b8864 مع إصلاح حرج لمشكلة انقطاع الاتصال في وضع الراوتر، بجانب إضافة دعم لعشرين منصة وبنية جديدة تشمل معالجات صينية متقدمة ونظام openEuler لأول مرة.
المشكلة الأساسية التي حلها هذا الإصدار كانت في مهلة الاتصال المحددة مسبقاً (hardcoded timeout) عند تشغيل llama.cpp كخادم في وضع الراوتر. هذا العطل كان يسبب انقطاع غير متوقع للخدمة، مما يؤثر على المطورين الذين يعتمدون على تشغيل النماذج بشكل مستمر في بيئات الإنتاج.
- macOS وiOS: ثلاث إصدارات لمعالجات Apple Silicon بما في ذلك تحسينات KleidiAI الجديدة، وإصدار منفصل لمعالجات Intel، بالإضافة إلى XCFramework للتطبيقات
- Linux Ubuntu: خمس إصدارات تغطي معمارية x64 وarm64 وs390x، مع دعم محسّن لـ Vulkan وROCm 7.2 وOpenVINO 2026.0
- Windows: سبع إصدارات شاملة تدعم CUDA 12.4 و13.1 الجديد، مع إضافة ملفات DLL منفصلة وتحسينات لـ Vulkan وSYCL وHIP
- openEuler الصيني: أربع إصدارات مخصصة للمعالجات الصينية 310p و910b على معماريتي x86 وaarch64، مع دعم ACL Graph للتسريع
- Android: إصدار محسّن لمعالجات arm64 للأجهزة المحمولة
التوسع في دعم منصة openEuler الصينية يعكس استراتيجية واضحة لدخول السوق الآسيوي، خاصة مع دعم معالجات Ascend 310p و910b من هواوي. تقنية ACL Graph المدمجة في هذه المعالجات تعد بتسريع ملحوظ في عمليات الاستدلال، لكن يبقى اختبار الأداء الفعلي في البيئات الحقيقية هو المحك الحقيقي.
ما لم يوضحه الإصدار هو مستوى الأداء المقارن بين المنصات المختلفة، أو ما إذا كانت جميع الميزات متاحة بنفس الدرجة عبر جميع الإصدارات. المطورون الذين يعتمدون على ميزات متقدمة قد يحتاجون لاختبار دقيق قبل الانتقال للنسخة الجديدة.







