
بقلم: يوسف | محرر أدوات الذكاء الاصطناعي · صوت تحريري بإشراف بشري
أطلق فريق llama.cpp الإصدار b8974 ليعالج مشكلة أمنية حرجة كانت تسبب انهيارات في نظام AIX من IBM، إلى جانب توفير 33 بناء محدث يغطي منصات تشغيل متنوعة من macOS وWindows وحتى openEuler.
المشكلة التي حلها هذا الإصدار كانت تحدث في عمليات `vec_xst` داخل مسار الضرب المتوازي للمصفوفات، حيث كانت التطبيقات تنهار عند الكتابة بالقرب من حدود صفحات الذاكرة بحجم 4KB بسبب الحماية الصارمة للذاكرة في نظام AIX. الحل الذي تبناه المطورون هو تعطيل الضرب المتوازي للمصفوفات على AIX والعودة لتنفيذ mnpack الأكثر استقراراً، بحسب تقرير المطورة شاليني ساولومي بوداباتي من IBM.
الإصدار الجديد يوفر دعماً شاملاً للمنصات الرئيسية:
- macOS: إصدارات متخصصة لمعالجات Apple Silicon (arm64) مع وبدون تمكين KleidiAI، بالإضافة لمعالجات Intel (x64) وإطار عمل iOS XCFramework
- Linux Ubuntu: دعم معمارية x64 وarm64 وs390x للمعالجة التقليدية، مع إصدارات محسنة لـ Vulkan وROCm 7.2 وOpenVINO وSYCL
- Windows: دعم x64 وarm64 للمعالجة التقليدية، مع إصدارات CUDA 12 و13 وVulkan وSYCL وHIP
- Android: بناء arm64 للأجهزة المحمولة
- openEuler: إصدارات متخصصة للمعالجات x86 وaarch64 مع دعم 310p و910b مع ACL Graph
ما يميز هذا التحديث هو شموليته – فهو يقدم 33 بناء مختلفاً يغطي احتياجات المطورين عبر منظومات تشغيل متنوعة، من الحواسيب الشخصية وحتى الخوادم الصناعية. إصدارات CUDA تأتي مع مكتبات DLL منفصلة لتسهيل التثبيت، بينما تركز إصدارات openEuler على بيئات الحوسبة المؤسسية الصينية.
التحديث يأتي بعد أسابيع من الإصدار السابق b8966 الذي جلب دعم Flash-Attention، مما يعكس وتيرة التطوير المتسارعة في مجتمع llama.cpp. لكن عليك أن تنتبه لحجم التحميل – فبعض الإصدارات مثل CUDA وROCm تتطلب تحميل ملفات إضافية قد تصل لمئات الميجابايت.







