
بقلم: يوسف | محرر أدوات الذكاء الاصطناعي · صوت تحريري بإشراف بشري
أطلق مشروع llama.cpp الإصدار b9038 بتحديث تقني يركز على تحسين تقدير ذاكرة OpenCL، مصحوباً بمجموعة شاملة من 26 نسخة مجمعة تغطي كل المنصات الرئيسية.
التطوير الأساسي في هذا الإصدار يأتي من عمل المطور Florian Reinle الذي دمج استخدام `CL_DEVICE_GLOBAL_MEM_SIZE` كمعيار لتقدير الذاكرة المطلوبة عند تفعيل خيار `–fit`. هذا التحسين يساعد المستخدمين على فهم متطلبات الذاكرة الفعلية قبل تشغيل النماذج على أجهزة OpenCL، مما يقلل من احتمالية مواجهة أخطاء نفاد الذاكرة أثناء التشغيل.
النسخ المجمعة الجديدة تظهر نضج المشروع في دعم التنوع التقني. أجهزة macOS تحصل على نسختين منفصلتين – واحدة عادية وأخرى مدعومة بتقنية KleidiAI الجديدة لمعالجات Apple Silicon، بالإضافة إلى نسخة Intel التقليدية. نظام Linux يحصل على 9 نسخ متخصصة تشمل دعم Vulkan وROCm 7.2 وOpenVINO 2026.0 وتقنيات SYCL بدقة FP32 وFP16. أما Windows فيحصل على 6 نسخ تدعم CUDA 12.4 والجديد CUDA 13.1، مع توفير مكتبات DLL منفصلة لكل إصدار.
الجديد في هذا الإصدار هو التوسع نحو المنصات الآسيوية مع 4 نسخ مخصصة لنظام openEuler الصيني، تدعم معالجات x86 وaarch64 مع تحسينات خاصة لمعالجات 310p و910b. كما يحافظ الإصدار على دعم Android بنسخة arm64 مخصصة للهواتف الذكية.
المثير للاهتمام أن المشروع يقدم الآن روابط تحميل منفصلة لمكتبات CUDA على Windows، مما يحل مشكلة طويلة الأمد للمستخدمين الذين يواجهون تعقيدات في إعداد بيئة CUDA. هذا النهج المنفصل يجعل التثبيت أكثر مرونة ووضوحاً.
رغم هذا التطور المنهجي، يبقى llama.cpp أداة تقنية تتطلب معرفة بأساسيات النماذج اللغوية وإدارة الذاكرة، وقد لا تناسب المستخدمين الذين يفضلون الحلول السحابية المباشرة دون تعقيدات الإعداد المحلي.







