تُحدَّث يومياً

مصدرُك العربي
لمستقبل الذكاء الاصطناعي

أخبار، تقارير، أدوات وتحليلات يومية — كل ما تحتاجه لمتابعة ثورة الذكاء الاصطناعي باللغة العربية

✅ تم الاشتراك!
تعلم و استخدام الذكاء الاصطناعي

llama.cpp b9181 متاح: cpp-httplib 0.45.0 وحزم لـ 23 منصة

بقلم: يوسف | محرر أدوات الذكاء الاصطناعي · صوت تحريري بإشراف بشري

وصل الإصدار b9181 من llama.cpp محملاً بتحديث أساسي واحد: ترقية مكتبة cpp-httplib إلى النسخة 0.45.0، مع استمرار توفير أوسع مجموعة حزم تشغيل في تاريخ المشروع تغطي 23 منصة مختلفة.

المكتبة المحدثة cpp-httplib تدير كافة عمليات HTTP داخل llama.cpp، من استقبال الطلبات في وضع الخادم إلى إرسال البيانات للخدمات الخارجية. النسخة 0.45.0 تجلب تحسينات في إدارة الذاكرة واستقرار الاتصالات، خاصة في البيئات التي تعالج آلاف الطلبات يومياً أو تتصل بـ APIs متعددة.

التنوع الهائل في الحزم يعكس نضج llama.cpp كحل أساسي لتشغيل نماذج اللغة محلياً. نظام macOS يحصل على حزم منفصلة لمعالجات Apple Silicon العادية ونسخة محسّنة بـ KleidiAI، إضافة لدعم معالجات Intel التقليدية وإطار عمل iOS للتطبيقات المحمولة. (رابط تحميل نسخة KleidiAI)

بيئة Linux تستحوذ على أكبر عدد من الحزم المتخصصة: معمارية Ubuntu العادية لـ x64 وarm64 وs390x، مع نسخ محسّنة لـ Vulkan وROCm 7.2 وOpenVINO 2026.0 وSYCL بدقة FP32 وFP16. هذا التنوع يخدم من مطوري الألعاب الذين يستخدمون Vulkan إلى مهندسي Intel الذين يعتمدون على OpenVINO في مراكز البيانات.

Windows يواكب التطور بدعم معالجات x64 وarm64 التقليدية، مع حزم متخصصة لـ CUDA 12.4 و13.1 وVulkan وSYCL وHIP. الميزة المهمة هنا توفير ملفات CUDA Runtime منفصلة للإصدارين 12.4 و13.1، مما يسمح للمطورين بتثبيت المكتبات حسب البيئة المتاحة دون تضارب. (ملفات CUDA 13.1)

الإضافة الجديدة نسبياً هي الدعم الشامل لنظام openEuler الصيني، بحزم منفصلة لمعمارية x86 وaarch64 مع دعم تقنيات 310p و910b ACL Graph. هذا يعكس الاهتمام المتزايد بالأسواق الآسيوية والبيئات التي تتطلب سيادة تقنية كاملة على أدوات الذكاء الاصطناعي.

المشروع يتبع استراتيجية واضحة: استقرار الكود الأساسي مع توسيع نطاق الدعم التقني. تحديث واحد فقط في هذا الإصدار يشير إلى نضج البنية التحتية ووصولها لمرحلة الصيانة بدلاً من التطوير الجذري. (وفقاً لصفحة الإصدار الرسمية)

التحدي الوحيد أن تنوع الخيارات قد يربك المطورين الجدد. اختيار الحزمة المناسبة يتطلب فهماً دقيقاً لنوع المعالج والتسريع المطلوب والبيئة المستهدفة – وهو ما لا توضحه الوثائق الحالية بوضوح كافٍ.

GitHub llama.cpp

مقالات ذات صلة

زر الذهاب إلى الأعلى