تُحدَّث يومياً

مصدرُك العربي
لمستقبل الذكاء الاصطناعي

أخبار، تقارير، أدوات وتحليلات يومية — كل ما تحتاجه لمتابعة ثورة الذكاء الاصطناعي باللغة العربية

✅ تم الاشتراك!
تعلم و استخدام الذكاء الاصطناعي

llama.cpp b9009 يوزع 26 إصداراً بتحسينات خادم محورية

🎧 استمع للملخص

بقلم: يوسف | محرر أدوات الذكاء الاصطناعي · صوت تحريري بإشراف بشري

وصل llama.cpp b9009 بهدف واضح: القضاء على نسخ البيانات المهدرة في الخادم وإعادة تصميم آليات القراءة الأساسية. هذا ليس مجرد تحديث روتيني – إنه إعادة هيكلة جذرية لطريقة تعامل الخادم مع البيانات، خاصة أثناء حفظ نقاط التفتيش.

  1. القضاء على نسخ البيانات المكررة: الخادم لن يعود ينسخ بيانات نقاط التفتيش إلى ذاكرة الهوست بلا داعي، مما يوفر ذاكرة كبيرة في البيئات الإنتاجية
  2. إعادة كتابة llama_io_read_i: دالة القراءة الأساسية أصبحت أكثر كفاءة عبر جميع المنصات مع تحكم أفضل في تدفق البيانات
  3. 26 إصداراً متخصصاً: كل منصة تحصل على إصدار محسن خصيصاً لمعمارية أجهزتها، من Apple Silicon حتى مُسرعات Ascend الصينية
  4. دعم KleidiAI المحسن: macOS Apple Silicon يحصل على إصدار منفصل مع KleidiAI للتطبيقات المتقدمة
  5. تنوع مُسرعات Windows: ستة إصدارات مختلفة تشمل CUDA 13.1 الجديد، Vulkan، SYCL، وHIP لكروت AMD

التحسينات تشمل إصدارات محددة لكل بيئة: من Ubuntu Vulkan المحسن للرسوميات حتى openEuler مع دعم مُسرعات Ascend 310P و910B. حتى Android يحصل على إصدار arm64 منفصل للأجهزة المحمولة.

هذا التحديث يركز على العمق التقني أكثر من الميزات المرئية، لكن تأثيره واضح: استهلاك ذاكرة أقل، سرعة نقل بيانات أعلى، واستقرار أفضل في البيئات الإنتاجية. نحن أمام تطور في البنية التحتية أكثر منه في واجهة المستخدم.

GitHub ggml-org

مقالات ذات صلة

زر الذهاب إلى الأعلى