تُحدَّث يومياً

مصدرُك العربي
لمستقبل الذكاء الاصطناعي

أخبار، تقارير، أدوات وتحليلات يومية — كل ما تحتاجه لمتابعة ثورة الذكاء الاصطناعي باللغة العربية

✅ تم الاشتراك!
تعلم و استخدام الذكاء الاصطناعي

llama.cpp b8925 يصلح مشكلة المخرجات المنظمة عبر 22 منصة

🎧 استمع للملخص

بقلم: يوسف | محرر أدوات الذكاء الاصطناعي · صوت تحريري بإشراف بشري

طرح فريق llama.cpp الإصدار b8925 مع تركيز واضح على إصلاح خطأ في نظام structured output، وإتاحة التحديث عبر 22 إصداراً مختلفاً لجميع المنصات الرئيسية.

الإصلاح الجديد يستهدف ما وصفه المطورون صراحة بـ”الخطأ الغبي جداً” في آلية المخرجات المنظمة (وفقاً لصفحة الإصدار)، والذي يؤثر على دقة استجابات النماذج عندما تحتاج تطبيقاتك إلى تنسيقات محددة مثل JSON أو XML. هذا النوع من الأخطاء خطير لأنه قد يمر دون ملاحظة في التطوير لكنه يكسر التكاملات في الإنتاج.

إليك كيفية الحصول على الإصدار المناسب لنظامك:

  1. أنظمة macOS: اختر إصدار Apple Silicon العادي أو المحسّن بـKleidiAI للأداء المتقدم، أو إصدار Intel x64 للأجهزة الأقدم
  2. أنظمة Linux: 9 خيارات تشمل Ubuntu العادي، إصدارات Vulkan للرسوميات، ROCm 7.2 لمعالجات AMD، OpenVINO، وإصدارات SYCL
  3. أنظمة Windows: 6 إصدارات تدعم CPU العادي، CUDA 12.4، CUDA 13.1، Vulkan، SYCL، وHIP لمعالجات Radeon
  4. أجهزة Android: إصدار arm64 محسّن للهواتف الذكية
  5. أنظمة openEuler الصينية: 4 إصدارات للمعالجات x86 وaarch64 مع دعم معالجات Huawei 310p و910b
  6. تطبيقات iOS: XCFramework جاهز للدمج في التطبيقات

الأمر المثير أن الفريق يواصل توسيع الدعم لمعمارية openEuler الصينية مع معالجات Huawei المتخصصة، مما يؤكد التوجه نحو جعل llama.cpp منصة عالمية حقيقية. لكن المشكلة الوحيدة أن تفاصيل الخطأ المُصلح لم تُكشف بوضوح، مما يجعل من الصعب تقدير تأثيره الحقيقي على تطبيقاتك الحالية.

GitHub llama.cpp

مقالات ذات صلة

زر الذهاب إلى الأعلى