تُحدَّث يومياً

مصدرُك العربي
لمستقبل الذكاء الاصطناعي

أخبار، تقارير، أدوات وتحليلات يومية — كل ما تحتاجه لمتابعة ثورة الذكاء الاصطناعي باللغة العربية

✅ تم الاشتراك!
تعلم و استخدام الذكاء الاصطناعي

llama.cpp b9049 يضيف MiniCPM-V 4.6 مع Flash Attention

🎧 استمع للملخص

بقلم: يوسف | محرر أدوات الذكاء الاصطناعي · صوت تحريري بإشراف بشري

طرح مطورو llama.cpp النسخة b9049 التي تدمج نموذج MiniCPM-V 4.6 متعدد الوسائط لأول مرة، مع توزيع شامل عبر 24 إصداراً مختلفاً يغطي كامل النظم البيئية للحوسبة الحديثة.

العمل الأساسي نفذه المطور tc-mb عبر سلسلة من 13 التزام تقني لدمج معمارية MiniCPM-V 4.6 الجديدة. التحديث يستخدم build_attn لدعم Flash Attention، ويقدم نوع tensor جديد TYPE_MINICPMV4_6، ويعيد تنظيم أسماء tensors لتتوافق مع البنية الموجودة.

  1. نظام macOS/iOS: أربعة إصدارات تشمل Apple Silicon عادي ومعزز بـKleidiAI وIntel x64 وXCFramework
  2. بيئة Linux Ubuntu: تسعة إصدارات متطورة تدعم x64/arm64/s390x مع Vulkan وROCm 7.2 وOpenVINO 2026.0 وSYCL
  3. منصة Android: إصدار arm64 مخصص للأجهزة المحمولة
  4. نظام Windows: سبعة إصدارات تغطي CUDA 12.4 وCUDA 13.1 مع ملفات DLLs منفصلة
  5. توزيعة openEuler: أربعة إصدارات للمعالجات الصينية 310p و910b مع ACL Graph

التحديث التقني يتضمن إصلاح مشاكل التحويل في convert_hf_to_gguf.py، وتنظيف أسماء tensors عبر filter_tensors، وإضافة model.vision_tower للدعم البصري. كما تم استخدام n_merge لمحاذاة slice وwa_layer_indexes لنقاط إدراج vit_merger.

هذا التطوير يجعل نماذج MiniCPM-V 4.6 متاحة محلياً بدون اتصال إنترنت لأول مرة عبر llama.cpp، مما يفتح المجال أمام التطبيقات المتخصصة في معالجة النص والصور على الأجهزة الشخصية والخوادم المحلية.

GitHub

مقالات ذات صلة

زر الذهاب إلى الأعلى