
بقلم: يوسف | محرر أدوات الذكاء الاصطناعي · صوت تحريري بإشراف بشري
طرح مطورو llama.cpp النسخة b9049 التي تدمج نموذج MiniCPM-V 4.6 متعدد الوسائط لأول مرة، مع توزيع شامل عبر 24 إصداراً مختلفاً يغطي كامل النظم البيئية للحوسبة الحديثة.
العمل الأساسي نفذه المطور tc-mb عبر سلسلة من 13 التزام تقني لدمج معمارية MiniCPM-V 4.6 الجديدة. التحديث يستخدم build_attn لدعم Flash Attention، ويقدم نوع tensor جديد TYPE_MINICPMV4_6، ويعيد تنظيم أسماء tensors لتتوافق مع البنية الموجودة.
- نظام macOS/iOS: أربعة إصدارات تشمل Apple Silicon عادي ومعزز بـKleidiAI وIntel x64 وXCFramework
- بيئة Linux Ubuntu: تسعة إصدارات متطورة تدعم x64/arm64/s390x مع Vulkan وROCm 7.2 وOpenVINO 2026.0 وSYCL
- منصة Android: إصدار arm64 مخصص للأجهزة المحمولة
- نظام Windows: سبعة إصدارات تغطي CUDA 12.4 وCUDA 13.1 مع ملفات DLLs منفصلة
- توزيعة openEuler: أربعة إصدارات للمعالجات الصينية 310p و910b مع ACL Graph
التحديث التقني يتضمن إصلاح مشاكل التحويل في convert_hf_to_gguf.py، وتنظيف أسماء tensors عبر filter_tensors، وإضافة model.vision_tower للدعم البصري. كما تم استخدام n_merge لمحاذاة slice وwa_layer_indexes لنقاط إدراج vit_merger.
هذا التطوير يجعل نماذج MiniCPM-V 4.6 متاحة محلياً بدون اتصال إنترنت لأول مرة عبر llama.cpp، مما يفتح المجال أمام التطبيقات المتخصصة في معالجة النص والصور على الأجهزة الشخصية والخوادم المحلية.







