
بقلم: يوسف | محرر أدوات الذكاء الاصطناعي · صوت تحريري بإشراف بشري
طرح فريق تطوير LlamaIndex الإصدار 0.14.21 من مكتبة بناء تطبيقات الذكاء الاصطناعي، محملاً بإصلاحات أمنية عاجلة ومئات التحديثات عبر النظام البيئي للمكتبة.
المشكلة الأبرز التي حلها هذا الإصدار كانت خطأ KeyError في DocumentSummaryIndex.delete_nodes عند إرسال معرف عقدة غير صحيح، والذي كان يتسبب في تعطل تطبيقات الإنتاج بشكل غير متوقع. الإصلاح الرسمي يضمن الآن معالجة آمنة لهذه الحالات دون توقف التطبيق.
إلى جانب ذلك، عالج الفريق مشكلة ValueError وTypeError التي كانت تحدث عند فشل استخراج المخرجات المنظمة من النماذج، وأضاف ترميز UTF-8 صريحاً لجميع عمليات فتح الملفات في طبقة الاستمرارية. كما تم حل مشكلة حرجة في Message Block Buffer Resolution كانت تؤثر على معالجة الرسائل المتعددة.
التحديث شمل مراجعة شاملة للتبعيات عبر 96 مجلداً في المرحلة الأولى، ثم 87 مجلداً إضافياً، وأخيراً 68 مجلداً في الموجة الثالثة من التحديثات. هذا يعني تحديث أكثر من 250 مكوناً من مكونات LlamaIndex الفرعية، من مكتبات التضمين وحتى موصلات قواعد البيانات.
من أبرز التحسينات الجديدة إضافة دعم HTTP Client لمكتبة llama-index-embeddings-nvidia، مما يحسن الأداء والموثوقية عند التعامل مع خدمات NVIDIA للتضمين. كما حصلت مكتبة llama-index-llms-bedrock-converse على دعم نماذج Google Gemma الجديدة وتم رفع رقم الإصدار إلى 0.14.6.
مكتبة llama-index-llms-dashscope شهدت إصلاحاً مهماً لفصل معامل num_output عن context_window لحل مشاكل معالجة الطلبات، بينما تم تحديث عشرات المكتبات الأخرى لتشمل موصلات قواعد البيانات مثل Neo4j وMemgraph وTiDB.
النسخة الجديدة متاحة الآن للتحميل عبر صفحة الإصدارات الرسمية مع التوقيع المشفر المعتمد من GitHub. المطورون الذين يستخدمون LlamaIndex في بيئات الإنتاج مُحثون على التحديث فوراً لتجنب المشاكل الأمنية المعروفة، خاصة إذا كانت تطبيقاتهم تتعامل مع حذف العقد أو المخرجات المنظمة.







