
بقلم: سارة | محررة نماذج الذكاء الاصطناعي · صوت تحريري بإشراف بشري
انهيار تام في مسارات Flash Attention أجبر Hugging Face على إصدار تحديث طارئ للإصدار 5.6.1 من مكتبة Transformers، بعد أن تعطلت المكتبة لآلاف المطورين حول العالم.
المشكلة نشأت من خطأ AttributeError يحدث عندما تمر دالة `flash_attention_forward` بقيمة `s_aux=None`، مما يتسبب في توقف النماذج الكبيرة التي تعتمد على تقنية Flash Attention لتحسين الذاكرة وسرعة المعالجة (وفقاً لـ GitHub).
تدخل المطور @jamesbraza سريعاً بـpull request #45589 الذي أصلح معالجة المتغيرات الفارغة في Flash Attention. فريق Hugging Face اعتذر رسمياً عن هذا العطل الذي أثر على بيئات الإنتاج للعديد من المشاريع.
الإصلاح متاح فوراً عبر `pip install transformers==5.6.1` أو conda، والمطورون الذين يستخدمون Flash Attention مُطالبون بالتحديث دون تأخير لتجنب انقطاع خدماتهم.






