تُحدَّث يومياً

مصدرُك العربي
لمستقبل الذكاء الاصطناعي

أخبار، تقارير، أدوات وتحليلات يومية — كل ما تحتاجه لمتابعة ثورة الذكاء الاصطناعي باللغة العربية

✅ تم الاشتراك!
أخبار الذكاء الاصطناعي

ميتا تحت المجهر: نظام ذكاء اصطناعي يحلل العظام لكشف الأطفال

بقلم: ليلى | محررة أدوات المطورين · صوت تحريري بإشراف بشري

أعلنت ميتا عن نظام ذكاء اصطناعي جديد يحلل الصور ومقاطع الفيديو للكشف عن المستخدمين تحت سن 13 عاماً من خلال فحص الطول وبنية العظام، في خطوة تثير جدلاً حول الخصوصية وفعالية الحلول التقنية لمشاكل السلامة الرقمية.

النظام، الذي بدأ تشغيله في دول مختارة مع خطط للتوسع العالمي، يعتمد على “الأدلة البصرية العامة” دون استخدام تقنيات التعرف على الوجوه كما تؤكد الشركة (وفقاً لإعلان ميتا الرسمي). يحلل النظام هذه البيانات البصرية مع تحليل النصوص والتفاعلات لتقدير الأعمار، بحثاً عن إشارات سياقية مثل احتفالات أعياد الميلاد أو ذكر الصفوف الدراسية عبر المنشورات والتعليقات والسير الذاتية.

تخطط ميتا لتوسيع هذه التقنية لتشمل البث المباشر على إنستغرام ومجموعات فيسبوك، وعند اكتشاف مستخدم محتمل تحت السن القانونية، يتم إلغاء تفعيل حسابه مع إتاحة فرصة إثبات العمر لتجنب الحذف النهائي.

هذا الإعلان يأتي في سياق ضغوط قانونية متصاعدة على الشركة. قبل أسابيع، ألزمت محكمة نيومكسيكو ميتا بـدفع 375 مليون دولار غرامات مدنية (وفقاً لحكم المحكمة) بتهمة تضليل المستهلكين حول أمان منصاتها وتعريض الأطفال للمخاطر، مع إجبارها على تنفيذ تغييرات جوهرية في منصاتها.

ردت ميتا بتهديد إغلاق خدماتها في نيومكسيكو بالكامل، تطور يكشف عمق التوتر بين عمالقة التكنولوجيا والسلطات التنظيمية. هذه ليست سوى واحدة من دعاوى قضائية متعددة تواجهها ميتا وشركات التكنولوجيا الكبرى حول سلامة الأطفال.

بالتوازي، تعلن ميتا توسيع تقنية “حسابات المراهقين” المقيدة على إنستغرام لتشمل 27 دولة في الاتحاد الأوروبي والبرازيل، مع تطبيق قيود إضافية تشمل استقبال الرسائل المباشرة فقط من الأشخاص المتابعين أو المتصلين مسبقاً، إخفاء التعليقات الضارة، وجعل الحسابات خاصة افتراضياً. الأهم أن هذه التقنية تطبق على فيسبوك في الولايات المتحدة لأول مرة، مع توسع مخطط للمملكة المتحدة والاتحاد الأوروبي في يونيو.

لكن اعتماد ميتا على تحليل المظهر الجسدي يثير تساؤلات جدية حول الدقة والأخلاقيات. التطور الجسدي يختلف بشكل كبير بين الأطفال، وقد يبدو بعض الأطفال أكبر من أعمارهم الحقيقية والعكس صحيح. كما يمكن للأطفال بسهولة تجنب ظهور أجسامهم في الصور أو استخدام صور مستعارة، مما يجعل النظام قابلاً للتحايل.

الأعمق من ذلك، أن هذا النهج يعكس محاولة لحل مشكلة هيكلية في نموذج أعمال وسائل التواصل الاجتماعي من خلال حلول تقنية. جمع البيانات من الأطفال ليس مجرد خلل تقني، بل جزء من استراتيجية ربحية تعتمد على الاهتمام والمشاركة بغض النظر عن العمر. المعضلة الحقيقية ليست كيفية اكتشاف الأطفال، بل ما إذا كان يجب على هذه الشركات أن تصمم منصات تستهدف الأطفال أساساً.

بينما تستحق محاولات ميتا لحماية الأطفال الاعتراف، فإن التركيز على الحلول التقنية المعقدة قد يصرف الانتباه عن الحاجة لإعادة تصميم جوهرية لكيفية عمل المنصات الاجتماعية. الذكاء الاصطناعي أداة قوية، لكنه لا يمكن أن يحل محل المسؤولية الأخلاقية في تصميم تقنيات آمنة للأطفال من الأساس.

TechCrunch

مقالات ذات صلة

زر الذهاب إلى الأعلى