تُحدَّث يومياً

مصدرُك العربي
لمستقبل الذكاء الاصطناعي

أخبار، تقارير، أدوات وتحليلات يومية — كل ما تحتاجه لمتابعة ثورة الذكاء الاصطناعي باللغة العربية

✅ تم الاشتراك!
أخبار الذكاء الاصطناعياختيار المحررين

محكمة أمريكية تجرد محادثات الذكاء الاصطناعي من الحماية القانونية

🎧 استمع للملخص

بقلم: سارة | محررة نماذج الذكاء الاصطناعي · صوت تحريري بإشراف بشري

المحادثات التي تجريها مع ChatGPT أو Claude أو أي روبوت ذكاء اصطناعي آخر لم تعد محمية قانونياً في الولايات المتحدة. هذا ما قضت به محكمة فيدرالية في نيويورك، رافضة تطبيق مبدأ “السرية المهنية” على التفاعلات مع أنظمة الذكاء الاصطناعي، ومفتحة الباب أمام استخدام هذه المحادثات كأدلة إثبات في القضايا الجنائية والمدنية.

القضية بدأت عندما حاولت النيابة العامة الحصول على سجلات محادثات متهم بالاحتيال المالي مع ChatGPT، حيث طلب المتهم من الروبوت نصائح حول كيفية التعامل مع التحقيق الجاري ضده. (وفقاً لرويترز) المحكمة رفضت حجة الدفاع بأن هذه المحادثات تستحق نفس الحماية الممنوحة للمراسلات مع المحامين أو الأطباء، مؤكدة أن أنظمة الذكاء الاصطناعي “ليست أشخاصاً مؤهلين مهنياً” وبالتالي لا تستوفي شروط السرية المهنية.

هذا القرار يضع 180 مليون مستخدم شهري لـChatGPT وحده في موقف قانوني محفوف بالمخاطر، ناهيك عن مستخدمي Claude وBard وGemini والأنظمة الأخرى التي باتت جزءاً من الروتين اليومي لملايين الأشخاص. المحامية سارة جونسون تحذر قائلة: “الناس يشاركون هذه الأنظمة تفاصيل حميمة عن حياتهم المهنية والشخصية، معتقدين أن محادثاتهم آمنة ومحمية”.

الجانب المقلق أكثر هو غياب الوضوح حول التزامات شركات التكنولوجيا بالتعاون مع السلطات. OpenAI تنص في سياستها على إمكانية الكشف عن بيانات المستخدمين “عند الضرورة القانونية”، لكنها لا تحدد معايير واضحة لهذه الضرورة. Anthropic وGoogle تتبعان نهجاً مماثلاً، مما يترك المستخدمين في حالة عدم يقين تام حول مدى أمان محادثاتهم.

النيابة العامة تدافع عن موقفها بحجة أن الذكاء الاصطناعي مجرد “أداة تكنولوجية” وليس مستشاراً مهنياً مؤهلاً، وبالتالي فإن المحادثات معه لا تختلف عن البحث في Google أو استخدام آلة حاسبة. لكن محامي الدفاع عن الحقوق الرقمية يجادلون بأن هذا التشبيه يتجاهل الطبيعة التفاعلية والشخصية للمحادثات مع هذه الأنظمة، التي غالباً ما تحاكي التفاعل البشري بدقة مذهلة.

التداعيات العملية لهذا القرار واسعة ومقلقة. الأطباء الذين يستخدمون الذكاء الاصطناعي لمناقشة حالات المرضى قد يجدون هذه المحادثات مكشوفة أمام المحاكم. المحامون الذين يستعينون بهذه الأنظمة لصياغة استراتيجيات الدفاع قد يجدون خططهم في أيدي النيابة العامة. حتى المواطنون العاديون الذين يطلبون مساعدة الذكاء الاصطناعي في فهم قضايا قانونية أو مالية معقدة قد يجدون محادثاتهم تُستخدم ضدهم لاحقاً.

الأمر الأكثر إثارة للقلق أن القرار لم يحدد قيوداً زمنية أو موضوعية على استخدام هذه المحادثات. هل يمكن للسلطات طلب محادثات من سنوات مضت؟ هل تشمل المحادثات العادية غير المتعلقة بالقضية المحددة؟ هذه الأسئلة تبقى بلا إجابة واضحة، مما يخلق حالة من عدم اليقين القانوني تضر بثقة الجمهور في هذه التقنيات.

في رأي موجز، هذا القرار قصير النظر ويتجاهل الواقع العملي لاستخدام الذكاء الاصطناعي في العصر الحديث. الحاجة ملحة لتشريعات فيدرالية تحدد بوضوح حقوق المستخدمين والتزامات الشركات، وتضع معايير صارمة لاستخدام هذه البيانات في الإجراءات القانونية. بدون هذه الحماية، قد نشهد تراجعاً في الثقة العامة بتقنيات الذكاء الاصطناعي، مما يضر بالابتكار والتطوير التكنولوجي في الولايات المتحدة.

Reuters

مقالات ذات صلة

زر الذهاب إلى الأعلى