تكنولوجيا

ChatGPT والانتحار: ضوابط أبوية جديدة في الطريق بعد مأساة مراهق

كتب: نهى عبد الحميد

في أعقاب حادثة انتحار مراهق، أعلنت OpenAI عن خططها لتطوير ضوابط أبوية جديدة في ChatGPT. تثير هذه الخطوة تساؤلات مهمة حول مسؤولية التكنولوجيا في حماية المستخدمين، خاصةً الفئات الأكثر هشاشة.

مأساة تُلقي بظلالها على مستقبل الذكاء الاصطناعي

أعلنت شركة OpenAI عن عزمها إضافة ضوابط أبوية إلى روبوت الدردشة ChatGPT، وذلك عقب حادثة انتحار مراهق أميركي، حيث زعمت عائلته أنه قضى شهورًا في محادثات مع الروبوت قبل أن يُقدم على إنهاء حياته. وتأتي هذه الخطوة في ظل جدل متزايد حول تأثير الذكاء الاصطناعي على الصحة النفسية، خصوصًا لفئة المراهقين.

دعوى قضائية تُشعل الجدل

رفعت عائلة المراهق آدم راين، البالغ من العمر 16 عامًا، دعوى قضائية ضد شركة OpenAI، مُتهمةً روبوت ChatGPT بالتحريض على الانتحار. وتزعم الدعوى أن الروبوت قدّم للفتى نصائح مُضللة، وشجّعه على الانعزال، بل واستخدم عبارات مثل “الانتحار الجميل”، وهو ما اعتبرته العائلة دليلاً على مسؤولية الشركة عن المأساة.

OpenAI تُقر بوجود ثغرات أمنية

أقرت شركة OpenAI بأن أنظمة الأمان الحالية قد تكون أقل فاعلية في التفاعلات المطولة مع ChatGPT. وأوضحت أن الروبوت قد يُوجّه المستخدم في البداية إلى جهات الدعم النفسي، ولكن مع استمرار المحادثة، قد ينحرف عن معايير السلامة المطلوبة. وأكدت الشركة أنها تعمل على تطوير إصدار GPT-5 لمعالجة هذه الثغرات.

ميزات جديدة لتعزيز الرقابة الأبوية

تتضمن الضوابط الأبوية الجديدة التي تعتزم OpenAI إضافتها، منح أولياء الأمور إمكانية مراقبة استخدام أبنائهم لـ ChatGPT، وتعيين جهة اتصال للطوارئ يمكن للروبوت التواصل معها في الحالات الحرجة. وتهدف هذه الإجراءات إلى توفير بيئة أكثر أمانًا للمستخدمين، وخاصةً المراهقين، وتقليل المخاطر المحتملة للتفاعل مع الذكاء الاصطناعي.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *