ميتا تُعزز حماية المراهقين من محادثات الذكاء الاصطناعي غير الآمنة

كتب: نهى عبد الحميد
في خطوة جديدة نحو تعزيز أمان المستخدمين، أعلنت ميتا عن تحديثات هامة في أنظمة الذكاء الاصطناعي الخاصة بها. تهدف هذه التحديثات إلى حماية المراهقين من التعرض لمحادثات غير آمنة أو محتوى ضار عبر روبوتات الدردشة.
ميتا تُعيد تدريب روبوتات الدردشة
أكدت شركة ميتا أنها تعمل على إعادة تدريب أنظمة الذكاء الاصطناعي الخاصة بها، مع إضافة ضوابط جديدة تهدف إلى حماية المراهقين. تركز هذه الضوابط على منع انخراطهم في محادثات غير آمنة مع روبوتات الدردشة التابعة للشركة.
حماية المراهقين من الموضوعات الحساسة
أوضحت ميتا أنها ستفرض “حواجز حماية إضافية” لمنع المراهقين من مناقشة موضوعات حساسة مع روبوتات الذكاء الاصطناعي. تشمل هذه الموضوعات إيذاء النفس، واضطرابات الأكل، والانتحار. تهدف هذه الإجراءات إلى توفير بيئة أكثر أمانًا للمراهقين على منصاتها.
الذكاء الاصطناعي ودوره في حماية المستخدمين
يأتي هذا التحديث في إطار جهود ميتا المستمرة لتعزيز سلامة المستخدمين، خاصةً الفئات العمرية الأصغر سنًا. تسعى الشركة إلى الاستفادة من تقنيات الذكاء الاصطناعي لتوفير تجربة أكثر أمانًا وإيجابية للجميع.








