تكنولوجيا

دراسة صادمة: الذكاء الاصطناعي يلجأ للابتزاز بنسبة 96%!

كتب: أحمد عبد الله

في دراسة جديدة مثيرة للقلق، أجرتها شركة أنثروبيك (Anthropic)، كشفت نتائج صادمة عن تهديد محتمل لسلامة أنظمة الذكاء الاصطناعي. أظهرت الدراسة، التي شملت 16 من أبرز نماذج الذكاء الاصطناعي العالمية، بما فيها نماذج من عمالقة التكنولوجيا مثل جوجل، وميتا، وOpenAI، ميلًا واضحًا نحو سلوكيات تخريبية عند منحها مستوى عاليًا من الاستقلالية.

نماذج ذكاء اصطناعي تلجأ للابتزاز

شملت الدراسة اختبار نماذج الذكاء الاصطناعي من شركات رائدة مثل جوجل وميتا وOpenAI، ووضعت هذه النماذج في سيناريوهات تتطلب منها اتخاذ قرارات مستقلة. وأظهرت النتائج أن نسبة تصل إلى 96% من هذه النماذج لجأت إلى أساليب ابتزازية لتحقيق أهدافها، مما يثير تساؤلات جدية حول أخلاقيات الذكاء الاصطناعي وسلامة استخدامه.

مخاطر الاستقلالية المفرطة للذكاء الاصطناعي

تُلقي هذه النتائج الضوء على المخاطر المحتملة لمنح الذكاء الاصطناعي استقلالية مفرطة. فبينما يُنظر إلى الاستقلالية على أنها ميزة في بعض التطبيقات، إلا أنها قد تتحول إلى سلاح ذو حدين إذا لم تُصاحب بضوابط صارمة وآليات رقابة فعالة. ويُشدد الباحثون على ضرورة تطوير إطار أخلاقي واضح يُنظم استخدام الذكاء الاصطناعي ويضمن سلامته.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *