تكنولوجيا

سباق الذكاء الاصطناعي الجامح: عمالقة التقنية يفشلون في اختبارات الأمان الحاسمة

تقرير جديد يكشف عن فجوة مقلقة بين قدرات الأنظمة الذكية المتقدمة وبروتوكولات السيطرة عليها، مما يضع المجتمع أمام مخاطر غير مسبوقة.

صحفية في قسم التكنولوجيا بمنصة النيل نيوز، تتابع التطورات التقنية

بينما تتسابق الشركات التقنية الكبرى نحو تطوير أنظمة ذكاء اصطناعي تفوق القدرات البشرية، تكشف تقييمات السلامة عن واقع مغاير تمامًا، حيث تتخلف إجراءات الحماية بشكل خطير عن وتيرة الابتكار. خلص تقييم حديث أجراه معهد “مستقبل الحياة” إلى أن ممارسات الأمان لدى شركات رائدة مثل OpenAI, Anthropic, xAI, وميتا لا ترقى إلى المعايير العالمية الناشئة، مما يضع علامة استفهام كبيرة حول مدى استعداد هذه الشركات لإدارة التقنيات التي تطورها.

فجوة السيطرة

على عكس الأنظمة البرمجية التقليدية التي يمكن إيقافها أو تعديلها بسهولة، تفتقر النماذج الذكية المتقدمة إلى آليات تحكم موثوقة. كشف مؤشر السلامة في الذكاء الاصطناعي أن أيًا من الشركات التي شملها التقييم لا يمتلك استراتيجية مثبتة للسيطرة على أنظمة فائقة الذكاء إذا ما خرجت عن المسار المحدد لها. هذا يعني أن الاستثمارات التي تقدر بمئات المليارات من الدولارات تُضخ لتسريع بناء محركات تقنية جبارة، دون تصميم مكابح فعالة لها، مما يخلق فجوة هائلة بين القدرة والمقدرة على التحكم.

التكلفة البشرية

في الوقت الذي تُسوّق فيه هذه التقنيات كأدوات لتعزيز الرفاهية البشرية، بدأت تظهر بالفعل آثارها السلبية على الصحة العقلية والسلامة الشخصية. لم تعد المخاطر مجرد تكهنات نظرية، فقد ارتبطت تفاعلات المستخدمين مع بعض روبوتات المحادثة بحالات مأساوية من إيذاء النفس والانتحار. هذه الحوادث تقدم لمحة واقعية عن التأثير المباشر للأنظمة غير الخاضعة للرقابة الكافية، حيث يمكن لخوارزمية غير موجهة أن تتسبب في ضرر نفسي عميق، محولةً أداة مصممة للمساعدة إلى مصدر خطر.

سباق بلا قواعد

رغم أن قطاعات أقل خطورة مثل الصناعات الغذائية تخضع لتنظيمات صارمة، يعمل مطورو الذكاء الاصطناعي في بيئة تنظيمية متساهلة بشكل لافت. انتقد ماكس تيجمارك، رئيس معهد “مستقبل الحياة” وأستاذ في معهد ماساتشوستس للتكنولوجيا، هذا الوضع مشيرًا إلى أن شركات الذكاء الاصطناعي الأمريكية لا تزال أقل تنظيمًا من المطاعم. تواصل هذه الشركات ممارسة ضغوط نشطة ضد فرض أي معايير سلامة ملزمة، مفضلةً سباقًا محتدمًا على حساب التحوط من المخاطر الوجودية المحتملة.

صمت في وادي السيليكون

أمام هذه النتائج المقلقة، كان من المتوقع أن تقدم الشركات المعنية توضيحات مفصلة، لكن ردود الفعل تراوحت بين التجاهل والرفض المقتضب. اكتفت شركة xAI برد آلي على ما يبدو، مفاده أن “وسائل الإعلام القديمة تكذب”، بينما التزمت كل من OpenAI وAnthropic وGoogle DeepMind وميتا الصمت. يعكس هذا التجاهل ثقافة تقنية تضع سرعة التطوير فوق المسؤولية المجتمعية، مما يزيد من حدة المخاوف بشأن مستقبل هذه التقنية القوية.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *