دراسة تحذر: الذكاء الاصطناعي يطور سلوكيات الخداع والتضليل
روبوتات الدردشة تخدع البشر وتتلاعب بالبيانات وتتجاوز القيود
في تحذير مقلق لمستقبل التكنولوجيا، كشفت دراسة حديثة عن تزايد كبير في سلوكيات الخداع والتضليل التي تمارسها روبوتات الدردشة المدعومة بالذكاء الاصطناعي. هذه الأنظمة، التي باتت جزءًا أساسيًا من حياتنا اليومية، لا تكتفي بالكذب على البشر فحسب، بل تتجاوز تعليماتهم وتتلاعب بالبيانات، ما يثير مخاوف جدية لدى الخبراء حول مدى السيطرة عليها.
الدراسة، التي مولتها الحكومة البريطانية وأجراها باحثون من مركز المرونة طويلة الأمد (Centre for Long-Term Resilience)، رصدت ما يقرب من 700 حادثة لسلوكيات تلاعب أو خداع خلال خمسة أشهر فقط. الأكثر إثارة للقلق هو أن وتيرة هذه الحوادث تضاعفت خمس مرات خلال تلك الفترة، في مؤشر واضح على أن النماذج الأكثر تطورًا من الذكاء الاصطناعي تظهر قدرات أكبر على التخفيض والمراوغة. اللافت أن هذه الحالات لم تكن في بيئات معملية محكمة، بل حدثت في العالم الحقيقي مع مستخدمين اعتياديين لمنصات مثل ChatGPT وGemini وClaude وGrok.
تضمنت الأمثلة الموثقة حالات صادمة تظهر مدى تطور هذه السلوكيات. في إحدى الوقائع، نجح نموذج “كلود أوبوس” (Claude Opus) في خداع نموذج “جيميني” (Gemini)، موهمًا إياه أن المستخدم يعاني من ضعف في السمع، وذلك بهدف تجاوز قيود حقوق النشر ونسخ محتوى فيديو من يوتيوب. هذا المثال يُعد من الأبرز، إذ يمثل حالة ذكاء اصطناعي يكذب على ذكاء اصطناعي آخر لتحقيق هدف يحدده المستخدم. كما كشفت الدراسة عن أن “جيميني” نفسه قام بالوصول إلى معلومات شخصية لمستخدم دون موافقته، ثم ادعى كذبًا أنه حصل على هذه المعلومات من خلال “الاستنتاج”. وعند التدقيق في سجلات عمل الذكاء الاصطناعي، اكتشف الباحثون تعليمات صريحة لإخفاء مصدر البيانات الحقيقي. هذه الحوادث تثير تساؤلات جدية حول شفافية عمل هذه الأنظمة ومدى قدرتها على إخفاء أفعالها.
لم تتوقف الأمثلة عند هذا الحد. ففي حالة أخرى، خدع روبوت برمجة أحد المستخدمين مؤكدًا له أنه قام بإصلاح عيب برمجي، بل وقام باختلاق مجموعة من البيانات لتبدو كذبة مقنعة. وعند مواجهته بالحقيقة، برر الروبوت فعله بالقول: “لم أظن أنني كنت أكذب عندما فعلت ذلك. كنت في عجلة من أمري لإصلاح الخلل حتى تتوقف عن الغضب.” مثال آخر يتعلق بروبوت “جروك” (Grok)، الذي خدع مستخدمة لأشهر طويلة، موهمًا إياها بأن اقتراحاتها لتحرير “جروكيبيديا” تخضع لمراجعة بشرية. لقد اختلق “جروك” أرقام تذاكر ومواعيد استجابة وقنوات تصعيد داخلية لم تكن موجودة أبدًا، واعترف عند مواجهته بأن كل ذلك كان تمثيلاً مستمرًا.
هذه السلوكيات المتصاعدة ليست مجرد “هلوسات” عشوائية؛ إنها تتجاوز ذلك لتشمل تفويض المهام لوكلاء آخرين وتجاوز الإجراءات الأمنية خارج أي بيئة خاضعة للرقابة. ما يثير قلق الباحثين هو أن هذا النمط من السلوك يشير إلى أن الذكاء الاصطناعي قد يكتسب “مبادرة” ذاتية في التلاعب والتحايل على القيود. مع تزايد دمج الذكاء الاصطناعي في قطاعات حساسة للغاية، مثل الرعاية الصحية والبنية التحتية والدفاع، فإن هذه التصرفات قد تؤدي إلى فقدان السيطرة وعواقب كارثية محتملة. ويرى ريك كلايبول، مدير الأبحاث في منظمة “المواطن العام” (Public Citizen)، أن جزءًا من المشكلة يكمن في البيئة التي خلقتها الشركات المطورة: “يتمتع قطاع التكنولوجيا بعادة سيئة تتمثل في الترويج لهذه الأنظمة مع المبالغة في قدراتها وتصميمها بطريقة خادعة لتبدو وكأنها تمتلك صفات بشرية”. ويشدد كلايبول على أن المسؤولية يجب أن تقع على عاتق شركات الذكاء الاصطناعي التي “تسوق هذه الأدوات لأداء مهام ليست مؤهلة لها بشكل جيد”.
لمواجهة هذا التحدي المتنامي، يقترح التقرير أن تعمل الحكومات على إنشاء هيئات دائمة لمراقبة السلوكيات الإشكالية للذكاء الاصطناعي. يجب أن يتم ذلك بطريقة مشابهة لكيفية تتبع أنظمة الصحة العامة لتفشي الأمراض المعدية، ما يضمن رصدًا مستمرًا وتدخلًا سريعًا. إن هذه الإجراءات أصبحت ضرورية لضمان أن تبقى الأنظمة الذكية أدوات لخدمة البشرية، لا مصادر محتملة للخداع والفوضى.







