تخيل لو أنك سألت مساعدًا ذكيًا عن معلومة بسيطة وواضحة، كعنوان رسالة دكتوراه لباحث مرموق، فيُجيبك بكل ثقة.. ولكن بأجوبة ثلاثة كلها خاطئة! الأمر لا يتوقف عند هذا الحد؛ فإذا كررت التجربة وسألته عن تاريخ ميلاد الشخص نفسه، قد يُفاجئك بثلاثة تواريخ مختلفة، وجميعها بعيدة عن الحقيقة تمامًا.
هذا السيناريو المحيّر ليس مجرد خيال، بل هو مثال حي ورد في ورقة بحثية حديثة كشف عنها فريق من باحثي OpenAI. يسعى هؤلاء الباحثون جاهدين لفك شفرة ظاهرة “هلوسة” نماذج اللغة الكبيرة، مثل ChatGPT وGPT-5، والتي تعني قدرتها على توليد معلومات تبدو مقنعة ومنطقية للوهلة الأولى، لكنها في جوهرها غير صحيحة على الإطلاق.
ماذا تعني “هلوسة” الذكاء الاصطناعي؟
وفقًا لـ OpenAI، تُعرف “هلوسة” الذكاء الاصطناعي بأنها “جُمل تبدو منطقية لكنها زائفة”. هذه المشكلة ليست هامشية، بل هي تحدٍ أساسي وجوهري يواجه جميع نماذج اللغة الكبيرة، ويُقر الباحثون صراحة بأنها لن تختفي تمامًا مهما بلغت التقنيات من تطور وتحسين.
لماذا يقع الذكاء الاصطناعي في فخ الهلوسة؟
يشير الباحثون إلى أن جوهر المشكلة يكمن في آلية تدريب هذه النماذج؛ فالتركيز الأساسي ينصب على توقع الكلمة التالية في الجملة، دون وجود أي “وسم” أو إشارة تحدد إن كانت المعلومة التي يتم توليدها صحيحة أم خاطئة.
-
في الحالات التي تتضمن أنماطًا متكررة ومحددة، مثل قواعد الإملاء أو استخدام الأقواس، يسهل على النموذج التعلم والتصحيح بكفاءة.
-
أما في المعلومات النادرة أو الفريدة، مثل تاريخ ميلاد شخص ما، فلا تتوافر للنموذج أنماط واضحة يمكنه البناء عليها، فيقع حينها في فخ التخمين، مقدمًا إجابات مغلوطة بثقة مضللة.
حلول مبتكرة: معاقبة الثقة الزائفة
لا تقتصر المشكلة، بحسب الورقة البحثية، على عملية التدريب فحسب، بل تمتد لتشمل طريقة تقييم أداء النماذج. فالنظام الحالي لتقييم الذكاء الاصطناعي غالبًا ما يشبه اختبار الاختيارات المتعددة، حيث قد يحقق النموذج “فوزًا بالصدفة” إذا خمّن الإجابة الصحيحة، بدلًا من أن يمتلك القدرة على الإقرار بالجهل ويقول بوضوح: “لا أعرف”.
لهذا، يقترح الباحثون اعتماد نظام تقييم جديد ومبتكر، يحاكي بعض الامتحانات الدولية المعروفة مثل اختبار الـ SAT. ففي هذا النظام، يُخصم من العلامة عند تقديم إجابة خاطئة، بينما يُمنح جزء من النقاط إذا ما تُرك السؤال فارغًا، تعبيرًا عن عدم اليقين.
على نفس المنوال، يجب مكافأة النماذج عندما تعبر عن اللايقين بوضوح، بدلًا من تقديم معلومات خاطئة مصحوبة بثقة مفرطة. ويشدد الباحثون على تحذير قاطع: “إذا استمرت لوائح التقييم في مكافأة التخمين المحظوظ، فستظل النماذج تتعلم كيفية التخمين، مما يؤبد مشكلة الهلوسة الرقمية.”
