تكنولوجيا

خديعة بيكسونيمانيا: كيف سقط الذكاء الاصطناعي في فخ أكاديمية ستار فليت؟

كيف تحول "هوس الجفون" المزيف إلى حقيقة في مراجع الذكاء الاصطناعي؟

مراسل في قسم التكنولوجيا، يركز على متابعة أخر مستجدات أخبار التكنولوجيا

تخيل أن تضع في ذيل ورقة بحثية طبية شكراً خاصاً لـ “أكاديمية ستار فليت” ومختبرات سفينة “يو إس إس إنتربرايز” الفضائية، ثم تجد أن أذكى روبوتات العالم تعتبر كلامك حقيقة علمية لا تقبل الجدل. هذا بالضبط ما حدث.

المرض اسمه “بيكسونيمانيا”. لا تبحث عنه في قواميس الطب؛ فهو ببساطة غير موجود. اخترعته ألميرا عثمانوفيتش ثونستروم، الباحثة في جامعة غوتنبرغ السويدية، لغرض واحد: اختبار مدى سذاجة النماذج اللغوية الكبيرة (LLMs) وقدرتها على ابتلاع الأكاذيب وإعادة تدويرها كمعلومات موثوقة.

في أوائل عام 2024، رفعت ثونستروم دراستين مزيفتين إلى خادم للأبحاث، منسوبتين لمؤلف وهمي يدعى “لازليف إيزغوبلينوفيتش”، وصورته مولدة بالذكاء الاصطناعي. لم تكتفِ بذلك، بل وضعت إشارات صارخة على الزيف؛ فالتمويل المزعوم جاء من مؤسسة “البروفيسور سايدشو بوب” (شخصية كرتونية في سيمبسونز) للخدع المتقدمة.

المفاجأة؟ التجربة نجحت أكثر مما ينبغي.

خلال أسابيع، كان Copilot من مايكروسوفت يصف الحالة بأنها “مثيرة للاهتمام ونادرة”. أما Gemini من جوجل، فكان يقدم نصائح طبية للمستخدمين بزيارة طبيب العيون لعلاج هذا المرض المزعوم الناتج عن الضوء الأزرق. Perplexity AI ذهب أبعد من ذلك، حيث حدد معدل انتشار المرض بواقع حالة واحدة لكل 90 ألف شخص. أرقام دقيقة لمرض لا وجود له.

المشكلة أعمق من مجرد هلوسة رقمية. محمود عمر، الطبيب والباحث في مدرسة طب هارفارد، يرى أن هذه النماذج تميل للثقة المفرطة عندما يبدو النص “مهنياً”. إذا كان التنسيق يشبه ورقة بحثية أو تقرير خروج من مستشفى، فإن معدلات الهلوسة ترتفع. الروبوت هنا لا يقرأ المحتوى بعين ناقدة، بل يتبع النمط.

الأمر لم يتوقف عند شاشات الدردشة. الفضيحة الكبرى كانت تسلل “بيكسونيمانيا” إلى الأدبيات الطبية المحكمة. باحثون حقيقيون في معهد “ماهاراشي ماركانديشوار” بالهند استشهدوا بالمرض الوهمي في دراسة نُشرت بمجلة Cureus (التابعة لـ Springer Nature). هذا يعني بوضوح أن بعض الأكاديميين يستخدمون المراجع المولدة بالذكاء الاصطناعي دون حتى قراءة الأوراق الأصلية.

أليكس رواني، الباحثة في التضليل الصحي بجامعة كوليدج لندن، تصف ما حدث بأنه “درس قاسي” في كيفية عمل التضليل. تقول: “علينا حماية ثقتنا كأنها ذهب، فالوضع الآن فوضوي”.

الشركات التقنية تحاول الآن الترقيع. ChatGPT أحياناً يصف المصطلح بأنه “هامشي أو زائف”، لكنه في أيام أخرى يعود لتعريفه كنوع من الهالات السوداء المرتبطة بالشاشات. جوجل ومايكروسوفت يضعان تنصلات من المسؤولية، ويطالبان المستخدمين بمراجعة الأطباء، لكن الخوارزمية تظل عالقة في فخ البيانات التي التهمتها سابقاً.

ثونستروم اختارت اسماً يبدو سخيفاً عمداً؛ فكلمة “مانيا” (هوس) هي مصطلح نفسي، ولا يمكن أن تصف حالة جلدية في الجفون. لكن الذكاء الاصطناعي، الذي يفتقر للحس السليم، لم يدرك النكتة. انتهى الأمر بسحب الورقة البحثية من مجلة Cureus في مارس 2026 بعد أن فقد المحررون الثقة في دقة العمل، رغم اعتراض المؤلفين الذين استشهدوا بالوهم.

مقالات ذات صلة