دراسة صادمة تكشف: محركات بحث الذكاء الاصطناعي تروج للأخبار المضللة!
كتب: عمرو خالد
أصبحت أدوات البحث القائمة على الذكاء الاصطناعي التوليدي، بديلاً رائجاً لمحركات البحث التقليدية، حيث جذبت أعداداً متزايدة من المستخدمين الباحثين عن المعلومات بسرعة ويسر. لكن دراسة حديثة صادرة عن مركز تاو للصحافة الرقمية بجامعة كولومبيا كشفت عن جانب مظلم صادم لهذه التقنية؛ فقد أظهرت دقة متدنية بشكلٍ مقلق، خاصةً عند استخدامها كمصدر للأخبار.
الكشف عن أخطاء فادحة
أوضحت الدراسة أن نماذج الذكاء الاصطناعي، بما في ذلك تلك التي طورتها شركات عملاقة مثل OpenAI و xAI، تميل إلى اختلاق القصص وتقديم معلومات غير دقيقة عند الاستفسار عن الأحداث الجارية. وهذا الأمر يثير قلقاً بالغاً، خاصةً مع تزايد اعتماد الجمهور على هذه النماذج كمصدر رئيسي للأخبار.
وأشارت الباحثتان كلوديا يازفينسكا وأيسفاريا تشاندراسيكار إلى أن نحو 25% من الأمريكيين يستخدمون حالياً نماذج الذكاء الاصطناعي كبديل لمحركات البحث التقليدية، وهي نسبة ليست بالهينة، بل تعكس تحولاً كبيراً في سلوك البحث عن المعلومات. هذا يعني أن الأخطاء التي تقع فيها هذه الأدوات تصبح أكثر خطورة، فقد تؤدي المعلومات المضللة إلى تشويه الرأي العام واتخاذ قرارات خاطئة بناءً على بيانات ملفقة.
تفاصيل الدراسة ونتائجها المذهلة
قام الباحثون باختبار ثمانية أدوات تعتمد على نماذج الذكاء الاصطناعي التوليدي، مزودة بخاصية البحث المباشر، من بينها ChatGPT Search و Perplexity و Gemini و Copilot. وقد تم توجيه 1600 استفسار حول مقالات إخبارية حقيقية لهذه النماذج.
وتضمن الاختبار تغذية النماذج بمقتطفات مباشرة من مقالات حقيقية، ثم مطالبتها بتحديد عنوان المقال، والناشر، وتاريخ النشر، ورابطه. والنتيجة صادمة؛ ففي أكثر من 60% من الاستفسارات، قدمت هذه النماذج إجابات غير صحيحة بشأن مصادر الأخبار!
وتباينت معدلات الخطأ بين النماذج بشكلٍ ملحوظ. فبينما سجّل نموذج Perplexity نسبة خطأ بلغت 37%، وصل معدل الخطأ في ChatGPT Search إلى 67%، بينما تصدّر نموذج Grok-3 القائمة بمعدل خطأ مذهل بلغ 94%.
الذكاء الاصطناعي يختلق بدلاً من الاعتراف بالجهل!
كشفت الدراسة عن ميلٍ مقلق لدى نماذج الذكاء الاصطناعي لتقديم إجابات ملفقة تبدو معقولة، بدلاً من الاعتراف بعدم امتلاكها معلومات موثوقة. لم يقتصر هذا السلوك على نموذج واحد، بل كان شائعاً بين جميع النماذج المختبرة، مما يشير إلى مشكلة جوهرية في طريقة عملها.
والأكثر إثارة للدهشة، أن الإصدارات المدفوعة من هذه النماذج كانت أكثر عرضة لتقديم معلومات غير صحيحة من الإصدارات المجانية! فعلى سبيل المثال، قدمت منصة Perplexity Pro (اشتراكها 20 دولاراً شهرياً) ومنصة Grok 3 المدفوعة (اشتراكها 40 دولاراً شهرياً) إجابات غير صحيحة بثقة أكبر من نظيراتها المجانية. رغم أن الإصدارات المدفوعة أجابت بشكل صحيح على عدد أكبر من الاستفسارات، إلا أن ميلها لتقديم إجابات غير مؤكدة أدى إلى زيادة معدل الخطأ الإجمالي.
تحديات تواجه الناشرين
كشفت الدراسة أيضاً عن مشكلات أخرى، منها تجاوز بعض أدوات الذكاء الاصطناعي لإعدادات بروتوكول استبعاد الروبوتات (Robot Exclusion Protocol) الذي يستخدمه الناشرون لمنع الوصول غير المصرح به إلى محتواهم. فعلى سبيل المثال، تمكن الإصدار المجاني من Perplexity من الوصول إلى جميع المقتطفات العشرة من محتوى ناشيونال جيوغرافيك المدفوع، رغم حظر ناشيونال جيوغرافيك صراحةً برامج زحف الويب الخاصة بـ Perplexity.
وفي كثير من الأحيان، وجهت محركات البحث بالذكاء الاصطناعي المستخدمين إلى نسخ مُعاد نشرها للمحتوى عبر منصات مثل Yahoo News، بدلاً من مواقع الناشرين الأصليين، حتى في الحالات التي كانت فيها اتفاقيات ترخيص رسمية بين الناشرين وشركات الذكاء الاصطناعي. وهذا يُشكل تحدياً كبيراً للناشرين الذين يواجهون معضلة صعبة: فمنع برامج الزحف قد يعني فقدان الإسناد، بينما السماح لها قد يؤدي إلى إعادة استخدام محتواهم على نطاق واسع دون توجيه الزيارات إلى مواقعهم، مما يؤثر سلباً على إيراداتهم.
مسؤولية المستخدمين في عصر الذكاء الاصطناعي
أعرب مارك هوارد، الرئيس التنفيذي للعمليات في مجلة تايم، عن قلقه إزاء تحديات التحكم في كيفية استيعاب نماذج الذكاء الاصطناعي لمحتوى الناشرين وعرضه، محملاً المستخدمين مسؤولية التحقق من دقة المعلومات التي تقدمها أدوات الذكاء الاصطناعي المجانية. وقال: “إذا كان أي مستهلك يعتقد الآن أن أيًا من هذه المنتجات المجانية ستكون دقيقة بنسبة 100% فاللوم عليه”.
وأكد هوارد أن نتائج الدراسة لم تكن مفاجئة، لأن النماذج اللغوية الكبيرة تواجه صعوبات في فهم المعنى الحقيقي للمعلومات، وتعتمد على أنظمة الإكمال التلقائي، مما يجعلها ترتجل في تقديم الإجابات. وقد تلقت OpenAI ومايكروسوفت نتائج الدراسة، لكنهما لم تتطرقا للمشكلات المطروحة بشكل مباشر.
يُشير هذا إلى ضرورة الحذر الشديد عند الاعتماد على محركات البحث القائمة على الذكاء الاصطناعي، والتأكد من مصادر المعلومات من خلال الرجوع إلى مصادر موثوقة، خاصة في ظل زيادة الأخبار المضللة في عالمنا الرقمي.