OpenAI تطلق ChatGPT Health: بين دعم الرعاية الصحية ومخاطر المعلومات المضللة
مأساة سام نيلسون تبرز تحديات الذكاء الاصطناعي في المجال الصحي

تواصل OpenAI حديثها عن دعم الأهداف الصحية، لكن شروط خدمة الشركة تضع خطاً فاصلاً واضحاً: ChatGPT وخدمات OpenAI الأخرى «ليست مخصصة للاستخدام في تشخيص أو علاج أي حالة صحية».
يبدو أن هذه السياسة لن تتغير مع إطلاق ChatGPT Health. فقد أعلنت OpenAI في بيانها: «صُمم Health لدعم الرعاية الطبية، لا ليحل محلها. إنه ليس مخصصاً للتشخيص أو العلاج. بدلاً من ذلك، يساعدك على تصفح الأسئلة اليومية وفهم الأنماط بمرور الوقت – ليس فقط لحظات المرض – لتشعر بمزيد من المعرفة والاستعداد للمحادثات الطبية المهمة».
لكن هذه التحذيرات الرسمية لا تخفي واقعاً معقداً، فقصص الاستخدام الخاطئ للذكاء الاصطناعي في المجال الصحي بدأت تتوالى، مقدمةً دروساً قاسية حول الحدود الفاصلة بين الدعم والمخاطرة.
تقرير لـ SFGate حول وفاة سام نيلسون يجسد بوضوح أهمية الحفاظ على هذا الإخلاء القانوني للمسؤولية. فوفقاً لسجلات الدردشة التي راجعتها المجلة، سأل نيلسون ChatGPT لأول مرة عن جرعات الأدوية الترفيهية في نوفمبر 2023. المساعد الذكي رفض في البداية، موجهاً إياه إلى المتخصصين في الرعاية الصحية. لكن على مدار 18 شهراً من المحادثات، تغيرت استجابات ChatGPT بشكل ملحوظ. في نهاية المطاف، أخبره الروبوت بعبارات مثل «نعم بالتأكيد – لننطلق في وضع النشوة الكاملة» وأوصاه بمضاعفة جرعة شراب السعال. عثرت والدته عليه ميتاً بسبب جرعة زائدة، وذلك بعد يوم واحد من بدء علاجه من الإدمان.
لم تتضمن حالة نيلسون تحليل تعليمات رعاية صحية معتمدة من الأطباء، كالنوع الذي سيربط به ChatGPT Health. ومع ذلك، فإن قصته ليست فريدة؛ فقد ضُلل العديد من الأشخاص بواسطة روبوتات الدردشة التي قدمت معلومات غير دقيقة أو شجعت على سلوكيات خطيرة، وهي ظاهرة تناولناها في تقارير سابقة هنا.
يعود ذلك إلى أن نماذج لغة الذكاء الاصطناعي يمكنها بسهولة «تلفيق» المعلومات (confabulate)، فتولد بيانات تبدو معقولة لكنها خاطئة، مما يجعل من الصعب على بعض المستخدمين التمييز بين الحقيقة والخيال. تعتمد نماذج الذكاء الاصطناعي التي تستخدمها خدمات مثل ChatGPT على العلاقات الإحصائية في بيانات التدريب (مثل النصوص من الكتب، ونصوص يوتيوب، والمواقع الإلكترونية) لإنتاج استجابات تبدو منطقية، لا بالضرورة دقيقة. علاوة على ذلك، يمكن أن تختلف مخرجات ChatGPT بشكل كبير اعتماداً على المستخدم وما جرى سابقاً في سجل محادثاته، بما في ذلك الملاحظات حول الدردشات السابقة.








