الأخبار

جامعة القاهرة ترسم ملامح الإطار التنظيمي لأخلاقيات الذكاء الاصطناعي

خبراء في مؤتمر جامعة القاهرة يضعون خارطة طريق لتشريعات الذكاء الاصطناعي في مصر

صحفية في قسم الأخبار بمنصة النيل نيوز، تتابع عن قرب المستجدات المحلية

في خطوة استباقية لمواكبة التطورات التكنولوجية المتسارعة، وضع نخبة من الخبراء والأكاديميين في جامعة القاهرة إطارًا تفصيليًا لمستقبل أخلاقيات الذكاء الاصطناعي في مصر. جاء ذلك خلال جلسة علمية رفيعة المستوى ناقشت سبل بناء بيئة تشريعية وتنظيمية توازن بين الابتكار وحماية المجتمع، وتضع أسسًا واضحة للمسؤولية القانونية.

احتضنت قاعة د. نعمان جمعة بكلية الحقوق، ضمن فعاليات مؤتمر جامعة القاهرة للذكاء الاصطناعي، جلسة متخصصة بعنوان «أخلاقيات الذكاء الاصطناعي والأطر التنظيمية». لم تكن الجلسة مجرد نقاش أكاديمي، بل مثلت ملتقى حقيقيًا جمع بين صناع القرار والخبراء القانونيين ورواد الأعمال، مما يعكس توجهًا جادًا نحو صياغة سياسات الذكاء الاصطناعي العملية والقابلة للتطبيق.

يأتي هذا التحرك في وقت يتزايد فيه الاعتماد على تقنيات الذكاء الاصطناعي في قطاعات حيوية، مما يفرض ضرورة وجود ضوابط واضحة للمسؤولية عند وقوع ضرر، إلى جانب حماية البيانات. إن استضافة كلية الحقوق لهذا النقاش تحديدًا يرسل إشارة قوية بأن الحوار حول التكنولوجيا لم يعد تقنيًا بحتًا، بل انتقل إلى مرحلة التأسيس القانوني والمجتمعي لضمان استخدام آمن وعادل لهذه التقنيات.

توصيات عملية لمستقبل التشريع

خلص المشاركون، الذين أدار جلستهم د. محمد سامح عمرو، عميد كلية الحقوق، إلى مجموعة من التوصيات العملية التي تشكل خارطة طريق واضحة. تركز هذه التوصيات على بناء أنظمة ذكاء اصطناعي موثوقة وجديرة بالثقة، عبر تحقيق توازن دقيق بين تشجيع الابتكار المسؤول وإدارة المخاطر المحتملة بفعالية، بما يتوافق مع الاحتياجات الإقليمية.

إطار تنظيمي قائم على تقييم المخاطر

  • تبنّي نهج قائم على تقييم المخاطر يميز بين تطبيقات منخفضة ومتوسطة وعالية المخاطر.
  • فرض متطلبات أشد صرامة للتطبيقات عالية المخاطر، خاصة في قطاعات حيوية مثل الرعاية الصحية والعدالة والتمويل.
  • مواءمة الإطار التنظيمي مع المعايير الدولية مع مراعاة الخصوصيات الإقليمية لضمان التوافق العالمي.

المسؤولية والشفافية

  • إلزام الجهات المطوِّرة ومُشغّلي النماذج بتقديم وثائق نموذجية موجزة تشمل الغرض، حدود الأداء، مصادر البيانات، ومؤشرات التحيز المعروفة.
  • تحديد مسؤوليات واضحة على امتداد سلسلة القيمة: المزوّد، المكيِّف، الناشر، والمستخدِم المهني.
  • اعتماد مبدأ “العناية الواجبة الخوارزمية” وإثباتها عبر سجلات تدقيق وتقارير اختبار موثقة.
  • وضع آلية تعويض فعّالة وسريعة للمتضررين، مع توفير مسارات بديلة لتسوية المنازعات.

حماية البيانات ومواجهة التحيز

  • ترسيخ مبادئ تقليل البيانات، تحديد الغرض من جمعها، وإتاحة حق الانسحاب للمستخدمين.
  • تشجيع تقنيات تعزيز الخصوصية مثل إخفاء الهوية، التعلم الاتحادي، والتفاضلي.
  • إجراء اختبارات دورية لرصد التحيز والتحقق من العدالة عبر الشرائح الديموغرافية ذات الصلة.
  • إشراك ممثلين عن الفئات المتأثرة في تصميم وتقييم الأنظمة لضمان الشمولية.

الأمان والحوكمة المؤسسية

  • إلزامية إجراء اختبارات أمان شاملة قبل النشر تشمل الاستقرار، الهجمات العكسية، وتسرب البيانات.
  • إنشاء آلية للإبلاغ عن الحوادث والاختلالات، ووضع خطط استجابة واسترداد واضحة.
  • تشجيع تبنّي معايير مفتوحة وقابلة للتشغيل البيني لتقليل الاحتكار التقني وتحفيز الابتكار.
  • تطوير برامج تدريب إلزامية لصناع القرار والمطوّرين والمراجعين الأخلاقيين.
  • إنشاء لجان أخلاقيات داخلية مستقلة، وتحديد أدوار لمسؤول امتثال للذكاء الاصطناعي داخل المؤسسات.

تُعد هذه التوصيات خطوة تأسيسية مهمة نحو بناء حوكمة الذكاء الاصطناعي في مصر، حيث تنتقل بالمناقشات من الإطار النظري إلى مقترحات سياساتية محددة. ويبقى التحدي الأكبر في تحويل هذه الرؤى إلى تشريعات وآليات تنفيذية تضمن تحقيق الفائدة القصوى من التكنولوجيا مع الحد من مخاطرها.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *