مسائلةُ الوعي الأخلاكي في منظومات الذكاء الاصطناعي الحاسمة

التعليقات · 2 مشاهدات

بدأت مُحادثة غنية تناولت قضية حساسة مرتبطة بمجال تكنولوجيا الذكاء الاصطناعي حيث طرح "عبد الإله الجبلي" رؤية مفادها الانتقال من نقاش عمومي حول نزاهة ال

  • صاحب المنشور: عبد الإله الجبلي

    ملخص النقاش:
    بدأت مُحادثة غنية تناولت قضية حساسة مرتبطة بمجال تكنولوجيا الذكاء الاصطناعي حيث طرح "عبد الإله الجبلي" رؤية مفادها الانتقال من نقاش عمومي حول نزاهة الذكاء الاصطناعي إلى الانطلاق نحو سؤال أكثر تعمقاً: هل ينبغى الثقة بهذه المنظومات لاتخاذ قرارات مصيرية كهذه الخاصة بصناعة الطب والعدالة؟ وقد شددت المُشارَكة الأولى في المناقشة، "ياسمين الزرهوني"، على أهمية وضع قواعد أخلاقية واضحة أثناء تطوير هذه الأنظمة لضمان عدم احتوائها على انحيازات بنيويّة؛ موافقة لها عليها "طيبة بن منصور" رغم تذكيرها بأنه حتى لو تم تحديد أفضل الأعراف الأخلاقية ممكنة، يبقى هناك احتمال خلل بشري يؤثر بالسلب.

وأضاف "بدر القروي" حديثه بالاعتراف بأهمية وجود هيكل اخلاقي واضح أمام استخدام الذكاء الاصطناعي ولكنه أشار كذلك لحقيقة افتقاد الثقة الكلية لهذا الجهاز لأن المستخدم النهائي -الإنسان- يحمل دائماً فرصة لإحداث الخلل عبر سوء التطبيق والاستخدام. بينما اقترح "عز الدين المجدوب"، زيادة الشفافية والمراقبة خلال مراحل التصميم والإدارة لمحاولة الحد من حالات سوء الاستخدام المحتملة.

وفي جانب آخر، قدمت "مروة العروي" رؤيتها المقترحة بإكساب أنظمة الذكاء الاصطناعي خاصية التكيف الذاتية والسلوك الأخلاقي المستقل والتي ستكون قادرة على تصحيح نفسها حسب الظروف الطارئة بدون تدخل مباشر من البشر، وإن ظل الدور البشري محورياً هنا كموجهٍ عام وموفر للمعارف الأولية. أما "مروة السوسي"، فقد أعربت مرة أخرى عن الاعتراض العام على إبقاء التقنية جانباً بسبب المخاوف المرتبطة بسوء الاستغلال محتمل، مثيرة لفكرة ضرورة العمل بلا هوادة لتعزيز القدرات الاخلاقية ضمن مناهج بحث متعمقة وآراء أخلاقية عالمية قبيل وبعد دخول أي نظام جديد الخدمة الفعلية.

وتشير جميع الآراء مجتمعة إلى ضرورة معالجة شاملة ومتكاملة تغطي مختلف جوانب الإشكالية، بداية بتضمن بيانات التدريب وعدائية المصمم نفسه وانتهاء بخليط التشريع والديمقراطية العملية للحفاظ على سلامة المجتمع وكذلك تفوق الروبوتات فيما تستطيع أدائه أحسن منهم بكثير.

التعليقات