- صاحب المنشور: كوثر السعودي
ملخص النقاش:
كان النقاش دائرًا حول أهمية الأخلاق والخصوصية عند تطوير الذكاء الاصطناعي. أعربت العديد من الأعضاء عن قلقهن من المخاطر التي قد تحملها الروبوتات إذا لم يتم مراعاة هذه الجوانب. وفقًا لكوثر السعودي، "تشبيه الذكاء الاصطناعي الخام ببناء منزل بلا أساس يدلل على مدى خطورته". إنها ترى أن الاعتماد على التقنيات الحديثة لتقديم حلول دون الأخذ بالحسبان الأخلاق والقواعد الصارمة للخصوصية يؤدي إلى خطر ارتكاب الأخطاء واتخاذ قرارات غير عادلة.
أشارت جميلة الموساوي إلى ضرورة الإشراف والتقييم الدقيق للتقنيات الناشئة قبل منحها السلطة لاتخاذ القرارات المهمة. وهي تلتقط الطابع الفلسفي لهذا الجدال حيث يتناول الأمر طبيعة قدرتنا على السيطرة على اختراعاتنا. أما ضحى الراضي فقد اقترحت منظور مختلف، مؤكدة على قدرة البشر على توجيه وتأثير الذكاء الاصطناعي طبقا لمصالحهما ومبادئه. ومع ذلك، اعترف هيام الكتاني بأنه بينما تحتاج تكنولوجيا الذكاء الاصطناعي إلى التحكم والأخلاق، ربما يفتقد التركيز الكبير على دور البشر بعض الجوانب الأخرى مثل كيفية تأثير تعقيد وخوارزميات هذه الأنظمة على استنتاجاتها الأخيرة.
ثم أضافت هاجر اليعقوبي وجهة نظرها قائلةً إن التنوع والتعقيد المرتبط بتعلم الآلة يعني أن هذه الأنظمة قد تتجه نحو الاتجاهات غير المتوقعة وغير المصممة لها بواسطة البرمجة الأولية. وهكذا، تعتمد عملية الرصد المستمرة وضبط العمل الداخلي لهذه الأنظمة للحفاظ على دقتها وإنسانيتها. وفي السياق نفسه، اقترحت لمياء بن البشير أن ديناميكية التقنية تستوجب مراقبة مستمرة لإدارة أي انحرافات محتملة.
وأخيرا، ذكر إسلام البوعزاوي بأن البشر يقودون توجيه الذكاء الاصطناعي ولكنه شدد أيضا على القدرة الذاتية لاستخراج الاستنتاجات لدى هذه الأنظمة استنادا إلى بيانات تدريبية متغيرة وكبيرة. ولذلك، تعد الرقابات المستمرة جزءا أساسيا لتحقيق الأهداف الاجتماعية والأخلاقية المرجوة.