قال معهد «بروكينجز» الفكري في واشنطن إن مشاريع الذكاء الاصطناعي التي بدأت تنتشر في بعض دول العالم تفتقد لتنظيم المسؤولية الأخلاقية، وهي المسؤولية التي من شأنها أن تحدد مسؤولية الأخطاء التي قد يقع فيها الذكاء الاصطناعي، بدءا من برامج التعرف على الوجه وحتى استخدام الأسلحة التلقائية في الحروب. وأضاف أن استمرار التطورات في الذكاء الاصطناعي في كل من القطاعين العام والخاص يتطلب دراسات أخلاقية جدية. فمع تطور قدرة الذكاء الاصطناعي، فإن قضية الشفافية والعدالة والخصوصية والمسؤولية جميعها مرتبطة مع استخدام هذه التكنولوجيات التي أصبحت أكثر جدية. مخاطر عدة يقول التقرير إن هناك مخاطر يمكن أن تنشأ عن تطور الذكاء الاصطناعي ودخوله في مجالات عدة، الأمر الذي يتطلب من الحكومات أن تؤسس تنظيمات تحد مثلا من التحيز العرقي في برامج التعرف على الوجه وحتى استخدام الأسلحة التلقائية في الحرب. في 14 سبتمبر الجاري، قام مركز ابتكار التكنولوجيا باستضافة حلقة نقاش في معهد «بروكينجز» من أجل التركيز على المعضلات العرقية للذكاء الاصطناعي، وضمت حلقة النقاش ممثلين من شركات تقنية رائدة مثل «جوجل» و«إنتل». تحيز عرقي في التعرف على الأوجه اعترف المناقشون بأن الاستخدامات المزدوجة لهذه التكنولوجيات تفيد وتضر المجتمع، فكما يمكن للذكاء الاصطناعي مساعدة تنفيذ القانون، فإنه في نفس الوقت يقيد الحريات المدنية والخصوصية. على سبيل المثال يمكن تحديد موقع طفل مختطف بشكل أكثر سهولة عن طريق برامج التعرف على الوجه. ولكن هذا الأمر كذلك يُمّكن المراقبة التي تتبع حركات الشخص بدون موافقتهم أو معرفتهم. وهنا تكمن أهمية وضع معايير أخلاقية للتعامل مع تكنولوجيات محددة مثل الذكاء الاصطناعي، وذلك لشرعنتها وجعلها تعطي الفوائد المرجوة منها. وقال داريل ويست من مؤسسة «بروكينجز»، إن برامج التعرف على الوجه أظهرت تحيزات عرقية بناء على بيانات التدريب غير الممثلة ديموجرافيا. فهذه الأنظمة تكون أكثر دقة عندما يتعلق الأمر بتحديد الوجه القوقازي مقارنة بأوجه الأقليات، أي أن التعرف الخاطئ أكثر ترجحيا بالنسبة لمجموعات الأقليات. من جانب آخر، تطور الذكاء الاصطناعي في الجيوش وهنا يظهر تحد أخلاقي جديد، فإذا استخدم أي جيش أسلحة أوتوماتيكية في الحرب، فمن يتحمل المسؤولية إذا تسببت طلقة نار خاطئة في قتل مدنيين أبرياء؟ ليس من الواضح إلى أي درجة سيتحمل المسؤولية الجيش أو الحكومة أو مطور البرنامج. ووفقا لاستطلاع حديث لمعهد «بروكينجز»، فإن الدعم الأميركي لاستخدام الذكاء الاصطناعي في الحروب يزيد بشكل كبير إذا عُرِف بأن الخصوم يطورون تكنولوجيات مماثلة. وضع المبادئ العرقية أكّدت لجنة النقاش على الحاجة للشفافية في كيفية تطبيق المبادئ العرقية في الذكاء الاصطناعي عمليا. في الحالات التي فيها تتضارب المبادئ الأخلاقية مع بعضها البعض، فإن القرارات يجب أن يتم اتخاذها بخصوص كيفية وضع الأولويات. سيارات القيادة الذاتية مثال جيد. ففي حال وقوع حادث وشيك، هل يجب على سيارات القيادة الذاتية أن تضع أولوية السلامة للسائق أم الماشي؟ حل هذه المعضلات الأخلاقية يجب أن يعكس الرأي العام بشكل دقيق، وليس فقط نزوة مطور البرنامج أو شركة سيارات للمركبات ذاتية القيادة. وأكدوا أنه يجب وضع قانون معياري لتقليل الأضرار المحتملة التي يمكن أن يسببها الذكاء الاصطناعي.