كتبت محررة الشؤون العلمية بمجلة «نيوزويك» الأميركية، ليزا سبير، تقريرا عن قلق العلماء إزاء عواقب تطوير صناعة الروبوتات القاتلة، فقالت: إن الذكاء الاصطناعي يُمكن أن يؤدي إلى تغيير الطريقة التي يُدير بها البشر الحرب، ولذا فإن العلماء يشعرون بالقلق مما قد تكون عليه العواقب إذا تم اتخاذ قرارات الحياة والموت بواسطة الآلات. وتضيف سبير أن آلاف العلماء والمنظمات تعهدوا الآن بعدم المساعدة في تطوير الروبوتات التي يمكن أن تحدد إذاء الناس دون مراقبة بشرية. وقد تم إعلان هذا التعهد، الذي قدمته منظمة «مستقبل الحياة»، التي تتخذ مدينة بوسطن الأميركية مقرا لها، في مؤتمر دولي مشترك حول الذكاء الاصطناعي في ستوكهولم، السويد. ومن بين أكثر من 2400 شخص وقعوا على التعهد، الذي يهدف إلى عدم تشجيع الحكومات على تصنيع الروبوتات القاتلة، ديميس حسبيس من شركة «جوجل ديب مايند» البريطانية، وإيلون موسك من شركة «سبيس إكس» لصناعة تكنولوجيا الفضاء. وتدعو الوثيقة الحكومات إلى وضع قوانين وأنظمة لمنع تصنيع روبوتات قاتلة. قال رئيس معهد مستقبل الحياة، ماكس تيجمارك، في بيان له «إن أسلحة الذكاء الاصطناعي التي تقرر بشكل مستقل قتل الناس هي عملية مقززة ومزعزعة مثل الأسلحة البيولوجية، ولذا ينبغي التعامل معها بالطريقة نفسها». ووافق الذين وقعوا على الوثيقة على عدم المشاركة أو دعم تطوير أو تصنيع أو تجارة أو استخدام أسلحة الذكاء الاصطناعي القاتلة. وأضافت أكثر من 150 منظمة ذات صلة بالذكاء الاصطناعي أسماءها إلى التعهد. تقول الوثيقة «لا يجب أبدا تفويض قرار اتخاذ حياة إنسانية لأي آلة. هناك عنصر أخلاقي لهذا الموقف، وهو أنه لا ينبغي أن نسمح للآلات باتخاذ قرارات تتعلق بالحياة التي لن يكون الآخرون - أو أحد - مسؤولا عنها». وتقول نيوزويك: هذه الخطوة تُعد الأحدث من العلماء والمنظمات المعنية لتسليط الضوء على مخاطر الذكاء الاصطناعي. ويترتب على ذلك، الدعوة إلى فرض حظر استباقي على التكنولوجيا التي يعتقد العلماء النشطاء أنها قد تجلب أسلحة جديدة يمكن استخدامها في الإرهاب.