دعا الملياردير الأمريكي إيلون ماسك ومجموعة من خبراء الذكاء الصناعي ومديرون تنفيذيون في رسالة مفتوحة إلى التوقف لمدة ستة أشهر عن تطوير أنظمة أقوى من روبوت الدردشة (شات جي.بي.تي-4) الذي أطلقته شركة أوبن إيه.آي في الآونة الأخيرة، مشيرين إلى المخاطر المحتملة لمثل هذه التطبيقات على المجتمع. وفي وقت سابق من هذا الشهر، كشفت شركة أوبن إيه.آي المدعومة من مايكروسوفت النقاب عن الإصدار الرابع من برنامج الذكاء الصناعي (شات جي.بي.تي) الذي حاز على إعجاب المستخدمين عبر إشراكهم في محادثة شبيهة بالمحادثات البشرية ومساعدتهم على تأليف الأغاني وتلخيص الوثائق الطويلة. وقالت الرسالة الصادرة عن معهد فيوتشر أوف لايف "يجب تطوير أنظمة الذكاء الصناعي القوية فقط عندما نكون واثقين من أن آثارها ستكون إيجابية وأن مخاطرها ستكون تحت السيطرة". وقال سجل الشفافية في الاتحاد الأوروبي إن الممولين الرئيسيين لهذه المنظمة غير الربحية هم مؤسسة ماسك ومجموعة فاوندرز بليدج ومقرها لندن ومؤسسة سيليكون فالي كوميونيتي. وقال ماسك في وقت سابق من الشهر "الذكاء الاصطناعي يوترني بشدة". وماسك من مؤسسي شركة أوبن إيه.آي الرائدة وتستخدم شركته تسلا للسيارات الذكاء الصناعي في أنظمة القيادة الذاتية. ولم ترد شركة أوبن إيه.آي حتى الآن على طلب من رويترز للتعليق على الرسالة المفتوحة، التي طالبت بوقف تطوير أنظمة الذكاء الاصطناعي لحين توصل خبراء مستقلين إلى بروتوكولات مشتركة للسلامة. وقالت الرسالة "هل يجب أن نسمح للآلات بإغراق قنواتنا الإعلامية بالدعاية والكذب؟... هل ينبغي أن نطور عقولا غير بشرية قد تفوقنا عددنا وذكاء في النهاية وتتفوق علينا وتحل محلنا؟" وأضافت "يجب عدم تفويض مثل هذه القرارات لقادة للتكنولوجيا غير منتخبين". ووقع أكثر من ألف شخص على الرسالة، من بينهم ماسك. ولم يكن سام ألتمان وساندر بيتشاي وساتيا ناديلا، الرؤساء التنفيذيون لشركات أوبن إيه.آي وألفابت ومايكروسوفت، من بين الموقعين على الرسالة. وتأتي هذه المخاوف في وقت جذب فيه روبوت الدردشة (شات جي.بي.تي) انتباه المشرعين الأمريكيين الذين تساءلوا عن تأثيره على الأمن القومي والتعليم. وحذرت وكالة الشرطة الأوروبية (يوروبول) يوم الاثنين من خطر استخدام التطبيق في محاولات الخداع الإلكترونية ونشر المعلومات المضللة والجرائم الإلكترونية. وكشفت الحكومة البريطانية النقاب عن مقترحات لوضع إطار تنظيمي "قابل للتكيف" حول الذكاء الاصطناعي.