اعتذرت شركة مايكروسوفت عن التعليقات العنصرية التي نشرها برنامج الذكاء الاصطناعي الخاص بها روبوت الدردشة، تاي Tay، على موقع تويتر مما اضطرها لإيقافه عن العمل. ولكن حتى يكون الأمر واضحا فإن وجهات نظر الروبوت نتيجة المعلومات التي تغذى بها وليس بسبب طبيعته، كما أكد الروبوت على الحقيقة التي نعلمها بالفعل وهي أن الناس على شبكة الإنترنت يمكن أن يكونوا مؤذيين. وتاي هو برنامج ذكاء صناعي على شكل روبوت يجسد شخصية افتراضية لفتاة مراهقة، يتراوح عمرها بين 18 و24 عاما، يمكن الدردشة معها على موقع تويتر التواصل الاجتماعي. وتعرض الروبوت "لهجوم منسق لمجموعة من المستخدمين"، بعد إطلاقه مطلع هذا الأسبوع. وقررت الشركة إيقافه عن العمل تماما بعد 24 ساعة فقط من إطلاقه، حتى يقوم فريق التشغيل بتعديله. لكن بيتر لي، رئيس الأبحاث في مايكروسوفت أكد على أن الشركة تشعر بأسف بالغ تجاه الهجوم غير المقصود والتغريدات المؤلمة، وأنها قررت وقف البرنامج خلال المسقبل المنظور. وقال أمس الجمعة :"تاي لم يعد موجودا على الإنترنت وسننظر في إمكانية إعادته للعمل حال تأكدنا فقط من توقع النوايا الخبيثة بشكل أفضل والتي تتعارض مع مبادئنا وقيمنا." وصمم برنامج تاي ليتعلم من التفاعل مع البشر الحقيقيين على موقع تويتر، لكن بعض المستخدمين استغلوا الفرصة وقرروا تغذيته بمعلومات عنصرية وعدائية.