أوضحت شركة "تويتر" أنها تدرس ما إذا كانت خوارزمياتها المعتمدة على تقنية التعلم الآلي تسبب ضررا غير مقصود بالنسبة للمستخدمين. وتأتي هذه الخطوة في الوقت الذي تواجه فيه شركات التواصل الاجتماعي تدقيقًا متزايدًا لدورها في نشر نظريات المؤامرة وتمكين المضايقات. وتصدر مبادرة التعلم الآلي المسؤول في الأشهر المقبلة تقارير بشأن تحليل التحيز العرقي والجنساني المحتمل في خوارزمية اقتصاص الصور. كما تصدر تقارير بشأن تقييم إنصاف توصيات الجدول الزمني للصفحة الرئيسية عبر المجموعات الفرعية العرقية، وتحليل توصيات المحتوى للإيديولوجيات السياسية المختلفة عبر سبع دول. وبعد انتقاد خوارزمية صور تويتر العام الماضي لتركيزها على الوجوه البيضاء بدلًا من الوجوه الداكنة، أكدت الشركة أن اختباراتها لم تظهر أي تحيز عرقي أو جنسي. وبالرغم من ذلك، فقد أعلنت في أعقاب الاختبارات عن منح المستخدمين مزيدًا من التحكم في الصور لأنها تدرك أن طريقتها التلقائية في اقتصاص الصور تعني أن هناك احتمالًا للضرر. وقالت تويتر "إن نتائج التقارير قد تفيد في إجراء تغييرات عبر المنصة، وإرشادات جديدة لكيفية تصميم منتجات معينة وزيادة الوعي حول التعلم الآلي الأخلاقي". كما أضافت: يؤثر استخدام التعلم الآلي في مئات الملايين من التغريدات يوميًا، ويمكن للنظام التصرف في بعض الأحيان بشكل مختلف عما كان مقصودًا. وتؤثر هذه التحولات الطفيفة في المستخدمين، ونريد التأكد من أننا ندرس هذه التغييرات ونستخدمها لبناء منتج أفضل. وتأتي مبادرة تويتر في الوقت الذي تواجه فيه شركات التواصل الاجتماعي اتهامات بأن خوارزمياتها مسؤولة عن زيادة الاستقطاب والمعلومات المضللة والتطرف عبر الإنترنت. وتعرضت تويتر على وجه الخصوص لانتقادات لعدم قيامها بما يكفي لمكافحة التحرش. وقال الرئيس التنفيذي جاك دورسي سابقًا: إنه يريد أن يرى مستقبلًا حيث يمكن للمستخدمين اختيار الخوارزمية التي يريدون استخدامها من خلال واجهة تشبه متجر التطبيقات، بدلاً من الاعتماد على خوارزمية واحدة تضعها تويتر. ويتناقض إقرار تويتر الضمني بأن خوارزمياتها قد تكون ضارة للمستخدمين بشكل عام مع دفاع فيسبوك عن خوارزمياتها. وقالت شركة فيسبوك في الشهر الماضي: ليس لدينا مصلحة تجارية في تضخيم المحتوى المتطرف، وليست المنصة مسؤولة وحدها عن زيادة الاستقطاب السياسي لأن الخيارات الفردية تؤثر أيضًا في ما يراه المستخدمون ضمن خلاصة الأخبار.