الخوارزميات، أي مناهج عمل البرمجيات الكومبيوترية، تحدد من هم الذين يقترح عليك «فيسبوك» مصادقتهم، وتحدد كذلك متى سوف تستعمل السيارات ذاتية القيادة، المكابح في المستقبل. والخوارزميات هي سلسلة من الأوامر التي يمكنها حل المشكلات، إذا ما طُبقت بشكل صحيح. ومن المفترض للخوارزميات أن تكون ممنهجة، ومنطقية، وتخرج بالنتائج نفسها حتى بعد انتهاء التطبيق الأخير لها. ولكن كل واحد من الخوارزميات هو من برمجة البشر الذي يأتون من شرائح مجتمعية مختلفة، الذين تتأثر أعمالهم بوعي أو من دون وعي، بتفضيلاتهم وأحكامهم المسبقة على الأمور. وفي ظل زيادة الاعتماد على التكنولوجيا عالميا ازدادت تلك المشكلة تعقيدا. * برمجيات غير حيادية تقول كورينا باث، الباحثة المتخصصة في علوم الكومبيوتر التي تدرس قضايا التطوير التقني والعلاقة بين الجنسين: «نحن نفترض أن التكنولوجيا محايدة، لكن ليست هناك خوارزميات محايدة». وتقول أيضًا إن التكنولوجيا تخضع دائما لتأثير المواقف الاجتماعية السائدة، مع القليل للغاية من الناس الذين يدركون ذلك. يمكن للخوارزميات أن تكون خطيرة للغاية إذا ما تمت برمجتها في اتخاذ القرارات العنصرية أو الجنسية. وتذكروا أن هذا الأمر قد لا يحدث عن قصد، فأغلب المبرمجين لا يدركون حقيقة أن أحكامهم المسبقة على الأشياء تؤثر فعليا في الرموز التي يكتبونها. * التمييز في الصور إذا بحثت عن مصطلح «CEO» (الرئيس التنفيذي) على «غوغل»، فمن المرجح لمحرك البحث الشهير أن يرجع إليك بعدد هائل من صور الرجال ذوي البشرة البيضاء. ولكن في واقع الأمر هناك 27 في المائة من النساء من بين كل الرؤساء التنفيذيين في الولاياتالمتحدة. ووفقا لدراسة أجرتها جامعة واشنطن، فإن 11 في المائة فقط من كل الصور المقترحة هي للنساء. وإحدى أولى صور النساء، بالمناسبة، هي لدمية «باربي» التي سميت «CEO». تقول باث: «تتحرك التطورات التكنولوجية بوتيرة ثابتة، وإذا لم نبدأ في دراسة الخوارزميات من زاوية الملاءمة الأخلاقية، فمن شأن ذلك أن يسبب مشكلات خطيرة في المستقبل». ولقد لاحظت أن الأدوار القديمة ما بين الجنسين باتت دائمة الوجود ضمن التطورات التكنولوجية الحديثة، ما يعني أن الخوارزميات أصبحت تحمل نزعة «جنسوية» أكثر من المجتمع المعاصر نفسه. وبالإضافة إلى ذلك، فإن الناس الذين يستخدمون الخوارزميات لا يفكرون في النتائج التي يخرجون بها، بل يتقبلونها باعتبارها وصفا دقيقا للواقع. إذا كتبت عبارة «ينبغي على النساء» في محرك البحث «غوغل»، فسوف يكمل محرك البحث الجملة بصورة تلقائية بعبارات مثل «لا ينبغي لها الدراسة»، أو «لا ينبغي لها ارتداء السراويل»، أو «لا ينبغي أن يكون لها حقوق». ووفقا ل«غوغل»، يقوم أحد الخوارزميات تلقائيا بتوليد الاستجابات المقترحة من دون أي تدخل بشري يُذكر. وهذه الخوارزمية، كما يقول محرك البحث العملاق، تعتمد على كثير من العوامل الموضوعية، ومن بينها عدد مرات تكرار البحث بالكلمة نفسها. وهي السبب وراء أن العبارات التنبؤية قد تبدو «غريبة أو مفاجئة». وهناك توصيف آخر لسلوك محركات ووظائف البحث، ألا وهو «السلوك التمييزي». إذ انتقدت المنظمات النسائية بالأمم المتحدة حقيقة «الاستكمال التلقائي» للعبارات البحثية في عام 2013 عبر إحدى الحملات المنظمة، وقالوا إنه ينبغي حصول النساء على حقوق متساوية مع الرجال، حتى في محرك «غوغل» البحثي. ولكن الأمور تزداد سوءا بمرور الوقت، حيث أظهرت الدراسة التي أجرتها جامعة «كارنيغي ميلون» أن النساء يحصلن على أقل مقدار من الإعلانات على «غوغل» بالنسبة إلى الوظائف ذات الرواتب المرتفعة في المناصب الإدارية من الرجال. والبحث على «غوغل» عن الأسماء ذات الطبيعة الأفرو - أميركية تشير إلى الإعلانات التي تأتي في سياق السوابق الجنائية، وفقا للدراسة التي أجريت عام 2013 بواسطة البروفسورة لاتانيا سويني من جامعة هارفارد. * صور عنصرية عند البحث على «غوغل» بمصطلح «اليد»، يرجع محرك البحث في المقام الأول بصور للأيدي ذات البشرة البيضاء. وتلك الصور الرمزية تُسمى أيضا «الصور المخزنة»، وهي تستخدم في توضيح النصوص ذات الصلة بالموضوعات الطبية، ومستحضرات التجميل، أو الجواهر، وفي بعض الإعلانات الأخرى. ونادرا ما تستخدم الأيدي ذات اللون البني أو الداكن في خدمة هذه الأغراض. وهناك مبادرة تحمل عنوان «الشبكة العالمية البيضاء»، وهي تحاول لفت الانتباه إلى «الموجة البيضاء» للإنترنت من خلال استخدام الأمثلة المذكورة نفسها. وهي تقدم الصور المخزنة للأيدي بمختلف درجات ألوان البشرة، التي يمكن استخدامها بصورة مجانية. تقول باث إن التطورات التكنولوجية ذاتها مسؤولة عما يجري، فالغالبية العظمى من المبرمجين هم من الرجال ذوي البشرة البيضاء، وبالتالي فإنهم أعضاء طبيعيين في مجموعة متجانسة للغاية. وهم يعملون على تطوير المنتجات في ظل فرضية تقول إن المستخدم سوف يتمتع بالاهتمامات والكفاءات المماثلة. بالإضافة إلى ذلك، سوف يفكر المبرمجون في غالب الأمر في الصور النمطية أثناء العمل بدلا من التفكير في الأشخاص الحقيقيين. ولذلك، وعلى سبيل المثال، فإن الهواتف المصممة لكبار السن سوف تحمل أزرارا كبيرة للأرقام، بسبب أن القدرة على الإبصار تنخفض مع التقدم في العمر. لكن لا يعاني جميع كبار السن من مشكلات في الرؤية أو الإبصار. فهناك مشكلات أخرى متعلقة بالتقدم في العمر، مثل الاختلال العقلي أو صعوبات السمع، وهي تؤثر بدورها على الطريقة التي يستخدم كبار السن بها الهواتف التي تتعلق وظائفها بهم بصورة مباشرة، لكن كثيرا من المبرمجين لا يفكرون في تلك العوامل المؤثرة على تصميم المنتجات. يمكن لكل تطور تكنولوجي جديد أن يؤدي إلى تجدد التمييز العنصري بصورة ما، على سبيل المثال، عندما يتلقى البحث عن الصور إحدى الكلمات الدليلية، كما هي الحال تماما على محرك البحث «غوغل» أو «فليكر»، فإن صورة الكلب الألماني، على سبيل المثال، سوف تتلقى الكلمة الدليلية «كلب»، بينما صورة برج إيفل تشير للكلمة الدليلية «باريس». وعند إنتاج الخوارزمية، تتم تغذيته بالمعلومات والأمثلة التي تمكنه من التعرف على فئات بعينها بنفسه، أو هكذا يعدنا المبرمجون للخوارزميات. ولكن الأمور لا تسير بهذه الطريقة على الدوام. ويظهر الأمر جليا في صور ذوي الأناس ذوي البشرة الداكنة التي ألحق محرك فليكر البحثي بها كلمة «قرد» الدليلية، في حين ألحق محرك غوغل بها كلمة «غوريلا» الدليلية. في حين أن صور الأناس ذوي البشرة البيضاء، لا يقع الخلط بينهم وبين الحيوانات أبدا. ولقد تقدم «غوغل» باعتذاره عن ذلك وأزال تلك الكلمة الدليلية تماما بعد الاحتجاجات الشديدة التي تلقاها من المستخدمين. لكن الشركات تستخدم الخوارزميات أيضا في تحديد من سوف يُدعى للمقابلة الشخصية من بين مئات المتقدمين لشغل إحدى الوظائف. ويبحث أندرياس ديويس، الفيزيائي ومحلل البيانات، في التمييز والأخلاقيات في المجتمع القائم على البيانات لكي يتفهم، على سبيل المثال، ما إذا كانت الأفضلية للرجال على النساء عند اختيار المرشحين للمقابلات الشخصية. وهل تحصل النساء على معاملة أسوأ من الرجال في ذلك؟ * تمييز القرارات وتظهر المحاكاة التي خرج بها، التي تستند إلى عشرة آلاف دراسة للحالات، أنه كلما زادت المعلومات التي تجمعها الخوارزمية عن الشخص كانت قادرة على التمييز ضد هذا الشخص. وليس التمييز كله على أساس جنسوي، حيث يمكن أن يكون التمييز على أساس لون البشرة، أو الوضع الاجتماعي، والمعلومات التي تكون في الغالب متاحة على الإنترنت. وبالحديث عن البيانات الكبيرة، يقول ديويس: «يمكن للخوارزمية أن تحمل القدر نفسه من التمييز الذي لدى البشر إذا تمتعت، أو لأي سبب آخر، بقدرة الوصول إلى مجموعات معينة من المعلومات عن الشخص. يمكن لكثير من المشكلات أن تحدث عند استخدام الخوارزميات». يزداد احتمال عثور الخوارزميات على المعلومات التي يمكن استخدامها في التمييز مع ازدياد البيانات المتوفرة والمتاحة حول أعداد متزايدة من الناس. ويصبح الأمر حساسا بشكل خاص عندما تتخذ الخوارزميات القرارات التي لها تأثير عميق على قيمنا. وتتساءل باث قائلة «ما الذين ينبغي علي فعله، على سبيل المثال، إذا تم تصنيفي باعتباري إرهابية وفقا لأنماطي السلوكية على الإنترنت؟ يمكن لخوارزميات الخروج بمعلومات غير صحيحة». وهناك حل وحيد لتلك المشكلة. يجب على مطوري الخوارزميات أن يكونوا على وعي بهذه المشكلة، وخلال مرحلة الدراسة بشكل أساسي. وكما ينبغي على المستخدمين كذلك أن يدركوا أن كل خوارزمية يستخدمونها هي من برمجة إنسان مثلهم، وهو إنسان غير معصوم من الأخطاء وغير بعيد عن التحيز كذلك. * خدمة «نيويورك تايمز»