يعتبر الذكاء الاصطناعي صناعة بشرية، وبالتالي من الطبيعي أن تنعكس بيانات التحيز البشري في العمل الصحافي في التحيز الخوارزمي، الذي سينتج مخرجات متحيزة ضمن نطاق تطبيقات الذكاء الاصطناعي. هذا ما تشير إليه جوي بولامويني Joy Bualamwni - على سبيل المثال لا الحصر - التي اكتشفت أن برنامج التعرف إلى الوجه بتقنية الذكاء الاصطناعي، لا يمكنه اكتشاف الوجوه ذات البشرة الداكنة أو التعرف إلى النساء بدقة! وهذا ما تشرحه أيضاً ميريديث بروسارد Meredith Broussard في كتابها «Artificial Unintelligence»، أن التعلمَ الآلي قد يكون مضللاً إلى حد بعيد، لأن آليات تعلم تطبيقات الذكاء الاصطناعي تختلف بطبيعتها عن التعلم البشري؛ فالذكاء الاصطناعي يتعلم من بيانات التدريب، ويحللها ويَستخرج منها نتائج مستقبلية متوقعة، إلا أنه على الرغم من ذلك، يمكن أن يغفل الكثير من الفروقات الدقيقة للذكاء البشري، مثل عجزه عن فهم الكثير من عبارات السخرية أو الاستعارات المستخدمة في بيئات ثقافية متنوعة. إلا أن الأمر لا يقف عند هذا الحد، فقد أصبحت غرف الأخبار الكبرى تضيف تكنولوجيا الذكاء الاصطناعي الجديدة إلى عملها، ما يجعل مسألة التحيُّز البشري وانعكاسه على تحيُّز الآلة واسع النطاق. ظهر ذلك أيضاً في الحروب الدائرة في العالم (الحرب الروسية الأوكرانية، الحرب الإسرائيلية على غزةولبنان)، التي أظهرت عدم موضوعية الذكاء الاصطناعي وانحيازه لمن يغذيه بالبيانات التي تتقاطع معه سياسياً. من هذا المنطلق يحاول هذا المقال مقاربة هذه الإشكالية المثيرة للجدل، متسائلاً عن تأثير التحيُّز البشري في تحيُّز الذكاء الاصطناعي في العمل الصحافي. الذكاء الاصطناعي في العمل الصحافي تكمن خطورة العمل الصحافي في القدرة على السرد، حيث تنطوي كل فعالية سردية على فعاليتين: التخييل Fiction، والبلاغة Rhetoric. والتخييل الصحافي شيء خطر جداً، إذ تكمن في طياته أساليب مضللة، والبلاغة أسوأ من التخييل، لأنها كذبة تعمل على تأطير نفسها بلباس مُشَرْعَن، مقنع وواقعي. كل السرديات الصحافية جذابة للقارئ، كونها تنطوي على شيء من الحقيقة وشيء من الخيال. مع مرور العمل الصحافي في جميع العصور الميديولوجية، ظهرت قدرته على التكيف مع مختلف المتغيرات التكنولوجية، انطلاقاً من الآلة الطابعة والآلة الكاتبة، مروراً بفنون التصوير، وصولاً إلى الكمبيوتر والإنترنت والذكاء الاصطناعي، علماً أن العمل الصحافي اليوم ما زال يخطو خطواته الأولى مع تكنولوجيات الذكاء الاصطناعي التي تحمل في طياتها الكثير من الهواجس والمخاوف من جهة، والكثير من الفرص والآفاق من جهة أخرى. بَدأ العمل الصحافي في الاعتماد على الذكاء الاصطناعي في بداية العقد الثاني من الألفية، ولاسيما مع منصات الصحافة الآلية مثل منصة العلوم السردية Narrative Science ومنصات الرؤى الآلية Automated Insights. بدأ هذا النمط من المنصات في إنتاج مقالات بحت مختصة: في الرياضة والاقتصاد والأرصاد الجوية.. ما أنتج الصحافة المعلوماتية المعنية بدورها في إنتاج أخبار البورصة وأسواق المال. رافق ظهور الصحافة المعلوماتية، صعود صحافة التسريبات التي كان رائدها جوليان أسانج عبر موقعه WikiLeaks، تلك الظاهرة التي فتحت نمطاً جديدا من الصحافة والإعلام وطرحت جدلاً واسعاً انعكس على المشهد الاجتماعي والسياسي والدبلوماسي، ولاسيّما مع استمرار هذا النمط من التسريبات مع وثائق سويس ليكس SwissLeaks، ووثائق بنماPanama Papers، ووثائق أوراق الجنّة Paradise Papers، وتسريبات فنسن FinCEN Files، ووثائق باندورا Panadora Papers. شكل هذا النمط من التسريبات تحدياً أمام الصحافيين للتعامل مع كميات مهولة من البيانات، ما أنتج صحافة البيانات Data Journalism، التي فرضت على الصحافيين توظيف البيانات الضخمة Big Data في عملهم، في عمليات التعقُّب والتحليل والاستخراج، وفي تحديد قوالب الأخبار وأنماطها، وفي الاستفادة من تقنيات الذكاء الاصطناعي بأشكاله المختلفة. أمام هذا الواقع، بدأ العمل الصحافي يأخذ منحى مختلفاً، وبات يحتاج إلى فهم جديد للذكاء الاصطناعي، ذلك أن الاستفادة من الذكاء الاصطناعي ليست مسألة تقتصر على إنتاج المحتوى، بل باتت أوسع نطاقاً بكثير. بمعنى أن استخدام الذكاء الاصطناعي في العمل الصحافي لم يعد مجرد أداة، بل صار له وظائف متعددة تخدم العمل الصحافي وتوسع من نطاق عمله بشكل كبير. عندما تنحرف الخوارزميات ماذا نقصد بالتحيز الخوارزمي؟ نقصد به عندما يعمل بشكلٍ تفضيلي، أي عند تفضيل نظام الذكاء الاصطناعي مجموعة ما على مجموعة أخرى. يحصل ذلك عندما تنحرف نتائج خوارزميات التعلم الآلي نحو فرضيات متحيزة، قد يكون سببها تحيز بيانات التدريب التي تغذي نظام الذكاء الاصطناعي. بعبارة أخرى، التحيُّز الخوارزمي هو انحياز أنظمة الذكاء الاصطناعي لجهة دون أخرى بسبب تزويدها بالبيانات المُتحيِّزة في أثناء مرحلة التعلم الآلي. تكمن خطورة التحيز الخوارزمي في أنه شريك في عمليات اتخاذ القرار للكثير من الجهات الإعلامية أو السياسية أو الاقتصادية. هذا ما أنتج مصطلح «الخوارزميات سيئة الأداء»، لكنها في الواقع مجرد استعارة للإشارة إلى وكلاء الذكاء الاصطناعي التي نتائجها إلى تبعات غير منطقية وربما خطيرة. ناقشت باتيا فريدمان Batya Fridman وهيلين نيسنباوم Helen Nissenbaum مخاوف التحيُّز في استخدام أنظمة الحاسوب لأداء مهام متنوعة، وأشارت مقالتهما النقدية إلى وجود سلوك غير منصف أو متحيِّز في هذه الخوارزميات واقترحتا إطاراً منهجياً للتفكير في هذه التحيُّزات. كما كانت لاتانيا سويني Latanya Sweeney من الرواد الذين درسوا سوء الأداء في أنظمة «غوغل»، والذين كشفت أعمالهم عن أمثلة عن التشهير الخوارزمي في عمليات بحث «غوغل» وإعلاناته. وكتب سولون باروكاس Barocas وأندريه سيلبست Selbst مقالاً يتناول السؤال الجوهري حول ما إذا كان يُمكن للبيانات الضخمة أن تُثمر عن سلوك عادل أو محايد في الخوارزميات، وأجاب الباحثان عن هذا السؤال بالنفي القاطع من دون طرح إصلاح لكيفية تصنيف البيانات والخوارزميات المرتبطة بها. لكن السؤال الذي يطرح نفسه، من أين تأتي التحيُّزات الخوارزمية؟.. ما هو مصدرها؟ يرجع سبب التحيُّز الخوارزمي في الدرجة الأولى إلى التحيُّز البشري الذي ينشئ هذه الخوارزميات من خلال أفكاره وتفاعلاته وسلوكه الرقمي. يؤثِّر التحيُّزُ البشري في أنظمة الذكاء الاصطناعي بشكل مباشر، حيث إن الآلة تبقى صمّاء، وهي بحاجة إلى التفاعل البشري لكي يقودها بالاتجاه الذي يريده، وبالتالي فإن التحيُّزات البشرية وتضارب مواقفهم ومصالحهم تؤدي حُكماً إلى تحيُّزٍ في الخوارزميات. ثمة عملياً تحيُّز بشري في التعلم الآلي بسبب إنشاء خوارزميات البيانات، وطالما أن التحيُّز صفة بشرية، سيتعلم الذكاء الاصطناعي هذا الانحياز لأنه يحاكي الذكاء البشري عن طريق التعلم من البيانات المزودة من المستخدمين. وإذا ما احتوت هذه البيانات على أفكار عنصرية أو طائفية أو مذهبية... سيتم تخزين هذه الأفكار وتحليلها وتوليدها. ونرى أن خطاب الكراهية والعصبية والتشهير وغيره من المُمارسات الرقمية، هو ناتج عن سلوك المستخدمين أنفسهم، وبالتالي تصبح مجموعات البيانات مرايا تعكس التحيُّزات المجتمعية من خلال تحليل المدخلات للحصول على مخرجات متحيِّزة مُعبِّرة عن الواقع. سبب آخر قد يقود الخوارزميات إلى التحيُّز هو عبر إطلاق التعميمات، فعندما تتم برمجة الخوارزميات وتتعمَّم مسألة أن معظم ذوي البشرة السوداء هم أناس خطرون، أو أن أصحاب اللحى هم ذوو فكر إرهابي، في تلك الحال، سوف تطلق الخوارزميات تحذيرات خاطئة ضد أناس أبرياء. وغالباً ما وقع الذكاء الاصطناعي بهذه الأخطاء الفادحة التي تتسم بعدم الإنصاف والافتقار إلى العدالة الإنسانية. يجب ألا يغفل علينا أيضاً أن أحد أبرز أسباب التحيز الخوارزمي قد يكون بدوافع سياسية، فشركات الإعلام الاجتماعي الكبرى قد تتخذ وجهة نظر سياسية لا تكون بالضرورة منصفة أو خالية من التحيُّز. هنا يضطلع المراجعون البشريون بدور حيوي في مراقبة النماذج وتحسينها. ومع ذلك، فإن وجهات نظرهم وتحيزاتهم، ولاسيما في العمل الصحافي، تقدم طبقة أخرى من التعقيد. والسؤال، أين تكمن أخلاقيات المهنة الموازنة بين حرية التعبير والخصوصية والعدالة؟ تتركز المخاوف خلال عملية استخدام الخوارزميات في الصحافة على الانحيازات المدمجة في أنظمة الخوارزميات التي يمكن أن تُحرِّف من تصورات الجمهور أو توجِّهُهُ في الاتجاه الخاطئ. يمكن أيضاً استخدام الخوارزميات لنشْ الأكاذيب والمعلومات المضلِّلة والتحايل عن الانتباه عن المحتوى المهم، وحتى مهاجمة المستخدمين ومضايقتهم، مثل استخدام غرف الصدى Echo Chambers، حيث تؤشر هذه الغرف إلى ميل المستخدم للبحث عن كل ما يؤكد ويعزز وجهة نظره وما يؤمن به من معتقدات وقيم. وبالتالي يمكن القول إن غرف الصدى قد تجعل من آراء الطرف الآخر، هامشية، فتقوم المنصة الرقمية الخاصة بالفرد، باقتراح ثلاثة أشخاص آخرين يؤمنون بالأخبار ذاتها، ويفكرون بالطريقة ذاتها، ويتداولون المعلومات ذاتها، وهذا لا يعود إلى المصادفة الخوازرمية، بل إلى ظاهرة «التعرُّض الانتقائي» التي تستخدمها تلك المنصات لتقدّم للفرد طريقة تزوده بالمعلومات ووجهات النظر المتقاربة مع تلك التي يعتقد بها، وبذلك تجنّبه المعلومات المتناقضة مع رأيه. كذلك الأمر مع استخدام فقاعات التصفية Filter bubbles عندما تخمِّن خوارزمية موقع الويب، بشكل انتقائي، المعلومات التي يرغب المستخدم في رؤيتها، بناء على معلومات حول المستخدم مثل الموقع وسلوك النَّقْر السابق وسجل البحث. ونتيجة لذلك، ينفصل المستخدمون عن المعلومات التي لا تتفق مع وجهات نظرهم، ما يؤدي إلى عزلهم بشكل فعّال في فقاعاتهم الثقافية أو الأيديولوجية الأخرى. فالخيارات التي تقوم بها هذه الخوارزميات ليست شفّافة، حيث تتضمن الأمثلة الرئيسة نتائج البحث المخصص من «غوغل» وتدفق الأخبار المخصص من «فيس بوك»، وقد يكون لتأثير الفقاعة آثارها السلبية على الخطاب العام. ولا ننسى الذكاء الاصطناعي التوليدي Generative Artificial Intelligence الذي لا يخلو من التحيُّزات التي قد تكون نمطية جنسانية تشير مثلاً إلى أن التمريض هو وظيفة المرأة، ويعكس ذلك حتماً الصور النمطية الموجودة على الويب. أمام هذا المشهد، نستنتج أن التحيُّز الخوارزمي هو نتاج التفاعلات البشرية، وبالتالي كلما تمكنت الصحافة من بلورة رأي عام مؤيد لقضايا مجتمعاتها، كلما تمكنت من تخفيف حدة التحيز. وبالتالي يجب تعزيز الوعي لدى الصحافيين والمطورين حول تأثيرات التحيُّزات، وتمكينهم عبر برامج تدريبية مستمرة من المساعدة على معرفة أساليب التحيُّزات، والعمل، بالتالي، على التقليل منها. ولا بد للمؤسسات الإعلامية من أن تعمل على تصميم خوارزميات شفافة وعادلة من طرف الشركات، والمطورين، والعاملين في المجال الإعلامي، عبر المراجعة الدورية لتأثير الخوارزميات، وإدخال التعديلات اللازمة للحد من التحيُّزات. وأخيراً لا بد من وضع تشريعات عربية للذكاء الاصطناعي التي تساعد في ضبط الاستخدام وعدم الاستفادة منه لغايات غير أخلاقية أو سياسية. *كاتب وأكاديمي من لبنان * ينشر بالتزامن مع دورية أفق الإلكترونية.