يشكّل إجراء دراسةٍ علمية مدتها عشرة أعوام تحديّاً كبيراً، لكن إيريك هورفيتتش، المدير المسؤول في مختبر بحوث «مايكروسوفت» في مقر الشركة في «ريدموند» في ولاية واشنطن، أطلق مشروعاً يريده أن يستمر طيلة قرن كامل. ويحمل المشروع اسم «دراسة لمئة عام حول الذكاء الاصطناعي» (اسمه الرمزي هو «إيه آي 100» AI100). ومن المقرر أن تجرى بحوث «إيه آي 100» في «جامعة ستانفورد» في «بالو آلتو» في ولاية كاليفورنيا، بتمويلٍ من هورفيتش وزوجته. ويرمي المشروع إلى التعرّف إلى تأثير الذكاء الاصطناعي في جوانب الحياة كافة، بداية من الأمن القومي ووصولاً إلى علم النفس العام ومعطيات الخصوصيّة الفرديّة. وأخيراً، ساهم هورفيتش في تأسيس لجنة دائمة مؤلّفة من باحثين متعدّدي الاختصاصات، يعملون بالتناوب بهدف تشكيل فرق خبراء تتولى بحوث المشروع الذي يتوقّع أن يُصدّر تقريراً موسّعاً عن أعماله كل خمسة أعوام. ومن المنتظر نشر التقرير الأول في نهاية العام 2015. هل قلت «مئة عام»؟ يرى هورفيتش أن تقنيات ذكاء الآلة لها تأثيرات كبيرة. «ستكون الآثار المجتمعيّة عميقة وستتغيّر مع مرور الوقت. ومن الجميل حقاً امتلاك منصّة تتمتع برؤية طويلة الأمد للمستقبل، مع ذاكرة واسعة من الدراسات الحديثة. ومثلاً، حين يتعلق الأمر بفهم العلاقة بين ذكاء الآلة ومعطيات الخصوصيّة الفرديّة، فإننا نشهد علماً يستخدم بيانات غير مضرّة كسجّلات بحوث الأفراد على «غوغل» وتغريداتهم في موقع «تويتر»، بهدف توقّع إمكان أن يكون أحدهم معرّضاً بنسبة عالية لخطر الإصابة بأمراض محددة. وتحتاج تلك الأنواع من الأمور إلى دراسات ممنهجة»، وفق كلمات هورفيتش. ويضيف: «يتمثّل هدفي في إرساء نظام لجنة دائمة وأساسيّة، تتولى عملاً ضخماً يتمثّل بالنشر الذاتي لما تتوصّل إليه فرق البحّاثة على مدار قرن من الزمن. يمكنكم أن تتخيّلوا كيف ربما تتحوّل أسئلة محدّدة إلى مؤشرات قوية خلال عقود مختلفة. مثلاً، يحتمل أن تكتسي المسائل الأخلاقيّة المتعلقّة بأتمتة القرارات الرئيسة العالية الأخطار، أهمية في وقت من الأوقات خلال العقد المقبل الذي يتوقع أن يشهد تدفق سيّارات روبوتيّة على الطرقات، إضافة إلى استخدام الأنظمة المؤتمتة في شكلٍ أكبر في الحروب. أعتقد أنه من المشوّق بالنسبة إلى فرق الباحثين، الاطلاع على المسائل التي عالجتها فرق سابقة (وتنبّأت بها)، والخلاصات التي توصّلت إليها، وطُرُق تسيير أمورها. ربما تبدو فترة مئة عام طويلة، لكن أموراً كثيرة يمكن أن تحدث خلال مئة عام من التكنولوجيا. يشبه الأمر مراقبة كيف تسبّبت شبكات الكهرباء في تغيير العالم منذ العام 1900». وفي السياق عينه، تحدّث هورفيتش عن قدرة مشروع «مايكروسوفت» على تخطّي البحوث التي سبقته في ذلك المضمار. وقال: «أعتقد أن مشروع «مايكروسوفت» يحمل منحى رياديّاً إذ لن يقتصر على دراسة الظواهر والكتابة عنها، بل سوف يسعى إلى أداء دور المستشرف للمستقبل، مع تقديم توجيهات إلى الوكالات الحكوميّة، إضافة إلى تمويل مؤسسات أكاديميّة وبحثيّة متنوّعة. وبقول آخر، يتولى المشروع تغطية تكاليف تقنيات الذكاء الاصطناعي، كما يوفّر فرصاً لظهورها وانتشارها. هناك مثال يأتي من مجال الرعاية الصحيّة. ثمة عمل على صنع أنظمة ذكيّة ربما تكون مهمةً للغاية من أجل تعزيز تقديم الرعاية الصحية مع خفض التكلفة في آنٍ معاً. بيد أن هنالك بطءاً شديداً في ترجمة تلك التحسينات إلى العالم الفعلي. يمكنكم تصوّر أن دراسة كاملة حول ذلك الموضوع من شأنها توفير توصيات وتوجيهات إلى «معاهد الصحة الوطنيّة (الأميركيّة)» و«مؤسسة العلوم الوطنيّة (الأميركيّة)». يمكنم أيضاً تخيّل أنه بمقدور اللجان الحكومية الاتصال للقول: «مرحباً! نحتاج إلى دراسة عاجلة حول موضوع معين، بسبب ملاحظات تراكمت لدينا أخيراً». من شأن ذلك أن يشكل فرصة الحصول على أفكار حول مسائل مهمة حين يتعلّق الأمر بذكاء الآلات». وشرح هورفيتش أيضاً رؤيته لطرق تفاعل الرأي العام مع بحوث «مايكروسوفت» المستقبليّة عن الذكاء الاصطناعي، خصوصاً عندما تنشر على نطاق واسع. وقال: «ليس من الواضح حتى الآن ما هي المواقف العامة. ولكنني أعتقد أن عدداً من الأشخاص يستمتعون بنتائج بعض الأنظمة الرقميّة الذكيّة، على غرار محركات البحث في الإنترنت، من دون التنبّه إلى أنها تقنيّات تتصل بالذكاء الاصطناعي. كما أننا رأينا في العام الفائت علماء بارزين يتحدثون في وسائل الإعلام عن تهديد الذكاء الاصطناعي للبشرية في يومٍ من الأيام، كعالِم الفيزياء الشهير ستيفن هوكينغ، ويعالون موسك، صاحب شركتي «تسلا» موتورز لصنع السيارات الكهربائيّة و»سبايس إكس» لصنع صورايخ فضائيّة متطوّرة. ويعتقد معظم الباحثين أن ما يثار من مخاوف حول آفاق الذكاء الاصطناعي لا أساس لها. غير أننا لا نزال نحتاج إلى معالجتها، والتأكد من أن الناس يفهمون أن ثمة أشياء عمليّة يمكن القيام بها لضمان سير الأمور على ما يرام، أثناء إعداد تقنيّات تستند إلى ذلك الذكاء». وأضاف هورفيتش: «يتعيّن علينا، كعلماء، السعي إلى تبديد المخاوف المتعلقة بأمن أنظمة الذكاء الاصطناعي واستقلاليتها، وفهم كيفية تجنب أو دحض الرؤى البائسة حول المستقبل، عبر طرح أسئلة علميّة ممنهجة. ونسأل عمّا إذا كان ذلك النوع من النتائج التي يخشى الناس التوصل إليه، هو ممكن الحصول فعليّاً؟ في حال كان الأمر كذلك، فكيف يمكننا تدارك الأمور»؟