وقعت قاعدة عسكرية للتو بين أيدي مقاتلين أعداء. صار ضرورياً أن يستطيع روبوت Robot (إنسان آلي) يحمل معلومات بالغة السرية، الهرب من الجيش الذي اقتحم المكان. ويقف هذا الروبوت أمام ثلاثة أروقة: إلى اليمين وفي الوسط وإلى اليسار. وقد يختار رواقاً بصورة عشوائية على أمل أن يختار جنود العدو رواقاً مختلفاً. ربما يترك أدلة زائفة، بافتراض أنه يمكن تدريب الروبوت على الكذب. وتشير دراسة جديدة تستخدم هذا السيناريو، إلى أن من المستطاع تدريب الإنسان الآلي على الكذب والتضليل. ليست هذه المرة الأولى التي تعكس فيها الآلات الذكية توجهاً إلى التدرّب على الاحتيال. ففي عام 2007، اكتشف باحثون سويسريون أن روبوتات أجريت برمجتها لتتعلم تلقائياً من خبراتها، استطاعت أن تُطوّر بصورة تلقائية عادة الكذب على بعضها بعضاً، في ظل ظروف محددة. في المقابل، ثمة جديد في فكرة لجوء الروبوت إلى الاحتيال عن سابق تصور وتصميم. ولم تكن الخطوة الأولى مرتكزة إلى تعليم الروبوت الكذب، بل إلى الوقت الذي يجب أن تكذب فيه. وابتكر عالمان في المعلوماتية هما آلان واغنر ورونالد أركين من «معهد جورجيا للتكنولوجيا» في أتلانتا، برنامجاً رقمياً يحدد شرطين لحدوث هذا الأمر يتمثّل أولهما في حدوث خلاف تنخرط فيه تلك الآلات، وثانيهما ضرورة إعطاء الروبوت قدرة التأثير في تحركات خصمه. وتالياً، يتعلّم الروبوت أن يلجأ إلى الكذب في حال توافر هذين الشرطين. ثم عمد واغنر وأركين إلى اختبار هذه الفكرة، عبر تطبيقها على روبوتين مجهزين بعجلتين وكاميرا، ويلعبان لعبة بسيطة هي «الغميضة». وكان على الروبوت «المختبئ» أن يختار قسماً من أصل ثلاثة، كي يختبئ فيه. وعُرقِلَت الطرُق المؤدية إلى هذه الأقسام بواسطة مكعبات خضر أو حمر أو زرق ، وبصرف النظر عن الطريق التي يختارها، سيوقع الروبوت إحدى العلامات. وبعد شيء من التدريب، استوعب الروبوت المختبئ والروبوت الذي يبحث عنه، أن وقوع علامة يحدد الوجهة التي قصدها المختبئ، باستثناء نقطة مهمة، وهي أن الروبوت الباحث لم يعرف أن الروبوت المختبئ أجريت برمجته على الكذب. وعندما بدأت اللعبة، اختار الروبوت المختبئ أحد الأقسام عشوائياً، ثم انطلق برنامج الاحتيال فيه وأخبره بالذهاب إلى وجهة مختلفة أولاً، وأمره بإيقاع علامة مختلفة، قبل أن يعود إلى الوجهة التي اختارها. وبذا، اتّبع الروبوت الباحث، الذي رأى العلامة المقلوبة ولم يشك بأي حيلة، الطريق الخاطئ، فتعذر عليه العثور على الروبوت المختبئ. وبعد 20 محاولة، اكتشف واغنر وأركين أن الحيلة نجحت في 75 في المئة من الأوقات. وعندما فشلت، اعتبر واغنر أن تصرف الروبوتين كان أخرق. إذ كان الروبوت المختبئ يحاول الذهاب يميناً، لكنه يتجه إلى الوسط في نهاية المطاف مثلاً، أو يحضّه استيعابه البطيء لطبيعة العلامة على صدم العلامة الخاطئة. وأوضح واغنر أن الروبوت يعتقد أنه سيصطدم بعلامة ما، ولكن العجيب هو أنه كان يصطدم بالعلامات كلها! وباستثناء أخطاء من هذا النوع، انطلت الحيلة على الروبوت الباحث في كل مرة، وفقاً لما أورده الباحثان في «مجلة الروبوتات الاجتماعية الدولية» Social Robotics International Magazine أخيراً.