في عام 2023، اكتشفت إحدى شركات تصنيع السيارات الكبرى اختراق نظامها لمراقبة الجودة الذي يعمل بتقنية الذكاء الاصطناعي، مما أدى إلى استخدام قطع معيبة في سياراتها لم يتم اكتشافها إلا بعد عدة أشهر. وتسلط هذه الحادثة الضوء على حقيقة بالغة الأهمية هي أن حماية أنظمة الذكاء الاصطناعي ليس أقل أهمية من تطوير قدراتها، ولا سيما بالنظر إلى التغييرات الجذرية التي تُحدثها في مختلف القطاعات. يفتح أمن أنظمة الذكاء الاصطناعي بعداً جديداً في مجال الأمن السيبراني، ويتطلب منهجيات متخصصة تتخطى الإجراءات الأمنية التقليدية، بالنظر إلى التعقيد البالغ لهذه الأنظمة نتيجة شبكاتها العصبية المعقدة واعتمادها على كميات هائلة من البيانات، وهو ما يخلق نقاط ضعف فريدة يستهدفها المهاجمون بشكلٍ متزايد. اعتبارات رئيسية لضمان أمن الذكاء الاصطناعي تمثل حماية أنظمة الذكاء الاصطناعي تحدياً كبيراً يبدأ بمكونها الأساسي، وهو النماذج. ومن أبرز التهديدات التي تواجه هذه الأنظمة هي الهجمات العدائية التي تتلاعب ببيانات الإدخال بشكل غير واضح، مما يجعل أنظمة الذكاء الاصطناعي ترتكب أخطاءً كارثية. على سبيل المثال، قد تُخطئ مركبة ذاتية القيادة في التعرّف على لافتة توقف، أو قد يُخطئ نظام تشخيص طبي في تصنيف درجة الورم الخبيث، وهو ما يترتب عليه عواقب مدمرة. وهناك عدد من الاستراتيجيات المتبعة حالياً للتصدي لمثل هذه الهجمات، بما في ذلك تقنيات تدريب عدائية متطورة وطرق متقدمة للتحقق من صحة المدخلات، في ظل تسابق كل من المهاجمين والمدافعين المستمر لتطوير أدواتهم وأساليبهم. هناك أيضاً حماية خصوصية البيانات التي تعد من أهم العوامل لضمان أمن أنظمة الذكاء الاصطناعي، حيث تتطلب معظم الأنظمة الحديثة كميات هائلة من المعلومات الحساسة للتدريب، بدءاً من السجلات الصحية الشخصية ووصولاً إلى المعاملات المالية، وهو ما يجعلها هدفاً جذاباً للمجرمين السيبرانيين. وقد ابتكر القطاع عدة أساليب للتغلب على هذه الثغرة، مثل التعلّم المتحد، الذي يتيح لنماذج الذكاء الاصطناعي التعلّم من مجموعات البيانات الموزعة دون الحاجة إلى تجميع المعلومات الحساسة. هناك أيضاً نهج التشفير المتماثل، الذي يسمح بإجراء العمليات الحسابية مباشرةً على البيانات المشفرة؛ وكذلك تقنيات الخصوصية التفاضلية التي تضيف إلى مجموعات البيانات تشويشاً تتم معايرته بدقة لحماية الخصوصية الفردية مع الحفاظ على الفائدة الإحصائية. لكن التحدي الأكبر في مجال أمن الذكاء الاصطناعي يتمثل في التحقق من مخرجات هذه التقنية. فمع سيطرة أنظمة الذكاء الاصطناعي المتزايدة على القرارات الحاسمة في مجالات عديدة مثل التداول المالي والإشراف على المحتوى، تتنامى أهمية التحقق من صحة وموثوقية مخرجات هذه الأنظمة. ويساعد تطوير تقنيات الذكاء الاصطناعي القابل للتفسير في مواجهة هذا التحدي، حيث توفر مستويات شفافية ومساءلة أكبر تساعد أصحاب المصلحة على فهم القرارات التي يتخذها نظام الذكاء الاصطناعي وسبب اتخاذها. تترجم هواوي هذه الأطر النظرية إلى حلول عملية، ومنها منصة السحابة والذكاء الاصطناعي التي تقدم نموذجاً لدمج تدابير الأمن الشاملة عبر كامل النظام الإيكولوجي للذكاء الاصطناعي، بدءاً من أمان الأجهزة على مستوى الشريحة وحتى حماية طبقة التطبيق. وتعمل هذه المنصة في 700 مدينة وتقدم خدمات حيوية لأكثر من 211,500 شركة حول العالم، مع الالتزام بمعايير أمان استثنائية. وقد أثبتت المنصة إمكانية الجمع بين الأداء العالي ومستويات الأمن القوية، حيث حققت معدلات عالية في متانة البيانات بنسبة 99.9999999999% واستمرارية الخدمة بنسبة 99.995%. ونحن نفتخر بامتلاك معرفة واسعة وقيّمة في مجال أمن الذكاء الاصطناعي بفضل تجاربنا الكثيرة في تأمين البنية التحتية الحيوية عبر 170 دولة وخدمة أكثر من ثلث سكان العالم. ولدينا سجل ناجح كبير يتحدث عن نفسه في حماية العديد من المنصات المعقدة، حيث لم يواجه عملاؤنا أي عطل خطير في الشبكة أو تهديدات خبيثة للأمن السيبراني. ومن الأمثلة على ذلك، حل أمان السحابة FusionGuard الذي يوفر تدابير أمنية مخصصة لسيناريوهات متنوعة تتراوح من العمليات الحكومية إلى الخدمات المالية، ويخدم العديد من العملاء في الصين وخارجها مثل فودافون، وGAB، وسحابة الحكومة الإلكترونية في شنتشن، وبنك مينشنغ. كما نقدم حلول أمان متخصصة لمجالات الامتثال والألعاب والتجارة الإلكترونية والتمويل، مما يعزز أمن الخدمات السحابية للعملاء. وقد حظيت حلولنا بتقدير واسع في القطاع، حيث احتلت المرتبة الأولى في وحدات الأمن غير العامة في مشروع لوزارة الأمن العام الصينية. تعزيز موثوقية وأمان تقنيات الذكاء الاصطناعي المستقبلية سيتطلب تطور أمن الذكاء الاصطناعي في المستقبل تعاوناً استثنائياً بين مقدمي خدمات التكنولوجيا والباحثين وصنّاع السياسات. إذ يجب أن يترافق التطور المتسارع لقدرات الذكاء الاصطناعي مع وضع معايير أمنية شاملة وممارسات متقدمة تضمن استخدام هذه القدرات بأمان ومسؤولية. وبالتالي، يتعين على المؤسسات، إلى جانب الاستثمار في الحلول التقنية، أن تعزز الوعي بأهمية ضمان أمن الذكاء الاصطناعي كإجراء ضروري وليس اختياري. في الخلاصة، يمكننا أن نبني مستقبلاً واعداً للذكاء الاصطناعي إن استطعنا ضمان حماية وأمان أنظمته التي تزاد تعقيداً واستخداماً في شتى المجالات، وأصبح بالتالي أمنها جزءاً أساسياً من وظيفتها. ومن خلال تبني تدابير أمنية قوية والحذر الدائم من التهديدات الناشئة، يمكننا بناء نظام إيكولوجي للذكاء الاصطناعي يضمن الاستفادة من إمكاناته التحويلية ويحمي في الوقت ذاته جميع أصحاب المصلحة. ومع جعل الأمن عنصراً محورياً في رحلة التطور، سنتمكن بلا شك من بناء عالم ذكي متصل بالكامل يدعم الابتكار دون المساومة على الأمان والموثوقية. * الرئيس التنفيذي للأمن السيبراني في شركة هواوي السعودية