بات خلق التكنولوجيا المزيفة أسهل كثيرًا هذه الآونة، وهو ما يفتح الباب لموجة جديدة من التهديدات الخبيثة، والانتقام، إلى تضليل العامة لاسيما على منصات التواصل الاجتماعي. ويُعتقد أنه خلال ال6 أشهر المقبلة، ستكون مقاطع الفيديو المزيفة غير قابلة للكشف، وهو ما يثير المخاوف الأمنية والخصوصية من الذكاء الاصطناعي وراء هذه التكنولوجيا، خاصة إذا وقعت في الأيادي الخطأ. ما هي تقنية ديب فيك Deepfake؟ تقنية ديب فيك Deepfake هي إحدى تقنيات الذكاء الاصطناعي، تستخدم لإنتاج فيديو أو التعديل على محتواه بشكل كامل ليستعرض شيئًا لم يكن موجودًا فيه بالأصل، يمكنك أن ترى أمثلة على ذلك من خلال مشاهدة فيديوهات تقوم على العبث بوجوه النجوم والمشاهير وإدخال وجوههم في فيديوهات لا علاقة لهم فيها. المخاوف: تثير هذه التقنية عددًا من المخاوف بسبب أنها سهلة وبسيطة للتعلم، أي شخص شغوف بهذا المجال يمكنه أن يتعلمها، ما يجعلها خطيرة إذا اُستخدمت لإساءة سمعة الآخرين أو الترويج لأغراض معينة. ويمكن استخدام تلك التقنية لمحاكاة صورة شخص ما، وأسلوبه في الكلام، ولغة جسده، وانتحال شخصيته للحصول على المعلومات الشخصية عنه، يمكنك تخيل فداحة الأمر إذا كان الضحية مسؤولاً حكومياً ذا منصب رفيع. وكانت أول حالة معروفة للاحتيال المالي الناجح عن طريق هذه التقنية، هو خداع شركة بريطانية بانتحال شخصية الرئيس التنفيذي لها، لتحويل مبلغ 243 ألف دولار. كيف تعمل؟ وهناك نظامان يُطلق عليهما اسم “المولد والمميز”، “المولد” وظيفته إنشاء فيديو جديد، المميز يستقبل هذا الفيديو، ثم يحدد هل هو حقيقي أم مزيف؟، إذا تأكد أنه حقيقي حينها سيتعلم المولد إنشاء فيديو قابل للتصديق أكثر وهكذا، وكلما زاد ذكاء المولد يزداد ذكاء المُميّز، ويُطلق على هذه الآلية “generative adversarial networks”. متى ظهرت؟ ظهرت هذه التقنية لأول مرة عام 2014، وتم تقديمها في ورقة بحثية في جامعة مونتريال، وكان هدفهما تحسين التطبيقات المختلفة، وتحسين الصور الفلكية في صناعة العلوم، ومساعدة مطوري ألعاب الفيديو.