في شهر مارس (آذار) من العام الماضي، وقّع مئات من الخبراء المتخصصين، الذين كان من بينهم الملياردير إيلون ماسك، رجل الصناعات التكنولوجية الشهير، عريضة يطالبون فيها بإيقاف تدريب الذكاء الاصطناعي والأنظمة المتطورة من «تشات جي بي تي4»، لمدة ستة أشهر على الأقل، بداعي ما قد تُحدثه تلك الأنظمة من مخاطر، ولإعطاء فرصة مناسبة للخبراء والمستخدمين وأفراد الجمهور، لاختبار تلك التقنيات، وتقصّي مدى ملاءمتها وقدرتها على تقديم فائدة ملموسة من دون التورّط في أخطاء كبيرة. وبعد أيام قليلة من صدور هذه العريضة، عبّر جيفري هينتون، الذي يُوصف على نطاق واسع بأنه الأب الروحي للذكاء الاصطناعي، عن ندمه جرّاء عمله الذي استمر عقوداً في تطوير آليات هذا الذكاء غير البشري. وفي رسالة بعث بها هينتون، قبل نحو 17 شهراً، إلى جريدة «النيويورك تايمز»، في أعقاب تقديم استقالته من شركة «غوغل»، التي تستحوذ على نتاج عمله وتطوّره وتستثمر فيه، حذّر من «أخطار متزايدة ستأتي من عمليات التطوير المتسارعة» في مجال الذكاء الاصطناعي. ولتوضيح فكرته تلك، أكد هينتون أن منتجات الذكاء الاصطناعي تستطيع، عبر التعلّم العميق واستخدام الشبكات العصبيّة المتطوّرة، أن تتجاوز مستوى المعلومات التي يحتفظ بها الدماغ البشري الراهن، وأن تطوِّر آليات تفكيرها بصورة مستقلة، قد يجعلها أكثر ذكاء من البشر في وقت قريب. وعلى الرغم من اهتمام بعض الحكومات والمشرّعين، في الولاياتالمتحدة الأميركية وأوروبا خصوصاً، بمناقشة تداعيات التطور المذهل في مجال كفاءات الذكاء الاصطناعي، ومحاولة وضع قيود عليه بما يكبح جماح بعض الممارسات الخطيرة؛ فإن عمليات تطوير هذا الذكاء تستمر، ولا تجد من يُفعّل التوصية المهمة بإيقافها لالتقاط الأنفاس، وتنظيم الاستجابة، وبناء قواعد ومعايير تُهذّب سلوكها النهم، وتمددها في المجالات كافّة. معظم المخاوف التي عُبّر عنها في هذا الصدد كانت تتعلّق بالمستقبل؛ أي بالأدوار المستقبلية لآليات الذكاء الاصطناعي، التي باتت توفّر حلولاً سريعة وسهلة وذات قدر مُعتبر من الكفاءة في إحلال الطلب على الذكاء البشري واستبدال عمل تلك الآليات به. وهنا ظهرت المخاوف العميقة من القضاء على عدد كبير من الوظائف البشرية، بعدما بات بوسع آليات الذكاء الاصطناعي تعويضها، بما يوفّر الوقت والجهد والنفقات من جانب، ويحرم البشريين من عدد من الوظائف من جانب آخر. لكن الآونة الأخيرة شهدت صعود مخاوف من نوع جديد؛ إذ يبدو أن عمل الذكاء الاصطناعي امتدّ أيضاً إلى الذاكرة، سواءً كانت علمية أو فنية أو أدبية أو إعلامية. وعلى الأرجح، فإن تلك المخاطر جدّية، وقد تصنع حالة عبثية مكتملة الأركان، تبلغ في ذروتها حالة تقوِّض الذاكرة الأدبية والفنية، أو تُخضِعها لأكبر قدر من التلاعب. ففي الأسبوع الماضي، روى الكاتب والإعلامي الكبير عبد الرحمن الراشد، لمنصة «المنتدى»، واقعة مثيرة للانتباه، عندما قال إن أحدهم أرسل إليه مقالاً قائلاً إن الراشد كتبه منذ 15 عاماً، وإنه مُعجب بما ورد فيه. يقول الإعلامي السعودي إنه قرأ المقال، وإنه لاحظ أنه يحمل «بصمته» بصفته كاتباً، ويستخدم مفرداته وأسلوبه، ويورد المعلومات بالطريقة التي اعتاد عليها. ويجزم أيضاً أنه صدّق أن هذا المقال من كتابته، حتى أخبره هذا الصديق بأنه من منتجات إحدى آليات الذكاء الاصطناعي، التي طلب إليها تقليد طريقة الراشد في كتابة مقال، فأنجزت المطلوب بدقة شديدة. لا يقتصر الأمر على مجالات الكتابة، سواءً كانت إعلامية أو أدبية فقط، ولكنه يمتد أيضاً إلى استخدام منتجات الذكاء الاصطناعي التوليدي في استخدام أصوات المطربين الراحلين لغناء أغنيات قديمة أو جديدة. إن استدعاء صوت مطربة مثل أم كلثوم، أو مطرب مثل صباح فخري، مسألة ليست صعبة على الإطلاق في إطار كفاءات الذكاء الاصطناعي، وجعل أحدهما يصدح بأغنية جديدة أو قديمة ليس أمراً صعباً على الإطلاق. سيمتد الأمر أيضاً إلى مختلف الفنون والآداب، ولن يكون هناك أي عائق في استدعاء تجربة مايكل أنغلو التشكيلية، أو موزارت الموسيقية، أو نزار قباني الشعرية، والطلب إلى آليات الذكاء الاصطناعي استنساخها ومقاربتها بطريقة دقيقة ومحبوكة... وسيكون لدينا ملايين من الإبداعات المُستعادة بأثر رجعي، وسنفرح بها مؤقتاً، ونتداولها بوصفها مزحة أو تسلية، قبل أن نفيق على المعضلة الكبيرة. سيعني هذا أن الأرشيف الفني والأدبي والإعلامي قابل لأكبر عملية تلاعب في التاريخ، وسيكون ذلك بمنزلة عملية تقويض شاملة للذاكرة الأدبية والفنية والإعلامية للعالم، وهو أمر ينذر بعواقب وخيمة. نقلا عن الشرق الأوسط