نصت سياسات استخدام أدوات وتطبيقات الذكاء الاصطناعي التوليدي في التعليم الرقمي، على أن استخدام محتوى تم إنتاجه بالذكاء الاصطناعي في البحث، أو الواجبات المنزلية، أو التقارير، ونسبها إلى المتعلمين دون الإفصاح عنها يعتبر غشا وانتهاكا للنزاهة الأكاديمية. وسمحت السياسات للمتعلمين باستخدام أدوات وتطبيقات الذكاء الاصطناعي التوليدي لمساعدتهم على التعلم المستقل، والإجابة عن أسئلتهم، وفهم الأفكار أو الدروس، والحصول على الاستشارات، وتوليد الأفكار للمشاريع، أو اختيار المواضيع، بعد موافقة الجهة التعليمية/ التدريبية. وألزمت السياسات التي طرحها المركز الوطني للتعليم الإلكتروني على منصة "استطلاع" لأخذ مرئيات العموم تمهيداً لإقرارها، المتعلمين بالإفصاح عن استخدام أدوات الذكاء الاصطناعي التوليدي في المهام والأعمال التي قام بها المتعلم. وتوثيق المحتوى المُدخل في هذه الأدوات، مثل البيانات أو الأوامر المُدخلة، أو الأسئلة والردود المستخرجة منها، وشرح أي تعديلات أو تحسينات أجراها المتعلمون لضمان الشفافية. وعدم نسخ المخرجات من أدوات الذكاء الاصطناعي ونسبها إلى المتعلم، ولكن يلزم إعادة صياغتها وفقًا لأخلاقيات الكتابة الأكاديمية. كما أوجبت على المتعلم التحقق من دقة المعلومات المستخرجة من الذكاء الاصطناعي ، وتوثيقها بطرق توثيق المراجع الأكاديمية الصحيحة. وتوثيق استخدام الذكاء الاصطناعي كمرجع والاستشهاد بها داخل النص وفقا للأسلوب المرجعي الأكاديمي المعتمد من الجهة التعليمية، والالتزام بنسبة الاقتباس المعتمدة، وعدم إدخال بيانات، أو معلومات حساسة، أو شخصية، أو سرية، أو مقيدة، كما يجب الحصول على إذن مسبق عند التعامل مع البيانات، والالتزام بسياسة تصنيف البيانات وضوابط الجهة التعليمية والأنظمة الوطنية. وشددت على الحفاظ على خصوصية المستخدم، وأمن البيانات، والامتثال لأخلاقيات وقوانين وأنظمة الجهة التعليمية والأنظمة الوطنية. وفيما يخص المعلمين وأعضاء هيئة التدريس والمدربين، فقد أكدت على التزامهم بالضوابط والإجراءات التي تضعها الجهة لاستخدام أدوات الذكاء الاصطناعي لإنشاء المحتوى والأنشطة التفاعلية والاختبارات، وأتاحت للمعلمين الاستفادة منه في عمليات تصميم المناهج الدراسية والتقييمات حسب طبيعة المقرر، ومنحتهم صلاحية الحظر أو السماح للمتعلمين باستخدام الذكاء الاصطناعي في أداء المهام، وفق الضوابط والإجراءات التي تحددها الجهة، مع إبلاغ المتعلمين بذلك ضمن خطة المقرر. ويجب تحديد وتوضيح مدى ونطاق وطريقة استخدام الذكاء الاصطناعي في معايير التقييم، بما في ذلك القدر المسموح به ونسبة المحتوى لاستخدام هذه الأدوات. وأكدت على المعلمين الذين يحظرون استخدام الذكاء الاصطناعي للمهام والواجبات، ضرورة إبلاغ المتعلمين بذلك، وشرح وتوضيح المسوغات في معايير تقييم المهام، والإشارة بوضوح ما إذا كان استخدام هذه الأدوات يعتبر سرقة أدبية أو انتحالا وغشا وانتهاكا للنزاهة الأكاديمية ومخالفا لتعليمات المقرر. وشددت على توخي الحذر عند استخدام المعلمين أدوات الكشف عن المحتوى الذي تم توليده بالذكاء الاصطناعي، وعدم الاعتماد عليها للتحقق من العمل المقدم من المتعلمين، إذ إن هذه الأدوات عرضة للاستجابات الخاطئة وقابلة للتحايل. وكان للجهات التعليمية نصيب من الضوابط، إذ أكدت على الجهات الراغبة في استخدام الذكاء الاصطناعي ضمن نظمها التعليمية أن تستشير وتحصل على موافقة الجهات الإشرافية المعنية قبل التطبيق، ووضع ضوابط وإجراءات لاستخدامه بما يتواءم مع الأنظمة واللوائح والسياسات الوطنية. وأوضحت أن الجهات تكون مسؤولة عن قياس مدى امتثال المعلمين، والمتعلمين، والإداريين لسياسة الاستخدام الأمثل للذكاء الاصطناعي في التعليم الرقمي. وضمان الجودة لمراقبة الأثر التعليمي وتقييم فعاليتها ودقتها في السياقات التعليمية، وضرورة اعتماد خطة لإدارة المخاطر بهدف معالجة المشكلات المحتملة، مثل انتهاكات البيانات، أو المخاوف الأخلاقية، أو إنشاء محتوى غير مناسب، أو انتشار المعلومات المضللة. وعلى الجهات التأكد من أن أدوات الذكاء الاصطناعي تعزز مخرجات التعلم دون المساس بجودة أو سلامة المحتوى التعليمي، مع إعداد مبادئ توجيهية واضحة لمنسوبيها بشأن الاستخدام الأخلاقي لهذه الأدوات في التعليم الرقمي، إضافة إلى تقديم برامج تطوير مهني للإداريين والمعلمين والمتعلمين باستمرار، وتقديم التدريب والموارد حول استخدام أدوات الذكاء الاصطناعي في عمليات التعليم والتدريب، والاستخدام الأخلاقي لها، والإمكانات، والقيود المفروضة عليها. وأوجبت السياسات على الجهات توفير قنوات تواصل وإرشادات لأولياء الأمور في مراحل التعليم العام لضمان مشاركتهم الفعالة وتوعيتهم بالاستخدام الأخلاقي للذكاء الاصطناعي من قبل الأبناء، وإخطار أولياء الأمور في مراحل التعليم العام عند استخدام أدوات وتطبيقات الذكاء الاصطناعي لضمان الشفافية وتعزيز التعاون في عملية التعليم. وألزمت السياسات الإداريين باستشارة الإدارة المختصة قبل استخدام أدوات وتطبيقات الذكاء الاصطناعي التوليدي لضمان موثوقيتها ودقتها. و عدم استخدام البيانات المصنفة على أنها حساسة، أو شخصية، أو مقيدة، أو سرية، أو محمية بحقوق الطبع والنشر، في حين لا يلزم الإفصاح عن استخدام أدوات الذكاء الاصطناعي للمهام الثانوية، مثل تحسين الكتابة أو التحقق من اللغة أو القواعد الإملائية. وفق "أخبار 24". وتهدف هذه السياسة إلى الاستفادة من أفضل الممارسات العالمية المتعلقة بحوكمة استخدام الذكاء الاصطناعي التوليدي في التعليم، وتتماشى هذه السياسة مع جميع الأطر واللوائح الوطنية والسياسات التي وضعها المركز الوطني للتعليم الإلكتروني، ووزارة التعليم، والهيئة السعودية للبيانات والذكاء الاصطناعي (سدايا)، لحوكمة الاستخدام للذكاء الاصطناعي في بيئات التعليم الرقمية داخل المؤسسات التعليمية والتدريبية العامة أو الخاصة، وذلك لضمان الاستخدام الأمثل والتكامل الفعال مع تحقيق الفوائد المحتملة وتقليل مخاطر الاستخدام، وضمان أمن البيانات وخصوصيتها، والحفاظ على النزاهة الأكاديمية، وتشجيع الاستخدام المسؤول.