
7 مبادئ تحكم التطوير والاستخدام والحوافز للابتكار المسؤول
قدمت الهيئة العامة للبيانات والذكاء الاصطناعي (سدايا) مسودة “سياسة الذكاء الاصطناعي المسؤول”، والتي تحدد المبادئ والإرشادات والمتطلبات التنظيمية للتعامل مع تقنيات الذكاء الاصطناعي بمختلف أنواعها ومجالاتها وتطبيقاتها، بما يضمن حماية الأفراد والمجتمع والحفاظ على القيم الوطنية.
وتهدف السياسة، التي نشرتها المؤسسة عبر منصة “استدامة” للحصول على التعليقات العامة تمهيداً للموافقة، إلى تحسين التوازن بين التبني والابتكار والاستخدام المسؤول، وزيادة الاستعداد لمعالجة المخاطر الحرجة والعالية، وضمان وضوح الأدوار والمسؤوليات طوال دورة حياة الذكاء الاصطناعي. كما أنه يدعم التبني والابتكار المسؤولين لزيادة الثقة في أنظمة الذكاء الاصطناعي.
المبادئ الأخلاقية للذكاء الاصطناعي
المحتويات
وحددت “سدايا” سبعة مبادئ أساسية تشكل المرجع الأخلاقي لتطوير وتشغيل واستخدام أنظمة الذكاء الاصطناعي داخل المملكة:
1- الصدق والعدالة
وتؤكد السياسة على ضرورة خلو الأنظمة من التحيز أو التمييز وضمان العدالة في اتخاذ القرار، فضلا عن استنادها إلى بيانات دقيقة ومتوازنة تضمن تكافؤ الفرص. ويجب أن تتأكد أنظمة الذكاء الاصطناعي من وجود خوارزميات مطورة لتنقية تركيبتها من المفاهيم الخاطئة والتحيزات.
2- الخصوصية والأمان
تلتزم المؤسسات بحماية بيانات الأفراد ومنع الوصول غير المصرح به مع تطبيق أعلى معايير الأمن السيبراني طوال دورة حياة البيانات.
3- الإنسانية
يجب أن يخدم الذكاء الاصطناعي الناس ويحترم كرامتهم وحقوقهم وقيمهم ومبادئهم الإنسانية والثقافية، دون التسبب في ضرر جسدي أو نفسي أو اجتماعي.
4- الفوائد الاجتماعية والبيئية
ويركز على استخدام الذكاء الاصطناعي لتحقيق التنمية المستدامة وتحسين نوعية الحياة دون الإضرار بالمجتمع أو البيئة.
5- الأمن والموثوقية
وتنص السياسة على تطوير أنظمة آمنة ومستقرة وقابلة للاختبار بشكل مستمر مع اتخاذ تدابير استباقية لمنع الأخطاء والمخاطر.
6- الشفافية وقابلية التفسير
ويدعو إلى التوضيح المناسب لأغراض وآليات عمل الأنظمة والتأكد من فهم المستخدمين لمخرجاتها دون انتهاك الأسرار التقنية.
7- المسؤولية والمسؤولية
وتتحمل جميع الأطراف (المطورين والمشغلين والمستخدمين) المسؤولية الكاملة عن نتائج الأنظمة، إلى جانب الحاجة إلى آليات الرقابة وإدارة المخاطر.
حوافز لتطوير تقنيات الذكاء الاصطناعي
وتوازن السياسة بين دعم التبني والابتكار في مجال الذكاء الاصطناعي وتعزيز الاستخدام المسؤول والآمن من خلال توفير بيئة تنظيمية مواتية ومشجعة تساهم في تحفيز التنمية والاستثمار ورفع مستوى الثقة في أنظمة الذكاء الاصطناعي المستخدمة في المملكة، وذلك من خلال مجموعة متنوعة من الحوافز الممكنة:
– ضمان التبني المسؤول للذكاء الاصطناعي في القطاعين العام والخاص وغير الربحي؛ زيادة وتعظيم الإنتاجية والكفاءة التشغيلية وتحسين جودة المخرجات وتقليل الهدر والتكاليف التشغيلية.
– تعزيز البيئة التمكينية للابتكار في الذكاء الاصطناعي، مع التركيز على تطوير منظومة متكاملة من الممكنات مثل إتاحة البيانات الموثوقة، وآلية تدريب الأنظمة على هذه البيانات، وتطوير الكفاءات والقدرات الوطنية، وتوفير بنية تحتية رقمية داعمة.
– الاستفادة من إمكانات الابتكار والتبني المسؤول للذكاء الاصطناعي لتطوير مختلف القطاعات من خلال ظهور نماذج أعمال جديدة، مما سيزيد من تنويع القاعدة الاقتصادية وفتح فرص استثمارية غير تقليدية.
– تعزيز السيادة في الذكاء الاصطناعي من خلال ضمان الابتكار المحلي في تقنيات الذكاء الاصطناعي وتقليل الاعتماد على الأنظمة العابرة للحدود وتعزيز الاستقلال الرقمي.
– وضع الأطر التنظيمية المبنية على أسس هذه السياسة لتسهيل وتطوير الاستثمار في تقنيات الذكاء الاصطناعي بما يعزز الابتكار والنمو المستدام للتكنولوجيا من أجل توفير الخبرات ودعم السوق المحلية.
– التأكد من أن المشتريات الحكومية أداة محفزة تدعم تبني الذكاء الاصطناعي والابتكار المسؤول من خلال اختيار الحلول المتوافقة والمتوافقة مع مبادئ أخلاقيات الذكاء الاصطناعي، بما يحسن التعاقد بتقنيات موثوقة وآمنة.
– مؤسسات القطاع الخاص التي تقوم بتطوير أو تشغيل أو نشر خدمات ومنتجات الذكاء الاصطناعي تتقدم إلى الهيئة بطلب تسجيل الشركة ويتم منحها شهادة تثبت تسجيلها وتجدد كل عام.
تتقدم المنظمات في القطاعات العامة والخاصة وغير الربحية للحصول على ملصقات أخلاقيات الذكاء الاصطناعي لمنتجاتها. يتم منح الملصقات في خمس مستويات بناءً على مستوى امتثال المنتج ونضج الممارسات المطبقة ومستوى المخاطر المرتبطة به: (واعي، متبني، ملتزم، موثوق، رائد)، على أن يتم تجديد الملصق سنويًا أو عند تغير مستوى الالتزام.
– سجل مؤسسات القطاعين العام والخاص التي تعمل على تطوير أو تشغيل أو توزيع خدمات ومنتجات الذكاء الاصطناعي وتصنيف أنظمتها على أنها عالية المخاطر في البيئة التنظيمية التجريبية للذكاء الاصطناعي.
التزامات ومحظورات استخدام الذكاء الاصطناعي
وحذرت السياسات من مجموعة من ممارسات الاستخدام غير المسؤول لتقنيات الذكاء الاصطناعي؛ ويشمل ذلك نشر أو الترويج لمحتوى مضلل أو غير دقيق أو تم إخراجه من سياقه، أو التأثير بشكل غير قانوني على الرأي العام أو التلاعب به بطريقة لا تتفق مع القيم الوطنية، وكذلك إنتاج أو توزيع محتوى يضر بسمعة الأفراد أو يهدد السلامة العامة، باستخدام تقنيات مثل “التزييف العميق” دون الكشف الصريح، أو التعامل مع بيانات الأطفال أو إنتاج المحتوى. المتعلقة بها دون الحصول على موافقة تنظيمية مسبقة.
من ناحية أخرى، أكدت السياسات على ضرورة التزام المستخدمين بالتحقق من موثوقية مصادر المعلومات قبل نشرها أو توزيعها، والكشف العلني عن أي محتوى يتم إنتاجه باستخدام تقنيات الذكاء الاصطناعي بما يزيد الشفافية ويحد من انتشار المعلومات المضللة.
كما ألزمت السياسات الأفراد أو المنظمات التي تقوم بتطوير وتشغيل أنظمة الذكاء الاصطناعي داخل المملكة بتحديد مصفوفة واضحة من الأدوار والمسؤوليات طوال دورة حياة الأنظمة بأكملها وتوثيقها في تقارير أمنية دورية، مما يعزز مبادئ المسؤولية والمساءلة في حالة حدوث أي ضرر.
كما نصت على تعيين سلطة محددة لكل وكيل للذكاء الاصطناعي، سواء كان فردًا أو منظمة، تكون مسؤولة عن التدقيق والامتثال والمساءلة عن مخرجاته، لضمان عدم وجود نظام يعمل دون مرجعية بشرية أو مؤسسية واضحة.
وشدد على ضرورة الالتزام بالقوانين واللوائح الوطنية وتنفيذ مبادئ أخلاقيات الذكاء الاصطناعي والمعايير الفنية اللازمة لضمان بيئة تشغيل آمنة، خاصة في الأنظمة عالية المخاطر، من أجل الحد من إساءة الاستخدام وتحسين الحوكمة الوطنية والسيادة الرقمية.
التزامات المطورين
وتضمنت الالتزامات المفروضة على المطورين الحاجة إلى بناء أنظمة وفقًا لمبادئ الخصوصية والشفافية والأمن حسب التصميم، والتحقق من الامتثال لضوابط سيادة البيانات الوطنية واتخاذ تدابير فعالة للحد من التحيز في النماذج، فضلاً عن توفير الرقابة البشرية المستمرة على مخرجات الأنظمة.
كما أكد على أهمية توثيق جميع مكونات النموذج، ودمج أدوات التفسير والشفافية، وتنفيذ تقنيات تتبع المحتوى مثل السجلات غير القابلة للتغيير والعلامات المائية الرقمية لضمان النزاهة وإمكانية التتبع.
وعلى جانب التقييم، تطلبت السياسات دمج ضوابط الامتثال في جميع مراحل التطوير، والحفاظ على السجلات والأدلة الرقمية، وتمكين آليات المراقبة المستمرة للمخاطر، وإجراء مراجعات دورية مستقلة، وخاصة للأنظمة عالية المخاطر، وتطوير خطط الاستجابة للحوادث، وتوثيق الدروس المستفادة.
مسؤوليات المستخدمين والمبدعين
تحدد السياسات مسؤوليات واضحة للمبدعين والمستخدمين؛ والأهم من ذلك، حظر نشر أو تضخيم المحتوى المضلل، ومنع التأثير غير القانوني على الجمهور، وحماية الأطفال وضمان عدم استخدام بياناتهم أو عدم إنتاج المحتوى الخاص بهم دون موافقة الجهات التنظيمية، فضلاً عن ضرورة الإبلاغ عن استخدام تقنيات الذكاء الاصطناعي، خاصة في حالات التزييف العميق.
مسؤوليات المؤسسات الحكومية
بالإضافة إلى ذلك، تلتزم المؤسسات الحكومية بإنشاء مكاتب متخصصة في الذكاء الاصطناعي تتولى مراقبة الامتثال وتسجيل المنتجات وتنفيذ سياسات الإدارة الداخلية ومراقبة تقييمات المخاطر وتوفير بنية تحتية تقنية آمنة والتأكد من وجود الكفاءات المؤهلة وبرامج التدريب الخاصة، مع الالتزام بتحديث الأنظمة باستمرار والامتثال للتشريعات ذات الصلة.
كما أكد على أهمية الإبلاغ عن الحوادث بشكل فوري وتوثيقها وتحليلها لاحقاً واتخاذ الاحتياطات اللازمة للحد من آثارها وضمان استمرارية الأعمال وزيادة موثوقية أنظمة الذكاء الاصطناعي.
المساءلة والرقابة هي حجر الزاوية في السيطرة على الذكاء الاصطناعي
وتعكس السياسة توجهاً واضحاً نحو تشديد الرقابة على أنظمة الذكاء الاصطناعي من خلال تصنيفها، وخاصة عالية المخاطر، ومراقبة أدائها ومطالبة المنظمات بتقديم تقارير دورية، للحد من الانتهاكات وتعزيز الاستخدام المسؤول للتكنولوجيا.
ومن خلال هذه السياسة، تؤسس سدايا لمرحلة جديدة في تنظيم الذكاء الاصطناعي في المملكة، بالاعتماد على مزيج من الابتكار والانضباط الأخلاقي، ومحاسبة جميع الأطراف على الاستخدام وتطبيق الرقابة الفعالة للحد من المخاطر والانحرافات.