7 مبادئ تحكم التطوير والاستخدام وحوافز للابتكار المسؤول
طرحت الهيئة العامة للبيانات والذكاء الاصطناعي "سدايا"، مسودة "سياسة الذكاء الاصطناعي المسؤول"، والتي تحدد المبادئ والتوجهات والمتطلبات التنظيمية للتعامل مع تقنيات الذكاء الاصطناعي بمختلف أنواعها ومجالاتها وتطبيقاتها، بما يضمن حماية الأفراد والمجتمع وصون القيم الوطنية.
وتهدف السياسة، التي نشرتها الهيئة عبر منصة "استطلاع" لأخذ مرئيات العموم بشأنها تمهيداً لإقرارها، إلى تعزيز التوازن بين التبني والابتكار والاستخدام المسؤول، ورفع الجاهزية للتصدي للمخاطر الحرجة والعالية، وترسيخ وضوح الأدوار والمسؤوليات عبر دورة حياة الذكاء الاصطناعي، كما تدعم التبني والابتكار المسؤول لتعزيز الثقة في أنظمة الذكاء الاصطناعي.
مبادئ أخلاقيات الذكاء الاصطناعي
حددت "سدايا" سبعة مبادئ أساسية تشكل المرجعية الأخلاقية لتطوير وتشغيل واستخدام أنظمة الذكاء الاصطناعي داخل المملكة:
1- النزاهة والإنصاف
تشدد السياسة على ضرورة خلو الأنظمة من التحيز أو التمييز، وضمان العدالة في اتخاذ القرارات، مع الاعتماد على بيانات دقيقة ومتوازنة تحقق تكافؤ الفرص، ويجب أن تضمن أنظمة الذكاء الاصطناعي وجود خوارزميات مطورة بطريقة تجعل تكوينها خالياً من المغالطات والتحيز.
2- الخصوصية والأمن
تلتزم الجهات بحماية بيانات الأفراد ومنع الوصول غير المصرح به، مع تطبيق أعلى معايير الأمن السيبراني طوال دورة حياة البيانات.
3- الإنسانية
يجب أن يخدم الذكاء الاصطناعي الإنسان، ويحترم كرامته وحقوقه، وقيمه ومبادئه الإنسانية والثقافية، دون التسبب في أضرار جسدية أو نفسية أو اجتماعية.
4- المنافع الاجتماعية والبيئية
تركز على توظيف الذكاء الاصطناعي لتحقيق التنمية المستدامة وتعزيز جودة الحياة دون الإضرار بالمجتمع أو البيئة.
5- السلامة والموثوقية
تفرض السياسة تطوير أنظمة آمنة ومستقرة وقابلة للاختبار المستمر، مع اتخاذ تدابير استباقية لتجنب الأخطاء والمخاطر.
6- الشفافية والقابلية للتفسير
تدعو إلى توضيح أهداف الأنظمة وآلية عملها بشكل مناسب، وتمكين المستخدمين من فهم مخرجاتها دون الإخلال بالأسرار التقنية.
7- المساءلة والمسؤولية
تحمل جميع الأطراف – مطورين ومشغلين ومستخدمين – المسؤولية الكاملة عن نتائج الأنظمة، مع ضرورة وجود آليات رقابة ومعالجة للمخاطر.
حوافز لتطوير تقنيات الذكاء الاصطناعي
توازن السياسة بين دعم التبني والابتكار في مجال الذكاء الاصطناعي وتعزيز الاستخدام المسؤول والآمن، من خلال توفير بيئة تنظيمية ممكنة ومحفزة تسهم في تحفيز التطوير والاستثمار ورفع مستوى الثقة في أنظمة الذكاء الاصطناعي المستخدمة في المملكة، وذلك من خلال عدة حوافز ممكنة:
- تمكين التبني المسؤول للذكاء الاصطناعي في القطاع العام والخاص وغير الربحي؛ لرفع وتعظيم الإنتاجية والكفاءة التشغيلية وتحسين جودة المخرجات وتقليل الهدر والتكاليف التشغيلية.
- تعزيز البيئة التمكينية للابتكار في الذكاء الاصطناعي من خلال التركيز على تطوير منظومة متكاملة من الممكنات، مثل إتاحة البيانات الموثوقة وآلية تدريب الأنظمة عليها وتنمية الكفاءات والقدرات الوطنية وتوفير بنية تحتية رقمية داعمة.
- تسخير ممكنات التبني والابتكار المسؤول للذكاء الاصطناعي لتطوير مختلف القطاعات من خلال نشوء نماذج أعمال جديدة بما يعزز تنويع القاعدة الاقتصادية وفتح فرص استثمارية غير تقليدية.
- تعزيز السيادة في الذكاء الاصطناعي، من خلال تمكين الابتكار المحلي في تقنيات الذكاء الاصطناعي، بما يحدّ من الاعتماد على الأنظمة العابرة للحدود، ويرسخ الاستقلالية الرقمية.
- تطوير أطر تنظيمية تستند على ركائز هذه السياسة لتسهيل وتعزيز الاستثمار في تقنيات الذكاء الاصطناعي بما يحفز الابتكار والنمو المستدام للتقنية بهدف جلب الخبرات ودعم السوق المحلي.
- تمكين المشتريات الحكومية من أن تكون أداة تحفيز لدعم التبني والابتكار المسؤول في الذكاء الاصطناعي، من خلال تفضيل الحلول المتوافقة والممتثلة مع مبادئ أخلاقيات الذكاء الاصطناعي بما يعزز التعاقد مع التقنيات الموثوقة والآمنة.
- تقديم الجهات من القطاع الخاص التي تطور أو تشغل أو تنشر خدمات ومنتجات الذكاء الاصطناعي طلب تسجيل الشركة لدى الهيئة، ويتم منحها شهادة توثق تسجيلها وتجدد سنوياً.
- تتقدم الجهات في القطاع العام والخاص وغير الربحي بطلب الحصول على وسوم أخلاقيات الذكاء الاصطناعي لمنتجاتها، وتُمنح الوسوم وفق مستوى امتثال المنتج ونضج الممارسات المطبّقة ومستوى المخاطر المرتبطة به، ضمن خمس درجات متدرجة: (واعٍ، متبنٍ، ملتزم، موثوق، رائد)، على أن يتم تجديد الوسم سنوياً أو عند تغيّر مستوى الالتزام.
- تسجيل الجهات من القطاع العام والخاص التي تطور أو تشغل أو تنشر خدمات ومنتجات الذكاء الاصطناعي وتُصنف أنظمتها ذات مخاطر عالية في البيئة التنظيمية التجريبية للذكاء الاصطناعي.
التزامات ومحظورات استخدام الذكاء الاصطناعي
حذّرت السياسات من عدد من ممارسات للاستخدام غير المسؤول لتقنيات الذكاء الاصطناعي، أبرزها نشر أو ترويج المحتوى المضلل أو المزيف أو المجتزأ من سياقه، والتأثير غير المشروع على الرأي العام أو توجيهه بطرق لا تتماشى مع القيم الوطنية، إضافة إلى إنتاج أو تداول محتوى يضر بسمعة الأفراد أو يهدد الأمن العام، واستخدام تقنيات مثل "التزييف العميق" دون الإفصاح الواضح عنها، وكذلك التعامل مع بيانات الأطفال أو إنتاج محتوى يخصهم دون الحصول على موافقة نظامية مسبقة.
وفي المقابل، شددت السياسات على ضرورة التزام المستخدمين بالتحقق من موثوقية مصادر المعلومات قبل نشرها أو تداولها، والإفصاح بشكل صريح عن أي محتوى يتم إنتاجه باستخدام تقنيات الذكاء الاصطناعي، بما يعزز الشفافية ويحد من انتشار المعلومات المضللة.
كما ألزمت السياسات العاملين في تطوير وتشغيل أنظمة الذكاء الاصطناعي داخل المملكة، من أفراد وجهات، بتحديد مصفوفة واضحة للأدوار والمسؤوليات عبر كامل دورة حياة الأنظمة، وتوثيقها ضمن تقارير السلامة الدورية، بما يعزز مبدأي المسؤولية والمساءلة عند وقوع أي ضرر.
كذلك اشترطت تعيين مسؤول محدد لكل وكيل ذكاء اصطناعي، سواء كان فردًا أو جهة، يتولى الإشراف والامتثال والمساءلة عن مخرجاته، لضمان عدم وجود أنظمة تعمل دون مرجعية بشرية أو مؤسسية واضحة.
وأكدت ضرورة الالتزام بالأنظمة واللوائح الوطنية، وتطبيق مبادئ أخلاقيات الذكاء الاصطناعي والمعايير الفنية اللازمة لضمان بيئة تشغيلية آمنة، خاصة في الأنظمة عالية المخاطر، بما يحد من إساءة الاستخدام ويعزز الحوكمة الوطنية والسيادة الرقمية.
التزامات المطورين
شملت الالتزامات المفروضة على المطورين ضرورة بناء الأنظمة وفق مبادئ الخصوصية والشفافية والسلامة من خلال التصميم، والتحقق من الامتثال لضوابط السيادة الوطنية للبيانات، واتخاذ تدابير فعالة للحد من التحيز في النماذج، مع ضمان وجود إشراف بشري مستمر على مخرجات الأنظمة.
كما أكدت على أهمية توثيق جميع مكونات النماذج، ودمج أدوات التفسير والشفافية، وتطبيق تقنيات تتبع المحتوى مثل السجلات غير القابلة للتغيير والعلامات المائية الرقمية لضمان النزاهة وقابلية التتبع.
وفي جانب التقييم، ألزمت السياسات بدمج فحوصات الامتثال في جميع مراحل التطوير، والاحتفاظ بالسجلات والأدلة الرقمية، وتفعيل آليات المراقبة المستمرة للمخاطر، وإجراء مراجعات دورية مستقلة، خاصة للأنظمة عالية المخاطر، مع تطوير خطط استجابة للحوادث وتوثيق الدروس المستفادة.
مسؤوليات المستخدمين وصناع المحتوى
حددت السياسات مسؤوليات واضحة لصناع المحتوى والمستخدمين، من أبرزها حظر نشر أو تضخيم المحتوى المضلل، ومنع التأثير غير المشروع على الرأي العام، وضرورة الإبلاغ عن استخدام تقنيات الذكاء الاصطناعي، خاصة في حالات التزييف العميق، إلى جانب حماية الأطفال وضمان عدم استخدام بياناتهم أو إنتاج محتوى متعلق بهم دون موافقة نظامية.
مسؤوليات الجهات الحكومية
كما ألزمت الجهات الحكومية بإنشاء مكاتب مختصة بالذكاء الاصطناعي تتولى الإشراف على الامتثال، وتسجيل المنتجات، وتطبيق سياسات الحوكمة الداخلية، ومتابعة تقييم المخاطر، وتوفير بنية تحتية تقنية آمنة، مع الالتزام بالتحديث المستمر للأنظمة والامتثال للتشريعات ذات العلاقة، وضمان وجود كفاءات مؤهلة وبرامج تدريبية متخصصة.
وشددت كذلك على أهمية التبليغ الفوري عن الحوادث، وتوثيقها، وتحليلها لاحقًا، واتخاذ الإجراءات اللازمة للحد من آثارها، بما يضمن استمرارية الأعمال وتعزيز موثوقية أنظمة الذكاء الاصطناعي.
المساءلة والرقابة حجر الأساس في ضبط الذكاء الاصطناعي
تعكس السياسة توجهًا واضحًا نحو تشديد الرقابة على أنظمة الذكاء الاصطناعي، خاصة عالية المخاطر، من خلال تصنيفها، ومتابعة أدائها، وإلزام الجهات بتقارير دورية، بما يضمن الحد من الانتهاكات وتعزيز الاستخدام المسؤول للتقنية.
وتؤسس "سدايا" من خلال هذه السياسة لمرحلة جديدة في تنظيم الذكاء الاصطناعي بالمملكة، تقوم على مزيج من الابتكار والانضباط الأخلاقي، مع تحميل جميع الأطراف مسؤولية الاستخدام، وفرض رقابة فعالة للحد من المخاطر والانحرافات.



0 تعليق