مقدمة
أصدرت ماليزيا، عبر وزارة العلوم والتكنولوجيا والابتكار، المبادئ التوجيهية الوطنية لحوكمة AI Governance وأخلاقياته (مبادئ الذكاء الاصطناعي التوجيهية) في سبتمبر 2024. وتستجيب هذه المبادئ التوجيهية للتطور السريع في مجال الذكاء الاصطناعي وإمكاناته في إحداث ثورة في العديد من الصناعات. كما تهدف إلى دعم تنفيذ خارطة الطريق الوطنية للذكاء الاصطناعي (خارطة الطريق للذكاء الاصطناعي) 2021-2025 التي نُشرت سابقًا، وذلك لتعزيز مكانة ماليزيا كدولة ذات اقتصاد متطور يعتمد على الذكاء الاصطناعي.
وبالتالي، توفر المبادئ التوجيهية للذكاء الاصطناعي إطارًا أساسيًا وتضمن تطوير ونشر تقنيات الذكاء الاصطناعي بطريقة تتوافق مع المبادئ الأخلاقية وتعطي الأولوية للمصلحة العامة والسلامة والإنصاف.
أهداف إرشادات الذكاء الاصطناعي
باختصار، تهدف إرشادات الذكاء الاصطناعي إلى:
- دعم وتسهيل تنفيذ خارطة طريق الذكاء الاصطناعي؛
- تعزيز موثوقية أنظمة الذكاء الاصطناعي وجدارتها بالثقة؛
- معالجة المخاطر المحتملة لتطوير ونشر أنظمة الذكاء الاصطناعي؛ و
- تعزيز التنمية الاقتصادية والقدرة التنافسية والإنتاجية من خلال الاستفادة من الذكاء الاصطناعي.
نطاق إرشادات الذكاء الاصطناعي
لا يوجد في ماليزيا حاليًا تشريع محدد ينظم استخدام الذكاء الاصطناعي. ورغم أن مبادئ الذكاء الاصطناعي السبعة الواردة في خارطة طريق الذكاء الاصطناعي ليست ملزمة قانونًا، فإن المبادئ التوجيهية للذكاء الاصطناعي تحث مطوري ومستخدمي الذكاء الاصطناعي على تبنيها كأفضل الممارسات في هذا المجال. وهي تقدم توصيات مخصصة لما يلي:
- توعية المستخدمين النهائيين للذكاء الاصطناعي للجمهور بشأن الاستخدام المسؤول للذكاء الاصطناعي؛
- صناع السياسات والمنظمات الحكومية في صياغة السياسات المتعلقة بالذكاء الاصطناعي؛ و
- للمطورين والمصممين توجيه التصميم والتنفيذ الأخلاقي لأنظمة الذكاء الاصطناعي.
سبعة مبادئ أساسية للذكاء الاصطناعي
تقترح المبادئ التوجيهية للذكاء الاصطناعي سبعة مبادئ أساسية لضمان تطوير ونشر تقنيات الذكاء الاصطناعي بطريقة تتوافق مع المعايير الأخلاقية والقانونية. وتشمل هذه المبادئ ما يلي:
- الإنصاف : ضمان تطوير ونشر أنظمة الذكاء الاصطناعي خالية من التحيز والتمييز.
- الموثوقية والسلامة والتحكم : تمكين التدابير الأمنية لضمان أداء أنظمة الذكاء الاصطناعي على النحو المنشود.
- الخصوصية والأمان : يجب أن تخضع أنظمة الذكاء الاصطناعي لاختبارات صارمة وتقييمات للمخاطر للتأكد من أنها تؤمن البيانات الشخصية وتحافظ على خصوصية المستخدم.
- الشمولية : ضمان أن تكون أنظمة الذكاء الاصطناعي متاحة ومفيدة لجميع شرائح المجتمع.
- الشفافية : ضمان الشفافية من خلال شرح قدرات الذكاء الاصطناعي بوضوح، والإفصاح عن المعلومات ذات الصلة، وتبسيط فهم خوارزميات الذكاء الاصطناعي لتقييم المخاطر المتغيرة. إضافةً إلى ذلك، ضمان الوضوح في عمليات الذكاء الاصطناعي وعمليات صنع القرار.
- المساءلة : ضمان محاسبة مطوري أنظمة الذكاء الاصطناعي ومنفذيها على أداء أنظمة الذكاء الاصطناعي ونتائجها.
- السعي لتحقيق المنفعة والسعادة للإنسان : ضمان استفادة مطوري أنظمة الذكاء الاصطناعي ومنفذيها من تقنيات الذكاء الاصطناعي لتعزيز رفاهية الإنسان واحترام الحقوق الفردية.
التزامات أصحاب المصلحة
تحدد المبادئ التوجيهية للذكاء الاصطناعي التزامات المجموعات الرئيسية الثلاث لأصحاب المصلحة - المستخدمين النهائيين وصناع السياسات والمطورين - ضمن إطار المسؤولية المشتركة.
1. المستخدمون النهائيون
يستخدم المستخدمون النهائيون، سواء كانوا أفرادًا أو مؤسسات، منتجات الذكاء الاصطناعي بطرق متنوعة، بما في ذلك المساعدين الافتراضيين والأجهزة المنزلية الذكية. كما يُستخدم الذكاء الاصطناعي في إنشاء المحتوى، وكشف الاحتيال، والأمن.
حقوق حماية المستهلك
يجب على مطوري ومستخدمي الذكاء الاصطناعي إنشاء أنظمة أخلاقية لضمان حقوق المستخدمين النهائيين المختلفة، بما في ذلك:
- الحق في أن يتم احترامه في جميع الأوقات فيما يتعلق بمنتجات وخدمات الذكاء الاصطناعي؛
- الحق في أن يتم إبلاغهم عندما تقوم خوارزمية بالإبلاغ عن بياناتهم الشخصية إلى أطراف ثالثة، أو تستخدمها لاتخاذ قرارات أو تستخدمها لتقديم عروض للسلع والخدمات؛
- الحق في الاعتراض والحصول على تفسير؛
- الحق في النسيان وحذف البيانات الشخصية؛
- الحق في التفاعل مع إنسان بدلاً من الذكاء الاصطناعي؛
- الحق في الإنصاف والتعويض عن الأضرار (إن وجدت)؛
- الحق في التعويض الجماعي إذا انتهكت شركة ما حقوق المستخدمين النهائيين؛ و
- الحق في تقديم شكوى إلى سلطة إشرافية أو اتخاذ إجراءات قانونية.
يجب على مطوري ومستخدمي الذكاء الاصطناعي إنشاء أنظمة لضمان توفر هذه الحقوق.
المساءلة
يجب على المستخدمين النهائيين توخي الحذر عند استخدام أدوات الذكاء الاصطناعي، والتأكد من استخدام التكنولوجيا بطريقة مستدامة ومسؤولة وأخلاقية.
يجب على أصحاب المصلحة، ومالكي النماذج، ومطوري الذكاء الاصطناعي تحمل مسؤولية حلول الذكاء الاصطناعي، إذ يؤدي ذلك إلى ضمان تشغيل أنظمة الذكاء الاصطناعي بطريقة متوافقة مع المعايير. لذا، ينبغي على مطوري الذكاء الاصطناعي مراعاة الاستخدام المقصود للنظام، وقدراته التقنية، وموثوقيته وجودته، وآثاره المحتملة على الأفراد ذوي الاحتياجات الخاصة لتجنب أي ضرر.
تدابير حماية المستهلك الرئيسية للذكاء الاصطناعي
ولزيادة حماية المستخدمين النهائيين، يمكن اتخاذ الخطوات التالية:
- تعريف الذكاء الاصطناعي التوليدي وتحديد نطاقه وتطبيقاته بوضوح؛
- ضمان قيام الشركات بالإفصاح عن المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي؛
- يتطلب موافقة صريحة من المستخدم لاستخدام البيانات؛
- وضع مبادئ توجيهية للدقة والإنصاف؛
- محاسبة الشركات على المنتجات الضارة؛
- التدقيق المنتظم وإنفاذ الامتثال ؛
- تثقيف الجمهور بشأن مخاطر وفوائد الذكاء الاصطناعي؛ و
- إشراك أصحاب المصلحة لوضع سياسات متوازنة.
2. صانعو السياسات في الحكومة والوكالات والمنظمات والمؤسسات
تستهدف المبادئ التوجيهية للذكاء الاصطناعي أيضًا صانعي السياسات والمخططين والمديرين المشرفين على سياسات وتخطيط القوى العاملة في مجال الذكاء الاصطناعي. وهي تقدم نهجًا منظمًا لضمان التطبيق الأخلاقي والمسؤول للذكاء الاصطناعي، ومساعدة صانعي السياسات والهيئات التنظيمية في إنفاذ اللوائح، وحماية حقوق المستهلكين، وتشجيع المنافسة العادلة في مختلف القطاعات. وتشمل الالتزامات الرئيسية لصانعي السياسات ما يلي:
يجب على صانعي السياسات وضع وإنفاذ لوائح توازن بين الابتكار والرفاهية العامة مع تشجيع تطوير وتطبيق الذكاء الاصطناعي الأخلاقي في مختلف الصناعات وإنفاذ الامتثال لقوانين ولوائح الذكاء الاصطناعي.
حماية المستهلك
يجب عليهم حماية الأفراد من الضرر الناجم عن القرارات المتعلقة بالذكاء الاصطناعي، وضمان العدالة في التفاعلات المتعلقة بالذكاء الاصطناعي، وحماية حقوق المستهلك.
ضمان الشفافية
ينبغي لواضعي السياسات تطبيق سياسات تُلزم بأنظمة ذكاء اصطناعي تتسم بالشفافية والمساءلة والحيادية، لضمان فهم أصحاب المصلحة لكيفية اتخاذ القرارات. وتُطبَّق مبادئ الشفافية بشكل أساسي في الحالات التي يُستخدم فيها الذكاء الاصطناعي في صنع القرار. ويجب استيفاء المتطلبات الخمسة التالية:
- الإفصاح الكامل عن المعلومات التي يستخدمها نظام الذكاء الاصطناعي لاتخاذ القرارات؛
- الاستخدام المقصود لأنظمة الذكاء الاصطناعي؛
- بيانات التدريب (بما في ذلك وصف البيانات المستخدمة للتدريب، وأي تحيزات تاريخية أو اجتماعية في البيانات، والأساليب المستخدمة لضمان جودة البيانات)؛
- صيانة وتقييم أنظمة الذكاء الاصطناعي؛
- والقدرة على الطعن في قرارات أنظمة الذكاء الاصطناعي.
الأخلاق والشمولية
يجب أن تضمن السياسات عدم التمييز والإنصاف والشمولية في أنظمة الذكاء الاصطناعي، لا سيما في الصناعات ذات التأثير الكبير مثل الإدارة العامة والرعاية الصحية والتمويل.
بناء القدرات
تتحمل الحكومات مسؤولية وضع مبادرات التوعية بالذكاء الاصطناعي ورفع مستوى الوعي العام به. AI governance والأخلاق والحقوق.
3. المطورون والمصممون ومقدمو التكنولوجيا والموردون
تستهدف إرشادات الذكاء الاصطناعي أيضًا المطورين والمصممين الذين يُنشئون منتجات ذكاء اصطناعي لمختلف الصناعات، وتتضمن معايير تكنولوجية، وقواعد أخلاقية، وأفضل الممارسات لضمان تطوير ونشر الذكاء الاصطناعي بشكل أخلاقي، وتحسين النتائج، وتقليل المخاوف الأخلاقية. وتشمل الالتزامات الرئيسية للمطورين والمصممين ما يلي:
الحصول على الموافقة
ينبغي على المطورين الحصول على موافقة الأفراد قبل معالجة أو مشاركة المعلومات الشخصية لأغراض البحث والتطبيق في مجال الذكاء الاصطناعي عند الاقتضاء.
التطور الأخلاقي
من التصميم إلى التسليم، يجب على مطوري الذكاء الاصطناعي اتباع المبادئ التوجيهية الأخلاقية والتأكد من أن أنظمتهم غير متحيزة وعادلة وآمنة.
المعايير الفنية
يجب على المطورين الالتزام بالمعايير المحلية والمؤشرات الفنية المقبولة دوليًا لضمان موثوقية النظام وسلامته. كما يجب أن توفر أنظمة الذكاء الاصطناعي للأفراد حماية قوية للبيانات والخصوصية طوال دورة حياتها.
تخفيف التحيز
يجب على المطورين اكتشاف وتصحيح أي تحيزات محتملة في أنظمة الذكاء الاصطناعي بشكل استباقي لضمان نتائج عادلة والامتناع عن استخدام بيانات ومعلومات المستخدمين دون أساس قانوني.
آليات المساءلة
يجب على المطورين تبني ميزات قوية ومتطورة تُمكّن من التتبع والتدقيق، مما يضمن المساءلة عن قرارات أنظمة الذكاء الاصطناعي.
تقييم المخاطر
يجب على المطورين إجراء تقييمات ومراقبة للمخاطر بشكل فعال، واعتماد خطوات لتخفيف المخاطر لمعالجة حالات تطوير ونشر الذكاء الاصطناعي غير المتوقعة.
التدابير الأمنية
يجب أن تخضع أنظمة الذكاء الاصطناعي لاختبارات صارمة لضمان موثوقيتها وسلامتها وأدائها الآمن. كما يجب أن تعمل بكفاءة عالية، وأن تدير الظروف الشائعة وغير الشائعة بفعالية، وأن توفر ضمانات ضد العواقب السلبية أو تقللها إلى أدنى حد. ويتعين على المطورين إجراء اختبارات شاملة، والحصول على شهادات اعتماد، وتقييم المخاطر للحد من هذه المخاطر.
الخصوصية بالتصميم
عند تطبيق نظام الذكاء الاصطناعي عملياً، يجب على المطورين أيضاً مراعاة مبادئ الأمن بالتصميم والخصوصية بالتصميم وتقييم لوائح أمن المعلومات والخصوصية الدولية.
المراقبة والتقييم المستمران
لتقييم تأثير أنظمة الذكاء الاصطناعي على الخصوصية والأمن، يجب مراقبتها في الوقت الفعلي وتحديثها باستمرار. وهذا يعني تقييم فعالية إجراءات الحماية القائمة وتحديثها لمواجهة التهديدات المتطورة. إضافةً إلى ذلك، يجب على المؤسسات تحديد ومعالجة أي انحرافات أو تغييرات في توزيع البيانات بشكل استباقي لتقييم أي تحيزات في نظام الذكاء الاصطناعي وإجراء التعديلات اللازمة.
4. المسؤوليات المشتركة
الشفافية والثقة
يتحمل جميع أصحاب المصلحة مسؤولية تعزيز ثقافة الشفافية في تطوير الذكاء الاصطناعي ونشره وتشغيله واتخاذ القرارات لضمان ثقة المستخدم.
تعاون
يجب على أصحاب المصلحة التعاون لمعالجة القضايا متعددة الأوجه مثل الخصوصية والأمن والحد من التحيز من خلال ضمان مشاركتهم.
القيادة الأخلاقية
يجب على أصحاب المصلحة أن يتبنوا بنشاط دوراً قيادياً لتعزيز التطبيق الأخلاقي للذكاء الاصطناعي وضمان أنه يخدم المصلحة العامة دون الإضرار بحقوق الأفراد أو مبادئهم.
كيف Securiti يمكن المساعدة
Securiti تُعدّ الشركة رائدةً في مجال مركز قيادة البيانات والذكاء الاصطناعي، وهي منصة مركزية تُمكّن من الاستخدام الآمن للبيانات والذكاء الاصطناعي من الجيل الجديد. وتُوفّر هذه المنصة ذكاءً موحدًا للبيانات، وضوابط، وتنسيقًا عبر بيئات سحابية هجينة متعددة. وتعتمد عليها كبرى الشركات العالمية. Securiti 's Data Command Center لأغراض أمن البيانات والخصوصية والحوكمة والامتثال.
Securiti تُمكّن منصة Gencore AI المؤسسات من الاتصال الآمن بمئات أنظمة البيانات مع الحفاظ على ضوابط البيانات وحوكمتها أثناء تدفق البيانات إلى أنظمة GenAI الحديثة. وتعتمد المنصة على مخطط معرفي فريد يوفر رؤى سياقية دقيقة حول البيانات وأنظمة الذكاء الاصطناعي.
توفر Gencore AI ضوابط قوية في جميع أنحاء نظام الذكاء الاصطناعي للتوافق مع سياسات الشركة وحقوقها، والحماية من الهجمات الخبيثة، وحماية البيانات الحساسة. وهذا يمكّن المؤسسات من الامتثال لإرشادات الذكاء الاصطناعي بشأن AI Governance والأخلاق.
اطلب عرضًا توضيحيًا لمعرفة المزيد.