تتوافق الممارسات التالية مع مبادئ أخلاقيات الذكاء الاصطناعي الثمانية في أستراليا، المصممة لضمان سلامة وأمان وموثوقية الذكاء الاصطناعي. وتوضح هذه الممارسات كيفية تطبيق الحكومات لهذه المبادئ عمليًا في ضمان سلامة الذكاء الاصطناعي. علاوة على ذلك، يختلف التطبيق باختلاف الأنظمة القضائية وحالات الاستخدام المحددة، والتي تنطوي على مخاطر مختلفة وقد تتطلب مستويات متفاوتة من الضمان. وذلك لأنه ليس من الضروري في جميع حالات استخدام الذكاء الاصطناعي تطبيق جميع الممارسات بالتفصيل لاعتبارها آمنة ومسؤولة.
ينبغي على الحكومات النظر في وضع أسس راسخة لممارسات ضمان الجودة لديها من أجل تطبيق مبادئ أخلاقيات الذكاء الاصطناعي بشكل فعال. وقد تشمل هذه الأسس ما يلي: AI governance ، وحوكمة البيانات، واعتماد نهج قائم على المخاطر.
1. الرفاه البشري والمجتمعي والبيئي
ينبغي أن تعود أنظمة الذكاء الاصطناعي بالنفع على الأفراد والبيئة في كل مرحلة من مراحل دورة حياة الذكاء الاصطناعي. ولتحقيق ذلك، ينبغي على الحكومات ما يلي:
نوايا الوثيقة
ينبغي للحكومات أن تحدد بوضوح وتوثق الغرض من استخدام الذكاء الاصطناعي وأهدافه ونتائجه المتوقعة على الأفراد والمجتمعات والبيئة. كما ينبغي لها تقييم المخاطر، وتحديد ما إذا كان الذكاء الاصطناعي هو الخيار الأمثل، وضمان تحقيق منفعة عامة واضحة، والنظر في البدائل غير القائمة على الذكاء الاصطناعي.
التشاور مع أصحاب المصلحة
ينبغي على الحكومات التشاور مع أصحاب المصلحة، بمن فيهم الخبراء والمجموعات المتضررة، في وقت مبكر من العملية لتحديد المخاطر والتخفيف من حدتها بشكل فعال.
تقييم الأثر
ينبغي للحكومات تقييم الآثار المحتملة لاستخدام الذكاء الاصطناعي على الأفراد والمجتمعات والبيئة لضمان تفوق الفوائد على المخاطر. كما ينبغي لها إدارة هذه الآثار باستخدام أساليب مثل التقييمات الخوارزمية وتقييمات الأثر على أصحاب المصلحة.
2. القيم التي تتمحور حول الإنسان
ينبغي لأنظمة الذكاء الاصطناعي أن تدعم حقوق الإنسان، وأن تُقدّر التنوع، وأن تحافظ على استقلالية الأفراد. ولتحقيق ذلك، ينبغي للحكومات ما يلي:
الالتزام بحماية الحقوق
ينبغي للحكومات ضمان توافق استخدام الذكاء الاصطناعي مع الحماية القانونية لحقوق الإنسان، بما في ذلك التشريعات والالتزامات الدولية والدساتير والقانون العام. كما ينبغي أن يتماشى استخدام الذكاء الاصطناعي مع سياسات القطاع العام وأماكن العمل والتنوع. علاوة على ذلك، قد تساعد تقييمات أثر الذكاء الاصطناعي على حقوق الإنسان ومشورة الخبراء في تحديد المخاطر والتخفيف من حدتها.
دمج وجهات نظر متنوعة
ينبغي للحكومات إشراك الأفراد ذوي التجارب الحياتية المتنوعة طوال دورة حياة استخدام الذكاء الاصطناعي. وهذا يضمن وجهات نظر مستنيرة ويمنع إهمال العوامل الأساسية. لذا، ينبغي أن يشمل التمثيل الأشخاص ذوي الإعاقة، والمجتمعات متعددة الثقافات والأديان، والخلفيات الاجتماعية والاقتصادية المختلفة، والهويات الجنسية والجندرية المتنوعة، وسكان أستراليا الأصليين وسكان جزر مضيق توريس.
ضمان الشمول الرقمي
ينبغي للحكومات الالتزام بمعايير الخدمات الرقمية والشمول، مع مراعاة احتياجات المستخدمين الفردية وسياقهم وتجاربهم طوال دورة حياة استخدام الذكاء الاصطناعي. إضافةً إلى ذلك، ينبغي عليها ضمان استخدام التقنيات المساعدة لدعم الأشخاص ذوي الإعاقة.
3. الإنصاف
ينبغي لأنظمة الذكاء الاصطناعي أن تعطي الأولوية للشمولية وسهولة الوصول، لضمان عدم تسببها في التمييز غير العادل ضد الأفراد أو المجتمعات أو الجماعات، أو المساهمة فيه. ولتحقيق ذلك، ينبغي للحكومات ما يلي:
عرّف الإنصاف في سياقه
ينبغي على الحكومات تقييم الفوائد المتوقعة والآثار المحتملة ونقاط الضعف لدى المجموعات المتأثرة لقياس "عدالة" حالة استخدام الذكاء الاصطناعي.
الالتزام بواجبات مكافحة التمييز
ينبغي للحكومات ضمان توافق استخدام الذكاء الاصطناعي مع قوانين وإرشادات مكافحة التمييز فيما يتعلق بخصائص مثل العمر، والإعاقة، والعرق، والدين، والجنس، والحالة الجنسية، والهوية الجنسية، والميول الجنسية. كما ينبغي تدريب الموظفين على تحديد مخرجات الذكاء الاصطناعي المتحيزة والإبلاغ عنها وحلها، مع ضرورة طلب المشورة من الخبراء عند الحاجة.
ضمان جودة البيانات والتصميم
ينبغي للحكومات الحفاظ على جودة عالية للبيانات والتصميم الخوارزمي. إجراء عمليات تدقيق لمدخلات ومخرجات الذكاء الاصطناعي للكشف عن أي تحيزات، باستخدام data quality يمكن أن تساعد البيانات، وتطبيق ممارسات حوكمة البيانات القوية، في تحديد وتقليل التحيز في أنظمة الذكاء الاصطناعي.
4. حماية الخصوصية والأمان
ينبغي لأنظمة الذكاء الاصطناعي احترام حقوق خصوصية الأفراد وحمايتها، وضمان حماية البيانات. ولتحقيق ذلك، ينبغي للحكومات ما يلي:
الالتزام بواجبات الخصوصية
ينبغي للحكومات ضمان توافق استخدام الذكاء الاصطناعي مع القوانين والسياسات المتعلقة بالموافقة، وجمع البيانات الشخصية، وتخزينها، واستخدامها، والإفصاح عنها، والاحتفاظ بها. ويشمل ذلك إبلاغ الأفراد عند جمع بياناتهم أو استخدامها في تدريب الذكاء الاصطناعي. كما ينبغي تطبيق مبدأ "الخصوصية بالتصميم" لتعزيز حماية البيانات، وذلك من خلال دمج تدابير الخصوصية في عملية التطوير منذ البداية. ويضمن هذا المبدأ مراعاة الخصوصية في كل مرحلة من مراحل المشروع، بدءًا من التخطيط وحتى التنفيذ، مما يساعد على حماية المعلومات الشخصية للمستخدمين. إضافةً إلى ذلك، يمكن أن يساعد إجراء تقييمات أثر الخصوصية - وهي تقييمات منهجية لكيفية تأثير المشروع على خصوصية الأفراد - في تحديد مخاطر الخصوصية ومعالجتها. علاوة على ذلك، يُعد طلب المشورة من الخبراء عند الحاجة أمرًا ضروريًا للامتثال الفعال.
ينبغي للحكومات تقييم مدى ضرورة ومعقولية وتناسب جمع المعلومات الشخصية واستخدامها والإفصاح عنها في كل حالة استخدام للذكاء الاصطناعي. كما ينبغي لها النظر في استخدام تقنيات تعزيز الخصوصية، مثل البيانات الاصطناعية وإخفاء الهوية والتشفير والتجميع الآمن، لتحقيق نتائج مماثلة مع تقليل مخاطر انتهاك الخصوصية. ويجب التعامل مع المعلومات الحساسة بحذر شديد.
أنظمة وبيانات آمنة
ينبغي للحكومات ضمان توافق استخدامات الذكاء الاصطناعي مع قوانين وسياسات وتوجيهات الأمن وحماية البيانات في جميع مراحل سلسلة التوريد. علاوة على ذلك، يجب أن تتوافق التدابير الأمنية مع استراتيجيات الأمن السيبراني ذات الصلة. وينبغي تقييد الوصول إلى الأنظمة والبيانات على الموظفين المصرح لهم فقط، حسب الحاجة لأداء مهامهم، مع ضرورة طلب المشورة من الخبراء عند الضرورة.
5. الموثوقية والسلامة
هذا يعني أن أنظمة الذكاء الاصطناعي يجب أن تعمل بكفاءة وموثوقية وفقًا للغرض المقصود منها طوال دورة حياتها. ولتحقيق ذلك، ينبغي على الحكومات ما يلي:
استخدم مجموعات البيانات المناسبة
ينبغي على الحكومات ضمان تدريب أنظمة الذكاء الاصطناعي والتحقق من صحتها على مجموعات بيانات دقيقة وممثلة وموثقة وموثوقة ومصممة خصيصًا لحالات استخدام محددة.
إجراء دراسات تجريبية
ينبغي للحكومات اختبار أنظمة الذكاء الاصطناعي في مشاريع تجريبية صغيرة النطاق لتحديد المشكلات ومعالجتها قبل التوسع في استخدامها. كما ينبغي لها الموازنة بين الحوكمة والفعالية، إذ قد لا تكشف البيئات شديدة التحكم عن جميع المخاطر والفرص، بينما قد تُشكّل البيئات الأقل تحكماً تحديات في مجال الحوكمة.
اختبر وتحقق
ينبغي على الحكومات اختبار أداء أنظمة الذكاء الاصطناعي والتحقق منه باستخدام أساليب مثل فرق الاختبار الأحمر، وتقييمات المطابقة، وتعزيز التغذية الراجعة البشرية، والمقاييس، واختبار الأداء.
مراقبة وتقييم
ينبغي للحكومات تقييم أنظمة الذكاء الاصطناعي بشكل مستمر لضمان تشغيلها بأمان وموثوقية وأخلاقية. ويشمل ذلك تقييم أداء النظام، وتفاعلات المستخدمين، وتأثيراته على الأفراد والمجتمع والبيئة، مع الأخذ في الاعتبار ملاحظات المتأثرين بنتائج الذكاء الاصطناعي.
كن مستعداً للانسحاب
ينبغي على الحكومات أن تكون مستعدة لإيقاف نظام الذكاء الاصطناعي بسرعة وأمان في حال ظهور مشكلة مستعصية، مثل اختراق البيانات، أو الوصول غير المصرح به، أو اختراق النظام. يجب تضمين هذه السيناريوهات في خطط استمرارية الأعمال، وخطط اختراق البيانات، وخطط الاستجابة الأمنية.
6. الشفافية وقابلية التفسير
هذا يعني ضرورة وجود شفافية وإفصاح مسؤول لضمان إدراك الأفراد لتأثير الذكاء الاصطناعي عليهم بشكل كبير. إضافةً إلى ذلك، ينبغي أن يعلموا متى يتفاعل نظام الذكاء الاصطناعي معهم. ولتحقيق ذلك، ينبغي على الحكومات ما يلي:
الإفصاح عن استخدام الذكاء الاصطناعي
ينبغي على الحكومات أن تتحلى بالشفافية في استخدام الذكاء الاصطناعي، وأن تُطلع المستخدمين والمتأثرين به. إضافةً إلى ذلك، ينبغي عليها الاحتفاظ بسجل يوضح متى يُستخدم الذكاء الاصطناعي، وأهدافه، وتطبيقاته المقصودة، وأي قيود عليه.
الحفاظ على أصول البيانات والمعلومات الموثوقة
ينبغي على الحكومات الالتزام بالقوانين والسياسات والمعايير المتعلقة بحفظ سجلات موثوقة لقرارات الذكاء الاصطناعي واختباراته وأصول البيانات. وهذا يضمن الشفافية، ويتيح الرقابة من قبل الجهات الداخلية والخارجية، ويعزز المساءلة واستمرارية المعرفة.
قدّم شروحات واضحة
ينبغي للحكومات أن توضح بوضوح كيف تصل أنظمة الذكاء الاصطناعي إلى النتائج، مع تفصيل المدخلات والمتغيرات ونتائج الاختبارات والإشراف البشري. وعندما تكون إمكانية التفسير محدودة، ينبغي عليها الموازنة بين فوائد الذكاء الاصطناعي وهذه القيود، وفي حال المضي قدمًا، توثيق الأسباب وتطبيق إشراف مُشدد. وفي صنع القرارات الإدارية، يجب أن تكون القرارات المتأثرة بالذكاء الاصطناعي قابلة للتفسير، ويجب محاسبة البشر عليها.
تقديم الدعم والتمكين للموظفين في الخطوط الأمامية
ينبغي للحكومات تدريب ودعم موظفيها في الخطوط الأمامية لشرح نتائج استخدام الذكاء الاصطناعي للمستخدمين شرحاً وافياً. ويجب التأكيد على أهمية العلاقات الإنسانية المباشرة، لا سيما مع الأفراد الأكثر ضعفاً، وذوي الاحتياجات المعقدة، والذين يشعرون بعدم الارتياح لاستخدام الذكاء الاصطناعي في القطاع الحكومي.
7. قابلية التنافس
هذا يعني أنه عندما يؤثر نظام الذكاء الاصطناعي بشكل كبير على فرد أو مجتمع أو جماعة أو بيئة، ينبغي أن تكون هناك آلية تُمكّن الأفراد من الاعتراض على استخدامه أو نتائجه في الوقت المناسب. ولتمكين ذلك، ينبغي على الحكومات ما يلي:
فهم الالتزامات القانونية
ينبغي للحكومات ضمان توافق استخدام الذكاء الاصطناعي في صنع القرارات الإدارية مع القوانين والسياسات والتوجيهات، مع الالتزام بمبادئ الشرعية والنزاهة والمنطق والشفافية. كما ينبغي لها توفير إمكانية الوصول إلى المراجعات وتسوية المنازعات والتحقيقات. علاوة على ذلك، ينبغي لها طلب المشورة لفهم التزاماتها والاستخدام المقترح للذكاء الاصطناعي.
التواصل بوضوح بشأن الحقوق والحماية
ينبغي للحكومات أن تُعلم الأفراد بوضوح بحقوقهم وحمايتهم فيما يتعلق بكل استخدام للذكاء الاصطناعي، وأن توفر لهم سبلًا للتعبير عن مخاوفهم واعتراضاتهم والسعي إلى إيجاد حلول. كما ينبغي لها أن توضح بوضوح القنوات التي يمكن استخدامها للطعن في استخدام الذكاء الاصطناعي أو نتائجه، مع وجود آليات شفافة للتغذية الراجعة والاستجابة تضمن مراجعة بشرية في الوقت المناسب طوال دورة حياة الذكاء الاصطناعي.
8. المساءلة
هذا يعني أنه ينبغي تحديد المسؤولين عن مختلف مراحل دورة حياة نظام الذكاء الاصطناعي ومساءلتهم عن نتائج هذه الأنظمة. إضافةً إلى ذلك، ينبغي تيسير الإشراف البشري على أنظمة الذكاء الاصطناعي. ولتحقيق ذلك، ينبغي على الحكومات ما يلي:
تحديد الأدوار والمسؤوليات بوضوح
ينبغي للحكومات إدارة استخدامها للذكاء الاصطناعي من خلال تحديد أدوار وخطوط مساءلة واضحة. ويشمل ذلك تعيين قيادة عليا وتحديد مسؤوليات محددة في مجالات معينة، ومعالجة الأمن، وحوكمة البيانات، والخصوصية، والالتزامات الأخرى، ودمج الإشراف على الذكاء الاصطناعي مع ممارسات الحوكمة القائمة وأطر إدارة المخاطر.
تدريب الموظفين وترسيخ القدرات
ينبغي على الحكومات وضع سياسات وإجراءات وبرامج تدريبية لضمان فهم الموظفين لواجباتهم وقيود النظام وممارسات ضمان الذكاء الاصطناعي.
ترسيخ ثقافة المخاطرة الإيجابية
ينبغي للحكومات تعزيز ثقافة إيجابية لإدارة المخاطر من خلال تشجيع الإدارة الاستباقية والشفافة لمخاطر الذكاء الاصطناعي كممارسة يومية. يشجع هذا النهج الحوار المفتوح حول أوجه عدم اليقين والفرص، ويتيح للموظفين التعبير عن مخاوفهم، ويضمن وجود آليات لتصعيد المشكلات إلى الجهات المسؤولة ذات الصلة.
تجنب الاعتماد المفرط
تتحمل الحكومات مسؤولية جميع مخرجات الذكاء الاصطناعي، وعليها تحديد ومعالجة المخرجات غير الصحيحة. ينبغي عليها النظر في مدى اعتمادها على الذكاء الاصطناعي، والمخاطر المرتبطة به، وقضايا المساءلة الناجمة عنه، إذ قد يؤدي الاعتماد المفرط إلى قبول مخرجات متحيزة أو غير دقيقة، مما يُهدد استمرارية الأعمال.
خاتمة
يُذكّر الإطار الوطني الأسترالي لضمان أنظمة الذكاء الاصطناعي في القطاع العام القطاع الخاص بأهمية وجود أسس واضحة للاستخدام الآمن والمسؤول للذكاء الاصطناعي. ومن خلال تحديد معايير واضحة وتوقعات سياسية محددة، يُعزز هذا الإطار المساءلة والشفافية داخل المؤسسات العامة، ويشجع الشركات الخاصة على تبني ممارسات مماثلة. وبهذه الطريقة، يُحفز الإطار الابتكار مع إيلاء الأولوية للسلامة والاعتبارات الأخلاقية، مما يمهد الطريق لنمو مستدام ونشر مسؤول للذكاء الاصطناعي في جميع القطاعات.
كيف Securiti يمكن المساعدة
Securiti هو رائد في Data Command Center منصة مركزية تُمكّن من الاستخدام الآمن للبيانات والذكاء الاصطناعي العام. توفر هذه المنصة ذكاءً موحدًا للبيانات، وضوابط، وتنسيقًا عبر بيئات سحابية هجينة متعددة. وتعتمد عليها كبرى الشركات العالمية. Securiti 's Data Command Center لأغراض أمن البيانات والخصوصية والحوكمة والامتثال.
Securiti وقد حظيت الشركة بالتقدير من خلال العديد من جوائز الصناعة والتحليل، بما في ذلك جائزة "الشركة الناشئة الأكثر ابتكارًا" من RSA، وجائزة "أفضل 25 شركة ناشئة في مجال التعلم الآلي" من Forbes، وجائزة "الشركات الأكثر ابتكارًا في مجال الذكاء الاصطناعي" من CB Insights، وجائزة "البائع المتميز في أمن البيانات" من Gartner، وجائزة "الشركة الرائدة في إدارة الخصوصية" من Forrester.
Securiti تُزيل مجموعة Genstack AI Suite من GenStack التعقيدات والمخاطر الكامنة في دورة حياة الذكاء الاصطناعي العام، مما يُمكّن المؤسسات من استخدام بياناتها المنظمة وغير المنظمة بسرعة وأمان في أي مكان مع أي نظام ذكاء اصطناعي وأنظمة إدارة التعلم. توفر المجموعة ميزات مثل استيعاب البيانات واستخراجها بشكل آمن، وإخفاء البيانات، وإخفاء الهوية، والتنقيح، بالإضافة إلى إمكانيات الفهرسة والاسترجاع. علاوة على ذلك، تُسهّل المجموعة تهيئة أنظمة إدارة التعلم للأسئلة والأجوبة، وضوابط البيانات المدمجة للحوكمة والخصوصية والأمان، وجدران الحماية لأنظمة إدارة التعلم لتمكين التبني الآمن للذكاء الاصطناعي العام.
اطلب عرضًا توضيحيًا لمعرفة المزيد.