أولاً: مقدمة: صعود الذكاء الاصطناعي والحاجة إلى يدٍ مُرشدة
استجابةً للصعود السريع والمُغيّر للذكاء الاصطناعي، شكّل بنك الاحتياطي الهندي لجنة رفيعة المستوى في ديسمبر 2024 لوضع إطار توجيهي. وبعد أشهر من المشاورات المكثفة ودراستين استقصائيتين على مستوى البلاد للمؤسسات المالية، أصدرت اللجنة تقريرها التاريخي، الذي وضع "إطار عمل التمكين المسؤول والأخلاقي للذكاء الاصطناعي" (FREE-AI). ويُعدّ هذا الإطار بمثابة مخطط لكيفية قيام البنوك والمؤسسات المالية ببناء ونشر أنظمة الذكاء الاصطناعي في الهند.
يُقدّم برنامج FREE-AI مخططًا شاملاً لتبنّي الذكاء الاصطناعي بشكل أخلاقي ومسؤول في القطاع المالي الهندي، مع الموازنة بين الابتكار وإدارة المخاطر بفعالية. ويرتكز البرنامج على سبعة مبادئ توجيهية وست وعشرين توصية عملية موزعة على ستة محاور، ويضع معايير للحوكمة، وبناء القدرات، وحماية المستهلك، والامتثال. ويهدف إلى تعزيز الشمولية والشفافية والثقة، مع ترسيخ مكانة الهند كدولة رائدة عالميًا في مجال التمويل المسؤول القائم على الذكاء الاصطناعي.
ثانيًا: "السوترا السبع": المبادئ التوجيهية للذكاء الاصطناعي الحر
تستند مبادرة الذكاء الاصطناعي المجاني (FREE-AI) إلى سبعة مبادئ توجيهية. تُشكل هذه المبادئ الأساس الأخلاقي والفلسفي لتطوير ونشر الذكاء الاصطناعي في القطاع المالي، وهي مُدرجة على النحو التالي:
- الثقة هي الأساس : يجب أن تكون جميع أنظمة الذكاء الاصطناعي موثوقة وشفافة ومصممة لكسب ثقة الجمهور. فبدون هذه الصفات، يتباطأ تبني هذه الأنظمة، وتتآكل الثقة، وتواجه التكنولوجيا مخاطر تنظيمية وسمعية أكبر.
- الأولوية للإنسان : يجب أن يكون الذكاء الاصطناعي أداةً لدعم عملية صنع القرار البشري، لا بديلاً عنها. يضمن هذا المبدأ استخدام الذكاء الاصطناعي لتحسين رفاهية الإنسان وكرامته، مع إعطاء الأولوية الواضحة للحكم البشري ومصالح المواطنين.
- الابتكار بدلاً من التقييد : ينبغي إعطاء الأولوية للتطوير الهادف للذكاء الاصطناعي، مع تجنب القيود غير الضرورية التي يمكن أن تعيق التقدم التكنولوجي والنمو الاقتصادي.
- العدالة والإنصاف: يجب أن تكون نتائج الذكاء الاصطناعي عادلة وغير تمييزية، لمنع النماذج من وراثة التحيزات من بيانات التدريب وتكريسها. فإذا لم يتم تدارك هذه التحيزات، فقد تعزز عدم المساواة، وتقوض الثقة، وتعرض المؤسسات لمخاطر قانونية وأخلاقية.
- المساءلة: تقع مسؤولية نتائج نظام الذكاء الاصطناعي حصراً على عاتق الجهة التي تُشغّله، بغض النظر عن مستوى استقلالية النظام. يُحدد هذا المبدأ بوضوح مسؤولية قرارات الذكاء الاصطناعي وآثارها.
- قابلية الفهم بالتصميم: يجب أن تكون أنظمة الذكاء الاصطناعي قابلة للتفسير بالتصميم. يتطلب هذا المبدأ أن يكون المنطق الكامن وراء قرار الذكاء الاصطناعي قابلاً للتتبع والفهم من قبل كل من المستخدمين النهائيين والجهات التنظيمية، مما يُبعدنا عن نماذج "الصندوق الأسود" المبهمة.
- السلامة والمرونة والاستدامة: يجب أن تكون أنظمة الذكاء الاصطناعي آمنة، وقادرة على الصمود أمام الصدمات، وقابلة للتكيف مع الظروف المتغيرة، وموفرة للطاقة لضمان استدامتها على المدى الطويل. ويتبع هذا المبدأ نهجًا استشرافيًا.
ثالثًا: "الركائز الست": نهج استراتيجي للتنفيذ
ولترجمة هذه المبادئ التوجيهية إلى توجيهات قابلة للتنفيذ، يحدد مشروع FREE-AI ستة وعشرين توصية منظمة ضمن ستة محاور رئيسية متميزة. وقد قُسّمت هذه المحاور عمداً إلى فئتين متكاملتين:
- تمكين الابتكار.
- تخفيف المخاطر.
1. تمكين الابتكار
يركز هذا القسم على خلق بيئة يمكن أن يزدهر فيها الابتكار المسؤول في مجال الذكاء الاصطناعي.
البنية التحتية: لدعم البنية التحتية، توصي بما يلي:
- بناء بنية تحتية عالية الجودة لبيانات القطاع المالي كمنفعة عامة رقمية، متكاملة مع منصة AI Kosh التابعة لمهمة الذكاء الاصطناعي في الهند لدعم نماذج الذكاء الاصطناعي الجديرة بالثقة .
- إنشاء بيئة تجريبية للابتكار في مجال الذكاء الاصطناعي للقطاع المالي، مما يسمح للكيانات الخاضعة للتنظيم وشركات التكنولوجيا المالية والمبتكرين بتطوير واختبار الحلول القائمة على الذكاء الاصطناعي بأمان، بالتعاون مع جهات تنظيم الخدمات المالية الأخرى.
- توفير الحوافز والتمويل لدعم الكيانات الصغيرة، وتعزيز استخدام الذكاء الاصطناعي الشامل، وتمكين إنشاء البنية التحتية للبيانات والحوسبة من أجل الابتكار القطاعي.
- تشجيع تطوير نماذج الذكاء الاصطناعي المحلية في القطاع المالي، بما في ذلك نماذج التعلم المحدود، ونماذج التعلم المحدود، وغيرها من النماذج المتخصصة، باعتبارها منفعة عامة.
- وضع إطار عمل لدمج الذكاء الاصطناعي مع البنية التحتية العامة الرقمية لتسريع الخدمات المالية الشاملة والميسورة التكلفة على نطاق واسع.
السياسة: لتفعيل السياسة، توصي بما يلي:
- تنفيذ سياسات تكيفية من خلال مراجعة الأطر الحالية بشكل دوري، ووضع سياسة شاملة للذكاء الاصطناعي للقطاع المالي استناداً إلى المبادئ السبعة للجنة، وإصدار توجيهات موحدة للذكاء الاصطناعي من أجل الابتكار المسؤول وإدارة المخاطر.
- تعزيز المبادرات القائمة على الذكاء الاصطناعي والتي تعزز الشمول المالي للفئات السكانية المحرومة من خلال تخفيف متطلبات الامتثال حيثما أمكن، مع الحفاظ على الضمانات الأساسية.
- اعتماد إطار عمل متدرج للمسؤولية عن الذكاء الاصطناعي يوازن بين الابتكار المسؤول والمساءلة ، مما يسمح بالتسامح التنظيمي مع المشكلات التي تحدث لأول مرة عند اتباع آليات السلامة، مع الحفاظ على المسؤولية الكاملة عن الانتهاكات المتكررة أو الإهمال الجسيم.
- إنشاء لجنة دائمة متعددة الأطراف معنية بالذكاء الاصطناعي تحت إشراف بنك الاحتياطي الهندي لتقديم المشورة بشأن المخاطر والفرص الناشئة، وإنشاء مؤسسة متخصصة في الذكاء الاصطناعي في القطاع المالي مرتبطة بالمعهد الوطني لسلامة الذكاء الاصطناعي من أجل المراقبة والتنسيق المستمرين.
القدرة: فيما يتعلق ببناء القدرات، يقترح ما يلي:
- بناء القدرات في مجال الذكاء الاصطناعي داخل المؤسسات البحثية من خلال الحوكمة على مستوى مجلس الإدارة والإدارة العليا، وتوفير التدريب المستمر ورفع مستوى مهارات الموظفين لضمان تبني الذكاء الاصطناعي بشكل مسؤول وأخلاقي.
- تعزيز قدرات الجهات التنظيمية والإشرافية من خلال التدريب المستهدف على الذكاء الاصطناعي والمبادرات المؤسسية، بما في ذلك معهد متخصص في الذكاء الاصطناعي، للحفاظ على توافق الأطر مع التقنيات المتطورة والمخاطر المرتبطة بها.
- إنشاء إطار عمل لتبادل أفضل الممارسات في مجال الذكاء الاصطناعي في جميع أنحاء القطاع المالي، مما يتيح تبادل حالات الاستخدام والدروس المستفادة ورؤى الحوكمة لتعزيز التوسع المسؤول.
- تقديم برامج للاعتراف بالابتكار المسؤول في مجال الذكاء الاصطناعي في القطاع المالي ومكافأته، مع التركيز على التصميم الأخلاقي والتأثير الاجتماعي الإيجابي.
2. تخفيف المخاطر
تحدد هذه الفئة الضمانات المؤسسية والتشغيلية اللازمة لنشر الذكاء الاصطناعي بشكل آمن.
الحوكمة: لتحسين الحوكمة، يقترح ما يلي:
- يُطلب من المؤسسات الاستثمارية اعتماد سياسة الذكاء الاصطناعي المعتمدة من مجلس الإدارة والتي تغطي الحوكمة والمساءلة والمخاطر والضمانات وقابلية التدقيق وحماية المستهلك ودورة حياة النموذج، مع توفير إرشادات صناعية للكيانات الأصغر.
- تطبيق حوكمة قوية لدورة حياة البيانات في المؤسسات، تغطي جمع البيانات والوصول إليها واستخدامها والاحتفاظ بها وحذفها، مع ضمان الامتثال للقوانين مثل قانون حماية البيانات وحماية الخصوصية.
- إنشاء حوكمة شاملة لأنظمة الذكاء الاصطناعي في بيئات البحث والتطوير، تغطي دورة حياة النموذج بالكامل، بما في ذلك التصميم والنشر والمراقبة والإيقاف، مع إشراف بشري على التطبيقات المستقلة وعالية المخاطر. أو إنشاء حوكمة شاملة لأنظمة الذكاء الاصطناعي في بيئات البحث والتطوير.
- يجب تضمين جميع المنتجات التي تدعم الذكاء الاصطناعي في أطر الموافقة على المنتجات الخاصة بالجهات المرجعية، مع إجراء تقييمات إلزامية للمخاطر الخاصة بالذكاء الاصطناعي.
الحماية: لتعزيز الحماية، يُقترح ما يلي:
- تطبيق إطار عمل لحماية المستهلك معتمد من قبل مجلس الإدارة في المؤسسات العقارية، بما يضمن الشفافية والإنصاف وإمكانية الوصول إلى سبل الانتصاف والتثقيف المستمر للمستهلكين بشأن الاستخدام الآمن للذكاء الاصطناعي.
- تعزيز الأمن السيبراني المتعلق بالذكاء الاصطناعي في بيئات الطاقة المتجددة من خلال تحديد المخاطر، وتحسين البنية التحتية والعمليات، والاستفادة من أدوات الذكاء الاصطناعي للكشف عن التهديدات والاستجابة لها.
- تطبيق فرق الاختراق الأحمر المنظمة عبر دورة حياة الذكاء الاصطناعي في بيئات الاختبار، مع مراعاة التكرار والشدة بما يتناسب مع مستويات المخاطر ويتم تفعيلها من خلال التهديدات أو التغييرات المتطورة.
- تعزيز خطط استمرارية الأعمال لدى مهندسي الموارد لتغطية حالات فشل أنظمة الذكاء الاصطناعي ومشاكل أداء النماذج، مع آليات احتياطية واختبارات مرونة منتظمة.
- إنشاء إطار عمل للإبلاغ عن حوادث الذكاء الاصطناعي لشركات الاستثمار العقاري وشركات التكنولوجيا المالية، مما يعزز الكشف في الوقت المناسب والإبلاغ بحسن نية عن المشكلات المتعلقة بالذكاء الاصطناعي.
الضمان: لضمان الإشراف طوال دورة حياة الذكاء الاصطناعي، يوصي بما يلي:
- الحفاظ على جرد شامل للذكاء الاصطناعي داخل وحدات البحث والتطوير، يتم تحديثه مرتين سنوياً للمراجعة الإشرافية، وإنشاء مستودع على مستوى القطاع لتتبع اتجاهات التبني والمخاطر ونقاط الضعف النظامية.
- تطبيق إطار عمل تدقيق الذكاء الاصطناعي القائم على المخاطر في المؤسسات البحثية، بما في ذلك عمليات التدقيق الداخلية، وعمليات التدقيق المستقلة من قبل جهات خارجية للحالات عالية المخاطر، والمراجعات التي تُجرى كل سنتين، مع تقديم المشرفين إرشادات واضحة بشأن معايير التدقيق والامتثال.
- إلزام المؤسسات العقارية بتقديم إفصاحات متعلقة بالذكاء الاصطناعي في التقارير السنوية والمواقع الإلكترونية، وذلك باتباع إطار عمل محدد من قبل الجهة التنظيمية لتحقيق الاتساق والشفافية.
- قم بتطوير مجموعة أدوات امتثال الذكاء الاصطناعي، يتم صيانتها من قبل هيئة تنظيمية ذاتية معترف بها أو هيئة صناعية، لمساعدة الجهات التنظيمية على التحقق من صحة مبادئ الذكاء الاصطناعي المسؤولة الرئيسية وإثبات الالتزام بها، مثل العدالة والشفافية والمساءلة والمتانة.
رابعاً: الفرص والتحديات المقبلة
-
- ليس الأمر دفاعياً فحسب، بل يُمكّن المرحلة التالية من التمويل الرقمي في الهند.
- يوفر مسارًا تنظيميًا واضحًا وجديرًا بالثقة للاستخدام المسؤول للذكاء الاصطناعي.
- يعزز الشمول المالي من خلال استخدام بيانات بديلة لتقييم الجدارة الائتمانية للسكان غير المتعاملين مع البنوك أو الذين لا يحصلون على خدمات مصرفية كافية.
- يعزز الكفاءة وإدارة المخاطر، على سبيل المثال، يمكن للذكاء الاصطناعي أن يقلل من الاحتيال ويخفض معدلات رفض الحسابات بنسبة 15-20%.
- يساهم ذلك في خفض الحواجز أمام الشركات الناشئة في مجال التكنولوجيا المالية، مما يشجع الابتكار والاستثمار.
-
- يُعد التحول الثقافي العقبة الرئيسية: يجب على البنوك ترسيخ العدالة والشفافية منذ اليوم الأول.
- Data quality : تحتاج البيانات القديمة إلى تنظيف قبل نشر الذكاء الاصطناعي.
- الحوكمة والقوى العاملة: تتطلب هياكل حوكمة جديدة ورفع مستوى مهارات جميع الموظفين.
- تدقيق التعقيد: لا يقتصر الامتثال على اختبار الخوارزميات فحسب؛ بل يشمل عمليات الحوكمة، والموافقات على حالات الاستخدام، والتوثيق.
- قد تشعر المؤسسات الصغيرة بضغط بسبب الاستثمارات الأولية.
-
- يرفع مشروع FREE-AI من تبني الذكاء الاصطناعي من "أفضل الممارسات" إلى الامتثال الإلزامي، مما يضع معيارًا صناعيًا جديدًا.
- إن التنفيذ الناجح يُمكّن البنوك من الاستفادة من الذكاء الاصطناعي بشكل مسؤول، وتحسين الشمول المالي، وتعزيز الثقة مع الجهات التنظيمية والعملاء.
خامساً: ما يعنيه هذا لمستقبل التمويل
تتمثل رؤية مبادرة الذكاء الاصطناعي المجاني (FREE-AI) في إنشاء نظام بيئي مالي يتناغم فيه تشجيع الابتكار مع الحد من المخاطر، لا أن يتعارض معه. وفي حال تطبيق هذا النهج الشامل، فإنه سيشكل نموذجاً عالمياً لكيفية تسخير الاقتصادات الناشئة الأخرى للإمكانات التحويلية للذكاء الاصطناعي بشكل مسؤول، مع الحفاظ على ثقة الجمهور ونزاهة النظام المالي.
إن الطريق إلى الأمام واضح: يضع برنامج FREE-AI الهند في موقع الريادة المحتملة في تبني الذكاء الاصطناعي بشكل أخلاقي وشامل وآمن، مما يضمن أن يتم بناء العصر القادم للتمويل الرقمي على أساس الثقة لجميع المواطنين.
سادساً: كيف Securiti يدعم الامتثال لإطار عمل الذكاء الاصطناعي المجاني
Securiti حلول AI Security & Governance ، جزء من Securiti Data Command Center يُلبي هذا النظام عدة جوانب أساسية ذات صلة وثيقة بمتطلبات مشروع FREE-AI. فهو يدعم ما يلي:
- الذكاء الاصطناعي الأخلاقي والقابل للتفسير،
- حوكمة وإشراف قويان،
- الحماية والامتثال المستمران،
- بناء القدرات التنظيمية لتبني الذكاء الاصطناعي بشكل مسؤول.
اطلب عرضًا توضيحيًا لمعرفة المزيد.