مقدمة
تستعد الهند لثورة في مجال الذكاء الاصطناعي. فبيئة أعمالها المتنوعة اجتماعياً واقتصادياً، ونظامها الرقمي المزدهر، يوفران إمكانات هائلة للنمو والابتكار. وللاستفادة من هذه الإمكانات بشكل مسؤول، أطلقت الحكومة مهمة الذكاء الاصطناعي في الهند في 7 مارس 2024، باستثمار كبير بلغ 10,371.92 كرور روبية هندية .
تهدف هذه المهمة إلى إنشاء منظومة متكاملة للذكاء الاصطناعي من خلال مبادرات مثل "قدرة الحوسبة في الهند للذكاء الاصطناعي" و "الذكاء الاصطناعي الآمن والموثوق" و "مركز الهند للابتكار في الذكاء الاصطناعي" ، مع التركيز على التطوير الأخلاقي، والحد من التحيز، وتعزيز الخصوصية. واستنادًا إلى هذه الجهود، شكلت وزارة الإلكترونيات وتكنولوجيا المعلومات لجنة فرعية في نوفمبر 2023 لمعالجة تحديات الحوكمة التي يفرضها الذكاء الاصطناعي. وفي 6 يناير 2025، أصدرت اللجنة الفرعية تقريرًا بعنوان "مبادئ توجيهية AI Governance " لاستشارة الجمهور.
يقدم هذا المقال ملخصًا موجزًا للتقرير، مع تسليط الضوء على مبادئه وتوصياته الرئيسية لنظام الذكاء الاصطناعي في الهند.
AI Governance مبادئ
أدت التطورات السريعة في مجال التعلم الآلي ومعالجة اللغات الطبيعية وقدرات الحوسبة إلى دمج الذكاء الاصطناعي في الحياة اليومية. ويؤكد التقرير على أن إدارة الذكاء الاصطناعي تتمحور حول تقليل المخاطر مع تسخير إمكاناته الهائلة. ومع ذلك، فإن تعقيد أنظمة الذكاء الاصطناعي واحتمالية حدوث عواقب غير مقصودة يطرحان تحديات فريدة تتطلب إشرافًا دقيقًا. ويقترح التقرير مجموعة من ثمانية مبادئ مصممة لتوجيه هذه الإدارة. AI governance في الهند، يتم الاستفادة من الأطر العالمية مثل مبادئ الذكاء الاصطناعي لمنظمة التعاون الاقتصادي والتنمية ، والمبادرات الخاصة بالهند مثل المبادئ التوجيهية للذكاء الاصطناعي المسؤول الصادرة عن مؤسسة نيتي أيوج . وتشمل هذه المبادئ ما يلي:
- الشفافية: يجب أن توفر أنظمة الذكاء الاصطناعي معلومات واضحة ومفيدة حول تطويرها وعملياتها وقيودها. ينبغي أن يكون المستخدمون على دراية تامة عند تفاعلهم مع الذكاء الاصطناعي.
- المساءلة: يجب أن يكون المطورون والمنفذون مسؤولين عن نتائج الذكاء الاصطناعي، مع ضمان احترام حقوق المستخدمين والالتزام بسيادة القانون.
- السلامة والموثوقية والمتانة: يجب أن تعمل أنظمة الذكاء الاصطناعي على النحو المقصود، مما يقلل من مخاطر الأخطاء أو سوء الاستخدام أو النتائج السلبية من خلال المراقبة المنتظمة.
- الخصوصية والأمان: يُعدّ الامتثال لقوانين حماية البيانات أمرًا بالغ الأهمية، ويجب دمج آليات الأمان بالتصميم لضمان سلامة البيانات. data quality .
- العدالة وعدم التمييز: يجب على أنظمة الذكاء الاصطناعي منع التحيزات وتعزيز الشمولية، وضمان عدم استمرار القرارات في إدامة عدم المساواة.
- القيم التي تتمحور حول الإنسان و"عدم الإضرار": ينبغي أن توجه الرقابة والحكم البشريان تطوير الذكاء الاصطناعي لمعالجة المعضلات الأخلاقية ومنع الاعتماد المفرط على الذكاء الاصطناعي.
- الابتكار الشامل والمستدام: ينبغي أن يساهم الذكاء الاصطناعي في تحقيق فوائد عادلة وأن يتماشى مع أهداف التنمية المستدامة.
- الحوكمة الرقمية بالتصميم: ينبغي أن تستفيد أطر الحوكمة من التقنيات الرقمية لتعزيز التنظيم والامتثال وتخفيف المخاطر.
تنفيذ الاستراتيجيات
من أجل تنفيذ ما هو موضح AI governance يؤكد التقرير، استناداً إلى المبادئ، على تطوير الاستراتيجيات الثلاث الحاسمة التالية:
1. دراسة أنظمة الذكاء الاصطناعي باستخدام منهجية دورة الحياة
يُعدّ تبني نهج دورة الحياة أمرًا ضروريًا لفهم كيفية تطور أنظمة الذكاء الاصطناعي وكيفية ظهور المخاطر في مراحل مختلفة، بما في ذلك:
- التطوير: تركز هذه المرحلة على تصميم وتدريب واختبار أنظمة الذكاء الاصطناعي. ومن الأفضل تقييم المخاطر الأخلاقية والتقنية في وقت مبكر.
- النشر: تتضمن هذه المرحلة تشغيل أنظمة الذكاء الاصطناعي، حيث تصبح المخاطر المتعلقة بسوء الاستخدام والمساءلة والشفافية أكثر بروزًا.
- الانتشار: في هذه المرحلة، يتحول التركيز إلى الآثار طويلة المدى لأنظمة الذكاء الاصطناعي المنتشرة على نطاق واسع عبر قطاعات متعددة، مما يثير مخاوف بشأن قابلية التشغيل البيني للنظام، وسلامة البيانات، والتأثير المجتمعي.
ال AI governance ينبغي أن يتناول الهيكل المخاطر في جميع المراحل الثلاث لضمان أن AI governance يتم تطبيق المبادئ بشكل فعال.
2. تبني منظور النظام البيئي لجهات الذكاء الاصطناعي الفاعلة
يضم النظام البيئي للذكاء الاصطناعي مجموعة واسعة من الجهات المعنية التي تشارك في جميع مراحل دورة حياة أنظمة الذكاء الاصطناعي، حيث يؤدي كل منها أدوارًا متميزة في صياغة الحوكمة. ومن أبرز هذه الجهات الفاعلة:
- أصحاب البيانات: أولئك الذين يملكون أو يتحكمون في البيانات المستخدمة في أنظمة الذكاء الاصطناعي.
- موفرو البيانات: الكيانات التي توفر البيانات لتدريب نماذج الذكاء الاصطناعي.
- مطورو الذكاء الاصطناعي: منظمات أو أفراد مسؤولون عن إنشاء نماذج الذكاء الاصطناعي وتحسينها.
- مُشغِّلو الذكاء الاصطناعي: أولئك الذين يقومون بنشر أنظمة الذكاء الاصطناعي في تطبيقات عملية، مثل مُنشئي التطبيقات وموزعيها.
- المستخدمون النهائيون: الشركات والمستهلكون الذين يتفاعلون مع أنظمة الذكاء الاصطناعي أو يتأثرون بها.
يتطلب نهج AI governance الشامل مراعاة النظام البيئي بأكمله لتوزيع المسؤوليات بشكل فعال، وتوضيح الالتزامات، وتعزيز التعاون بين أصحاب المصلحة.
3. توظيف التكنولوجيا في الحوكمة
يستلزم تعقيد تقنيات الذكاء الاصطناعي ونموها السريع دمج التكنولوجيا في أطر الحوكمة لتحسين الرقابة والامتثال. يجمع النهج "التقني القانوني" بين اللوائح القانونية والأدوات التكنولوجية لمواكبة التطور السريع للذكاء الاصطناعي ونشره. وقد يشمل ذلك أدوات امتثال آلية، وتقنيات حوكمة، وآليات رقابة بشرية لمراقبة منظومة الذكاء الاصطناعي على نطاق واسع. ومن أمثلة هذا النهج استخدام "وثائق الموافقة" لإنشاء هويات رقمية غير قابلة للتغيير للمشاركين، مما يتيح تتبع الأنشطة وتحديد سلاسل المسؤولية.
تتيح هذه الاستراتيجية توزيع المسؤوليات التنظيمية وتمكين التنظيم الذاتي داخل النظام البيئي. ومع ذلك، فإن إجراء مراجعات دورية للتكنولوجيا المستخدمة في الامتثال ضروري لضمان العدالة والأمان واحترام الحقوق الأساسية كحق الخصوصية وحرية التعبير.
الفجوة في التيار الهندي AI Governance منظر جمالي
حدد التقرير العديد من الثغرات الحرجة في الوضع الحالي للهند AI governance يركز هذا التقرير على ضرورة تعزيز الامتثال والشفافية والتنسيق في جميع أنحاء منظومة الذكاء الاصطناعي. ويمكن تصنيف هذه الثغرات إلى ثلاثة مجالات رئيسية:
1. ضرورة تمكين الامتثال الفعال وإنفاذ القوانين القائمة
أ. التزييف العميق، والمحتوى الضار، والمحتوى المزيف
ساهمت تقنيات الذكاء الاصطناعي، ولا سيما الذكاء الاصطناعي التوليدي، في تسهيل إنشاء وسائط اصطناعية خبيثة مثل التزييف العميق. وتتناول الأطر القانونية القائمة، بما في ذلك قانون تكنولوجيا المعلومات لعام 2000 وقانون العقوبات الهندي ، بعض القضايا مثل سرقة الهوية وانتحال الشخصية والتشهير. وتشمل الأحكام المحددة ما يلي:
- المادة 66د من قانون تكنولوجيا المعلومات: تعاقب على الغش عن طريق انتحال الشخصية باستخدام موارد الحاسوب.
- القسمان 67أ و67ب من قانون تكنولوجيا المعلومات: يتناولان المحتوى الفاحش الذي يمكن إنشاؤه باستخدام تقنيات التزييف العميق.
- المادتان 419 و 499 من قانون العقوبات الهندي: تغطيان الاحتيال عن طريق انتحال الشخصية والتشهير.
مع ذلك، تتطلب هذه القوانين قدرات تكنولوجية متطورة للكشف الفوري عن المخالفات ومنعها وإنفاذها. فعلى سبيل المثال، يمكن لتخصيص معرّفات رقمية فريدة للمشاركين وتطبيق تقنيات العلامات المائية أن يحسّن من إمكانية التتبع والمساءلة في إنشاء المحتوى وتوزيعه.
ب. مخاطر الأمن السيبراني
تُضيف أنظمة الذكاء الاصطناعي تعقيدات جديدة إلى مجال الأمن السيبراني، إذ يُمكنها تضخيم الثغرات الأمنية القائمة أو تمكين هجمات متطورة من قِبل جهات غير تقنية. وتُحكم التدابير الحالية بموجب قانون تكنولوجيا المعلومات، مثل فريق الاستجابة للطوارئ الحاسوبية الهندي (CERT-IN) والمركز الوطني لحماية البنية التحتية الحيوية للمعلومات (NCIIPC)، الأمن السيبراني. علاوة على ذلك، تُرسّخ المبادئ التوجيهية القطاعية الصادرة عن جهات تنظيمية مثل بنك الاحتياطي الهندي ، وهيئة الأوراق المالية والبورصات الهندية ، وهيئة تنظيم وتطوير التأمين ، ضماناتٍ إضافية. وعلى الرغم من هذه التدابير، ثمة حاجة إلى تعزيز قدرات الامتثال ووضع معايير خاصة بالذكاء الاصطناعي، بما في ذلك أُطر "الأمان بالتصميم"، للتصدي بفعالية للتهديدات السيبرانية التي يُسببها الذكاء الاصطناعي.
ج. حقوق الملكية الفكرية (IPR)
يركز تحليل التقرير لحقوق الملكية الفكرية بموجب قانون حقوق النشر الهندي على مجالين رئيسيين مرتبطين بالذكاء الاصطناعي. أولًا، يتناول استخدام البيانات المحمية بحقوق النشر لتدريب نماذج الذكاء الاصطناعي دون إذن صاحب الحقوق، مما قد يؤدي إلى انتهاكها. يسمح القانون الهندي، بموجب قانون حقوق النشر لعام ١٩٥٧ ، باستثناءات محدودة، كالأبحاث الشخصية، ولكنه لا يسمح بالأبحاث التجارية أو المؤسسية دون موافقة. لذا، يثير التقرير مخاوف بشأن إنفاذ الامتثال وتحديد المسؤولية عند مشاركة أطراف متعددة في إنتاج مخرجات الذكاء الاصطناعي التي تنتهك القوانين.
ثانيًا، يتناول التقرير مسألة حقوق التأليف والنشر للأعمال المولدة بواسطة الذكاء الاصطناعي. ويشير إلى أن "التأليف البشري" شرط أساسي لحماية حقوق التأليف والنشر، مما يثير الشكوك حول إمكانية اعتبار الأعمال المولدة بواسطة الذكاء الاصطناعي مؤهلة لهذه الحماية. ويخلص التقرير إلى ضرورة وجود توجيهات سياسية واضحة وإصلاحات قانونية محتملة لمعالجة هذه القضايا وضمان اتباع نهج متوازن لحماية الملكية الفكرية في عصر الذكاء الاصطناعي.
د. التحيز والتمييز في الذكاء الاصطناعي
قد تُعزز أنظمة الذكاء الاصطناعي، دون قصد، التحيزات الموجودة مسبقًا، مما يؤدي إلى نتائج تمييزية. ورغم أن القوانين الحالية، مثل قانون المساواة في الأجور ولوائح حماية المستهلك، تُعالج التمييز، إلا أن هذه الأطر قد لا تُغطي بشكل كامل المخاطر الفريدة التي تُشكلها نماذج الذكاء الاصطناعي "المبهمة". لذا، يجب على الجهات التنظيمية والمُستخدمين إعطاء الأولوية لتدابير تخفيف المخاطر، مثل الاختبارات الدقيقة والشفافية في عمليات صنع القرار.
2. الحاجة إلى الشفافية والمسؤولية في جميع أنحاء النظام البيئي للذكاء الاصطناعي
يؤكد التقرير على ضرورة الشفافية والمسؤولية في منظومة الذكاء الاصطناعي في الهند. ويلزم الجهات التنظيمية بجمع معلومات كافية حول إمكانية تتبع البيانات والنماذج والأنظمة والجهات الفاعلة طوال دورة حياة أنظمة الذكاء الاصطناعي. كما يسلط الضوء على الحاجة الماسة إلى الشفافية من جانب أصحاب المصلحة فيما يتعلق بتوزيع المسؤولية وإدارة المخاطر.
يُعدّ وضع إطار عمل أساسي أوسع نطاقًا أمرًا ضروريًا لضمان الشفافية والمسؤولية في جميع القطاعات، إذ قد تتجاوز المخاطر حدود القطاعات. ومن شأن هذا النهج أن يُسهم في تصميم آليات حوكمة فعّالة لسيناريوهات الذكاء الاصطناعي عالية المخاطر.
3. الحاجة إلى نهج حكومي شامل
المشهد التنظيمي المجزأ في الهند، حيث تشرف وكالات متعددة على جوانب مختلفة من AI governance يُظهر هذا النهج أوجه قصور وثغرات محتملة. فبينما يُعدّ التخصص القطاعي مفيدًا، إلا أن وتيرة التطورات التكنولوجية المتسارعة وانتشار استخدام الذكاء الاصطناعي يكشفان عن قصور في هذا النهج. غالبًا ما تعمل الإدارات والهيئات التنظيمية بمعزل عن بعضها، فتدرس أنظمة الذكاء الاصطناعي ضمن نطاق اختصاصها. وهذا يعيق تطوير فهم موحد للقضايا الشاملة، مما يجعل من الصعب على الحكومة تنسيق المبادرات المتنوعة ضمن خارطة طريق متماسكة.
التوصيات
لمعالجة الثغرات المحددة في AI governance واقترح التقرير سلسلة التوصيات المستهدفة التالية بهدف إنشاء إطار عمل قوي ومتماسك:
1. تطبيق نهج حكومي شامل
يوصي التقرير بإنشاء لجنة تنسيق أو فريق حوكمة مشترك بين الوزارات معنية بالذكاء الاصطناعي. ويهدف هذا الفريق، بقيادة وزارة الإلكترونيات وتكنولوجيا المعلومات والمستشار العلمي الرئيسي لحكومة الهند، إلى تحقيق التنسيق بين مختلف الجهات المعنية. AI governance تشمل الجهود المبذولة في مختلف القطاعات مساعدة الجهات التنظيمية على فهم المخاطر المتعلقة بالذكاء الاصطناعي والتخفيف من حدتها. ومن بين المسؤوليات الرئيسية للجنة ما يلي:
- الرقابة المنسقة: ينبغي أن تجمع بين الجهات التنظيمية والإدارات الحكومية والخبراء الخارجيين لتنسيق الجهود وتبادل المعرفة بشأن مخاطر الذكاء الاصطناعي عبر القطاعات.
- خارطة طريق مشتركة: ينبغي أن تطور نهجًا موحدًا لتطبيق القوانين الحالية على أنظمة الذكاء الاصطناعي، مما يضمن الوضوح والكفاءة في معالجة القضايا الخاصة بالقطاع والقضايا الشاملة.
2. إنشاء أمانة فنية
بهدف بناء فهم شامل لمنظومة الذكاء الاصطناعي في الهند، يقترح التقرير إنشاء أمانة فنية تابعة لوزارة الإلكترونيات وتكنولوجيا المعلومات. وتشمل وظائفها الرئيسية ما يلي:
- استشراف المستقبل: مراقبة تطورات الذكاء الاصطناعي بانتظام لتحديد المخاطر والفرص الناشئة.
- تقييم المخاطر والتخفيف منها: تقييم المخاطر المجتمعية والمستهلكية، بما في ذلك قضايا مثل مكافحة الاحتكار، وحوكمة البيانات، والأمن السيبراني، عبر تطبيقات الذكاء الاصطناعي المختلفة.
- التوحيد القياسي وتطوير المقاييس: تسهيل إنشاء مقاييس وأطر عمل على مستوى الصناعة لـ AI governance ، مثل مصدر البيانات، وتقارير الشفافية، وبطاقات النظام.
- التعاون الصناعي: إشراك أصحاب المصلحة لتطوير حلول مشتركة مثل تصنيف الوسائط الاصطناعية وتنفيذ التقنيات المعززة للخصوصية.
3. تطوير قاعدة بيانات لحوادث الذكاء الاصطناعي
يوصي التقرير بإنشاء قاعدة بيانات لحوادث الذكاء الاصطناعي لتعزيز فهم مخاطر الذكاء الاصطناعي في الواقع العملي. وتشمل السمات الرئيسية لقاعدة بيانات حوادث الذكاء الاصطناعي ما يلي:
- إعداد التقارير الشاملة: ستقوم قاعدة البيانات بجمع التقارير المتعلقة بحوادث الذكاء الاصطناعي الضارة، بما في ذلك الأعطال والنتائج التمييزية وانتهاكات الخصوصية، من كل من الكيانات العامة والخاصة.
- السرية والتعلم: من شأن بروتوكولات الإبلاغ أن تضمن السرية لتشجيع تقديم المعلومات طواعية والتركيز على تخفيف الضرر بدلاً من التدابير العقابية.
- السياسة القائمة على الأدلة: من شأن الرؤى المستقاة من قاعدة البيانات أن توجه الاستراتيجيات التنظيمية والحوكمة، مما يتيح استجابات قائمة على البيانات للقضايا المتكررة.
4. تعزيز الالتزامات الطوعية من أجل الشفافية
يدعو التقرير إلى إشراك أصحاب المصلحة في القطاع لوضع التزامات طوعية تهدف إلى تعزيز الشفافية والحوكمة. وتشمل هذه الالتزامات ما يلي:
- الإفصاحات: الإبلاغ العام عن الاستخدام المقصود، والقدرات، والقيود لأنظمة الذكاء الاصطناعي.
- المراقبة والتحقق: تطبيق آليات التقييم data quality ، ومتانة النموذج، ونتائج النظام.
- المراجعات والتدقيقات من قبل النظراء: تشجيع التقييمات من قبل جهات خارجية لضمان الالتزام بمبادئ الذكاء الاصطناعي المسؤول.
5. دراسة التدابير التكنولوجية لتخفيف المخاطر
يسلط التقرير الضوء على أهمية الاستفادة من الأدوات التكنولوجية لمعالجة المخاطر المتعلقة بالذكاء الاصطناعي، مثل:
- وضع العلامات المائية والوسم: ضمان إمكانية تتبع المحتوى الذي تولده أنظمة الذكاء الاصطناعي لمنع إساءة الاستخدام، كما هو الحال في التزييف العميق.
- معايير تحديد مصدر المحتوى: تطوير المعايير والآليات لتتبع تعديلات المحتوى وتحديد المصدر، حتى عبر منصات وأدوات مختلفة.
6. تعزيز الإطار القانوني والتنظيمي
يوصي التقرير بتشكيل فريق فرعي للتعاون مع وزارة الإلكترونيات وتكنولوجيا المعلومات بشأن دمج AI governance في قانون الهند الرقمية المقترح . تشمل الجوانب الرئيسية ما يلي:
- تنسيق اللوائح: ضمان الاتساق عبر الأطر القانونية والتنظيمية والتقنية لمعالجة التحديات المتعلقة بالذكاء الاصطناعي بشكل فعال.
- تحسين معالجة الشكاوى: اقتراح آليات رقمية مصممة خصيصاً، مثل أنظمة حل النزاعات عبر الإنترنت ولجان استئناف الشكاوى، لتبسيط وتحديث عمليات معالجة الشكاوى.
- بناء القدرات: مراجعة وتعزيز مؤهلات وموارد موظفي الفصل في القضايا لمعالجة القضايا المتعلقة بالذكاء الاصطناعي بشكل شامل.
خاتمة
ختامًا، تتطلب حوكمة الذكاء الاصطناعي نهجًا شاملًا ومنسقًا يُعالج تعقيدات أنظمة الذكاء الاصطناعي طوال دورة حياتها، بدءًا من التطوير وصولًا إلى النشر والتعميم. ومن خلال إشراك جميع الجهات الفاعلة في النظام البيئي - أصحاب البيانات، والمطورين، والناشرين، والمستخدمين النهائيين - والاستفادة من التكنولوجيا لتعزيز المراقبة والامتثال وتخفيف المخاطر، تستطيع الهند إنشاء إطار عمل متين لتبني الذكاء الاصطناعي بمسؤولية. إن استراتيجية حكومية شاملة ذات رؤية مستقبلية لا تضمن فقط الالتزام بالمعايير الأخلاقية، بل تُعزز أيضًا الابتكار وتبني ثقة الجمهور، مما يمهد الطريق أمام الإمكانات التحويلية للذكاء الاصطناعي للمساهمة بفعالية في التقدم الاقتصادي والاجتماعي.
كيف Securiti يمكن المساعدة
Securiti تُعدّ الشركة رائدةً في مجال مركز قيادة البيانات والذكاء الاصطناعي، وهي منصة مركزية تُمكّن من الاستخدام الآمن للبيانات والذكاء الاصطناعي من الجيل الجديد. وتُوفّر هذه المنصة ذكاءً موحدًا للبيانات، وضوابط، وتنسيقًا عبر بيئات سحابية هجينة متعددة. وتعتمد عليها كبرى الشركات العالمية. Securiti 's Data Command Center لأغراض أمن البيانات والخصوصية والحوكمة والامتثال.
Securiti تُمكّن منصة Gencore AI المؤسسات من الاتصال الآمن بمئات أنظمة البيانات مع الحفاظ على ضوابط البيانات وحوكمتها أثناء تدفق البيانات إلى أنظمة GenAI الحديثة. وتعتمد المنصة على مخطط معرفي فريد يوفر رؤى سياقية دقيقة حول البيانات وأنظمة الذكاء الاصطناعي.
توفر Gencore AI ضوابط قوية في جميع أنحاء نظام الذكاء الاصطناعي لضمان التوافق مع سياسات الشركات وحقوقها، والحماية من الهجمات الخبيثة، وحماية البيانات الحساسة. وهذا يمكّن المؤسسات من الامتثال لبيئة الذكاء الاصطناعي المتطورة في الهند.
اطلب عرضًا توضيحيًا لمعرفة المزيد.
الأسئلة الشائعة