توصي غارتنر بأن تقوم المنظمات التي تبذل جهوداً في مجال الذكاء الاصطناعي TRiSM بتطوير أو إقامة شراكات لتقديم كتالوجات الذكاء الاصطناعي وخرائط البيانات وقدرات المراقبة المستمرة.
أولًا، يجب إنشاء فهرس للذكاء الاصطناعي . يتعين على المؤسسات إعداد جرد شامل لكيانات الذكاء الاصطناعي المستخدمة فيها، بما في ذلك النماذج والوكلاء والتطبيقات. يجب حصر جميع تطبيقات الذكاء الاصطناعي، سواء الجاهزة أو تلك التابعة لجهات خارجية. كما يجب حصر النماذج والوكلاء الذين تم تطويرهم أو تحسينهم باستخدام بيانات المؤسسة أو ربطهم بسياق أنظمة استرجاع المعلومات المعززة (RAG).
ثانيًا، خريطة بيانات الذكاء الاصطناعي. يحتاج كل نظام من هذه الأنظمة إلى خريطة واضحة ومفصلة للبيانات التي يستخدمها ويستطيع الوصول إليها، بما في ذلك جميع خطوات المعالجة والتجميع والتحويل التي قد يخضع لها في مسار الذكاء الاصطناعي، وصولًا إلى النظام المصدر. تُعد خريطة بيانات الذكاء الاصطناعي ضرورية للحصول على رؤية شاملة للمخاطر وتطبيق الضوابط المناسبة.
وأخيرًا، يلزم وجود قدرة مراقبة مستمرة في الوقت الفعلي لتوفير ضمان مستمر وتقييم النظام. يجب وضع معايير للثقة والأداء، وما إلى ذلك، وينبغي اختبار الأنظمة بانتظام وفقًا لهذه المعايير، سواءً في وضع عدم الاتصال بالإنترنت أو بشكل مستمر وفي الوقت الفعلي.
من أجل تصميم إطار عمل TRiSM بشكل صحيح، تحتاج المؤسسات إلى معالجة المتطلبات التقنية التالية لحوكمة المعلومات، وفحص وقت تشغيل الذكاء الاصطناعي وإنفاذه، AI governance .
تهدف تقنيات إدارة المعلومات في منهجية إدارة المخاطر والشفافية (TRiSM) إلى تقييد وصول الذكاء الاصطناعي والمستخدمين إلى البيانات ذات الصلة والمصرح بها بشكل صحيح طوال دورة حياتها. في دراسة أجرتها ISMG بالتعاون مع مايكروسوفت بعنوان "الدراسة السنوية الأولى للذكاء الاصطناعي التوليدي"، كان الشاغل الرئيسي بشأن استخدام الذكاء الاصطناعي، والذي ذكره 80% من قادة الأعمال و82% من متخصصي الأمن السيبراني، هو احتمال تسريب البيانات الحساسة. لذا، يُعدّ اتباع نهج شامل لإدارة المعلومات أمرًا بالغ الأهمية لتأمين المعلومات الحساسة للمؤسسة وتوفير أساس متين لجهود TRiSM.
يجب أن تعالج الحلول التقنية لحوكمة المعلومات التحديات الرئيسية التي تواجهها المؤسسات عند محاولتها تأمين بياناتها. أولها اكتشاف البيانات. وفقًا لدراسة استقصائية حديثة أجرتها شركة أومديا، فإن 11% فقط من المؤسسات قادرة على تتبع جميع بياناتها. وتتفاقم هذه المشكلة بسبب تعدد الأدوات المستخدمة في بيئات الحوسبة السحابية الهجينة والمتعددة، مما يُنتج رؤى مجزأة لبيانات المؤسسة. لذا، يجب أن تكون حلول حوكمة المعلومات قادرة على مسح البيئات واستخلاص معلومات دقيقة حول البيانات المنظمة وغير المنظمة الموجودة في جميع أنحاء المؤسسة.
يتمثل التحدي الثاني الذي يجب أن تتصدى له تقنيات إدارة المعلومات في تصنيف البيانات الحساسة. فالحلول التي تعتمد على الكلمات المفتاحية والوسوم اليدوية غير كافية لحجم وتنوع البيانات غير المهيكلة التي تخزنها المؤسسات عادةً. كما أن الحلول التي تكتفي بأخذ عينات من مجموعات البيانات لتحديد ما إذا كانت تحتوي على بيانات حساسة غير كافية أيضاً، لأن المعلومات الشخصية الحساسة أو غيرها من البيانات الحساسة قد تكون مدفونة أحياناً في أعماق البيانات غير المهيكلة في أماكن غير متوقعة. أما الحلول المتطورة فتُجري مسحاً شاملاً لجميع البيانات وتُؤتمت عملية التصنيف بدقة عالية وباستخدام وسوم محددة (مثل المعلومات الشخصية الحساسة، وعناوين IP، وكلمات المرور، إلخ) من خلال تحليل السياق المحيط بالبيانات التي يُحتمل أن تكون حساسة.
التحدي الثالث هو منح صلاحيات زائدة. فقد كشف تقرير Sysdig لعام 2023 حول أمن واستخدام الحوسبة السحابية الأصلية أن 90% من الصلاحيات الممنوحة لا تُستخدم. وهذا يشير إلى أن المستخدمين غالبًا ما يتمتعون بإمكانية الوصول إلى بيانات لا يحتاجونها، وربما لا ينبغي لهم الوصول إليها. يُسهّل الذكاء الاصطناعي الوصول إلى هذه البيانات بشكل كبير للمستخدمين النهائيين. لذا، ينبغي أن تكون حلول إدارة المعلومات قادرة على تحديد المستخدمين ومجموعات البيانات التي تتمتع بصلاحيات زائدة، وتطبيق سياسات تقيّد الوصول.
أخيرًا، عند نقل البيانات من النظام المصدر لتجهيزها للاستخدام في الذكاء الاصطناعي، غالبًا ما تُفقد معلومات أساسية هامة. فقد تُفقد بيانات مثل الصلاحيات والتصنيفات والملكية والإقامة، وغيرها من المعلومات الضرورية لإدارة المخاطر والامتثال. لذا، ينبغي لحلول إدارة المعلومات الحفاظ على هذه البيانات الوصفية لاستخدامها في عمليات فحص وإنفاذ الذكاء الاصطناعي أثناء التشغيل، بالإضافة إلى عمليات التدقيق.
إلى جانب هذه التحديات المشتركة، ينبغي لتقنيات إدارة المعلومات أن ترسم بوضوح مسار البيانات التي تستخدمها أنظمة الذكاء الاصطناعي والتي يتم الوصول إليها، وذلك من خلال توثيق مصدر البيانات عبر مسارات معقدة قد تشمل عمليات التجميع والمعالجة والنقل من الأنظمة المصدرية. كما يجب أن تضع حلول إدارة المعلومات سياسات للاحتفاظ بالبيانات للمساعدة في جهود تقليل البيانات والامتثال للوائح التنظيمية.
يُوفّر حلّ حوكمة المعلومات الجيد بيانات نظيفة ومُعقّمة للذكاء الاصطناعي، مع تضمين الأمان منذ البداية، وليس كحلّ لاحق. ويمكن للحلول المُحسّنة، أو تلك المُعتمدة على RAG، أو البرامج الوسيطة، الاستفادة من الصلاحيات والتصنيفات وغيرها من المعلومات السياقية الهامة التي يُمكن تطبيقها أثناء التشغيل. وعند تطبيقها بشكل صحيح، تُسرّع حوكمة المعلومات من تطوير ذكاء اصطناعي آمن من خلال توفير البيانات المناسبة بسهولة للاستخدام، مع ضمان عدم كشف البيانات الحساسة للمستخدمين أو الأنظمة غير المصرح لهم، مما يُوفّر أساسًا متينًا لفحص الذكاء الاصطناعي وتطبيقه أثناء التشغيل.
| المشكلة/الحاجة |
AI Governance ميزة تقنية |
حصيلة |
| عرض مجزأ لبيانات المؤسسة |
مسح عميق عبر البيئات |
إمكانية الاطلاع على جميع بيانات المؤسسة |
| التصنيف اليدوي أو غير الكامل |
التصنيف التلقائي لمجموعات البيانات الكاملة |
عرض دقيق للبيانات الحساسة، وتصنيفات محددة |
| تجاوز الصلاحيات |
تحديد المستخدمين ومجموعات البيانات التي تتمتع بصلاحيات زائدة |
ضوابط وصول أكثر صرامة |
| فقدان السياق المحيط بالبيانات عند نقلها من النظام المصدر |
الحفاظ على السياق الحرج |
التصنيفات التي سيستخدمها فحص وإنفاذ وقت تشغيل الذكاء الاصطناعي، والسياق الذي سيستخدم للحوكمة/التدقيق/الرؤية |
| Data mapping |
مصدر البيانات وتصورها |
خريطة البيانات |
| تقليل البيانات |
سياسات الاحتفاظ بالبيانات القابلة للتكوين |
انخفاض المخاطر في بيانات ROT (الزائدة، والقديمة، والتافهة) |
| التعامل مع البيانات الحساسة |
تصفية البيانات الحساسة وإخفاؤها وتنقيحها |
مجموعات بيانات منقحة ومُعقّمة |
| الحفاظ على وضع أمن بيانات الذكاء الاصطناعي |
التقييم الدوري لنقاط الضعف |
تعزيز وضع أمن بيانات الذكاء الاصطناعي |
المتطلبات الفنية لفحص وإنفاذ الذكاء الاصطناعي أثناء التشغيل
تهدف تقنية فحص وإنفاذ الذكاء الاصطناعي أثناء التشغيل إلى رصد المخاطر والتهديدات ومعالجتها فور حدوثها. تحتاج المؤسسات إلى ضمانات بأن مخرجات نماذج الذكاء الاصطناعي موثوقة، وأن المخاطر قد تم تخفيفها، وأن الأنظمة آمنة. الوقاية هي الهدف؛ فاكتشاف هجوم إلكتروني أو تسريب بيانات حساسة بعد وقوعه لا يُجدي نفعًا. لذلك، يجب أن تتمتع تقنيات فحص وإنفاذ الذكاء الاصطناعي أثناء التشغيل، أولًا وقبل كل شيء، بإمكانية رصد أحداث الذكاء الاصطناعي في الوقت الفعلي. يُعرَّف حدث الذكاء الاصطناعي بأنه تفاعل منفصل أو تغيير في الحالة يحدث داخل نظام أو سير عمل للذكاء الاصطناعي، ويشمل مكونًا رئيسيًا واحدًا أو أكثر: المستخدمون، أو وكلاء الذكاء الاصطناعي المستقلون أو شبه المستقلين، أو نماذج الذكاء الاصطناعي، أو البيانات التي يتم الوصول إليها أو معالجتها أو إنشاؤها. نظرًا لأن أيًا من هذه التفاعلات قد يُمثل نقاط ضعف للهجمات الإلكترونية أو نقاط ضعف لحماية البيانات، فيجب معالجتها. إن مجرد رصد التنبيهات لمحاولات "اختراق" معروفة، على سبيل المثال، غير كافٍ.
يجب مراقبة قائمة مختصرة من أحداث الذكاء الاصطناعي:
- يقوم المستخدم بإرسال طلب
- يتم تصميم/تعديل موجه الأوامر
- يستقبل الوكيل طلب المستخدم ويصيغ استعلامًا لنموذج
- يقوم الوكيل باسترداد بيانات السياق (على سبيل المثال، من قاعدة بيانات متجهة)
- يقوم الوكيل بإرسال بيانات الطلب/الاستعلام والسياق إلى النموذج
- يقوم النموذج بالاستدلال
- يصل النموذج إلى بيانات التدريب أو الأدوات/واجهات برمجة التطبيقات الخارجية
- يقوم النموذج بإنشاء استجابة أو بيانات إخراج
- يتلقى الوكيل استجابة نموذجية
- يقوم الوكيل بتنسيق الرد وإرساله إلى المستخدم
- الكشف عن البيانات الحساسة في رسالة أو استجابة
- تم رصد انتهاك للسياسة (مثل محاولة حقن سريعة، أو إنشاء محتوى ضار)
- تحديث بيانات تكوين النموذج أو ضبطها بدقة
يتمثل التحدي الأول في ضمان وضوح الرؤية عبر هذه الأنظمة المتعددة. ويتطلب هذا الوضوح، الذي يشمل نماذج وتطبيقات وقواعد بيانات وخطوط معالجة بيانات متنوعة، درجة عالية من التوافقية، وإلا ستعاني المؤسسات من رؤية مجزأة أو غير مكتملة لأحداث الذكاء الاصطناعي لديها. وقد كشفت دراسة ماكينزي لعام 2025 بعنوان "حالة الذكاء الاصطناعي: كيف تعيد المؤسسات هيكلة أنظمتها لتحقيق القيمة" أن 27% فقط من المؤسسات التي تستخدم الذكاء الاصطناعي تراقب جميع مخرجاته. لذا، يجب أن تتكامل حلول فحص وإنفاذ الذكاء الاصطناعي أثناء التشغيل مع العديد من الأنظمة والأدوات المختلفة.
يتمثل التحدي الثاني في طبقة فحص وإنفاذ وقت تشغيل الذكاء الاصطناعي ضمن نظام إدارة الذكاء الاصطناعي (AI TRiSM) في عدد وتنوع أحداث الذكاء الاصطناعي التي يجب مراقبتها. تُولّد أنظمة الذكاء الاصطناعي كميات هائلة من البيانات، ويزداد هذا الأمر وضوحًا مع تطوير المؤسسات ونشرها المزيد من حالات استخدام الذكاء الاصطناعي، وربطها نماذج مختلفة بمجموعات بيانات وتطبيقات متنوعة، أو حتى إنشاء نظام متعدد الوكلاء حيث يُنفّذ كل وكيل مهامًا فرعية مختلفة ضمن عمليات تجارية معقدة وشاملة. ببساطة، لا يستطيع المشغلون البشريون فحص جميع الأحداث في الوقت الفعلي لرصد المخاطر والتهديدات. يتطلب فحص أحداث الذكاء الاصطناعي على نطاق واسع درجة عالية من الأتمتة.
يتمثل التحدي الثالث في أن أنظمة الذكاء الاصطناعي غير حتمية، أي أنها تستقبل مدخلات غير محددة المعالم وتُنتج مخرجات احتمالية. بحسب شركة IBM في تقريرها "كيف تتكيف قابلية المراقبة مع الذكاء الاصطناعي التوليدي"، "على عكس البرامج التقليدية، تُنتج نماذج التعلم المحدود مخرجات احتمالية، ما يعني أن المدخلات المتطابقة قد تُؤدي إلى استجابات مختلفة. هذا النقص في قابلية التفسير - أو صعوبة تتبع كيفية تأثير المدخلات على المخرجات - قد يُسبب مشاكل لأدوات المراقبة التقليدية. تُسلط ظاهرة "الصندوق الأسود" هذه الضوء على تحدٍ حاسم لمراقبة نماذج التعلم المحدود. فبينما تستطيع أدوات المراقبة اكتشاف المشاكل التي حدثت، إلا أنها لا تستطيع منعها لأنها تُعاني من صعوبة تفسير الذكاء الاصطناعي - أي القدرة على تقديم سبب مفهوم بشريًا وراء اتخاذ النموذج قرارًا مُحددًا أو توليده لمخرجات مُعينة." من المُرجح أن تكون أساليب المراقبة القائمة على قواعد صريحة غير كافية. يجب أن تكون تقنيات فحص وإنفاذ الذكاء الاصطناعي القوية أثناء التشغيل مرنة، ومُدركة للسياق، وقادرة على تمييز معنى ونية الإجراءات المُختلفة، أي يجب أن تستخدم تقنيات فحص وإنفاذ الذكاء الاصطناعي القوية أثناء التشغيل الذكاء الاصطناعي لفحص الأحداث بحثًا عن مشاكل مُحتملة.
أخيرًا، تبرز مشكلة التكيف. تتغير أنظمة الذكاء الاصطناعي والتهديدات وكيفية استخدامها باستمرار، ولذا يجب أن تتكيف الضوابط بنفس السرعة. سرعان ما تصبح القواعد الثابتة قديمة، ويُعدّ تصميم ضوابط قادرة على التعامل بكفاءة مع مخرجات واستخدامات الذكاء الاصطناعي غير المتوقعة أو الجديدة تحديًا مستمرًا. ينبغي أن يكون فحص الذكاء الاصطناعي وإنفاذه أثناء التشغيل قابلاً للتعديل بسهولة أو أن يتمتع بقدرة على التعلم والتحسين التلقائي.
يُسهّل الفحص والتنفيذ الفعال لوقت تشغيل الذكاء الاصطناعي نشر الذكاء الاصطناعي الآمن والموثوق به من خلال البناء على طبقة إدارة المعلومات، واستخدام التصنيفات لحماية البيانات الحساسة، واكتشاف الانحراف عن خط الأساس المحدد للنشاط "الطبيعي"، واكتشاف المخاطر والتهديدات المحددة في الوقت الفعلي ليتم معالجتها وإعادتها إلى الحراس من أجل التعلم المستمر وتحسين وضع السلامة والأمان للذكاء الاصطناعي.
AI Governance المتطلبات الفنية
الغرض الأساسي من AI governance تهدف التقنيات إلى توفير رؤية موحدة للذكاء الاصطناعي عبر المؤسسة لتسهيل إدارة الثقة والمخاطر والأمن. AI governance يجب أن ترسم التقنيات العلاقات بين جميع نماذج الذكاء الاصطناعي، والوكلاء، وبيانات التطبيقات، والسياسات ذات الصلة، وذلك لتيسير تحقيق أهداف المؤسسة في مجال إدارة المخاطر والامتثال للوائح. ويُعدّ التحديد السريع لنقاط الضعف أو انتهاكات السياسات، ومعالجتها فورًا، الوسيلة التي تُدير بها المؤسسات إدارة المخاطر والامتثال للوائح بشكل استباقي.
هنا، يبرز التحدي المألوف المتعلق بالحجم بطريقة جديدة. فتنوع الأدوات ومجموعات البيانات والنماذج في بيئة مجزأة يجعل الحوكمة أمرًا صعبًا. ويُثبت أن إنشاء وتتبع مصدر البيانات، مع توثيق الغرض بوضوح لكل جزء من البيانات في بيئات معقدة، أمرٌ بالغ الصعوبة دون الأدوات المناسبة. كما أن إدارة إصدارات النماذج مع توثيق نقاط ضعفها وتحيزاتها، وما إلى ذلك، يُضيف طبقة أخرى من التعقيد. وتُظهر دراسة ماكينزي أن المؤسسات تُسرع في نشر النماذج في مجالات متعددة.