الإعلان عن Agent Commander - أول حل متكامل من Veeam + Securiti .ai تمكين توسيع نطاق وكلاء الذكاء الاصطناعي الآمنين

منظر

خمس خطوات لـ AI Governance من الذكاء الاصطناعي الخفي إلى الرقابة الاستراتيجية

مؤلف

أنكور غوبتا

مدير حوكمة البيانات ومنتجات الذكاء الاصطناعي في Securiti

هذا المنشور متاح أيضاً باللغات التالية: English

أدى الانتشار الواسع للذكاء الاصطناعي من الجيل الأول إلى ظهور عدد من المخاوف المتعلقة بالخصوصية والأمن في المشهد العالمي للبيانات - وقد بدأ بالفعل إجراءات تنظيمية في جميع أنحاء العالم، كان آخرها إقرار قانون الذكاء الاصطناعي للاتحاد الأوروبي في 13 مارس 2024.

يُعدّ الذكاء الاصطناعي الخفيّ أحد أهمّ عوامل الخطر هذه، وهو من أكبر التحديات التي تواجه المؤسسات التي تُدرج نشر ودمج الذكاء الاصطناعي ضمن خططها لعام 2024. قد تكون لدى هذه المؤسسات كلّ النوايا لدمج نماذج الذكاء الاصطناعي في أنظمة بياناتها بطريقة آمنة ومتوافقة وشفافة وجديرة بالثقة، ولكنّ الذكاء الاصطناعي الخفيّ قد يُفسد أفضل النوايا، مُشكّلاً تهديداً للأمن والأخلاقيات والامتثال.

ما هو الذكاء الاصطناعي الخفي؟

يشير مصطلح الذكاء الاصطناعي الخفي إلى أنظمة الذكاء الاصطناعي التي يتم تطويرها ونشرها وتخزينها، بل ومشاركتها، دون وجود ضوابط أو سياسات أمنية. ويشكل انتشار الذكاء الاصطناعي الخفي تهديدًا متزايدًا، إذ أن غياب الشفافية في أنظمة الذكاء الاصطناعي يجعلها أكثر عرضة للوصول غير المصرح به، وقد يؤدي إلى مفاجآت غير سارة.

كيف يُشكّل الذكاء الاصطناعي الخفي تحدياً لتبني الذكاء الاصطناعي الآمن؟

نقاط الضعف: غالبًا ما تجهل المؤسسات نماذج الذكاء الاصطناعي النشطة حاليًا في جميع أقسامها، والنماذج المرخصة منها وغير المرخصة، والنماذج مفتوحة المصدر مقابل تلك المطورة من قبل مزودين تجاريين. قد تشمل الأنظمة غير الرسمية نماذج ذكاء اصطناعي ينشرها المطورون مباشرةً في بيئات إنتاجية وغير إنتاجية مختلفة، أو أنظمة مشتركة من قبل البائعين كجزء من بيئة البرمجيات كخدمة (SaaS).

مستوى المخاطر غير المعروف: حتى لو كانت المؤسسات مطلعة على أنظمة الذكاء الاصطناعي الخاصة بها، فقد لا يكون لديها صورة دقيقة - أو أي فكرة على الإطلاق - عن تصنيفات المخاطر لأنظمتها النشطة. تحتاج المؤسسات إلى فهم معايير المخاطر المختلفة المحيطة بكل نموذج من نماذج الذكاء الاصطناعي لديها لمعرفة أيها يجب معاقبته وأيها يجب حظره. قد يؤدي نقص الوعي بمخاطر النماذج إلى مشكلات مثل الاستخدام الضار، والتأثيرات السلبية، والاستجابات الهلوسية، والتحيز، والتمييز.

ضوابط أمنية غير كافية: تُعدّ نماذج اللغة الكبيرة (LLM)، كتلك التي تُشغّل نماذج الذكاء الاصطناعي العام (GenAI)، أنظمة بيانات ضخمة تحتوي على كميات هائلة من المعلومات المضغوطة، وتُنتج مخرجات مُدرّبة على بيانات قيّمة. وبدون ضوابط أمنية، تُصبح هذه البيانات عُرضة للتلاعب والتسريب والهجمات الخبيثة. لذا، يجب على المؤسسات تطبيق ضوابط أمنية مناسبة داخل هذه النماذج أو حولها لحمايتها من الاستخدام غير المصرح به.

يُشكل غياب الشفافية في بيانات المؤسسة المُستخدمة في أنظمة الذكاء الاصطناعي تحديًا كبيرًا، إذ تحتاج المؤسسات إلى فهم البيانات المؤسسية التي تُستخدم في نماذج الذكاء الاصطناعي الخاصة بها. وقد يُثير عدم وضوح طبيعة البيانات المُستخدمة وكيفية استخدامها في التدريب أو الضبط أو الاستدلال مخاوف بشأن صلاحيات الوصول واحتمالية تسريب البيانات الحساسة.

حماية البيانات المُولَّدة بواسطة أنظمة الذكاء الاصطناعي: كما يوحي اسمها، فإنّ الذكاء الاصطناعي العام (GenAI) موجود لتوليد البيانات، وهذه البيانات تحتاج إلى حماية من التهديدات الداخلية والخارجية. تحتاج فرق الأمن إلى رؤية كاملة للبيانات التي يُولِّدها كل نظام ذكاء اصطناعي. تُعدّ مساعدات الذكاء الاصطناعي، والمُوجِّهات، والوكلاء، على الرغم من كونها قنوات للاستفسارات المشروعة، أكبر منافذ الهجمات والاستخدامات الخبيثة. فالمُوجِّهات، والوكلاء، والمساعدون غير المحميين يفتحون الباب أمام تفاعلات ضارة، مما يُهدِّد سلامة المستخدمين والمبادئ الأخلاقية.

تتطور لوائح الذكاء الاصطناعي العالمية باستمرار : فبالإضافة إلى قانون الاتحاد الأوروبي للذكاء الاصطناعي وإطار إدارة مخاطر الذكاء الاصطناعي الصادر عن المعهد الوطني للمعايير والتكنولوجيا (NIST) ، تقوم دول مثل الصين والمملكة المتحدة واليابان وإيطاليا وإسرائيل وكندا والبرازيل إما باقتراح تشريعات خاصة بالذكاء الاصطناعي أو سنّها. وفي أكتوبر الماضي، أصدرت إدارة بايدن الأمريكية أمرًا تنفيذيًا هو الأول من نوعه يتناول انتشار تطوير الذكاء الاصطناعي، ويدعو إلى استخدامه "بشكل آمن وموثوق". ومن المتوقع أن يتسع نطاق البيئة التنظيمية المحيطة بالذكاء الاصطناعي وتزداد تعقيدًا، لذا فإن البدء بممارسات آمنة ومتوافقة مع اللوائح أمر أساسي للمؤسسات التي ترغب في تجنب الانتهاكات مستقبلًا.

خمس خطوات للإشراف الاستراتيجي على الذكاء الاصطناعي - كيفية السيطرة على بيئة الذكاء الاصطناعي الخاصة بك

1. اكتشف وفهرس نماذج الذكاء الاصطناعي المستخدمة عبر السحابات العامة وتطبيقات SaaS والبيئات الخاصة - بما في ذلك جميع تطبيقات الذكاء الاصطناعي غير المستخدمة في مؤسستك. اكشف بيانات الذكاء الاصطناعي المختبئة في المناطق العمياء، وأضئ كل زاوية من زوايا بيئة الذكاء الاصطناعي لديك.

  1. حدد جميع نماذج الذكاء الاصطناعي النشطة عبر السحابات العامة الخاصة بك، والتي تغطي بيئات الإنتاج وغير الإنتاج.
  2. قم بتسليط الضوء على أنظمة البيانات المرتبطة بنماذج الذكاء الاصطناعي المختلفة، وعلى موارد الحوسبة التي تعمل على كل منها، وبالتالي ربطها بالتطبيقات.
  3. بالإضافة إلى ذلك، قم بتسهيل جمع التفاصيل الشاملة حول نماذج الذكاء الاصطناعي الخاصة بك، سواء كانت تعمل ضمن تطبيقات SaaS الخاصة بك أو المشاريع الداخلية.

2. تقييم المخاطر وتصنيف نماذج الذكاء الاصطناعي: هذه القدرة مطلوبة لمواءمة أنظمة ونماذج الذكاء الاصطناعي مع فئات المخاطر المحددة في قانون الذكاء الاصطناعي للاتحاد الأوروبي - والتصنيفات الأخرى التي تفرضها الهيئات التنظيمية العالمية.

  1. قدّم تقييمات للمخاطر لنماذج الذكاء الاصطناعي من خلال بطاقات النماذج. توفر هذه التقييمات تفاصيل شاملة، تغطي جوانب مثل السمية، والخبث، والتحيز، واعتبارات حقوق النشر، ومخاطر الهلوسة، وحتى كفاءة النموذج من حيث استهلاك الطاقة ووقت تشغيل الاستدلال.
  2. بناءً على هذه التصنيفات، يمكنك تحديد النماذج التي يجب معاقبتها وتلك التي يجب حظرها.

3. رسم خرائط ورصد تدفقات البيانات والذكاء الاصطناعي: من المهم ليس فقط معرفة نماذج الذكاء الاصطناعي النشطة داخل مؤسستك ولكن أيضًا فهم كيفية ارتباط هذه النماذج ببيانات المؤسسة والمعلومات الحساسة ومعالجة البيانات والتطبيقات والموردين والمخاطر وما إلى ذلك.

  1. قم بإنشاء خريطة بيانات وذكاء اصطناعي لجميع أنظمة الذكاء الاصطناعي في بيئتك. ستُمكّن هذه الخريطة الشاملة فرق الخصوصية والامتثال والأمن والبيانات من تحديد التبعيات، وتحديد المخاطر المحتملة، وضمان أن تكون AI governance استباقية وليست رد فعلية.

4. تطبيق ضوابط البيانات والذكاء الاصطناعي لضمان الخصوصية والأمان والامتثال - للمدخلات والمخرجات: إذا تسربت بيانات حساسة إلى نماذج إدارة دورة حياة البيانات، يصبح تأمينها في غاية الصعوبة. وبالمثل، إذا تم تحويل بيانات المؤسسة إلى صيغ متجهة، يصبح تأمينها أكثر تعقيدًا.

  1. فيما يخص مدخلات البيانات، تأكد من فحص جميع بيانات المؤسسة المتدفقة إلى نماذج الذكاء الاصطناعي، سواءً كانت منظمة أو غير منظمة، وتصنيفها وتنقيحها. يشمل ذلك إخفاء البيانات، وتنقيحها، وإخفاء هوية أصحابها، أو ترميزها، بما يتوافق مع سياسات المؤسسة. من خلال تحديد قواعد تصنيف هذه البيانات وتنقيحها بشكل مباشر، يتم إنشاء مسارات آمنة للذكاء الاصطناعي. تبدأ العملية بضمان إدخال البيانات بشكل آمن إلى نماذج الذكاء الاصطناعي، بما يتماشى مع سياسات بيانات المؤسسة وصلاحيات المستخدمين.
  2. فيما يتعلق بتوليد البيانات وإخراجها، تحمي جدران الحماية الخاصة بأنظمة إدارة التعلم من الاستخدام الضار والهجمات التي تستهدف المطالبات والمساعدين والاتفاقيات. وتستطيع هذه الجدران الدفاع ضد مختلف الثغرات الأمنية المذكورة في قائمة "أهم 10 مخاطر أمنية لتطبيقات الويب لأنظمة إدارة التعلم" الصادرة عن مشروع أمان تطبيقات الويب المفتوحة (OWASP)، وفي إطار إدارة مخاطر الذكاء الاصطناعي الصادر عن المعهد الوطني للمعايير والتكنولوجيا (NIST)، بما في ذلك هجمات حقن المطالبات وهجمات تسريب البيانات. ويمكن تطبيق ضوابط البيانات والذكاء الاصطناعي هذه في مراحل الاسترجاع أو المطالبة أو الاستجابة.

5. الامتثال للوائح: تحتاج المؤسسات إلى امتثال شامل، ويفضل أن يكون ذلك من خلال الأتمتة، فيما يتعلق بالذكاء الاصطناعي، ويشمل ذلك قائمة واسعة من اللوائح والأطر العالمية للذكاء الاصطناعي، بما في ذلك إطار إدارة مخاطر الذكاء الاصطناعي الصادر عن المعهد الوطني للمعايير والتكنولوجيا (NIST) وقانون الذكاء الاصطناعي للاتحاد الأوروبي . يتيح لك هذا تحديد مشاريع متعددة للذكاء الاصطناعي ضمن النظام والتحقق من الضوابط المطلوبة لكل مشروع.

تمكين التبني السريع والآمن للذكاء الاصطناعي في مؤسستك

من خلال الالتزام بهذه الخطوات الخمس، يمكنك تحقيق ما يلي: الشفافية الكاملة في أنظمة الذكاء الاصطناعي المصرح بها وغير المصرح بها، والرؤية الواضحة لمخاطر الذكاء الاصطناعي، ورسم خرائط شاملة للبيانات والذكاء الاصطناعي، وضوابط قوية للذكاء الاصطناعي الآلي والبيانات، والامتثال للوائح الذكاء الاصطناعي العالمية.

بفضل هذه الضوابط والرقابة الاستراتيجية على الذكاء الاصطناعي، يمكنك تمكين تبني الذكاء الاصطناعي بشكل آمن وسريع في جميع أنحاء مؤسستك، مما يدفع عجلة الابتكار ويستغل الفرص التجارية الهائلة التي يوفرها عالم الجيل الجديد من الذكاء الاصطناعي في المشهد التكنولوجي. اقرأ الورقة البيضاء لمعرفة المزيد عن الخطوات الخمس لضمان الأمان. AI governance ، ومخاطر الذكاء الاصطناعي الخفي، والقيمة التجارية التي تنتظر أولئك الذين يدمجون الذكاء الاصطناعي بطريقة آمنة وشفافة وجديرة بالثقة ومتوافقة مع القوانين.

يستكشف AI Governance مركز securiti

قم بتحليل هذه المقالة باستخدام الذكاء الاصطناعي

تظهر المطالبات في أدوات الذكاء الاصطناعي التابعة لجهات خارجية.
انضم إلى قائمتنا البريدية

احصل على أحدث المعلومات والتحديثات القانونية والمزيد مباشرةً في بريدك الإلكتروني


يشارك

قصص أخرى قد تهمك
مقاطع فيديو
عرض المزيد
ريحان جليل، من شركة Veeam، يتحدث عن Agent Commander: theCUBE + NYSE Wired: قادة الأمن السيبراني
بعد استحواذ شركة Veeam على Securiti يمثل إطلاق برنامج Agent Commander خطوة هامة نحو مساعدة المؤسسات على تبني وكلاء الذكاء الاصطناعي بثقة أكبر. في...
عرض المزيد
تخفيف مخاطر قائمة OWASP لأهم 10 مخاطر لتطبيقات ماجستير القانون 2025
أحدث الذكاء الاصطناعي التوليدي (GenAI) تحولاً جذرياً في طريقة عمل الشركات وتوسعها ونموها. يوجد تطبيق للذكاء الاصطناعي لكل غرض، بدءاً من زيادة إنتاجية الموظفين وصولاً إلى تبسيط العمليات...
عرض المزيد
أفضل 6 DSPM حالات الاستخدام
مع ظهور الذكاء الاصطناعي التوليدي (GenAI)، أصبحت البيانات أكثر ديناميكية. يتم توليد بيانات جديدة بوتيرة أسرع من أي وقت مضى، ونقلها إلى أنظمة وتطبيقات متنوعة...
عرض المزيد
قانون الخصوصية في كولورادو (CPA)
ما هو قانون خصوصية كولورادو؟ قانون خصوصية كولورادو هو قانون شامل لحماية الخصوصية، تم توقيعه في 7 يوليو 2021. وقد وضع معايير جديدة لحماية البيانات الشخصية...
عرض المزيد
Securiti لمساعد الطيار في البرمجيات كخدمة (SaaS)
تسريع اعتماد Copilot بأمان وثقة: تتطلع المؤسسات إلى اعتماد Microsoft 365 Copilot لزيادة الإنتاجية والكفاءة. ومع ذلك، تظل المخاوف الأمنية، مثل حماية البيانات...
عرض المزيد
أهم عشرة اعتبارات لاستخدام البيانات غير المهيكلة بأمان مع الذكاء الاصطناعي العام
نسبة مذهلة تصل إلى 90% من بيانات المؤسسات غير منظمة. وتُستخدم هذه البيانات بسرعة لتغذية تطبيقات الذكاء الاصطناعي من الجيل الجديد، مثل روبوتات الدردشة والبحث المدعوم بالذكاء الاصطناعي.
عرض المزيد
جينكور للذكاء الاصطناعي: بناء أنظمة ذكاء اصطناعي آمنة وعالية الجودة للمؤسسات في دقائق
مع تبني المؤسسات للذكاء الاصطناعي التوليدي، تواجه فرق البيانات والذكاء الاصطناعي العديد من العقبات: ربط مصادر البيانات غير المهيكلة والمهيكلة بشكل آمن، والحفاظ على الضوابط والحوكمة المناسبة،...
عرض المزيد
كيفية التعامل مع قانون حماية خصوصية المستهلك في كاليفورنيا: رؤى أساسية للشركات
ما هو قانون حقوق الخصوصية في كاليفورنيا (CPRA)؟ هو تشريع ولاية كاليفورنيا الذي يهدف إلى حماية خصوصية سكانها الرقمية. وقد دخل حيز التنفيذ في يناير...
عرض المزيد
التكيف مع التحول: الانتقال إلى معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS) الإصدار 4.0
ما هو معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS)؟ هو مجموعة من معايير الأمان لضمان المعالجة والتخزين الآمنين للبيانات، و...
عرض المزيد
تأمين البيانات والذكاء الاصطناعي: دليل إدارة الثقة والمخاطر والأمن (TRiSM)
أثارت المخاطر الأمنية المتزايدة للذكاء الاصطناعي قلق 48% من مسؤولي أمن المعلومات حول العالم. انضموا إلى هذه الجلسة الرئيسية للتعرف على دليل عملي لتمكين الثقة في الذكاء الاصطناعي، وإدارة المخاطر،...

جلسات حوارية مميزة

تسليط الضوء 50:52
من البيانات إلى النشر: حماية الذكاء الاصطناعي المؤسسي من خلال الأمن والحوكمة
شاهد الآن منظر
تسليط الضوء 11:29
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
شاهد الآن منظر
تسليط الضوء 11:18
إعادة هيكلة تمويل العقارات - كيف تُجري شركة ووكر آند دنلوب تحديثًا لمحفظتها الاستثمارية البالغة 135 مليار دولار أمريكي بالاعتماد على البيانات أولاً
شاهد الآن منظر
تسليط الضوء 13:38
تسريع المعجزات - كيف تُدمج شركة سانوفي الذكاء الاصطناعي لتقليص مدة تطوير الأدوية بشكل كبير
صورة مصغرة لشركة سانوفي
شاهد الآن منظر
تسليط الضوء 10:35
حدث تحول جوهري في مركز ثقل البيانات
شاهد الآن منظر
تسليط الضوء 14:21
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
شاهد الآن منظر
تسليط الضوء 12:!3
لا يمكنك بناء خطوط الأنابيب أو المستودعات أو منصات الذكاء الاصطناعي بدون معرفة تجارية
شاهد الآن منظر
تسليط الضوء 47:42
الأمن السيبراني – حيث يقوم القادة بالشراء والبناء والشراكة
ريحان جليل
شاهد الآن منظر
تسليط الضوء 27:29
بناء ذكاء اصطناعي آمن باستخدام Databricks و Gencore
ريحان جليل
شاهد الآن منظر
تسليط الضوء 46:02
بناء ذكاء اصطناعي آمن للمؤسسات: خارطة طريق عملية
شاهد الآن منظر
أحدث
Securiti أعلنت شركة أكسنتشر عن اختيارها شريك العام لعام 2025 في مجال أمن البيانات والذكاء الاصطناعي. عرض المزيد
Securiti أعلنت شركة .ai عن اختيار شركة أكسنتشر كشريك العام لعام 2025
في إطار الاحتفال المستمر بالتعاون المؤثر في DataAI Security ، Securiti منحت شركة .ai، التابعة لشركة Veeam، شركة Accenture لقب شريك العام لعام 2025....
عرض المزيد
نقدم لكم قائد العملاء
إن وعود وكلاء الذكاء الاصطناعي مذهلة - فالأنظمة الذكية التي تتخذ القرارات، وتستخدم الأدوات، وتؤتمت سير العمل المعقد، تعمل كمضاعفات قوة لكل معرفة...
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ قانون حماية خصوصية المستهلك في كاليفورنيا؟ عرض المزيد
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ القانون؟
يمكن للشركات أن تستفيد من بعض الدروس الحيوية من أكبر إجراء إنفاذي تم اتخاذه مؤخراً في تاريخ قانون خصوصية المستهلك في كاليفورنيا (CCPA). Securiti مدونة 's تغطي جميع التفاصيل المهمة التي يجب معرفتها.
عرض المزيد
الذكاء الاصطناعي وقانون HIPAA: ما يعنيه وكيفية أتمتة الامتثال
تعرّف على كيفية تطبيق قانون قابلية نقل التأمين الصحي والمساءلة (HIPAA) على الذكاء الاصطناعي في تأمين المعلومات الصحية المحمية. تعلّم كيف...
تنسيق الموافقة من أجل الذكاء الاصطناعي الآمن عرض المزيد
تنسيق الموافقة من أجل الذكاء الاصطناعي الآمن
اطلع على الورقة البيضاء وتعرف على كيفية تفعيل الموافقة عبر البيانات والذكاء الاصطناعي العام من خلال إطار عمل عملي وضوابط قابلة للتنفيذ وخارطة طريق للتنفيذ لمدة 30/60/90 يومًا.
عرض المزيد
قائمة التحقق من جاهزية الامتثال لقوانين الخصوصية لعام 2026
اطلع على الورقة البيضاء للحصول على دليل عملي لتعزيز جاهزية الخصوصية، والذي يتضمن رؤى رئيسية، وقائمة التحقق من الامتثال للخصوصية لعام 2026، وكيفية تطبيق ذلك عمليًا...
DataAI Security للبيع بالتجزئة عرض المزيد
DataAI Security للبيع بالتجزئة
قم بتنزيل الموجز واستكشف كيف يمكن لتجار التجزئة توسيع نطاق استخدام البيانات والذكاء الاصطناعي بشكل آمن باستخدام Securiti مركز قيادة DataAI وحماية البيانات الحساسة وإدارة المخاطر...
الاتجاهات الناشئة في مجال أمن الذكاء الاصطناعي لعام 2026 عرض المزيد
الاتجاهات الناشئة في مجال أمن الذكاء الاصطناعي لعام 2026
Securiti يقدم أحدث رسم بياني من الشركة لقادة الأمن شرحًا تفصيليًا لجميع اتجاهات أمن الذكاء الاصطناعي الناشئة لعام 2026 لمساعدتهم على التقييم والتخطيط...
عرض المزيد
تخلص من مخاطر البيانات في الذكاء الاصطناعي
تعرف على كيفية إعداد بيانات المؤسسة لاعتماد Gemini Enterprise بشكل آمن من خلال الحوكمة الأولية، واكتشاف البيانات الحساسة، وضوابط سياسة ما قبل الفهرسة.
عرض المزيد
دليل الحصول على شهادة HITRUST
Securiti يُعد الكتاب الإلكتروني دليلاً عملياً للحصول على شهادة HITRUST، ويغطي كل شيء بدءاً من اختيار i1 مقابل r2 ونطاق الأنظمة وصولاً إلى إدارة خطط العمل والتخطيط...
ما هو
جديد