أدى الانتشار الواسع للذكاء الاصطناعي من الجيل الأول إلى ظهور عدد من المخاوف المتعلقة بالخصوصية والأمن في المشهد العالمي للبيانات - وقد بدأ بالفعل إجراءات تنظيمية في جميع أنحاء العالم، كان آخرها إقرار قانون الذكاء الاصطناعي للاتحاد الأوروبي في 13 مارس 2024.
يُعدّ الذكاء الاصطناعي الخفيّ أحد أهمّ عوامل الخطر هذه، وهو من أكبر التحديات التي تواجه المؤسسات التي تُدرج نشر ودمج الذكاء الاصطناعي ضمن خططها لعام 2024. قد تكون لدى هذه المؤسسات كلّ النوايا لدمج نماذج الذكاء الاصطناعي في أنظمة بياناتها بطريقة آمنة ومتوافقة وشفافة وجديرة بالثقة، ولكنّ الذكاء الاصطناعي الخفيّ قد يُفسد أفضل النوايا، مُشكّلاً تهديداً للأمن والأخلاقيات والامتثال.
ما هو الذكاء الاصطناعي الخفي؟
يشير مصطلح الذكاء الاصطناعي الخفي إلى أنظمة الذكاء الاصطناعي التي يتم تطويرها ونشرها وتخزينها، بل ومشاركتها، دون وجود ضوابط أو سياسات أمنية. ويشكل انتشار الذكاء الاصطناعي الخفي تهديدًا متزايدًا، إذ أن غياب الشفافية في أنظمة الذكاء الاصطناعي يجعلها أكثر عرضة للوصول غير المصرح به، وقد يؤدي إلى مفاجآت غير سارة.
كيف يُشكّل الذكاء الاصطناعي الخفي تحدياً لتبني الذكاء الاصطناعي الآمن؟
نقاط الضعف: غالبًا ما تجهل المؤسسات نماذج الذكاء الاصطناعي النشطة حاليًا في جميع أقسامها، والنماذج المرخصة منها وغير المرخصة، والنماذج مفتوحة المصدر مقابل تلك المطورة من قبل مزودين تجاريين. قد تشمل الأنظمة غير الرسمية نماذج ذكاء اصطناعي ينشرها المطورون مباشرةً في بيئات إنتاجية وغير إنتاجية مختلفة، أو أنظمة مشتركة من قبل البائعين كجزء من بيئة البرمجيات كخدمة (SaaS).
مستوى المخاطر غير المعروف: حتى لو كانت المؤسسات مطلعة على أنظمة الذكاء الاصطناعي الخاصة بها، فقد لا يكون لديها صورة دقيقة - أو أي فكرة على الإطلاق - عن تصنيفات المخاطر لأنظمتها النشطة. تحتاج المؤسسات إلى فهم معايير المخاطر المختلفة المحيطة بكل نموذج من نماذج الذكاء الاصطناعي لديها لمعرفة أيها يجب معاقبته وأيها يجب حظره. قد يؤدي نقص الوعي بمخاطر النماذج إلى مشكلات مثل الاستخدام الضار، والتأثيرات السلبية، والاستجابات الهلوسية، والتحيز، والتمييز.
ضوابط أمنية غير كافية: تُعدّ نماذج اللغة الكبيرة (LLM)، كتلك التي تُشغّل نماذج الذكاء الاصطناعي العام (GenAI)، أنظمة بيانات ضخمة تحتوي على كميات هائلة من المعلومات المضغوطة، وتُنتج مخرجات مُدرّبة على بيانات قيّمة. وبدون ضوابط أمنية، تُصبح هذه البيانات عُرضة للتلاعب والتسريب والهجمات الخبيثة. لذا، يجب على المؤسسات تطبيق ضوابط أمنية مناسبة داخل هذه النماذج أو حولها لحمايتها من الاستخدام غير المصرح به.
يُشكل غياب الشفافية في بيانات المؤسسة المُستخدمة في أنظمة الذكاء الاصطناعي تحديًا كبيرًا، إذ تحتاج المؤسسات إلى فهم البيانات المؤسسية التي تُستخدم في نماذج الذكاء الاصطناعي الخاصة بها. وقد يُثير عدم وضوح طبيعة البيانات المُستخدمة وكيفية استخدامها في التدريب أو الضبط أو الاستدلال مخاوف بشأن صلاحيات الوصول واحتمالية تسريب البيانات الحساسة.
حماية البيانات المُولَّدة بواسطة أنظمة الذكاء الاصطناعي: كما يوحي اسمها، فإنّ الذكاء الاصطناعي العام (GenAI) موجود لتوليد البيانات، وهذه البيانات تحتاج إلى حماية من التهديدات الداخلية والخارجية. تحتاج فرق الأمن إلى رؤية كاملة للبيانات التي يُولِّدها كل نظام ذكاء اصطناعي. تُعدّ مساعدات الذكاء الاصطناعي، والمُوجِّهات، والوكلاء، على الرغم من كونها قنوات للاستفسارات المشروعة، أكبر منافذ الهجمات والاستخدامات الخبيثة. فالمُوجِّهات، والوكلاء، والمساعدون غير المحميين يفتحون الباب أمام تفاعلات ضارة، مما يُهدِّد سلامة المستخدمين والمبادئ الأخلاقية.
تتطور لوائح الذكاء الاصطناعي العالمية باستمرار : فبالإضافة إلى قانون الاتحاد الأوروبي للذكاء الاصطناعي وإطار إدارة مخاطر الذكاء الاصطناعي الصادر عن المعهد الوطني للمعايير والتكنولوجيا (NIST) ، تقوم دول مثل الصين والمملكة المتحدة واليابان وإيطاليا وإسرائيل وكندا والبرازيل إما باقتراح تشريعات خاصة بالذكاء الاصطناعي أو سنّها. وفي أكتوبر الماضي، أصدرت إدارة بايدن الأمريكية أمرًا تنفيذيًا هو الأول من نوعه يتناول انتشار تطوير الذكاء الاصطناعي، ويدعو إلى استخدامه "بشكل آمن وموثوق". ومن المتوقع أن يتسع نطاق البيئة التنظيمية المحيطة بالذكاء الاصطناعي وتزداد تعقيدًا، لذا فإن البدء بممارسات آمنة ومتوافقة مع اللوائح أمر أساسي للمؤسسات التي ترغب في تجنب الانتهاكات مستقبلًا.
خمس خطوات للإشراف الاستراتيجي على الذكاء الاصطناعي - كيفية السيطرة على بيئة الذكاء الاصطناعي الخاصة بك
1. اكتشف وفهرس نماذج الذكاء الاصطناعي المستخدمة عبر السحابات العامة وتطبيقات SaaS والبيئات الخاصة - بما في ذلك جميع تطبيقات الذكاء الاصطناعي غير المستخدمة في مؤسستك. اكشف بيانات الذكاء الاصطناعي المختبئة في المناطق العمياء، وأضئ كل زاوية من زوايا بيئة الذكاء الاصطناعي لديك.
- حدد جميع نماذج الذكاء الاصطناعي النشطة عبر السحابات العامة الخاصة بك، والتي تغطي بيئات الإنتاج وغير الإنتاج.
- قم بتسليط الضوء على أنظمة البيانات المرتبطة بنماذج الذكاء الاصطناعي المختلفة، وعلى موارد الحوسبة التي تعمل على كل منها، وبالتالي ربطها بالتطبيقات.
- بالإضافة إلى ذلك، قم بتسهيل جمع التفاصيل الشاملة حول نماذج الذكاء الاصطناعي الخاصة بك، سواء كانت تعمل ضمن تطبيقات SaaS الخاصة بك أو المشاريع الداخلية.
2. تقييم المخاطر وتصنيف نماذج الذكاء الاصطناعي: هذه القدرة مطلوبة لمواءمة أنظمة ونماذج الذكاء الاصطناعي مع فئات المخاطر المحددة في قانون الذكاء الاصطناعي للاتحاد الأوروبي - والتصنيفات الأخرى التي تفرضها الهيئات التنظيمية العالمية.
- قدّم تقييمات للمخاطر لنماذج الذكاء الاصطناعي من خلال بطاقات النماذج. توفر هذه التقييمات تفاصيل شاملة، تغطي جوانب مثل السمية، والخبث، والتحيز، واعتبارات حقوق النشر، ومخاطر الهلوسة، وحتى كفاءة النموذج من حيث استهلاك الطاقة ووقت تشغيل الاستدلال.
- بناءً على هذه التصنيفات، يمكنك تحديد النماذج التي يجب معاقبتها وتلك التي يجب حظرها.
3. رسم خرائط ورصد تدفقات البيانات والذكاء الاصطناعي: من المهم ليس فقط معرفة نماذج الذكاء الاصطناعي النشطة داخل مؤسستك ولكن أيضًا فهم كيفية ارتباط هذه النماذج ببيانات المؤسسة والمعلومات الحساسة ومعالجة البيانات والتطبيقات والموردين والمخاطر وما إلى ذلك.
- قم بإنشاء خريطة بيانات وذكاء اصطناعي لجميع أنظمة الذكاء الاصطناعي في بيئتك. ستُمكّن هذه الخريطة الشاملة فرق الخصوصية والامتثال والأمن والبيانات من تحديد التبعيات، وتحديد المخاطر المحتملة، وضمان أن تكون AI governance استباقية وليست رد فعلية.
4. تطبيق ضوابط البيانات والذكاء الاصطناعي لضمان الخصوصية والأمان والامتثال - للمدخلات والمخرجات: إذا تسربت بيانات حساسة إلى نماذج إدارة دورة حياة البيانات، يصبح تأمينها في غاية الصعوبة. وبالمثل، إذا تم تحويل بيانات المؤسسة إلى صيغ متجهة، يصبح تأمينها أكثر تعقيدًا.
- فيما يخص مدخلات البيانات، تأكد من فحص جميع بيانات المؤسسة المتدفقة إلى نماذج الذكاء الاصطناعي، سواءً كانت منظمة أو غير منظمة، وتصنيفها وتنقيحها. يشمل ذلك إخفاء البيانات، وتنقيحها، وإخفاء هوية أصحابها، أو ترميزها، بما يتوافق مع سياسات المؤسسة. من خلال تحديد قواعد تصنيف هذه البيانات وتنقيحها بشكل مباشر، يتم إنشاء مسارات آمنة للذكاء الاصطناعي. تبدأ العملية بضمان إدخال البيانات بشكل آمن إلى نماذج الذكاء الاصطناعي، بما يتماشى مع سياسات بيانات المؤسسة وصلاحيات المستخدمين.
- فيما يتعلق بتوليد البيانات وإخراجها، تحمي جدران الحماية الخاصة بأنظمة إدارة التعلم من الاستخدام الضار والهجمات التي تستهدف المطالبات والمساعدين والاتفاقيات. وتستطيع هذه الجدران الدفاع ضد مختلف الثغرات الأمنية المذكورة في قائمة "أهم 10 مخاطر أمنية لتطبيقات الويب لأنظمة إدارة التعلم" الصادرة عن مشروع أمان تطبيقات الويب المفتوحة (OWASP)، وفي إطار إدارة مخاطر الذكاء الاصطناعي الصادر عن المعهد الوطني للمعايير والتكنولوجيا (NIST)، بما في ذلك هجمات حقن المطالبات وهجمات تسريب البيانات. ويمكن تطبيق ضوابط البيانات والذكاء الاصطناعي هذه في مراحل الاسترجاع أو المطالبة أو الاستجابة.
5. الامتثال للوائح: تحتاج المؤسسات إلى امتثال شامل، ويفضل أن يكون ذلك من خلال الأتمتة، فيما يتعلق بالذكاء الاصطناعي، ويشمل ذلك قائمة واسعة من اللوائح والأطر العالمية للذكاء الاصطناعي، بما في ذلك إطار إدارة مخاطر الذكاء الاصطناعي الصادر عن المعهد الوطني للمعايير والتكنولوجيا (NIST) وقانون الذكاء الاصطناعي للاتحاد الأوروبي . يتيح لك هذا تحديد مشاريع متعددة للذكاء الاصطناعي ضمن النظام والتحقق من الضوابط المطلوبة لكل مشروع.
تمكين التبني السريع والآمن للذكاء الاصطناعي في مؤسستك
من خلال الالتزام بهذه الخطوات الخمس، يمكنك تحقيق ما يلي: الشفافية الكاملة في أنظمة الذكاء الاصطناعي المصرح بها وغير المصرح بها، والرؤية الواضحة لمخاطر الذكاء الاصطناعي، ورسم خرائط شاملة للبيانات والذكاء الاصطناعي، وضوابط قوية للذكاء الاصطناعي الآلي والبيانات، والامتثال للوائح الذكاء الاصطناعي العالمية.
بفضل هذه الضوابط والرقابة الاستراتيجية على الذكاء الاصطناعي، يمكنك تمكين تبني الذكاء الاصطناعي بشكل آمن وسريع في جميع أنحاء مؤسستك، مما يدفع عجلة الابتكار ويستغل الفرص التجارية الهائلة التي يوفرها عالم الجيل الجديد من الذكاء الاصطناعي في المشهد التكنولوجي. اقرأ الورقة البيضاء لمعرفة المزيد عن الخطوات الخمس لضمان الأمان. AI governance ، ومخاطر الذكاء الاصطناعي الخفي، والقيمة التجارية التي تنتظر أولئك الذين يدمجون الذكاء الاصطناعي بطريقة آمنة وشفافة وجديرة بالثقة ومتوافقة مع القوانين.
يستكشف AI Governance مركز securiti