1. سلامة نموذج الذكاء الاصطناعي
يعكس هذا الإجراءات والسياسات الموضوعة لضمان عمل نماذج الذكاء الاصطناعي بشكل موثوق وأخلاقي ودون التسبب في أي ضرر متعمد. ويشمل ذلك معالجة مخاوف مثل التحيز، والمتانة، والشفافية، والمساءلة للتخفيف من مخاطر تطبيق أنظمة الذكاء الاصطناعي في مختلف التطبيقات.
تشمل سلامة نموذج الذكاء الاصطناعي قدرة نموذج الذكاء الاصطناعي التوليدي على التصرف بشكل أخلاقي ومسؤول، والامتثال للتعليمات (التي قد تعكس حتى المتطلبات القانونية)، ومقاومة التحيز. النموذج الذي لا يفي بهذه المعايير قد يكون غير مناسب للاستخدام بغض النظر عن إجراءات الحماية الأخرى المطبقة عليه.
مع انتشار نماذج الذكاء الاصطناعي في مختلف أنحاء العالم، يُعدّ فهم مصادر البيانات والمدخلات المستخدمة في هذه النماذج وتصنيفها أمرًا بالغ الأهمية لتحديد الثغرات الأمنية المحتملة والتحيزات والمخاطر الأمنية. إضافةً إلى ذلك، فإن أي تطبيق جديد ذي خوارزميات أمنية ضعيفة يُعرّض المؤسسة لمخاطر أمنية متعددة. ونظرًا لتعقيد خوارزميات الذكاء الاصطناعي التوليدي، يصبح من الصعب على فرق الأمن الداخلية تحديد المخاطر الأمنية والتحقق من سلامة استخدام الأداة.
إن التفاعل المعقد بين قدرات النماذج والمواقع الجغرافية والبيانات والحقوق يجعل سلامة الذكاء الاصطناعي أمراً صعباً، ولكن يمكن اختزال هذا التحدي إلى مجالات التركيز التالية:
- اكتشاف نماذج الذكاء الاصطناعي – الاحتفاظ بقائمة جرد لجميع نماذج الذكاء الاصطناعي.
- تقييم مخاطر نماذج الذكاء الاصطناعي - تقييم المخاطر المرتبطة باستخدام نماذج الذكاء الاصطناعي، بما في ذلك الالتزام بالتعليمات، والهلوسة، والتحيز، والإنصاف.
- أمن نماذج الذكاء الاصطناعي - إنشاء حماية أمنية لأنظمة الذكاء الاصطناعي لمنع التلاعب بالنماذج (مثل تسميم النماذج) وتسريب النماذج.
- استحقاقات نماذج الذكاء الاصطناعي - إجراء تقييم شامل لجميع امتيازات الوصول إلى النماذج.
2. استخدام بيانات المؤسسة مع الذكاء الاصطناعي التوليدي
تتمثل إحدى أهم مزايا الذكاء الاصطناعي التوليدي في المؤسسات في قدرته على التعامل مع بيانات المؤسسة. يمكن تدريب النماذج مباشرةً على بيانات المؤسسة أو تعزيزها ببيانات خارجية أو من جهات خارجية (انظر: التوليد المُعزز بالاسترجاع) للإجابة عن الاستفسارات المتعلقة بها. في كلتا الحالتين، من الضروري فهم البيانات المتاحة لنموذج الذكاء الاصطناعي التوليدي فهمًا شاملًا، لضمان تطبيق ضوابط البيانات المناسبة. يحمي هذا أي بيانات حساسة تدعم نظام الذكاء الاصطناعي التوليدي، ويضمن الامتثال للوائح التنظيمية.
لا يقتصر ازدياد الحاجة إلى ضوابط البيانات في عصر الذكاء الاصطناعي التوليدي على نماذج المؤسسات فحسب، بل إن قدرة الذكاء الاصطناعي التوليدي على محاكاة التواصل البشري بأي أسلوب تقريبًا تثير مخاوف جدية بشأن هجمات الهندسة الاجتماعية الآلية. فاستغلال نقاط ضعف المستخدمين الحالية أمام هذه الهجمات قد يؤدي إلى الكشف عن بيانات حساسة أو دفعهم إلى سلوكيات تُعرّض أمن البيانات للخطر.
يشمل الاستخدام المسؤول لبيانات المؤسسة في مجال الذكاء الاصطناعي التوليدي ما يلي:
- جرد البيانات - تدقيق جرد لجميع البيانات المخزنة والمستخدمة والمدارة حاليًا.
- تصنيف البيانات - تقييم وفهرسة جميع أنواع البيانات، بما في ذلك البيانات الحساسة وبيانات الأطراف الثالثة.
- الوصول إلى البيانات والصلاحيات - اكتساب رؤى حول الموظفين والتطبيقات والنماذج التي تتمتع بإمكانية الوصول إلى البيانات.
- الموافقة على البيانات والاحتفاظ بها والإقامة - الحصول على رؤى حول جميع البيانات الوصفية المتعلقة بالموافقة والاحتفاظ بالبيانات والتزامات الإقامة.
- تدقيق استخدام البيانات - الاحتفاظ بسجل تدقيق للبيانات التي يتم تغذيتها حاليًا إلى نماذج الذكاء الاصطناعي.
3. السلامة الفورية
يُطلق على المدخلات في نموذج الذكاء الاصطناعي التوليدي اسم "المُوجِّه". ويمكن تقسيم المُوجِّهات إلى نوعين: (أ) مُوجِّهات أو تعليمات النظام، و(ب) مُوجِّهات أو استفسارات المستخدم. غالبًا ما يتضمن نظام الذكاء الاصطناعي التوليدي مُوجِّه النظام إلى جانب مُوجِّه المستخدم لتشكيل سلوك النموذج. وكلاهما يُعدّان أيضًا من نقاط الضعف التي يُمكن استغلالها في هجمات نماذج الذكاء الاصطناعي التوليدي.
ينبغي أن تكون توجيهات النظام مُهيكلة بأوامر دقيقة وواضحة وموضوعية لتوجيه النماذج نحو السلوك المقبول. على سبيل المثال، قد تُحدد توجيهات النظام الحدود الأخلاقية وتُقدم أمثلة إيجابية وسلبية للاستجابات. كما قد تُساعد توجيهات النظام النموذج على رفض توجيهات المستخدم التي قد تكون خطيرة.
لكن حتى أفضل أنظمة التنبيه لا تستطيع الحماية من جميع تنبيهات المستخدمين الخبيثة. لذا، يجب على أنظمة الذكاء الاصطناعي التوليدي فحص تنبيهات المستخدمين بشكل مستقل عن نموذج الذكاء الاصطناعي التوليدي لتحديد المخاطر الأمنية بسرعة وفي الوقت الفعلي، مثل البحث عن هجمات حقن التنبيهات، وطلبات المعلومات الحساسة، والطلبات غير المعتادة.
يتطلب ضمان السلامة الفورية إجراء مسح ضوئي لما يلي:
- حقن الرسائل وكسر الحماية : تحليل الرسائل بحثًا عن محاولات لاكتشاف أو تجاوز تعليمات النظام من أجل جعل النموذج يتصرف بشكل ضار.
- التصيد الاحتيالي للبيانات الحساسة : تحليل الرسائل النصية لمحاولات الوصول إلى المعلومات الحساسة.
- اختطاف النموذج / التصيد المعرفي : تحليل المطالبات لمحاولات استخدام النموذج لأغراض غير مقصودة، مثل استخراج المعلومات، وهو ما قد يكون مكلفًا.
- حجب الخدمة : منع السلوك الذي قد يؤدي إلى تعطيل النموذج للاستخدامات المشروعة.
- السلوك الشاذ : فحص الوصول الشاذ العام أو المحتوى الذي يستدعي فحصًا إضافيًا.
4. لوائح الذكاء الاصطناعي
يتطور المشهد التنظيمي للذكاء الاصطناعي بسرعة، مع وجود العشرات من اللوائح الجديدة المتعلقة بالذكاء الاصطناعي قيد التنفيذ بالإضافة إلى لوائح حماية البيانات الموجودة مسبقًا، مثل اللائحة العامة لحماية البيانات ( GDPR ) وقانون الذكاء الاصطناعي للاتحاد الأوروبي ( قانون الذكاء الاصطناعي للاتحاد الأوروبي ).
يتطلب الاستخدام الفعال للذكاء الاصطناعي التوليدي الامتثال لقوانين حماية البيانات الحالية وقوانين AI governance المتوقعة المصممة لحماية البيانات الحساسة. ومن بين التطورات القادمة:
- إرشادات المفوضية الأوروبية بشأن الاستخدام الأخلاقي للذكاء الاصطناعي في البيئات التعليمية
- إرشادات هيئة حماية البيانات في المملكة المتحدة بشأن الذكاء الاصطناعي وحماية البيانات ومجموعة أدوات إدارة مخاطر حماية البيانات
- دليل التقييم الذاتي لأنظمة الذكاء الاصطناعي الصادر عن هيئة حماية البيانات الفرنسية
- دليل هيئة حماية البيانات الإسبانية حول التعلم الآلي
- مسودة إطار إدارة مخاطر الذكاء الاصطناعي الصادرة عن المعهد الوطني للمعايير والتكنولوجيا (NIST)
- إطار ضمان الذكاء الاصطناعي في ولاية نيو ساوث ويلز الأسترالية
- مجموعة أدوات اختبار الذكاء الاصطناعي لهيئة تطوير الإعلام والاتصالات في سنغافورة
- مسودة سياسة إدارة الذكاء الاصطناعي التوليدي الصادرة عن إدارة الفضاء الإلكتروني الصينية
- إرشادات المجلس الهندي للأبحاث الطبية بشأن استخدام الذكاء الاصطناعي في البحوث الطبية الحيوية والرعاية الصحية
- مسودة المعيار الوطني الفيتنامي بشأن الذكاء الاصطناعي والبيانات الضخمة
في بيئة ديناميكية تعتمد على البيانات، ستحتاج المنظمات المتعطشة للبيانات إلى تنفيذ سياسات وإجراءات تُمكّن من الاستخدام الآمن للذكاء الاصطناعي التوليدي وتمكين المنظمات من الوفاء بالالتزامات المختلفة التي تفرضها لوائح الذكاء الاصطناعي.
يتطلب أمن الذكاء الاصطناعي التوليدي Data Command Center
يعتمد أمن الذكاء الاصطناعي التوليدي على ضمان أقصى درجات الخصوصية والأمان للبيانات الحساسة التي تم إدخالها في نموذج الذكاء الاصطناعي.
Securiti Data Command Center يأتي مزودًا باستراتيجية للتحكم في البيانات تُمكّن من التحكم السياقي والآلي في البيانات، وتضمن الامتثال السريع للقوانين المتغيرة. وهو يساعد في:
- جرد شامل للبيانات الموجودة؛
- تصنيف البيانات السياقية لتحديد البيانات الحساسة/البيانات السرية؛
- الامتثال للوائح التي تنطبق على البيانات التي يتم إدخالها إلى نموذج التدريب، بما في ذلك تلبية متطلبات الموافقة على البيانات والإقامة والاحتفاظ بها؛
- جرد لجميع نماذج الذكاء الاصطناعي التي يتم تغذية البيانات إليها عبر مسارات البيانات المختلفة؛
- إدارة حقوق الوصول إلى البيانات من خلال ضوابط وصول دقيقة، أو إخفاء ديناميكي، أو تقنيات الخصوصية التفاضلية؛ و
- التمكين data security posture management لضمان بقاء البيانات آمنة في جميع الأوقات.
قم بتنزيل دليل كبار مسؤولي حماية البيانات للتعرف على الاستخدام المسؤول للذكاء الاصطناعي التوليدي، وشاهد الندوة عبر الإنترنت بعنوان " إدارة الخصوصية في عصر الذكاء الاصطناعي التوليدي" لاستكشاف كيفية تعامل متخصصي الخصوصية مع الحوكمة المتعلقة بهذه التقنيات الناشئة، وكيف يمكن لإطار عمل موحد لضوابط البيانات عبر مختلف القطاعات أن يساعد المؤسسات في جميع الصناعات.
اطلب عرضًا تجريبيًا اليوم لتشاهد بنفسك Securiti أثناء العمل.