مقدمة
يصعب المبالغة في تقدير الأثر التحويلي الذي أحدثه الذكاء الاصطناعي على الشركات خلال العامين الماضيين. فمع ظهور الذكاء الاصطناعي التوليدي (GenAI)، وتحديدًا نماذج اللغة الكبيرة (LLMs)، شهدنا قفزة هائلة في كلٍ من الإنتاجية والابتكار. ولا تقتصر هذه الحالات على استخدامات فردية، فقد أشار استطلاع أجرته مايكروسوفت عام 2024 إلى أن أكثر من 75% من العاملين في مجال المعرفة قد اعتمدوا أدوات الذكاء الاصطناعي التوليدي كجزء من عملياتهم اليومية.
يرسم هذا صورةً لمؤسسة حديثة أصبحت فيها هذه الأنظمة المتكاملة لإدارة التعلم الآلي (LLMs) بمثابة أدوات أساسية في كل مكان، بدلاً من كونها مجرد تجارب في مجال التكنولوجيا الجديدة. ومع ذلك، فإن استخدام هذه الأنظمة يُدخل مستوىً وحجماً غير مسبوقين من مخاطر الأمن السيبراني والحوكمة.
على عكس معظم البرامج التقليدية، لا تزال أنظمة إدارة التعلم الآلي (LLMs) تُعتبر صناديق سوداء نسبياً، إذ تتسم عمليات إدخال البيانات فيها بعدم القدرة على التنبؤ واستهلاكها الكبير للبيانات. غالباً ما تؤدي هذه الطبيعة غير المتوقعة إلى عواقب وخيمة على المؤسسات. وقد تعلمت جوجل هذا الدرس قاسياً عندما أدت إجابة خاطئة واحدة في عرض توضيحي، عند إطلاقها برنامج Bard عام 2023، إلى انخفاض القيمة السوقية لشركة ألفابت بما يقارب 100 مليار دولار .
تابع القراءة لمعرفة المزيد عن تحديات الذكاء الاصطناعي الفريدة التي تواجهها المؤسسات فيما يتعلق بنشر واستخدام إدارة دورة حياة التعلم، بالإضافة إلى قائمة مرجعية عملية مكونة من 13 خطوة للأمن والحوكمة يمكن أن تساعد في معالجة التحديات المذكورة أعلاه.
تحديات الذكاء الاصطناعي الفريدة للمؤسسات
1. مخرجات غير حتمية
تُنتج نماذج التعلم الخطي استجابات احتمالية. وبالتالي، من المرجح أن تُنتج نفس المدخلات عدة مخرجات في أوقات مختلفة، وكلها صحيحة. هذه النماذج غير حتمية، أي لا يمكن التنبؤ بمخرجاتها. وقد صُممت هذه النماذج عمدًا لضمان قدرتها على إنتاج مجموعة متنوعة من المخرجات المختلفة، الإبداعية والمخصصة، لتلبية أي مواصفات أو تعليمات أخرى من المستخدمين.
في الوقت نفسه، قد يُمثل هذا التذبذب مشكلةً كبيرةً في بيئة المؤسسات، إذ تعتمد الشركات على مخرجات متسقة لضمان الموثوقية والمساءلة. على سبيل المثال، يجب على نظام إدارة التعلم الآلي (LLM) المُستخدم كبرنامج دعم عملاء آلي أن يُحافظ على اتساق إجاباته على أسئلة السياسات. أي تباين في هذا السياق من شأنه أن يُضعف الموثوقية وثقة العملاء.
تعتمد معظم نماذج الذكاء الاصطناعي العام على شبكات عصبية ضخمة لا تتبع أطر "إذا-ثم" التقليدية. وتستمد هذه النماذج معرفتها المتعلقة بإنشاء وعرض المخرجات من الأنماط الإحصائية في مجموعات بيانات التدريب. ويتم دمج العشوائية في هذه المخرجات لتقليل التكرار. علاوة على ذلك، تعمل معظم نماذج التعلم الآلي بناءً على تنبؤات احتمالية للرموز بدلاً من منطق مُبرمج مسبقًا، مما يعني أنه حتى مطوري هذه النماذج أنفسهم لا يستطيعون تقديم مخرجات دقيقة لأي مُدخل مُحدد.
في تطبيقات الأعمال، قد يُعقّد هذا السلوك غير الحتمي مسائل الحوكمة. فبغض النظر عن عدد عمليات التحقق من الجودة، قد يُفسد خطأ واحد غير متوقع كل شيء. تخيّل أداة إكمال رسائل البريد الإلكتروني التي تُنتج رسائل ودية باستمرار، ثم تُرسل في يوم من الأيام رسالة مسيئة عن غير قصد. وبغض النظر عن مشاكل الحوكمة، فقد يُسبب ذلك كارثة في العلاقات العامة. والأهم من ذلك، مسألة ثقة العملاء. فقد أشارت الأبحاث الحديثة إلى أن المستخدمين يفقدون ثقتهم في النموذج بشكل دائم إذا اكتشفوا خطأً أو تناقضًا مبكرًا. وهي ظاهرة أصبحت متكررة لدرجة أنها باتت تُعرف باسم "نفور الخوارزميات".
2. هلوسات الذكاء الاصطناعي
إنّ النتائج غير المؤكدة أمرٌ، والهلوسات تُفاقم جميع مشاكلها عشرة أضعاف. ومن الشائع أيضاً بين طلاب الماجستير في القانون الهلوسة، أي إنتاج عبارات تبدو موضوعية وواقعية، لكنها في الحقيقة خاطئة أو مختلقة تماماً. وقد تتخذ هذه الهلوسات شكل اسم منتج وهمي، أو اقتباس مُختلق، أو في بعض الحالات، إجابة زائفة تماماً.
لكن لماذا تحدث الهلوسات؟ يعود ذلك إلى أن نماذج التعلم الآلي لا "تعرف" الحقائق؛ بل تعتمد على مطابقة الأنماط من خلال مجموعات بيانات التدريب. إذا كانت هذه المجموعات معيبة أو حتى غير كافية، تزداد احتمالية حدوث الهلوسات، حيث يقوم النموذج بملء الثغرات في معرفته بمعلومات خاطئة.
بطبيعة الحال، تُشكل الهلوسات تهديدًا مباشرًا وكبيرًا لمصداقية أنظمة إدارة القضايا القانونية وثقة المستخدمين بها. وتتعدد حالات حدوث الهلوسات، بدءًا من أمور بسيطة كالمعلومات الخاطئة عن الطقس، وصولًا إلى أمور خطيرة كإنكار أحداث تاريخية موثقة. وقد تلقى محامٍ من نيويورك هذا الدرس القاسي عندما أدخل ملفات قضية إلى أداة ذكاء اصطناعي، فقام النموذج باختلاق مراجع وهمية، ما كاد يُفشل جميع ملفاته القضائية والقضية نفسها، فضلًا عن غرامة قدرها 5000 دولار أمريكي بسبب تقديم تلك المراجع المزيفة - هكذا تلتقي عواقب الواقع مع هلوسات الذكاء الاصطناعي.
يعتبر خبراء الأعمال هذه الهلوسات، بلا منازع، مصدر قلقهم الأكبر بشأن الذكاء الاصطناعي من الجيل الأول. فالأخطاء والمشاكل البسيطة في النسخ التجريبية أمرٌ، أما النماذج المتطورة للغاية المصممة لدعم اتخاذ القرارات والتي تسفر عن مثل هذه الأخطاء، فهي أمرٌ آخر تمامًا. وكما أظهرت الدراسات الحديثة، فبمجرد أن يفقد أي برنامج ثقة المستخدمين، سيُهمل استخدامه، بغض النظر عن سعره أو عدد التحسينات التي يدّعي إدخالها. وهذه ظاهرة أخرى لها اسمها الخاص: "البرامج المهملة".
3. توسع نطاق هجمات الأمن السيبراني
في حين أن دمج أنظمة التعلم الآلي في سير العمل المؤسسي والمنتجات والخدمات يرفع من الإنتاجية والكفاءة، إلا أنه يجعلها أكثر عرضة لنقاط الضعف الجديدة، وخاصة تلك المتعلقة بالذكاء الاصطناعي.
تواجه المؤسسات العديد من التهديدات الخاصة بالذكاء الاصطناعي، والاستفادة من قدراته تعني مواجهة هذه التهديدات والتخفيف من آثارها. ولأن معظم التطبيقات التقليدية لا تنطوي على مثل هذه التهديدات، فإن هذا يتطلب عادةً وضع استراتيجية للتخفيف من مخاطر الذكاء الاصطناعي من الصفر، وهو أمر مكلف ومعقد، وقد يكون في كثير من الأحيان كابوسًا لوجستيًا.
بعض التهديدات الخاصة بالذكاء الاصطناعي بسيطةٌ ظاهريًا، لكنها قادرة على اختراق النموذج بأكمله، وفي بعض الحالات، جميع التطبيقات المتصلة به. وقد تمكن المهاجمون من استخدام هجمات الحقن الفوري لاستخراج معلومات سرية من النموذج نفسه، وتسميم البيانات لتعطيل عمليات تعلم النموذج وزرع بذور مخرجات خبيثة مستقبلية، وسرقة النموذج واستخراجه، حيث قد يسرق المهاجمون النموذج بأكمله من خلال إساءة استخدام واجهة برمجة التطبيقات أو عن طريق الحصول على ملف النموذج من وحدة تخزين غير آمنة.
بالإضافة إلى بعض التهديدات التقليدية المتعلقة بالبيانات والتنظيم، يتضح بشكل مخيف كيف أن "العقارات الرقمية التنظيمية" المكشوفة أكبر من أي وقت مضى، مما يتطلب اهتمامًا وموارد غير مسبوقة لضمان تحديد جميع هذه التهديدات ومعالجتها ومراقبتها باستمرار لتجنب أي مفاجآت غير متوقعة.
4. هجمات متقدمة تستغل الذكاء الاصطناعي
نعم، ساهم استخدام الذكاء الاصطناعي في رفع إنتاجية المؤسسات وإيراداتها وكفاءتها التشغيلية بشكل عام. لكن الأمر لم يقتصر على ذلك، بل امتد ليشمل مجرمي الإنترنت. فالمجرمون لا يستهدفون أنظمة الذكاء الاصطناعي فحسب، بل يستخدمونها كسلاح أيضًا. وإذا لم يكن هذا كافيًا لإثارة القلق، فهناك شبكات ابتزاز برامج الفدية كخدمة (RaaS) التي تُمكّن مجرمي الإنترنت من الاستعانة بمصادر خارجية لشنّ هجمات إلكترونية. وبفضل استغلال قدرات الذكاء الاصطناعي، لم تعد التهديدات السيبرانية الحديثة أكثر تواترًا فحسب، بل أصبحت أيضًا أكثر فتكًا.
باستخدام قدرات الذكاء الاصطناعي، يمكن تنفيذ أساليب الهجوم التقليدية، كالتصيد الاحتيالي وهجمات الحرمان من الخدمة الموزعة (DDoS)، بترددات ونطاقات غير محدودة تقريبًا. ويمكن استخدام نماذج التعلم الآلي (LLMs) لكتابة برمجيات خبيثة أكثر فعالية باستمرار، بل وتوجد خدمات GPT مصممة خصيصًا لتلبية احتياجات مجرمي الإنترنت. وباستخدام مزيج من هذه التقنيات، يتضح كيف يمكن للمهاجمين إنشاء هجمات هندسة اجتماعية مقنعة للغاية، مثل رسائل البريد الإلكتروني الموجهة للتصيد الاحتيالي، والتي تتحدى بعض العلامات التقليدية الدالة على الاحتيال أو التصيد الاحتيالي، كالأخطاء الإملائية أو الصياغة غير المألوفة.
أضف إلى ذلك تقنية التزييف العميق، حيث يمكن تزييف صوت شخص ما أو حتى مقاطع فيديو كاملة لإنشاء عملية احتيال متقنة، وستتضح الطبيعة الكئيبة للأمر بشكل متزايد.
قائمة مرجعية عملية من 13 خطوة للأمن السيبراني والحوكمة لطلاب الماجستير في القانون
1. إدارة المخاطر العدائية
تتمثل الخطوة الأولى التي يجب على أي مؤسسة اتخاذها كجزء من استراتيجيتها للحد من مخاطر الذكاء الاصطناعي في دمج المخاطر الخاصة بالذكاء الاصطناعي ضمن أطر إدارة المخاطر لديها. يتطلب ذلك وضع المؤسسة نفسها مكان مجرم إلكتروني محتمل والتفكير من منظوره، مع تطبيق تدابير مضادة فعّالة لجميع المخاطر المحددة. يُعد إطار إدارة مخاطر الذكاء الاصطناعي الصادر عن المعهد الوطني للمعايير والتكنولوجيا (NIST) مرجعًا موثوقًا للغاية في هذا السياق، إذ يُركز على تطبيق عمليات موثقة لرصد وإدارة جميع مخاطر الذكاء الاصطناعي المُحتملة بشكل مستمر.
بالإضافة إلى ذلك، يُعدّ كلٌّ من ATLAS (مشهد التهديدات المعادية للذكاء الاصطناعي) التابع لمؤسسة MITRE، وقائمة OWASP لأهم 10 تهديدات محتملة لأنظمة إدارة التعلم، مصادرَ معرفيةً موثوقةً يمكن الاستعانة بها كقوائم مرجعية لتحديد مستوى التهديد الذي تواجهه المؤسسة بدقة. وبغض النظر عن مستوى خطورة التهديد المُحدَّد، سواءً كان عاليًا أم منخفضًا، يجب دراسة كل سيناريو على حدة، ووضع خطة مضادة فعّالة للتصدي له.
هنا تكمن أهمية البيانات القوية و AI governance تصبح الاستراتيجية مهمة، لأنها تملي الممارسات الداخلية التي ستكون حاسمة في عملية إدارة مخاطر الذكاء الاصطناعي بأكملها.
2. نمذجة التهديدات
يتضمن نمذجة التهديدات تحديدًا منهجيًا للهجمات المحتملة والمهاجمين، وأهدافهم، والأهم من ذلك، نقاط الضعف التي قد يستغلونها في تصميم نظام الذكاء الاصطناعي. يجب أن تغطي هذه العملية كامل مسار الذكاء الاصطناعي، أي استيعاب البيانات، وتدريب النموذج، ونشره، وتفاعل المستخدم، وتكامل المخرجات. ينبغي أن يشمل التحليل كل مرحلة بشكل شامل، مع تقييم جميع نقاط الضعف والثغرات المحتملة. يجب معالجة كل احتمال يتعلق بالتلاعب أو إساءة الاستخدام. علاوة على ذلك، لا ينبغي أن تكون هذه العملية ثابتة، بل عملية متسقة.
في هذه العملية، يجب إشراك فريق متعدد التخصصات في التقييم المستمر للتهديدات. وينبغي أن يكون هناك منهجية محددة لعملياتهم. على سبيل المثال، يمكنهم الاستفادة من منهجيات نمذجة التهديدات القياسية، مثل STRIDE (التزييف، والتلاعب، والإنكار، وكشف المعلومات، وحجب الخدمة، ورفع الامتيازات)، وتطبيقها في سياق الذكاء الاصطناعي. وبمجرد تحديد التهديدات، يمكن وضع استراتيجيات للتخفيف من آثارها وتطبيقها، مع إخضاع هذه الاستراتيجيات لتقييمات مماثلة في الوقت نفسه.
3. جرد أصول الذكاء الاصطناعي
يُعدّ جرد أصول الذكاء الاصطناعي أداةً بالغة الأهمية في الإدارة الشاملة لجميع موارد الذكاء الاصطناعي. وتُمثّل أصول الذكاء الاصطناعي غير المُسجّلة مشكلةً كبيرةً للمؤسسات، إذ ليس من النادر أن تكتشف المؤسسة نماذج أو مجموعات بيانات تعلّم آلي غير موثّقة أو "مُخالفة" ضمن بنيتها التحتية، والتي لا يُفترض وجودها فيها. وقد تشمل هذه النماذج أو مجموعات البيانات التي ربما أنشأها فريقٌ لتجربةٍ مُنعزلة، ونشرها لاختبار تجريبي، ثم انتقل إلى استخدام النتائج المُكتسبة في مشاريع أخرى. لذا، تُعدّ آلية "تتبّع" جميع الأصول المُتعلّقة بالذكاء الاصطناعي وحفظها بشكلٍ صحيح جزءًا أساسيًا من أيّ نظام فعّال. AI governance السياسة. يدعو إطار إدارة مخاطر الذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتكنولوجيا (NIST) صراحةً إلى ضرورة "حصر أنظمة الذكاء الاصطناعي" كجزء من استراتيجية الحوكمة الشاملة للمنظمة.
يجب أن تتضمن تفاصيل هذا الجرد، على سبيل المثال لا الحصر، معلومات أساسية مثل الغرض من النموذج، ومجموعة البيانات التي تم تدريبه عليها، والإصدار الحالي، ومكان نشره، والمالك أو الفريق المسؤول، ومستوى الأهمية أو المخاطرة الذي يندرج تحته بناءً على الالتزامات التنظيمية أو أي معايير داخلية أخرى معتمدة. ويمكن أن يشمل أيضًا جميع أدوات الذكاء الاصطناعي الخارجية التي يستخدمها الموظفون، والتي يمكن تتبعها عبر "قاعدة بيانات إدارة تكوين مكونات الذكاء الاصطناعي" بالإضافة إلى عمليات التكامل. تتوفر العديد من نماذج التعلم الممتد (LLMs) المدمجة في التطبيقات. يُتيح الجرد الذي يوثق هذا السياق تقييمًا أفضل لملف تعريف التهديد.
4. التدريب على أمن الذكاء الاصطناعي والخصوصية
ربما تكون هذه الخطوة هي أبسط خطوة يمكن للمؤسسات اتخاذها لمواجهة الذكاء الاصطناعي أو أي تهديد آخر. ومع ذلك، فهي تبقى الخطوة الأكثر إهمالاً، كما يتضح من حقيقة أن التهديدات الداخلية والإهمال لا يزالان سببًا رئيسيًا لاختراقات أمن البيانات داخل المؤسسات.
لا تكفي التكنولوجيا وحدها لتأمين الذكاء الاصطناعي بشكل سليم. يجب توعية الموظفين الذين يطورون ويتفاعلون مع أنظمة التعلم الآلي بالمخاطر المرتبطة بها ودورهم في الحد منها. يجهل العديد من الموظفين حجم المشاكل المحتملة، مما يؤدي إلى تراخي في استخدام الذكاء الاصطناعي وثقافة مؤسسية متشائمة تجاهه.
يضمن التدريب الفعال والمنتظم والشامل فهم جميع الموظفين، من المطورين وعلماء البيانات إلى مسؤولي التسويق والمبيعات، فهمًا دقيقًا لقواعد استخدام الذكاء الاصطناعي. يمكن لأي برنامج تدريبي من هذا القبيل أن يتضمن موارد حول أفضل الممارسات الرقمية وممارسات الذكاء الاصطناعي، وقيود موارد الذكاء الاصطناعي المستخدمة، والمخاطر الشائعة التي قد يواجهونها، والمخاطر الخاصة التي قد تواجههم بناءً على أدوارهم أو مستوى صلاحياتهم، ومسؤولياتهم في سياق الامتثال التنظيمي. يمكن للإدارات المختلفة التعاون في تطوير وتنفيذ هذه البرامج، مما يسمح بتوفير وحدات وموارد مصممة خصيصًا لمختلف الموظفين.
يمكن أيضاً إجراء محاكاة لهجمات التصيد الاحتيالي وغيرها من أشكال الهجمات المحتملة لتقييم الجاهزية العامة ووعي الموظفين.
5. إعداد دراسات جدوى واضحة
يكاد هذا الأمر يصبح مبتذلاً، لكن ليس كل مهمة تتطلب الذكاء الاصطناعي. فبينما لا جدال في فوائد الذكاء الاصطناعي، يجب دائمًا وجود مبرر تجاري واضح وتقييم دقيق لقيمة كل تطبيق لإدارة دورة حياة التعلم. أصبحت عقلية القطيع مشكلة متزايدة التعقيد فيما يتعلق بتبني الذكاء الاصطناعي، مما يؤدي إلى ارتفاع مخاطر تطبيقه لمجرد التطبيق، بدلاً من تطبيقه لغرض محدد. في مثل هذه الحالات، لا تُفهم الآثار الحقيقية لاستخدام الذكاء الاصطناعي، مما يؤدي إلى مشاكل مستقبلية في الحوكمة وسلسلة من المشاكل الأخرى. يجب التعامل مع مبادرات الذكاء الاصطناعي كأي مبادرة أخرى داخل المؤسسة، مع طرح تساؤلات تتعلق بأهدافها ومعايير نجاحها وتحليل المخاطر والفوائد. بعبارة أخرى، يضمن تقييم حق الاستخدام أن أي استخدام للذكاء الاصطناعي يتوافق بشكل مناسب مع الأهداف الاستراتيجية للمؤسسة.
علاوة على ذلك، قد تفكر المؤسسات في ربط مشاريع إدارة التعلم بحالات أعمال محددة. لا يتيح هذا فقط تحديد أولويات الموارد، بل يساعد أيضًا في تجنب عقلية القطيع المذكورة سابقًا. هناك أمثلة لا حصر لها لمؤسسات بدأت تجاربها الرائدة في مجال الذكاء الاصطناعي لمجرد شعورها بضرورة ذلك، بدلًا من كونها وسيلة لحل حاجة ملحة حيث أتاح الذكاء الاصطناعي حلًا أكثر كفاءة. من خلال ربط مشاريع إدارة التعلم بحالات استخدام محددة، تستطيع المؤسسات ضمان معايير تقييم موضوعية في التقييمات اللاحقة لتحديد مدى تحقيقها للتوقعات.
إذا كانت الإجابة بنعم، فما التحسينات الممكنة؟ وإذا كانت الإجابة بلا، فلماذا فشلت التجربة؟ تُعدّ هذه المعلومات بالغة الأهمية لفهم السياق والجهات المعنية الرئيسية في استخدام الذكاء الاصطناعي في المؤسسات. كما يُتيح تحديد هذه الجهات تحديد المتطلبات الفردية التي يمكن استخدامها لضمان استخدام الذكاء الاصطناعي استخدامًا هادفًا.
6. حوكمة أنظمة الذكاء الاصطناعي
يتعين على المؤسسات تحديد الهياكل والأدوار والعمليات التي تشرف على نشر الذكاء الاصطناعي على نطاق واسع. إضافةً إلى ذلك، لا تغطي هياكل حوكمة تكنولوجيا المعلومات التقليدية مخاوف الذكاء الاصطناعي، مثل الاستخدام الأخلاقي، وتحيز النماذج، أو التحديثات المستمرة للنماذج. وهذا يُفاقم الحاجة إلى إطار حوكمة خاص بالذكاء الاصطناعي يُعالج هذه القضايا بشكل كافٍ، مع ضمان المساءلة والتوافق مع السياسات الداخلية للمؤسسة.
بعض العناصر الرئيسية لـ AI governance يمكن أن يشمل الإطار ما يلي:
- هيئة/لجنة حوكمة تتولى وضع السياسات، ومراجعة مبادرات الذكاء الاصطناعي الرئيسية، ومعالجة جميع المشكلات والتصعيدات المحددة. يمكن أن تضم هذه الهيئة جميع أصحاب المصلحة المعنيين من جميع أقسام المنظمة، ويجب أن تكون مسؤولة أمام كبير مسؤولي المعلومات أو أي مسؤول تنفيذي آخر من المستوى الأعلى مسؤول عن الإشراف. AI governance ؛
- المبادئ التنظيمية المتعلقة باستخدام الذكاء الاصطناعي داخل المنظمة والتي تتوافق مع الأطر الخارجية مثل مبادئ الذكاء الاصطناعي لمنظمة التعاون الاقتصادي والتنمية. يجب أن تغطي هذه السياسات الجوانب الحاسمة لاستخدام الذكاء الاصطناعي، مثل الإشراف البشري على قرارات الذكاء الاصطناعي؛
- توثيق جميع أنظمة الذكاء الاصطناعي، مع نماذجها وتقييمات المخاطر المناسبة، مما يُنشئ سجلاً شاملاً لعملية اتخاذ القرار بأكملها في تطوير واختبار ونشر هذه الأنظمة. يُعد هذا التوثيق بالغ الأهمية في عمليات التدقيق الداخلي والامتثال للوائح التنظيمية.
- يجب مراجعة الإجراءات المتبعة في الموافقة على أنظمة الذكاء الاصطناعي واختبارها والتحقق من صحتها قبل نشرها، بما في ذلك تقييمات ما بعد النشر. إضافةً إلى ذلك، يجب أن تكون هناك إجراءات لإعادة تدريب أنظمة الذكاء الاصطناعي وتحديثها، مع وجود ضوابط حوكمة لضمان امتثالها المستمر.
7. الاعتبارات القانونية
يُثير استخدام الذكاء الاصطناعي سلسلة من التساؤلات والقضايا والتحديات القانونية أمام المؤسسات، بدءًا من حقوق الملكية الفكرية وصولًا إلى حماية البيانات. وهذا يُبرز أهمية مشاركة الإدارة القانونية منذ البداية في عملية نشر الذكاء الاصطناعي في المؤسسة. إن دمج الاعتبارات والمراجعات القانونية في دورة حياة الذكاء الاصطناعي لا يُجنّب المؤسسة المشاكل القانونية لاحقًا فحسب، بل يُساعد أيضًا في وضع مبادئ توجيهية واضحة لضمان إلمام كلٍ من المطورين والمستخدمين بالحدود القانونية التي يجب العمل ضمنها.
تشمل بعض الاعتبارات الأكثر أهمية حقوق الملكية الفكرية، ومساءلة الاستخدام، data privacy والحماية، وعقود الموردين والتراخيص. كل من هذه الأمور يطرح مجموعة فريدة من التحديات أمام المنظمة. ومع ذلك، يجب على المنظمة مراعاة هذه الاعتبارات وتقييمها بشكل مناسب. AI governance هيئة داخل المؤسسة، تضم مستشارًا قانونيًا يضطلع بدور استشاري لتحديد أي قصور قانوني في نشر واستخدام الذكاء الاصطناعي في المؤسسة، والمساعدة في سد أي ثغرات من هذا القبيل. علاوة على ذلك، يمكنها أيضًا المساعدة في وضع إرشادات الاستخدام، لضمان دمج الامتثال القانوني بشكل كامل في مشاريع الذكاء الاصطناعي، وضمان استدامة كل مبادرة من منظور الامتثال.
8. التعامل مع متطلبات الامتثال التنظيمي
قد يكون هذا هو الاعتبار الأهم للمؤسسات عند تقييم تطبيقات إدارة دورة حياة البرمجيات. تتزايد لوائح الذكاء الاصطناعي في جميع أنحاء العالم، وإذا لم يكن ذلك تحديًا كبيرًا للامتثال بحد ذاته، فإن لكل قطاع من القطاعات أطره ومعاييره ولوائحه الخاصة المتعلقة باستخدام الذكاء الاصطناعي. لا يقتصر عدم الامتثال على الغرامات المالية فحسب، بل إن الضرر الذي يلحق بسمعة المؤسسة قد يُلحق بها ضررًا بالغًا لا يُمكن إصلاحه، ويُضعف ثقة العملاء بها.
في الوقت نفسه، لا يتطلب تجنب مثل هذا السيناريو الكئيب سوى امتثال المنظمة للوائح التنظيمية. القيام بذلك أمر معقد ولكنه ليس مستحيلاً. سواء كان data privacy يجب أن يكون لدى المنظمة فريقها القانوني، سواءً كان ذلك بسبب القوانين أو الإرشادات الخاصة بالقطاع أو اللوائح القادمة. AI governance يجب على المؤسسة الالتزام التام بالمتطلبات المفروضة على استخدام الذكاء الاصطناعي. إضافةً إلى ذلك، يتطلب الأمر تعاونًا وثيقًا بين جميع الفرق التي تستخدم أدوات الذكاء الاصطناعي وتلك التي تطورها لإجراء تقييمات الامتثال لجميع حالات استخدام الذكاء الاصطناعي المحددة. عند الضرورة، يمكن أيضًا النظر في عمليات التدقيق والشهادات الخارجية لتقييم حالة الامتثال الشاملة للمؤسسة.
9. النشر الآمن لأنظمة إدارة التعلم
يصبح نظام إدارة التعلم الآلي (LLM) متاحًا للمستخدمين والأنظمة الأخرى في مرحلة النشر. بعبارة أخرى، هذه هي المرحلة التي يُختبر فيها أمان نظام الذكاء الاصطناعي نظرًا لكونه عرضة للهجمات. تضمن عملية النشر الآمنة تأمين البنية التحتية التي تُشغّل نظام إدارة التعلم الآلي والتكاملات المدمجة بأقصى قدر ممكن وحمايتها من أي هجمات محتملة.
هناك جوانب واعتبارات مختلفة قد تأخذها المؤسسات في الحسبان وتطبقها كجزء من نشر نظام إدارة التعلم (LLM)، مثل ضوابط الوصول الصارمة لتحديد المستخدمين والأنظمة التي يمكنها الوصول إلى أنظمة إدارة التعلم (LLM) وإلى أي مدى، وبنية تحتية آمنة للاستفادة من جميع ميزات الأمان المناسبة مثل عزل VPC، ومفاتيح التشفير التي يديرها العميل، وما إلى ذلك، والتحقق من صحة المدخلات/المخرجات لاكتشاف عمليات الحقن والمحتوى المحظور والثغرات الأخرى التي يمكن استغلالها، والمراقبة والتسجيل المستمر لتفاعلات نظام إدارة التعلم (LLM) والتي يمكن أن تكون مفيدة في عمليات التدقيق وتصحيح الأخطاء والتحليل الجنائي في المستقبل إذا لزم الأمر، وأخيرًا، آلية أمان احتياطية في حالة اختراق نظام إدارة التعلم (LLM) واستمرارية الخدمة كأولوية، حتى لو كانت في شكل وظيفة غير متعلقة بالذكاء الاصطناعي.
10. الاختبار والتقييم والتحقق والتحقق من الصحة المستمر (TEVV)
يضمن تطبيق منهجية التحقق والتقييم المستمر (TEVV) لنماذج التعلم الآلي (LLMs) سلامتها وفعاليتها وموثوقيتها على مدى فترة زمنية. تُعدّ نماذج التعلم الآلي ظاهرة تكنولوجية فريدة من نوعها، إذ تتطور وتتغير بمرور الوقت، أحيانًا في غضون ساعات، مع تحديثات ومجموعات بيانات جديدة. لذا، لا بد من وجود عملية "مستمرة" لاختبار النموذج وتقييمه والتحقق منه بشكل كافٍ، ومن ثمّ التحقق من صحة أدائه وفقًا للغرض المُعلن عنه.
تشمل الجوانب الرئيسية لمنهجية TEVV خطوط اختبار آلية تختبر النموذج باستمرار كلما تم تحديثه من خلال مزيج من اختبارات الانحدار واختبارات السيناريوهات الأخرى، ومقاييس تقييم تحدد معايير تقييم أداء نموذج التعلم الموجه بالتعلم وتتتبعها باستمرار، وحلقات التغذية الراجعة البشرية حيث يقوم خبراء المجال بتقييم عينة من المخرجات التي ينتجها النموذج بشكل عشوائي من حيث جودتها، والتحقق من قدرة النموذج على تقديم مخرجات عالية الجودة باستمرار على مدى فترة مستدامة للقضاء على التدهور المحتمل في الأداء.
11. بطاقات النماذج والمخاطر لتعزيز الشفافية
يُتيح توثيق نموذج التعلم الآلي من خلال بطاقات النماذج والمخاطر، والمعروفة أيضًا بسجلات المخاطر، الشفافية والمساءلة. تُشبه بطاقات النماذج ملصقًا غذائيًا، حيث تُذكر فيها تفاصيل مهمة مثل الاستخدام المقصود للنموذج، وبنيته، ووصف بيانات التدريب، ومؤشرات الأداء على مختلف المعايير، والاعتبارات الأخلاقية، والقيود. وبالمثل، تُدرج بطاقات المخاطر جميع المخاطر المُحددة، بالإضافة إلى تدابير التخفيف المتخذة للحد منها.
تُعدّ هذه البطاقات ذات قيمة بالغة للمؤسسات، إذ تُقدّم نظرة شاملة على إمكانيات النموذج وحدوده، خاصةً لمن لا يملكون خبرة كافية في جوانبه التقنية. كما تُشكّل أساسًا حيويًا لعملية إدارة مخاطر الذكاء الاصطناعي في المؤسسة، من خلال توثيق المخاطر وإجراءات التخفيف منها، وإطلاع أصحاب المصلحة الرئيسيين على ما يجب الانتباه إليه. علاوة على ذلك، يُمكن تحديث هذه البطاقات عند نشر نموذج جديد أو عند إجراء أي تحديث، لضمان توثيق مستمر.
12. الاستفادة من تقنية التوليد المعزز بالاسترجاع (RAG)
يُعدّ RAG أسلوبًا موثوقًا لتحسين دقة مخرجات نموذج التعلم القائم على البيانات (LLM) ومطابقتها للواقع. يتضمن هذا الأسلوب تزويد النموذج بنظام استرجاع معرفي يسمح له بجلب المستندات/البيانات ذات الصلة من مصدر خارجي (مثل قاعدة بيانات أو فهرس بحث) بدلًا من الاعتماد فقط على معاييره المُدرّبة مسبقًا. ثم يُولّد استجابةً تستفيد من كلٍّ من المدخلات والبيانات المُسترجعة. في بيئة المؤسسات، يُقلّل RAG بشكل كبير من حالات التشويش، كما يُوفّر تحديثًا للبيانات يُحسّن الأداء العام لنموذج التعلم القائم على البيانات.
علاوة على ذلك، يتيح هذا الأسلوب التخصص في مجال معين دون الحاجة إلى إعادة تدريب نموذج التعلم الموجه بالمجال (LLM) من الصفر. تمتلك المؤسسات كميات هائلة من الوثائق، مثل الأدلة والتقارير وصفحات الشبكة الداخلية وقواعد المعرفة، التي يمكن لـ RAG الاستفادة منها بسهولة لتمكين حتى نموذج عام من أن يصبح خبيرًا في المعرفة الداخلية للمؤسسة، بدلاً من تدريب نموذج التعلم الموجه بالمجال من الصفر على هذه البيانات الخاصة. هذه العملية قابلة للتتبع وفعالة في بناء ثقة المستخدمين، حيث يميلون أكثر إلى الوثوق بإجابة الذكاء الاصطناعي عندما تستشهد بمصدر موثوق وتوفر رابطًا إليه.
13. فريق الاختراق بالذكاء الاصطناعي - ممارسة معيارية
على أي حال، ينبغي أن يكون اختبار الذكاء الاصطناعي باستخدام فرق الاختراق واختبارات التحمل جزءًا أساسيًا من عملية أمن الذكاء الاصطناعي وضمان جودته في أي مؤسسة. تتجاوز هذه الاختبارات أساليب الاختبار التقليدية، فهي شديدة الصرامة وتضمن محاكاة سلوك الجهات الخبيثة في دفع آليات وعمليات الدفاع الخاصة بالذكاء الاصطناعي إلى أقصى حدودها، ما يكشف عن قدراته وفعاليته الحقيقية. عند إجرائها بشكل صحيح، يمكنها تحديد نقاط ضعف أي نموذج ومعالجتها استباقيًا.
يمكن تصميم هذه الاختبارات في سياقات وإعدادات متنوعة لتقييم أداء النموذج عبر مختلف الجوانب. علاوة على ذلك، توفر الاختبارات المتكررة نظرة عامة متسقة على أداء النموذج. كما يمكن جدولة هذه الاختبارات في حال حدوث تغييرات جوهرية، مثل اعتماد نموذج جديد، أو تحديثات، أو دمج نموذج في سير عمل جديد.
كيف Securiti يمكن المساعدة
سيصبح أمن الذكاء الاصطناعي اعتبارًا بالغ الأهمية للشركات مع تزايد استخدامها للذكاء الاصطناعي وتطبيقاته اللاحقة. ولا يمكن الاستفادة من هذه القدرات المدعومة بالذكاء الاصطناعي بفعالية إلا بتغطية جميع الجوانب، بما في ذلك، وربما الأهم، أمن البيانات والذكاء الاصطناعي. ومع ذلك، فإن ضمان الحماية المناسبة لموارد الذكاء الاصطناعي والبيانات قد يمثل تحديًا كبيرًا بحد ذاته.
هذا هو المكان Securiti يمكن أن يساعد.
Securiti يُعدّ Gencore AI حلاً شاملاً لبناء أنظمة ذكاء اصطناعي توليدية آمنة وعالية الجودة للمؤسسات. يتألف هذا الحل المؤسسي من عدة مكونات يمكن استخدامها مجتمعة لبناء أنظمة ذكاء اصطناعي مؤسسية آمنة ومتكاملة، أو في سياقات أخرى متنوعة، لمعالجة حالات استخدام الذكاء الاصطناعي المختلفة.
يُمكّن هذا من إنشاء نظام ذكاء اصطناعي مؤسسي فعال للغاية ولكنه مبسط، وذلك من خلال ضوابط بيانات شاملة وآليات حوكمة تعمل على التخفيف من جميع المخاطر التي يمكن تحديدها بشكل استباقي. علاوة على ذلك، Securiti 's DSPM يمكن الاستفادة منها لضمان حماية البيانات بشكل مناسب، وبالتالي ضمان الامتثال للمتطلبات التنظيمية ومعايير الصناعة.
اطلب عرضًا تجريبيًا اليوم لمعرفة المزيد حول كيفية Securiti يمكننا مساعدتك في بناء أنظمة ذكاء اصطناعي آمنة على مستوى المؤسسات.