الإعلان عن Agent Commander - أول حل متكامل من Veeam + Securiti .ai تمكين توسيع نطاق وكلاء الذكاء الاصطناعي الآمنين

منظر
فيم

أطرف أمسية في RSA مع حسن منهاج

حسن منهاج طلب تذكرة
منظر
تشغيل الفيديو
مؤلف

أنس بيج

مدير تسويق المنتجات في Securiti

نُشر في 27 يونيو 2024

تُشغّل نماذج اللغة الكبيرة (LLMs) روبوتات الدردشة الذكية، مما يُحسّن تحليلات الأعمال، ويُسرّع اتخاذ القرارات الاستراتيجية، ويُؤتمت العمليات. لقد جلب الذكاء الاصطناعي بالفعل عالماً من الابتكار والسهولة وقابلية التوسع. ومع ذلك، فإنه يُضيف أيضاً عدداً كبيراً من المخاطر ونقاط الضعف الحرجة، مما يُعيق الابتكار الآمن.

لنأخذ على سبيل المثال شكوى الخصوصية التي رفعتها منظمة NOYB ضد شركة عملاقة في مجال تكنولوجيا الذكاء الاصطناعي. جاءت هذه الشكوى ردًا على إجابات ملفقة أنتجها تطبيق GenAI شهير عند سؤال المستخدم عن تاريخ ميلاد مؤسس NOYB، ماكس شريمز. يُعدّ التوهم مشكلة معروفة في برامج الذكاء الاصطناعي. في الواقع، ذكرت صحيفة نيويورك تايمز أن "برامج الدردشة الآلية تختلق معلومات بنسبة 3% على الأقل من الوقت، وقد تصل النسبة إلى 27%". ينتج التوهم في برامج الذكاء الاصطناعي عن الاعتماد المفرط، والذي يحدث عندما يُترك نظام الذكاء الاصطناعي دون إشراف وضوابط مناسبة.

إن تعظيم إمكانات التعلم القائم على التعلم مع ضمان تطويره ونشره واستخدامه بشكل مسؤول يتطلب فهمًا كاملاً لمخاطر الذكاء الاصطناعي الشائعة وتنفيذ تدابير التخفيف المناسبة.

يُعد دليل OWASP Top 10 لتطبيقات LLM دليلاً مثالياً تم تجميعه بواسطة مئات الخبراء لتمكين التبني الآمن لتقنيات الذكاء الاصطناعي.

قائمة OWASP لأهم 10 تطبيقات في برامج الماجستير في القانون

مشروع أمن التطبيقات العالمي المفتوح (OWASP) هو منظمة غير ربحية تقدم موارد وأدلة مجانية. وهو منصة تجمع خبراء التطوير والهندسة وعلماء البيانات والمحللين للبحث واقتراح أفضل الممارسات والرؤى والإرشادات التي تساعد في حماية الأنظمة والتطبيقات والأنظمة ذات المسؤولية المحدودة من التهديدات الإلكترونية.

تُعدّ OWASP اسمًا لامعًا في مجال الأمن السيبراني، إذ كانت أول من طرح قائمة OWASP لأهم 10 مخاطر أمنية لتطبيقات الويب. إلا أنه في أواخر عام 2023، أطلقت المنظمة أحدث مشاريعها، وهي قائمة OWASP لأهم 10 مخاطر أمنية لتطبيقات ماجستير القانون، استجابةً لتزايد الاهتمام بمجال ماجستير القانون والمخاطر المتزايدة.

يُعدّ هذا المشروع الأخير ثمرة رؤى جماعية لـ 500 خبير من مختلف أنحاء العالم. وقد قام هؤلاء الخبراء بالبحث والتحليل وتحديد 43 تهديدًا فريدًا تواجه برامج الماجستير في القانون، ثم قاموا بتضييق القائمة لتشمل أهم 10 تهديدات.

ستقدم هذه المدونة عرضًا موجزًا ​​لأهم عشرة مخاطر تواجه أنظمة وتطبيقات إدارة التعلم، مع بعض الأمثلة السريعة ونصائح للوقاية. للاطلاع على نظرة عامة مفصلة حول المخاطر واستراتيجيات التخفيف المقترحة، يُرجى قراءة قائمة OWASP الكاملة لأهم عشرة مخاطر لتطبيقات إدارة التعلم .

LLM01 - الحقن الفوري

لطالما وُجدت تهديدات الحقن، مما يُمكّن المهاجمين من تنفيذ أكواد أو إجراءات خبيثة واختراق التطبيقات. يُعدّ حقن التعليمات البرمجية أحد هذه التهديدات. يُصنّف حقن التعليمات البرمجية كأخطر ثغرة أمنية، حيث يسمح للمهاجم باختراق نظام إدارة التعلم (LLM) من خلال تعليمات برمجية مُصممة بدقة. ويتلاعب هذا النوع من الحقن بتطبيقات نظام إدارة التعلم لتجاوز التعليمات الأولية وتحقيق نوايا المهاجم.

تُدرج منظمة OWASP نوعين مختلفين من عمليات حقن المطالبات التي يستخدمها المهاجمون بشكل شائع: المطالبات المباشرة وغير المباشرة.

في هجوم الحقن المباشر، يتفاعل المهاجم مع نظام إدارة التعلم (LLM) مباشرةً، ويتلاعب به عبر رسائل خبيثة. على سبيل المثال، قد يطلب المهاجم من النظام التظاهر بأنه روبوت محادثة، ويحدد له كيفية الاستجابة عند تلقيه تعليمات معينة. غالبًا ما تتضمن هذه الرسائل ثغرات أمنية، مثل شفرة تنفيذ عن بُعد، ضمن التعليمات المُرسلة.

في حالة حقن التعليمات البرمجية غير المباشرة، يحاول المهاجم تنفيذ تعليمات برمجية خبيثة عبر صفحة ويب أو ملف تالف. فإذا طلب المستخدم من نظام إدارة التعلم (LLM) تصفح ذلك الموقع، مثلاً لتلخيص محتواه، فسيتم تنفيذ التعليمات البرمجية دون قصد.

يُعدّ الحقن الفوري خطرًا أمنيًا خطيرًا في أنظمة إدارة التعلم (LLMs) يجب على المؤسسات أن تحذر منه لأنه قد يسمح للمهاجمين باختراق نظام إدارة التعلم والسيطرة عليه.

التدابير الوقائية

  • ينبغي تقييد الوصول إلى أنظمة إدارة التعلم. يجب تطبيق نظام صلاحيات قائم على الأدوار لمنح الحد الأدنى من مستوى الوصول.
  • يجب إبقاء البشر على اطلاع دائم بالموافقات، خاصة عندما تصل برامج إدارة التعلم الآلي إلى أنظمة خارجية، كما هو الحال في إجراء الحقن الفوري غير المباشر المذكور أعلاه.
  • يلزم وجود نظام دقيق أو ضوابط أو سياسات لفصل المحتوى غير المرغوب فيه أو الضار عن نافذة التنبيه.
  • ينبغي التعامل مع جميع أنظمة إدارة التعلم على أنها غير موثوقة، وبالتالي، عند تصميم النظام، يجب تطبيق ضوابط أمنية وحوكمة مناسبة.

LLM02 - معالجة المخرجات غير الآمنة

كما يوحي الاسم، يتعلق هذا الخطر بمخرجات نظام إدارة التعلم (LLM). لنفترض حالة استخدام حيث يقوم نظام إدارة التعلم بإنشاء استعلامات SQL، مما يسمح للفرق بتبسيط وتسريع تحليل البيانات. الآن، ماذا يمكن أن يحدث إذا تمكن مُخترق من الوصول إلى نظام إدارة التعلم والتلاعب به لإنشاء استعلامات SQL تحذف جميع الجداول من قاعدة البيانات؟ سيكون ذلك كارثيًا على المؤسسة. قد تحدث تهديدات مثل ثغرات SQL إذا قبل البرنامج اللاحق مخرجات نظام إدارة التعلم دون معالجة دقيقة، أي دون تنظيف أو تحقق أو تصفية.

أحد أسباب وضع معالجة المخرجات غير الآمنة مباشرة بعد الحقن الفوري هو أن هذا الخطر عادة ما ينشأ مع هجوم الحقن الفوري الناجح.

التدابير الوقائية

  • اتبع نهج أمان قائم على مبدأ انعدام الثقة عند التعامل مع أنظمة إدارة التعلم. اعتبر هذه الأنظمة بمثابة مستخدمين غير موثوق بهم يتطلبون تنظيفًا وتحققًا من صحة بياناتهم.
  • ضع في اعتبارك الإرشادات المقدمة في إطار عمل معيار التحقق من أمان التطبيقات OWASP ( ASVS ) للتعامل الآمن مع المخرجات.

LLM03 - تسميم بيانات التدريب

من المعروف أن نماذج التعلم الآلي تُدرَّب على كميات هائلة من البيانات. في الواقع، تُعدّ البيانات ضرورية أيضًا لتحسين أداء هذه النماذج وكفاءتها. مع ذلك، إذا كانت البيانات المُدخلة تالفة، فسيتصرف نموذج التعلم الآلي بشكل غير طبيعي، مما يؤدي إلى استجابات غير أخلاقية أو متحيزة أو ضارة. يُعدّ تسميم البيانات مشكلة معقدة يصعب حلها.

لفهم هجوم تسميم البيانات، دعونا نأخذ الموقف التالي كمثال. تخيل مستخدمًا يطلب من نظام إدارة دورة حياة المنتج (LLM) مراجعة ملفات وقواعد بيانات معينة وتلخيص تحليلها لأغراض استثمارية. دون علم المستخدم، يقوم مهاجم بزرع بيانات خاطئة في الملفات أو قواعد البيانات. ونتيجة لذلك، يُنتج نظام إدارة دورة حياة المنتج تحليلًا غير صحيح أو معيب، مما يؤثر سلبًا على قرار المستخدم.

التدابير الوقائية

  • احصل على رؤية كاملة لجميع المصادر وتأكد من موثوقيتها.
  • تحقق من صحة بيانات التدريب طوال دورة حياتها.
  • ينبغي وضع آليات للتحقق من صحة مخرجات برنامج الماجستير في القانون والتأكد من أنها صحيحة ودقيقة وجديرة بالثقة.

LLM04 - نموذج رفض الخدمة

التهديد المذكور في الرقم 4 يُعادل هجوم الحرمان من الخدمة الموزع (DDoS). في حالة نموذج التعلم القائم على التعلم (LLM)، قد يُرسل المهاجم استعلامًا مُعقدًا، مما يدفع النموذج إلى إنتاج محتوى غير متوقع قد يتطلب استهلاك موارد مُفرطة. مثال آخر هو قيام المهاجم بإغراق النموذج بكمية كبيرة جدًا من المُدخلات، مما يُؤدي إلى إبطاء النموذج أو التطبيق الذي يُشغّله.

تدابير وقائية

  • ينبغي مراقبة استخدام موارد برنامج ماجستير القانون بحثًا عن أي ارتفاعات غير طبيعية.
  • ينبغي التحقق من صحة المدخلات وتقييدها، لمنع إرهاق نظام إدارة التعلم (LLM) بالمطالبات المفرطة.
  • ينبغي أيضاً تقييد طلبات واجهة برمجة التطبيقات (API)، وتحديد سقف للموارد.

LLM05 - نقاط ضعف سلسلة التوريد

هو مصطلح شامل لأنواع مختلفة من الثغرات الأمنية، بدءًا من الحقن الفوري وتسميم البيانات وصولًا إلى نماذج التعلم الآلي المخترقة والنتائج المتحيزة. على سبيل المثال، قد يقوم برنامج خبيث بتسميم مصادر بيانات نموذج التنبؤ بالطقس، مما يتسبب في إصدار النموذج تنبيهات خاطئة نتيجةً لتوقعات غير دقيقة.

التدابير الوقائية

  • قم بإجراء تقييم للموردين، مع تقييم ليس فقط المورد نفسه ولكن أيضًا سياساته أو شروطه وأحكامه.
  • كإجراء أمني، قم بتطبيق مراقبة النموذج للسلوك غير الطبيعي.
  • استخدم الإضافات التي قمت باختبارها وتثق بها.
  • قم بتطبيق الضوابط الموصى بها في OWASP Top Ten's A06:2021 – المكونات المعرضة للخطر والقديمة لفحص الثغرات الأمنية وتصحيح المكونات.

LLM06 - الإفصاح عن المعلومات الحساسة

من المخاطر الشائعة الأخرى في نماذج التعلم الآلي تسريب المعلومات الشخصية، وخاصة البيانات الحساسة. ونظرًا لاستخدام كميات هائلة من البيانات لضبط هذه النماذج أو تدريبها، فإن مجموعات البيانات هذه غالبًا ما تحتوي على بيانات حساسة. وإذا لم تُستخدم ضوابط مناسبة، مثل الإخفاء الديناميكي أو تنقيح البيانات الحساسة، فقد تكشف هذه النماذج عن معلومات حساسة دون قصد.

لنأخذ على سبيل المثال تطبيقًا للرعاية الصحية يعتمد على نموذج التعلم الآلي. إذا تم تدريب هذا النموذج عن غير قصد على سجلات مرضى حقيقية، فقد يكشف التطبيق معلومات حساسة عن هؤلاء المرضى. في الوقت نفسه، فإن معظم نماذج التعلم الآلي، مثل... ChatGPT استخدم توجيهات المستخدمين للتدريب. في مثل هذه الحالات، قد يتم الكشف عن بيانات حساسة إذا كشف المستخدمون عن معلومات حساسة في التوجيهات دون قصد.

تدابير وقائية

  • قم بإنشاء وتنفيذ ضوابط تنظيف البيانات لإزالة البيانات الحساسة من مجموعات بيانات التدريب.
  • بفضل سياسات التحقق والضوابط، يمكن لفرق الأمن منع التهديدات مثل تسميم البيانات عن طريق تصفية المطالبات الضارة.
  • من المهم خلق الوعي من خلال تدريب الموظفين بشأن المخاطر المرتبطة بأنظمة إدارة التعلم والبيانات.

LLM07 - تصميم إضافات غير آمنة

تُشكّل الإضافات غير الآمنة تهديدًا كان موجودًا حتى قبل تقنية إدارة دورة حياة التطبيقات (LLM)، كما هو الحال مع خدمات الويب أو التطبيقات المستندة إلى الويب. ويمكن أن تؤدي هذه الأكواد المنفصلة إلى عواقب وخيمة، مثل تسريب البيانات، أو المصادقة غير المصرح بها، أو حقن التعليمات البرمجية بشكل غير مباشر.

من الأمثلة الشائعة على هذه الثغرة الأمنية إضافةٌ لا تتحقق من المدخلات وتُنفّذ إجراءات دون مصادقة. إذا اكتشف مهاجم هذه الثغرة في نظام إدارة التعلم، فبإمكانه تنفيذ تعليمات برمجية خبيثة أو الحصول على صلاحيات مفرطة.

التدابير الوقائية

  • ينبغي تطبيق مبدأ الوصول بأقل الامتيازات لتقييد الوصول إلى جميع المكونات الإضافية للمستخدمين المصرح لهم فقط.
  • اختبر المكونات الإضافية وتحقق من صحتها دائمًا للتحقق من وجود ثغرات أمنية ومخاطر.
  • استخدم OAuth2 ومفاتيح API لتمكين المكونات الإضافية من التحقق من الهويات المصرح بها فقط.

LLM08 - الوكالة المفرطة

يُعدّ منح صلاحيات واسعة ثغرة أمنية جديدة تم اكتشافها وإدراجها ضمن قائمة OWASP لأهم عشر ثغرات أمنية لتطبيقات إدارة دورة حياة البرمجيات. تكمن المشكلة في منح إدارة دورة حياة البرمجيات صلاحيات واسعة لقراءة وكتابة وتنفيذ التعليمات البرمجية، أو منحها استقلالية تامة، مما يُمكّن التطبيق من تنفيذ وظائف غير محدودة. على سبيل المثال، قد يُدمج مطورٌ إضافةً في إدارة دورة حياة البرمجيات، مما يمنحها القدرة على قراءة المستندات لتحليلها. مع ذلك، قد تتضمن هذه الإضافة وظائف إضافية لتعديل المستندات أو حتى حذفها. في حال حدوث حقن غير مباشر، قد يتم التلاعب بالتطبيق لحذف مستندات قيّمة من المستودع، مما يُلحق الضرر بالعمل وسمعته.

التدابير الوقائية

  • التحقق من صحة المكونات الإضافية والتأكد من توفير الحد الأدنى من الوظائف الضرورية للوكلاء.
  • استخدم فقط مكونات إضافية محددة لتجنب الوظائف المفتوحة.
  • ينبغي النظر في تطبيق مبدأ التدخل البشري للتحقق من صحة الإجراءات والموافقة عليها.

LLM09 - الاعتماد المفرط

يُعدّ الاعتماد المفرط فئة جديدة من المخاطر المرتبطة بنماذج التعلم الآلي. ويحدث هذا عندما يبدأ الأفراد أو التطبيقات بالاعتماد على هذه النماذج دون ضوابط أو سياسات أو إشراف مناسب. وقد يؤدي الاعتماد المفرط على نماذج التعلم الآلي إلى أخطاء سياقية أو واقعية في نتائجها، مما يُفضي إلى معلومات مضللة أو توجيهات خاطئة.

لنأخذ على سبيل المثال موظفًا يستخدم نظام إدارة التعلم (LLM) لتلخيص أداء الشركة ربع السنوي. تتخذ الشركة قرارات استراتيجية بناءً على البيانات الواردة في التقرير المُنشأ بواسطة النظام. بعد مرور ربع سنة، يكتشف الفريق أن البيانات غير صحيحة. ولكن بحلول ذلك الوقت، يكون الضرر قد وقع.

التدابير الوقائية

  • من الأهمية بمكان مراقبة النتائج التي ينتجها برنامج الماجستير في القانون بانتظام، والتأكد من أنها موثوقة ومتسقة.
  • قم بإنشاء آليات لمراقبة تفاعلات التطبيق أو المستخدمين مع نظام إدارة التعلم، مثل تصفية المحتوى، وتنقيح البيانات الحساسة، وما إلى ذلك.
  • قم بإنشاء عمليات تحقق آلية للتحقق المتبادل من الحقائق.

LLM10 - سرقة النماذج

آخر المخاطر المدرجة في قائمة OWASP لأهم عشرة مخاطر لتطبيقات إدارة دورة حياة البرمجيات (LLM) هو خطر سرقة النماذج. يتمثل هذا الخطر في حصول جهة خبيثة على وصول غير مصرح به إلى مستودعات LLM أو اختراقها، مما يؤدي إلى كشف بيانات حساسة ، أو استخدامها بشكل غير مصرح به، أو فقدان السمعة. لنفترض أن أحد تطبيقات LLM يحتوي على إعدادات غير صحيحة لم يتم التحقق منها. إذا اكتشف مستخدم خبيث مثل هذه الثغرة الأمنية في تطبيق LLM خاص، فسيتمكن من الوصول إليه بشكل غير مصرح به. قد يعني هذا أنه يستطيع استخراج المعلمات لتكرار وظائف معينة أو حقن مطالبات خبيثة، على سبيل المثال لا الحصر.

التدابير الوقائية

  • وللتخفيف من المخاطر، يوصى بشدة بتطبيق نظام التحكم في الوصول للحد من الوصول إلى مستودعات LLM وبيئات التدريب.
  • قم بمراقبة سجلات الوصول باستمرار لتحديد الاتجاهات غير الطبيعية في الوصول إلى نظام إدارة التعلم أو استخدامه.
  • منع هجمات القنوات الجانبية التي تحدث بسبب عمليات الحقن الفورية عن طريق تطبيق الضوابط المناسبة.

احمِ بيئة مشروعك القانوني ومكّن استخدامها الآمن مع Securiti

Securiti تم تصميم مركز قيادة البيانات والذكاء الاصطناعي لتمكين المؤسسات من الاستخدام الآمن لبياناتها وتقنيات الذكاء الاصطناعي من خلال الاستفادة من الذكاء السياقي والضوابط الآلية. يوفر هذا الحل ذكاءً سياقيًا موحدًا وأتمتة لأمن الذكاء الاصطناعي والبيانات، والحوكمة، والخصوصية، والامتثال.

يمكن لمركز قيادة البيانات والذكاء الاصطناعي الخاص بنا مساعدتك في حماية أنظمة إدارة التعلم الخاصة بك وبيئة بياناتك من... OWASP Top 10 LLM التهديدات:

  • اكتشف نماذج ووكلاء الذكاء الاصطناعي (LLM-08 الوكالة المفرطة، LLM-09 الاعتماد المفرط، LLM-10 سرقة النموذج)
  • تقييم مخاطر نماذج الذكاء الاصطناعي (LLM-08 الوكالة المفرطة، LLM-09 الاعتماد المفرط، LLM-10 سرقة النموذج)
  • فهم استخدام البيانات مع الذكاء الاصطناعي (LLM-03 تسميم نموذج البيانات، LLM-06 الكشف عن البيانات الحساسة، LLM-08 الوكالة المفرطة، LLM-09 الاعتماد المفرط)
  • تطبيق ضوابط البيانات والذكاء الاصطناعي المدمجة لضمان الأمن والخصوصية - مراقبة المخاطر وتخفيفها في مختلف تفاعلات إدارة التعلم مدى الحياة: الاستجابة، والتنبيه، والاسترجاع عبر context-aware LLM Firewalls (LLM-01 حقن البيانات الفورية، LLM-02 معالجة المخرجات غير الآمنة، LLM-04 نموذج رفض الخدمة، LLM-06 الكشف عن المعلومات الحساسة، LLM-09 الاعتماد المفرط)، و
  • الامتثال للوائح والمعايير العالمية - الاستفادة من الاختبارات والضوابط المشتركة لأتمتة الامتثال لقوانين وأطر البيانات والذكاء الاصطناعي العالمية.

اطلب عرضًا توضيحيًا لمعرفة المزيد عن مركز قيادة البيانات والذكاء الاصطناعي.

قم بتحليل هذه المقالة باستخدام الذكاء الاصطناعي

تظهر المطالبات في أدوات الذكاء الاصطناعي التابعة لجهات خارجية.
انضم إلى قائمتنا البريدية

احصل على أحدث المعلومات والتحديثات القانونية والمزيد مباشرةً في بريدك الإلكتروني



قصص أخرى قد تهمك
مقاطع فيديو
عرض المزيد
تخفيف مخاطر قائمة OWASP لأهم 10 مخاطر لتطبيقات ماجستير القانون 2025
أحدث الذكاء الاصطناعي التوليدي (GenAI) تحولاً جذرياً في طريقة عمل الشركات وتوسعها ونموها. يوجد تطبيق للذكاء الاصطناعي لكل غرض، بدءاً من زيادة إنتاجية الموظفين وصولاً إلى تبسيط العمليات...
عرض المزيد
أفضل 6 DSPM حالات الاستخدام
مع ظهور الذكاء الاصطناعي التوليدي (GenAI)، أصبحت البيانات أكثر ديناميكية. يتم توليد بيانات جديدة بوتيرة أسرع من أي وقت مضى، ونقلها إلى أنظمة وتطبيقات متنوعة...
عرض المزيد
قانون الخصوصية في كولورادو (CPA)
ما هو قانون خصوصية كولورادو؟ قانون خصوصية كولورادو هو قانون شامل لحماية الخصوصية، تم توقيعه في 7 يوليو 2021. وقد وضع معايير جديدة لحماية البيانات الشخصية...
عرض المزيد
Securiti لمساعد الطيار في البرمجيات كخدمة (SaaS)
تسريع اعتماد Copilot بأمان وثقة: تتطلع المؤسسات إلى اعتماد Microsoft 365 Copilot لزيادة الإنتاجية والكفاءة. ومع ذلك، تظل المخاوف الأمنية، مثل حماية البيانات...
عرض المزيد
أهم عشرة اعتبارات لاستخدام البيانات غير المهيكلة بأمان مع الذكاء الاصطناعي العام
نسبة مذهلة تصل إلى 90% من بيانات المؤسسات غير منظمة. وتُستخدم هذه البيانات بسرعة لتغذية تطبيقات الذكاء الاصطناعي من الجيل الجديد، مثل روبوتات الدردشة والبحث المدعوم بالذكاء الاصطناعي.
عرض المزيد
جينكور للذكاء الاصطناعي: بناء أنظمة ذكاء اصطناعي آمنة وعالية الجودة للمؤسسات في دقائق
مع تبني المؤسسات للذكاء الاصطناعي التوليدي، تواجه فرق البيانات والذكاء الاصطناعي العديد من العقبات: ربط مصادر البيانات غير المهيكلة والمهيكلة بشكل آمن، والحفاظ على الضوابط والحوكمة المناسبة،...
عرض المزيد
كيفية التعامل مع قانون حماية خصوصية المستهلك في كاليفورنيا: رؤى أساسية للشركات
ما هو قانون حقوق الخصوصية في كاليفورنيا (CPRA)؟ هو تشريع ولاية كاليفورنيا الذي يهدف إلى حماية خصوصية سكانها الرقمية. وقد دخل حيز التنفيذ في يناير...
عرض المزيد
التكيف مع التحول: الانتقال إلى معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS) الإصدار 4.0
ما هو معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS)؟ هو مجموعة من معايير الأمان لضمان المعالجة والتخزين الآمنين للبيانات، و...
عرض المزيد
تأمين البيانات والذكاء الاصطناعي: دليل إدارة الثقة والمخاطر والأمن (TRiSM)
أثارت المخاطر الأمنية المتزايدة للذكاء الاصطناعي قلق 48% من مسؤولي أمن المعلومات حول العالم. انضموا إلى هذه الجلسة الرئيسية للتعرف على دليل عملي لتمكين الثقة في الذكاء الاصطناعي، وإدارة المخاطر،...
عرض شركة ناشئة تابعة لـ AWS حول حوكمة الأمن السيبراني باستخدام الذكاء الاصطناعي التوليدي عرض المزيد
عرض شركة ناشئة تابعة لـ AWS حول حوكمة الأمن السيبراني باستخدام الذكاء الاصطناعي التوليدي
الموازنة بين الابتكار والحوكمة باستخدام الذكاء الاصطناعي التوليدي: يمتلك الذكاء الاصطناعي التوليدي القدرة على إحداث تغيير جذري في جميع جوانب الأعمال، بفضل إمكانياته الجديدة الفعّالة. ومع ذلك،...

جلسات حوارية مميزة

تسليط الضوء 50:52
من البيانات إلى النشر: حماية الذكاء الاصطناعي المؤسسي من خلال الأمن والحوكمة
شاهد الآن منظر
تسليط الضوء 11:29
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
شاهد الآن منظر
تسليط الضوء 11:18
إعادة هيكلة تمويل العقارات - كيف تُجري شركة ووكر آند دنلوب تحديثًا لمحفظتها الاستثمارية البالغة 135 مليار دولار أمريكي بالاعتماد على البيانات أولاً
شاهد الآن منظر
تسليط الضوء 13:38
تسريع المعجزات - كيف تُدمج شركة سانوفي الذكاء الاصطناعي لتقليص مدة تطوير الأدوية بشكل كبير
صورة مصغرة لشركة سانوفي
شاهد الآن منظر
تسليط الضوء 10:35
حدث تحول جوهري في مركز ثقل البيانات
شاهد الآن منظر
تسليط الضوء 14:21
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
شاهد الآن منظر
تسليط الضوء 12:!3
لا يمكنك بناء خطوط الأنابيب أو المستودعات أو منصات الذكاء الاصطناعي بدون معرفة تجارية
شاهد الآن منظر
تسليط الضوء 47:42
الأمن السيبراني – حيث يقوم القادة بالشراء والبناء والشراكة
ريحان جليل
شاهد الآن منظر
تسليط الضوء 27:29
بناء ذكاء اصطناعي آمن باستخدام Databricks و Gencore
ريحان جليل
شاهد الآن منظر
تسليط الضوء 46:02
بناء ذكاء اصطناعي آمن للمؤسسات: خارطة طريق عملية
شاهد الآن منظر
أحدث
عرض المزيد
نقدم لكم قائد العملاء
إن وعود وكلاء الذكاء الاصطناعي مذهلة - فالأنظمة الذكية التي تتخذ القرارات، وتستخدم الأدوات، وتؤتمت سير العمل المعقد، تعمل كمضاعفات قوة لكل معرفة...
عزل المخاطر: أكبر مشكلة في الذكاء الاصطناعي لا تتحدث عنها مجالس الإدارة عرض المزيد
عزل المخاطر: أكبر مشكلة في الذكاء الاصطناعي لا تتحدث عنها مجالس الإدارة
تتابع مجالس الإدارة نقاش الذكاء الاصطناعي، لكن هناك نقطة عمياء لم تُشر إليها العديد من المؤسسات بعد: وهي عزلة أقسام إدارة المخاطر. الجميع متفقون على ذلك. AI governance ...
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ قانون حماية خصوصية المستهلك في كاليفورنيا؟ عرض المزيد
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ القانون؟
يمكن للشركات أن تستفيد من بعض الدروس الحيوية من أكبر إجراء إنفاذي تم اتخاذه مؤخراً في تاريخ قانون خصوصية المستهلك في كاليفورنيا (CCPA). Securiti مدونة 's تغطي جميع التفاصيل المهمة التي يجب معرفتها.
عرض المزيد
الذكاء الاصطناعي وقانون HIPAA: ما يعنيه وكيفية أتمتة الامتثال
تعرّف على كيفية تطبيق قانون قابلية نقل التأمين الصحي والمساءلة (HIPAA) على الذكاء الاصطناعي في تأمين المعلومات الصحية المحمية. تعلّم كيف...
بناء بنية تحتية آمنة للذكاء الاصطناعي للخدمات المالية عرض المزيد
بناء بنية تحتية آمنة للذكاء الاصطناعي للخدمات المالية
اطلع على الورقة البيضاء واكتشف كيف تقضي المؤسسات المالية على الذكاء الاصطناعي الخفي، وتفرض سياسات الذكاء الاصطناعي في الوقت الفعلي، وتؤمن البيانات الحساسة من خلال نظام تحكم موحد في البيانات والذكاء الاصطناعي...
قوانين الخصوصية في ولايات إنديانا وكنتاكي ورود آيلاند عرض المزيد
قوانين الخصوصية في إنديانا وكنتاكي ورود آيلاند: ما الذي تغير وما الذي يجب على الشركات فعله الآن
تفصيل للجديد data privacy القوانين في ولايات إنديانا وكنتاكي ورود آيلاند - الالتزامات الرئيسية وحقوق المستهلك والجداول الزمنية للتنفيذ وما يجب على الشركات فعله الآن.
أمن الذكاء الاصطناعي الآلي: أهم 10 مخاطر أمنية وفقًا لمعيار OWASP مع أدوات تحكم مؤسسية عرض المزيد
أمن الذكاء الاصطناعي الآلي: أهم 10 مخاطر أمنية وفقًا لمعيار OWASP مع أدوات تحكم مؤسسية
قم بربط أهم 10 مخاطر OWASP للذكاء الاصطناعي الوكيل بضوابط على مستوى المؤسسة، والهوية، وأمن البيانات، والضوابط، والمراقبة، والحوكمة لوقف إساءة استخدام الذكاء الاصطناعي المستقل.
عرض المزيد
الأولويات الاستراتيجية لقادة الأمن في عام 2026
Securiti تقدم الورقة البيضاء الخاصة بـ [اسم الشركة] نظرة عامة مفصلة على النهج ثلاثي المراحل للامتثال لقانون الذكاء الاصطناعي، مما يجعلها قراءة أساسية للشركات العاملة في مجال الذكاء الاصطناعي. التصنيف: ...
عرض المزيد
تخلص من مخاطر البيانات في الذكاء الاصطناعي
تعرف على كيفية إعداد بيانات المؤسسة لاعتماد Gemini Enterprise بشكل آمن من خلال الحوكمة الأولية، واكتشاف البيانات الحساسة، وضوابط سياسة ما قبل الفهرسة.
عرض المزيد
دليل الحصول على شهادة HITRUST
Securiti يُعد الكتاب الإلكتروني دليلاً عملياً للحصول على شهادة HITRUST، ويغطي كل شيء بدءاً من اختيار i1 مقابل r2 ونطاق الأنظمة وصولاً إلى إدارة خطط العمل والتخطيط...
ما هو
جديد