الإعلان عن Agent Commander - أول حل متكامل من Veeam + Securiti .ai تمكين توسيع نطاق وكلاء الذكاء الاصطناعي الآمنين

منظر
فيم

أطرف أمسية في RSA مع حسن منهاج

حسن منهاج طلب تذكرة
منظر

الاستغلال الأنثروبي: مرحباً بكم في عصر هجمات عملاء الذكاء الاصطناعي

مؤلف

كريس جوينت

مدير تسويق المنتجات في Securiti

هذا المنشور متاح أيضاً باللغات التالية: English

ملخص تنفيذي

إن الاستغلال الناجح لنموذج الحدود يبشر بقدوم عصر هجمات عملاء الذكاء الاصطناعي، مما يثبت أن الجهات الفاعلة في مجال التهديد يمكنها الآن تجاوز الضوابط النموذجية وتنسيق عمليات التجسس الإلكتروني المعقدة عالية الأتمتة بسرعة الآلة.

إن سرعة وحجم هجمات عملاء الذكاء الاصطناعي تجعل دفاعاتك الحالية حول المحيط الخارجي قديمة وغير فعالة.

يتعين على المؤسسات تطوير استراتيجيات جديدة لحماية البيانات من هجمات الذكاء الاصطناعي ومنع استغلال أنظمة الذكاء الاصطناعي الخاصة بها. ولتحقيق ذلك، نرى أنه يجب على المؤسسات التخلي فوراً عن نموذج الأمن "الخارجي-الداخلي" القديم والتحول إلى نموذج أمن البيانات والذكاء الاصطناعي المتكامل والقابل للتطوير، أي بناء الدفاع من الداخل إلى الخارج.

يتطلب هذا ثلاثة أركان استراتيجية:

  • Sensitive Data Intelligence - معلومات استخباراتية شاملة حول أثمن أصولك.
  • Data Security Posture Management ( DSPM ) المتينة للغاية عبر كامل نطاق بيانات مؤسستك
  • عناصر تحكم دقيقة في وقت تشغيل الذكاء الاصطناعي تعمل خارج نموذج الذكاء الاصطناعي وتوفر حماية على مستوى النظام

Securiti الشريك الذي يوفر البنية الأساسية - عبر Sensitive Data Intelligence ، DataCommandGraph، وجدران الحماية Gencore - لتوفير مستوى الدقة اللازم من المعلومات والتحكم على نطاق المؤسسة، مما يضمن أنه مع نمو اعتمادك للذكاء الاصطناعي، تكون دفاعاتك متقدمة بالفعل على التهديد.

لقد أصبح النظري حقيقة واقعة

لسنوات، تخيّل مجتمع الأمن السيبراني إمكانات هجمات الذكاء الاصطناعي. وضعنا فرضيات حول التهديدات القائمة على البرامج الذكية وعمليات الهجوم واسعة النطاق بشكل نظري. قام باحثو الأمن بفحص نماذج وأنظمة الذكاء الاصطناعي لتحديد الثغرات الأمنية التي كانت في الأساس مجرد تمارين أكاديمية . ولكن الآن، مع الكشف الأخير عن الاستغلال الناجح لبرنامج Claude كود" ، وهو برنامج ذكاء اصطناعي شائع بين المطورين لبناء البرامج، يمكننا التأكيد على أن عصر هجمات برامج الذكاء الاصطناعي قد بدأ. أصبحت التمارين الأكاديمية واقعًا ملموسًا، والسيناريوهات الافتراضية دراسة حالة بالغة الأهمية للتعلم منها.

استغلال Claude لا شك أن هذا الكود سيُسجل كلحظة فارقة في تاريخ التكنولوجيا، كونه أول حالة موثقة وكبيرة لجهة تهديد نجحت في تسخير نموذج تجريبي لشن هجوم واسع النطاق لا يتطلب سوى توجيه بشري بسيط لتنفيذه. وقد تمكن شخص ما، ربما جهات حكومية، من استخدام... Claude تم استخدام الكود كنظام تنسيق لأتمتة جميع جوانب عمليات الهجوم تقريبًا. تم تنسيق العمليات على مراحل متعددة، وتمكن المهاجمون من تحديد خصائص الأهداف، واستكشافها، والتسلل إليها، والتحرك جانبيًا، وتصعيد الامتيازات، واستخراج البيانات من عدد غير معلن من الأهداف عالية القيمة في البنية التحتية والحكومة، مما قد يؤدي إلى ثغرات أمنية مستقبلية.

بمجرد أن رصدت شركة أنثروبيك النشاط المشبوه وأجرت تحقيقًا معمقًا، قامت على الفور بحظر الحسابات المسؤولة وإبلاغ المنظمات المتضررة، مع إجراء تحليل شامل. كل التقدير لشركة أنثروبيك على تعاملها الاحترافي مع الأمر ومشاركة نتائجها مع الجمهور.

لكن لا مجال للشك في أن هذا الهجوم سيغير قواعد اللعبة. اللافت للنظر في هذا الهجوم هو أنه على الرغم من استخدام عملاء لتنسيق وتنفيذ عمليات الهجوم، إلا أن الأدوات التي استخدموها كانت بسيطة. هذا يثبت أن الهجمات القائمة على الذكاء الاصطناعي لا تحتاج إلى ثغرات جديدة عندما تكون السرعة الهائلة والنطاق الواسع فعالين للغاية. لم يعد نظام الدفاع متعدد الطبقات كافيًا - يجب أن تتطور استراتيجيات الدفاع السيبراني. لن يكون النهج الجزئي لتأمين البيانات ومكونات أنظمة الذكاء الاصطناعي كافيًا بعد الآن. الذكاء الاصطناعي سريع للغاية ومتواصل بلا هوادة، يعمل على مدار الساعة طوال أيام الأسبوع بتفانٍ لا يتزعزع لتحقيق أهدافه.

في عصر هجمات الذكاء الاصطناعي، يجب أن يبدأ أي نهج فعّال لحماية أثمن أصول المؤسسة (البيانات) بمعلومات دقيقة حول هذه الأصول. أما النهج الأخرى فستترك ثغرات أمنية قابلة للاستغلال. كما يجب أن تكون هذه النهج شاملة ومتكاملة على مستوى المؤسسة، فالنهج الذي يعتمد على أدوات أمن البيانات المعزولة وأدوات أمن الذكاء الاصطناعي المنفصلة سيخلق ثغرات أمنية.

 

ماذا حدث؟

تشريح موجز لأول إطار عمل لهجوم وكيل الذكاء الاصطناعي

تم شرح تفاصيل الهجوم بالتفصيل في أماكن أخرى. ولتوضيح الأمر، سنلخصه بإيجاز هنا.

قام المهاجمون ببناء إطار عملهم، الأمر الذي استلزم منهم إنشاء نظام أتمتة حول خوادم MCP المختارة لدمجها. ثم جاءت مهمة "اختراق الحماية". Claude البرمجة. اختراق الأنظمة هو فن جعل نموذج ما يتجاهل إجراءات الحماية التي من شأنها عادةً منع المخرجات الضارة. في هذه الحالة، انتحل المهاجمون صفة شركة أمن سيبراني شرعية تُجري اختبارات اختراق. كما قاموا بتقسيم المهام إلى مهام فرعية تبدو بريئة، والتي عند النظر إليها بشكل منفصل، أخفت نواياهم الخبيثة بنجاح. مثّلت هذه المرحلة الأولية الجزء الأكبر من الجهد اليدوي.

مع بناء إطار عمل للهجوم و Claude بعد اختراق النظام بنجاح، استخدم المهاجمون بعد ذلك Claude يُستخدم الكود كمحرك تنسيق لتنفيذ المهام الفرعية في مجالات الاستطلاع، واختبار الثغرات الأمنية، وجمع بيانات الاعتماد، والتنقل الجانبي، واستخراج البيانات، والتوثيق. بل إنهم قاموا ببرمجة برنامج Attack Agent لتصنيف البيانات المستخرجة وبيانات اعتماد الحسابات ذات الامتيازات تلقائيًا حسب حساسيتها وفائدتها، مما يسهل عملية تسليمها إلى فرق الهجوم الأخرى لضمان استمرار العمليات.

المصدر: مدونة أنثروبيك

 

يُعدّ هذا نموذجًا مختلفًا جذريًا عن استخدام الإنسان لقدرات توليد الشفرات لاختراق الأنظمة أو استشارة الذكاء الاصطناعي للحصول على المشورة خلال حملة هجومية يقودها الإنسان. رصد الإطار حالة تسلسلات هجومية متوازية متعددة، وانتقل بين المراحل بأقل قدر من التدخل البشري، وجمع النتائج عبر جلسات متعددة. ووفقًا لشركة أنثروبيك، "شملت ذروة النشاط آلاف الطلبات، ما يُمثل معدلات طلبات مستدامة لعمليات متعددة في الثانية". ومن الجدير بالذكر أن الإطار استفاد من أدوات مفتوحة المصدر قياسية لمسح الشبكة، واختبار الاختراق، وتحليل الشفرات، وما إلى ذلك. يُبيّن هذا أن سرعة الذكاء الاصطناعي ونطاقه يُمكنان من جعل أطر الهجوم فعّالة للغاية دون الاعتماد على ثغرات جديدة. كما يُشير إلى احتمال انتشار هجمات مماثلة.

 

لماذا يغير هذا الهجوم كل شيء

يُجسّد هذا الهجوم ما حذّر منه خبراء الأمن منذ ظهور برامج الذكاء الاصطناعي المؤسسية. فقد حسّنت الابتكارات التقنية في السنوات القليلة الماضية قدرة هذه البرامج على أداء مهام متنوعة، واتباع تعليمات معقدة، والحفاظ على حالة النظام خلال عمليات متعددة الخطوات، واتخاذ القرارات لتحقيق الهدف النهائي. وفي الوقت نفسه، ظهرت معايير مثل MCP لتوحيد كيفية استخدام النماذج للأدوات. واليوم، تُستخدم خوادم MCP لمساعدة هذه البرامج على التفاعل مع العالم الخارجي لجمع المعلومات وتنفيذ المهام. إذ يُمكنها أتمتة نشاط المتصفح، واسترجاع البيانات، وتنفيذ الأوامر عن بُعد، والتحكم في أنظمة مختلفة. وقد ساهمت الابتكارات التقنية نفسها التي منحت هذه البرامج فائدة أكبر في جعلها فعّالة في الهجمات الإلكترونية.

تقنيات بسيطة لكسر الحماية Claude البرمجة. أدوات بسيطة تُستخدم بسرعة وكفاءة عاليتين جعلت منها سلاحًا فعالًا. سيتمكن الآن المهاجمون ذوو الموارد المحدودة من شن حملات هجومية كانت تتطلب في السابق تنسيقًا على مستوى الدول.

يمثل هذا الهجوم نقطة تحول.

يتعين على قادة الأمن السيبراني الآن وضع استراتيجيات لحماية أصولهم القيّمة من هجمات برامج الذكاء الاصطناعي، واتخاذ تدابير لحماية برامجهم من التسلح. ثلاثة أمور لن تجدي نفعاً في عصر هجمات البرامج:

  • الاعتماد على ضمانات النموذج الداخلي كوسيلة أساسية لتأمين أنظمة الذكاء الاصطناعي الداخلية نفسها دون وجود ضوابط خارجية للنموذج.
  • الاعتماد على طبقات من الدفاع تتوقف عند إنشاء محيط حول أنظمة البيانات دون وجود معلومات على مستوى الملفات للبيانات الموجودة داخل النظام.
  • الاعتماد على نماذج أمنية تفاعلية لا تعمل على تقليل مساحة الهجوم بشكل استباقي وتعزيز الوضع الأمني.

 

ما الذي كان بإمكان Securiti فعله لتقليل المخاطر في سيناريو مماثل؟

ملكنا DataAI Security يمكن لهذه القدرات أن تخفف أو تمنع تمامًا العديد من جوانب هجوم عميل الذكاء الاصطناعي من هذا النوع.

في حالة استخدام المهاجم لوكلاء الذكاء الاصطناعي لاختراق بياناتك، ستساعد منصتنا في:

  • اكتسب رؤية واضحة للأصول الخفية المعرضة للخطر.
  • تحديد الهويات البشرية والآلية التي تتمتع بصلاحيات زائدة والتي تضاعف نطاق الهجمات الآلية.
  • تحديد المجموعات السامة من العوامل التي تسبب المخاطر عند وجودها معًا، مثل إمكانية الوصول إلى البيانات الحساسة من قبل هويات غير مقصودة أو سوء تكوين النظام الذي يسمح بالوصول غير المصرح به إلى البيانات.
  • تقليل مساحة الهجوم المحتملة من خلال تطبيق مبدأ أقل الامتيازات بشكل استباقي وإزالة البيانات غير الضرورية أو القديمة أو الزائدة عن الحاجة.
  • التكامل مع أدوات الأمن السيبراني المختلفة لإثراء عمليات الأمن بمعلومات استخباراتية دقيقة.

إذا تمكن وكيل الذكاء الاصطناعي من الدخول عبر الطبقات الخارجية للدفاع، فسيجد نفسه في بيئة ذات امتيازات محدودة مع فرص أقل بكثير للتحرك بشكل جانبي، أو تصعيد الامتيازات، أو الوصول إلى البيانات الحساسة.

يمكن لضوابط التشغيل الخاصة بنا للذكاء الاصطناعي أن تساعد في حماية أنظمة الذكاء الاصطناعي نفسها من الاستغلال. لا يوجد سبب للاعتقاد بذلك. Claude لا تقل أمانًا عن أي نموذج رائد آخر. مع ذلك، توجد ضوابط إضافية ضرورية لحماية أنظمة الذكاء الاصطناعي أثناء التشغيل. في حالة محاولة مهاجم اختراق نموذج تستخدمه واستخدام أدوات MCP التي لديه صلاحية الوصول إليها بطريقة خبيثة، يمكن لمنصتنا المساعدة في:

  • مراقبة وتطبيق السياسات المتعلقة بجميع أحداث الذكاء الاصطناعي ذات الصلة، بما في ذلك المطالبات والمخرجات والاسترجاع.
  • قم بفحص محاولات كسر الحماية وحظرها
  • قم بإبلاغ محللي الأمن بسرعة في حالة محاولة اختراق النظام
  • منع إساءة استخدام الذكاء الاصطناعي عن طريق تقييد استخدامه بالمواضيع المعتمدة والمتوافقة مع الاستخدام المقصود للنظام

Securiti ينشر هذا النظام ضوابط أمان لوقت تشغيل الذكاء الاصطناعي لحماية استخدام نماذج الذكاء الاصطناعي من خلال فحص جميع التفاعلات بين المستخدمين والنماذج والأدوات. سيجد المهاجم صعوبة بالغة في اختراق نموذج محمي بواسطة هذه الضوابط. Securiti حيث يتم فحص الرسائل تحديدًا بحثًا عن محاولات اختراق النظام وأي نشاط يُعتبر خارجًا عن الموضوع أو مخالفًا لسياسة نظام الذكاء الاصطناعي المحدد قبل وصول الرسالة إلى النموذج. حتى لو تمكن المهاجم بطريقة ما من اختراق النموذج نفسه، فسيواجه عقبة أخرى تتمثل في محاولة استخدام أدوات MCP بطريقة خبيثة.

 

تحدي حماية أنظمة الذكاء الاصطناعي

 

يتطلب تأمين أنظمة الذكاء الاصطناعي أكثر بكثير من مجرد أمان النموذج

 

لن ينجح النموذج القديم الذي يركز على أمن نموذج الذكاء الاصطناعي نفسه مع تجربة المؤسسات لأطر عمل الوكلاء وتطبيقها في بيئات الإنتاج. يعود مفهوم الأمن التقليدي الذي يركز على النموذج إلى حقبة مضت، حين كانت النماذج محدودة النطاق، وكان يكفي معالجة نقاط الضعف فيها ومنع الوصول إليها. أما الوكلاء المعاصرون، فبفضل قدراتهم العامة الواسعة، يتمتعون بمرونة فائقة، مما يُدخل نقاط ضعف جديدة، ويمكن التلاعب بهم بطرق دقيقة للغاية.

يجب على قادة الأمن توسيع نطاق الأمن من التركيز على النماذج إلى نظام الذكاء الاصطناعي بأكمله. لا يقتصر هذا على توسيع نطاق الأمن فحسب، بل يشمل أيضًا التحول إلى أمن وحوكمة البيانات غير المهيكلة (التي تصل إلى 90% من بيانات المؤسسة)، وتوسيع قاعدة المستخدمين، ومراقبة السياسات وإنفاذها، كل ذلك في ظل ظهور ثغرات جديدة في الذكاء الاصطناعي، مثل الحقن الفوري ، وفرض لوائح جديدة تفرض متطلبات إضافية.

لا يكاد يمر أسبوع دون صدور تقرير جديد يُظهر سهولة اختراق النماذج المتقدمة. فقد اكتشف الباحثون مؤخرًا أن إخفاء هجماتهم تحت ستار " الشعر العدائي " كان كافيًا لتجاوز إجراءات الحماية في النماذج بنسبة 62%، بل واختبروا شعرًا عدائيًا مُولّدًا بواسطة الذكاء الاصطناعي بنجاح كبير.

يكمن التحدي في التطور السريع بما يكفي لمواكبة تبني الذكاء الاصطناعي. وسرعان ما يصبح أمن الذكاء الاصطناعي مشكلة شاملة ومتشعبة لا يمكن حلها عملياً دون أتمتة.

 

تحدي حماية البيانات الحساسة من الهجمات المدعومة بالذكاء الاصطناعي

يكمن التحدي الرئيسي لحماية البيانات الحساسة في المؤسسات في الحجم الهائل والتعقيد الكبير لبنية البيانات الحديثة. يجب أن تكون دقة المعلومات المطلوبة على مستوى دقيق للغاية. لا يكفي قراءة بعض العناوين أو البيانات الوصفية وتصنيف ملف نصي. قد تكون البيانات الحساسة مدفونة في أعماق محتوى غير منظم. يجب فحص محتويات كل ملف وتصنيفها ووضع علامات عليها ووضعها في سياقها ورسم خرائط لها. إن القيام بذلك بدقة عبر السحابات ومراكز البيانات، وأنواع الملفات المختلفة، وأنواع البيانات الحساسة، مهمة شاقة.

هناك حاجة إلى الأتمتة لتوفير أساس الذكاء الذي تقوم عليه جميع العمليات DataAI security سوف يعتمد.

ثلاثة أركان أساسية لـ DataAI Security لعصر هجمات وكلاء الذكاء الاصطناعي

تُمكّن Securiti من الاستخدام الآمن للبيانات والذكاء الاصطناعي من خلال تفعيل DataAI security يجب على المؤسسات أولاً أن تمتلك فهماً عميقاً وشاملاً للبيانات الحساسة التي تحتاج إلى حمايتها. بعد ذلك، يجب عليها أن تفهم العلاقات المعقدة بين العناصر، بما في ذلك التحكم في الوصول والسياسات.

 

لماذا Sensitive Data Intelligence ؟

ينطبق المثل القائل "لا يمكنك حماية ما لا تراه" تمامًا في ضوء هذا الهجوم، إذ أن سرعة وحجم الهجمات الإلكترونية قادرة على استغلال أي ثغرة أمنية. وبطبيعة الحال، يُعدّ الكشف الشامل عن أصول البيانات ورؤيتها بوضوح شرطًا أساسيًا للحفاظ على وضع أمني سليم.

مع ذلك، يتمثل النهج الشائع في الأمن السيبراني في بناء "طبقات" دفاعية متعددة الطبقات، تقتصر على تأمين نظام البيانات نفسه، دون أي معلومات استخباراتية حول محتوياته. هذه المناهج الخارجية غير كافية في عصرنا الحالي، لأنها في جوهرها حواجز مؤقتة تُتيح الوقت للاستجابة لهجوم بشري. وبسبب غياب المعلومات الاستخباراتية، يُعامل هذا النهج جميع البيانات على قدم المساواة. أما هجمات الذكاء الاصطناعي، فلا تعمل بهذه الطريقة، بل تُعطي الأولوية للبيانات الحساسة ذات القيمة العالية، وتعمل بسرعة فائقة.

أخيرًا، تفشل أدوات منع فقدان البيانات (DLP)، التي لطالما شكلت ركيزة أساسية لهذه الطبقات، في عصر الذكاء الاصطناعي. فهي لا توفر أي حماية ضد محاولات الحقن الفوري أو اختراق الأنظمة، ولا تقدم سوى تعريفات عامة لما يُعتبر بيانات حساسة، مثل معلومات التعريف الشخصية (PII)، مع مرونة محدودة للتكيف مع البيانات الفريدة لكل مؤسسة. ويمكن لهجمات وكلاء الذكاء الاصطناعي بسهولة العثور على بيانات حساسة غير مشمولة بسياسة منع فقدان البيانات، أو إخفاء البيانات، أو استخدام قنوات غير تقليدية لتسريب البيانات لا تغطيها هذه السياسة.

يبدأ أمن البيانات الحديث بمعرفة مكان وجود البيانات الحساسة بالضبط وما إذا كانت آمنة للاستخدام بواسطة الذكاء الاصطناعي. Securiti 's sensitive data intelligence يوفر هذا النظام هذه الرؤية منذ اليوم الأول من خلال تطبيق مئات المصنفات المدربة مسبقًا والمدعومة بالذكاء الاصطناعي والتي تكتشف بدقة البيانات المنظمة والشخصية، بالإضافة إلى المصنفات المخصصة لاكتشاف المستندات السرية والخاصة على نطاق واسع.

بفضل الضبط المدعوم بالذكاء الاصطناعي، تستطيع الفرق تحسين كفاءة التصنيف بسهولة دون الحاجة إلى إعادة فحص البيانات، مما يوفر شهورًا من العمليات المتكررة والجهد اليدوي في الضبط، ويقلل بشكل كبير من النتائج الإيجابية والسلبية الخاطئة. هذا يُسرّع من الوصول إلى النتائج ويمنح فرق الأمن أساسًا موثوقًا وغنيًا بالمعلومات لتحديد مجموعات البيانات الآمنة لأحمال عمل الذكاء الاصطناعي وتلك التي تتطلب ضوابط إضافية.

والنتيجة : سياق بيانات حساسة سريع وموثوق وقابل للتطوير يمكّن المؤسسات من إطلاق العنان لابتكارات الذكاء الاصطناعي بشكل آمن.

 

مثال : يعتمد تصنيف Securiti للبيانات الحساسة على الذكاء الاصطناعي ويمنح المستخدمين القدرة على ضبط المصنفات لبياناتهم لتحقيق أقصى قدر من الدقة في تصنيف البيانات الحساسة من مختلف الأنواع.

 

لماذا DSPM باستخدام DataCommandGraph؟

يركز نهجنا الشامل DSPM sensitive data intelligence بشكل معمق وشامل على مستوى المؤسسة، مدعومًا بتقنية DataCommandGraph. يُعدّ الاكتشاف والتصنيف والوسم ورسم خرائط شاملة لجميع أصول DataAI شرطًا أساسيًا للاستخدام الآمن للبيانات والذكاء الاصطناعي. يكتشف نهج Securiti القائم على الرسوم البيانية تلقائيًا كيفية ترابط عناصر منظومة بياناتك (المستخدمون، والسياسات، واللوائح، والأنظمة، وما إلى ذلك) والمخاطر التي تُشكّلها هذه العلاقات على منظومة بياناتك.

من خلال تصوير هذه العلاقات، تساعد منصتنا في تحديد أصول البيانات التي تجمع بين عناصر مخاطر البيانات، مثل الحساسية، ومنح الصلاحيات الزائدة، و/أو إعدادات الأمان غير الصحيحة، وذلك لتحديد أولويات المعالجة. كما تساعد في تحديد البيانات الزائدة والقديمة التي تجاوزت متطلبات الاحتفاظ بها، والتي يمكن استهدافها لتقليل حجمها. ستوفر DataCommandGraph معلومات استخبارية غنية حول الوصول إلى البيانات ومعالجتها، لفرض مبدأ أقل الامتيازات وتطهير البيانات قبل إدخالها، مما يضمن بيانات آمنة بشكل مستمر. إن سد هذه الثغرات في أمن البيانات يرسخ الأساس لاستخدام آمن للذكاء الاصطناعي، ويحمي البيانات في حال وقوع هجوم من قبل وكيل ذكاء اصطناعي.    

مثال : يحلل DataCommandGraph إعدادات التحكم في الوصول، ويعرض العلاقات بين حسابات المستخدمين والحسابات الآلية، ومدى وصولها إلى البيانات داخل بيئتك. تساعد هذه المعلومات في الحدّ من تجاوز صلاحيات الحسابات، والذي قد يستغله مهاجم يستخدم برامج الذكاء الاصطناعي أو حتى استعلام ذكاء اصطناعي بريء.

 

لماذا تُستخدم جدران الحماية من Gencore كضوابط أمان لوقت تشغيل الذكاء الاصطناعي؟

تُعدّ ضوابط تشغيل الذكاء الاصطناعي الإضافية ضرورية لمنع اختراق أنظمة الذكاء الاصطناعي وغيرها من الهجمات عليها. ولا يكفي الاعتماد على ضوابط النماذج الرائدة لأمن الذكاء الاصطناعي في المؤسسات. فالنماذج، بطبيعتها، غير شفافة وتتطلب موارد ضخمة لتدريبها أو ضبطها. تُدرَّب النماذج الرائدة الحالية على كميات هائلة من البيانات من الإنترنت العام قبل تدريبها بشكل إضافي للتعرف على المخرجات "الضارة". ولا تُؤدي هذه الضوابط أداءً جيدًا عند مواجهة أمثلة واقعية لم تُشاهدها أثناء التدريب، مما يُؤدي إلى لعبة القط والفأر التي تُشبه اختراق الأنظمة. كما أن هذه الضوابط عامة، وليست مُخصصة لاحتياجات أي مؤسسة.

لا توفر الضمانات الداخلية للنموذج للمؤسسات التحكم والمرونة اللازمين. تُنشر جدران الحماية من Gencore خارج نموذج الذكاء الاصطناعي، مما يمنح المؤسسات القدرة على تكوين وتطبيق سياسات خاصة باحتياجاتها من الذكاء الاصطناعي والأمان بشكل مستقل عبر النماذج والأنظمة. يوصي إطار عمل TRiSM لأمن الذكاء الاصطناعي من Gartner صراحةً بما يلي: "يجب على المؤسسات الحفاظ على استقلاليتها عن أي نموذج ذكاء اصطناعي أو مزود استضافة لضمان قابلية التوسع والمرونة والتحكم في التكاليف والثقة، مع نضوج أسواق الذكاء الاصطناعي وتغيرها السريع."

من خلال اعتراض المدخلات قبل وصولها إلى النموذج، تمنح هذه التقنية المؤسسات القدرة على القيام بأمور مثل تنقيح البيانات الحساسة قبل عرضها على نموذج تابع لجهة خارجية ( ChatGPT يشتهر نظام Gencore Firewalls باحتفاظه بجميع مدخلات البيانات على شكل مطالبات. وبدلاً من ذلك، في حال اكتشاف تعليمات ضارة، يمكن إنشاء تنبيه لفرق الأمن. ومن أبرز وظائف Gencore Firewalls قدرته على حصر نشاط الذكاء الاصطناعي في مجموعة محددة من المواضيع، مما يمنع إساءة استخدامه. على سبيل المثال، إذا سأل مستخدم نظام ذكاء اصطناعي مخصص لتقديم دعم العملاء، أسئلة حول طرق المصادقة للأنظمة الداخلية، فسيتم حظر هذه المطالبة.

إن اتساع نطاق السياسات وسهولة التكوين ومرونة النشر في Gencore Firewall تجعله قابلاً للتوسع ليشمل المؤسسات، حيث يؤدي انتشار المستخدمين والنماذج والأدوات ومصادر البيانات إلى خلق تعقيد بمعدل هائل مع توسع الذكاء الاصطناعي.

أخيرًا، من خلال وضع جدار حماية في مرحلة الإخراج، يمكن تهيئة طبقة حماية إضافية للقيام بأمور مثل تنقيح أو إخفاء مخرجات البيانات الحساسة. وبهذه الطريقة، حتى في حالة نجاح عملية اختراق النظام، سيظل المهاجمون عاجزين عن استعادة البيانات الحساسة. ومع ذلك، سيظل بإمكان أي شخص مطلع على النظام ويجيد استخدامه تسجيل انتهاك للسياسة، مما يستدعي التدقيق. 

 

مثال: Securiti تتيح جدران الحماية Gencore للمؤسسات إمكانية ضبط السياسات ونشرها خارج النموذج، ما يمنحها تحكمًا كاملًا في تدفق البيانات إلى أنظمة الذكاء الاصطناعي الخاصة بها. ويتم رصد هجمات الحقن المباشر أو محاولات اختراق النظام قبل وصولها إلى النموذج.

 

حماية أصولك الحيوية في عصر هجمات الذكاء الاصطناعي

ما نحتاجه في هذا العصر الجديد هو نموذج أمني متكامل يعطي الأولوية للشمولية sensitive data intelligence كشرط أساسي، يرسم العلاقات بين جميع الكائنات عبر مجموعة البيانات، ويضع طبقة من التحكم على نظام الذكاء الاصطناعي خارج نموذج الذكاء الاصطناعي، ويتوسع لتلبية احتياجات المؤسسة عبر بيئات البيانات والتكنولوجيا المعقدة.

Securiti لقد قمنا ببناء ذلك بالضبط من خلال حلولنا المتكاملة DataCommandGraph و Gencore Firewalls. Securiti صُمم نظامنا لضمان الدقة والتوسع والقدرة على التكيف مع بيانات مؤسستك. يستخدم نظامنا المدعوم بالذكاء الاصطناعي مصنفات فريدة لأنواع عديدة من البيانات الحساسة، بالإضافة إلى مسار من خمس خطوات لاستخلاص الإشارات من البيانات الخام بدقة عالية. يدعم رسم بياني واحد جميع حالات استخدام DataAI sec على نطاق واسع، ويتكيف نظامنا المدعوم بالذكاء الاصطناعي مع بياناتك، حيث يتعلم العلاقات، ويضبط التصنيف، ويولد سياسات جديدة دون الحاجة إلى كتابة أي كود أو نقل أي بيانات.

قبل الموجة الحالية للذكاء الاصطناعي بفترة طويلة، Securiti بدأنا الاستعداد لهذه اللحظة، وقمنا بتصميم نظامنا لمواجهة تحديات الذكاء الاصطناعي الوكيل.

 

لم يكن الهجوم البشري مجرد تحذير، بل كان بمثابة الضربة الافتتاحية. لقد انتقلنا بلا شك من مشهد تهديد نظري إلى مشهد واقعي. لقد حلّ "عصر هجوم الذكاء الاصطناعي".

لن يُقاس النجاح في هذا العصر الجديد ببناء جدران أعلى، بل ببناء دفاعات أكثر ذكاءً وتكاملاً. ويتطلب ذلك تحولاً جذرياً نحو نظام موحد. DataAI security موقف يحمي دورة حياة البيانات بأكملها وتفاعلها مع الذكاء الاصطناعي. Securiti تم تصميمها بشكل فريد لتوفير الذكاء والمرونة وقابلية التوسع التي تحتاجها مؤسستك.

قم بتحليل هذه المقالة باستخدام الذكاء الاصطناعي

تظهر المطالبات في أدوات الذكاء الاصطناعي التابعة لجهات خارجية.
انضم إلى قائمتنا البريدية

احصل على أحدث المعلومات والتحديثات القانونية والمزيد مباشرةً في بريدك الإلكتروني


يشارك

قصص أخرى قد تهمك
مقاطع فيديو
عرض المزيد
تخفيف مخاطر قائمة OWASP لأهم 10 مخاطر لتطبيقات ماجستير القانون 2025
أحدث الذكاء الاصطناعي التوليدي (GenAI) تحولاً جذرياً في طريقة عمل الشركات وتوسعها ونموها. يوجد تطبيق للذكاء الاصطناعي لكل غرض، بدءاً من زيادة إنتاجية الموظفين وصولاً إلى تبسيط العمليات...
عرض المزيد
أفضل 6 DSPM حالات الاستخدام
مع ظهور الذكاء الاصطناعي التوليدي (GenAI)، أصبحت البيانات أكثر ديناميكية. يتم توليد بيانات جديدة بوتيرة أسرع من أي وقت مضى، ونقلها إلى أنظمة وتطبيقات متنوعة...
عرض المزيد
قانون الخصوصية في كولورادو (CPA)
ما هو قانون خصوصية كولورادو؟ قانون خصوصية كولورادو هو قانون شامل لحماية الخصوصية، تم توقيعه في 7 يوليو 2021. وقد وضع معايير جديدة لحماية البيانات الشخصية...
عرض المزيد
Securiti لمساعد الطيار في البرمجيات كخدمة (SaaS)
تسريع اعتماد Copilot بأمان وثقة: تتطلع المؤسسات إلى اعتماد Microsoft 365 Copilot لزيادة الإنتاجية والكفاءة. ومع ذلك، تظل المخاوف الأمنية، مثل حماية البيانات...
عرض المزيد
أهم عشرة اعتبارات لاستخدام البيانات غير المهيكلة بأمان مع الذكاء الاصطناعي العام
نسبة مذهلة تصل إلى 90% من بيانات المؤسسات غير منظمة. وتُستخدم هذه البيانات بسرعة لتغذية تطبيقات الذكاء الاصطناعي من الجيل الجديد، مثل روبوتات الدردشة والبحث المدعوم بالذكاء الاصطناعي.
عرض المزيد
جينكور للذكاء الاصطناعي: بناء أنظمة ذكاء اصطناعي آمنة وعالية الجودة للمؤسسات في دقائق
مع تبني المؤسسات للذكاء الاصطناعي التوليدي، تواجه فرق البيانات والذكاء الاصطناعي العديد من العقبات: ربط مصادر البيانات غير المهيكلة والمهيكلة بشكل آمن، والحفاظ على الضوابط والحوكمة المناسبة،...
عرض المزيد
كيفية التعامل مع قانون حماية خصوصية المستهلك في كاليفورنيا: رؤى أساسية للشركات
ما هو قانون حقوق الخصوصية في كاليفورنيا (CPRA)؟ هو تشريع ولاية كاليفورنيا الذي يهدف إلى حماية خصوصية سكانها الرقمية. وقد دخل حيز التنفيذ في يناير...
عرض المزيد
التكيف مع التحول: الانتقال إلى معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS) الإصدار 4.0
ما هو معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS)؟ هو مجموعة من معايير الأمان لضمان المعالجة والتخزين الآمنين للبيانات، و...
عرض المزيد
تأمين البيانات والذكاء الاصطناعي: دليل إدارة الثقة والمخاطر والأمن (TRiSM)
أثارت المخاطر الأمنية المتزايدة للذكاء الاصطناعي قلق 48% من مسؤولي أمن المعلومات حول العالم. انضموا إلى هذه الجلسة الرئيسية للتعرف على دليل عملي لتمكين الثقة في الذكاء الاصطناعي، وإدارة المخاطر،...
عرض شركة ناشئة تابعة لـ AWS حول حوكمة الأمن السيبراني باستخدام الذكاء الاصطناعي التوليدي عرض المزيد
عرض شركة ناشئة تابعة لـ AWS حول حوكمة الأمن السيبراني باستخدام الذكاء الاصطناعي التوليدي
الموازنة بين الابتكار والحوكمة باستخدام الذكاء الاصطناعي التوليدي: يمتلك الذكاء الاصطناعي التوليدي القدرة على إحداث تغيير جذري في جميع جوانب الأعمال، بفضل إمكانياته الجديدة الفعّالة. ومع ذلك،...

جلسات حوارية مميزة

تسليط الضوء 50:52
من البيانات إلى النشر: حماية الذكاء الاصطناعي المؤسسي من خلال الأمن والحوكمة
شاهد الآن منظر
تسليط الضوء 11:29
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
شاهد الآن منظر
تسليط الضوء 11:18
إعادة هيكلة تمويل العقارات - كيف تُجري شركة ووكر آند دنلوب تحديثًا لمحفظتها الاستثمارية البالغة 135 مليار دولار أمريكي بالاعتماد على البيانات أولاً
شاهد الآن منظر
تسليط الضوء 13:38
تسريع المعجزات - كيف تُدمج شركة سانوفي الذكاء الاصطناعي لتقليص مدة تطوير الأدوية بشكل كبير
صورة مصغرة لشركة سانوفي
شاهد الآن منظر
تسليط الضوء 10:35
حدث تحول جوهري في مركز ثقل البيانات
شاهد الآن منظر
تسليط الضوء 14:21
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
شاهد الآن منظر
تسليط الضوء 12:!3
لا يمكنك بناء خطوط الأنابيب أو المستودعات أو منصات الذكاء الاصطناعي بدون معرفة تجارية
شاهد الآن منظر
تسليط الضوء 47:42
الأمن السيبراني – حيث يقوم القادة بالشراء والبناء والشراكة
ريحان جليل
شاهد الآن منظر
تسليط الضوء 27:29
بناء ذكاء اصطناعي آمن باستخدام Databricks و Gencore
ريحان جليل
شاهد الآن منظر
تسليط الضوء 46:02
بناء ذكاء اصطناعي آمن للمؤسسات: خارطة طريق عملية
شاهد الآن منظر
أحدث
عرض المزيد
نقدم لكم قائد العملاء
إن وعود وكلاء الذكاء الاصطناعي مذهلة - فالأنظمة الذكية التي تتخذ القرارات، وتستخدم الأدوات، وتؤتمت سير العمل المعقد، تعمل كمضاعفات قوة لكل معرفة...
عزل المخاطر: أكبر مشكلة في الذكاء الاصطناعي لا تتحدث عنها مجالس الإدارة عرض المزيد
عزل المخاطر: أكبر مشكلة في الذكاء الاصطناعي لا تتحدث عنها مجالس الإدارة
تتابع مجالس الإدارة نقاش الذكاء الاصطناعي، لكن هناك نقطة عمياء لم تُشر إليها العديد من المؤسسات بعد: وهي عزلة أقسام إدارة المخاطر. الجميع متفقون على ذلك. AI governance ...
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ قانون حماية خصوصية المستهلك في كاليفورنيا؟ عرض المزيد
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ القانون؟
يمكن للشركات أن تستفيد من بعض الدروس الحيوية من أكبر إجراء إنفاذي تم اتخاذه مؤخراً في تاريخ قانون خصوصية المستهلك في كاليفورنيا (CCPA). Securiti مدونة 's تغطي جميع التفاصيل المهمة التي يجب معرفتها.
عرض المزيد
الذكاء الاصطناعي وقانون HIPAA: ما يعنيه وكيفية أتمتة الامتثال
تعرّف على كيفية تطبيق قانون قابلية نقل التأمين الصحي والمساءلة (HIPAA) على الذكاء الاصطناعي في تأمين المعلومات الصحية المحمية. تعلّم كيف...
بناء بنية تحتية آمنة للذكاء الاصطناعي للخدمات المالية عرض المزيد
بناء بنية تحتية آمنة للذكاء الاصطناعي للخدمات المالية
اطلع على الورقة البيضاء واكتشف كيف تقضي المؤسسات المالية على الذكاء الاصطناعي الخفي، وتفرض سياسات الذكاء الاصطناعي في الوقت الفعلي، وتؤمن البيانات الحساسة من خلال نظام تحكم موحد في البيانات والذكاء الاصطناعي...
قوانين الخصوصية في ولايات إنديانا وكنتاكي ورود آيلاند عرض المزيد
قوانين الخصوصية في إنديانا وكنتاكي ورود آيلاند: ما الذي تغير وما الذي يجب على الشركات فعله الآن
تفصيل للجديد data privacy القوانين في ولايات إنديانا وكنتاكي ورود آيلاند - الالتزامات الرئيسية وحقوق المستهلك والجداول الزمنية للتنفيذ وما يجب على الشركات فعله الآن.
أمن الذكاء الاصطناعي الآلي: أهم 10 مخاطر أمنية وفقًا لمعيار OWASP مع أدوات تحكم مؤسسية عرض المزيد
أمن الذكاء الاصطناعي الآلي: أهم 10 مخاطر أمنية وفقًا لمعيار OWASP مع أدوات تحكم مؤسسية
قم بربط أهم 10 مخاطر OWASP للذكاء الاصطناعي الوكيل بضوابط على مستوى المؤسسة، والهوية، وأمن البيانات، والضوابط، والمراقبة، والحوكمة لوقف إساءة استخدام الذكاء الاصطناعي المستقل.
عرض المزيد
الأولويات الاستراتيجية لقادة الأمن في عام 2026
Securiti تقدم الورقة البيضاء الخاصة بـ [اسم الشركة] نظرة عامة مفصلة على النهج ثلاثي المراحل للامتثال لقانون الذكاء الاصطناعي، مما يجعلها قراءة أساسية للشركات العاملة في مجال الذكاء الاصطناعي. التصنيف: ...
عرض المزيد
تخلص من مخاطر البيانات في الذكاء الاصطناعي
تعرف على كيفية إعداد بيانات المؤسسة لاعتماد Gemini Enterprise بشكل آمن من خلال الحوكمة الأولية، واكتشاف البيانات الحساسة، وضوابط سياسة ما قبل الفهرسة.
عرض المزيد
دليل الحصول على شهادة HITRUST
Securiti يُعد الكتاب الإلكتروني دليلاً عملياً للحصول على شهادة HITRUST، ويغطي كل شيء بدءاً من اختيار i1 مقابل r2 ونطاق الأنظمة وصولاً إلى إدارة خطط العمل والتخطيط...
ما هو
جديد