الإعلان عن Agent Commander - أول حل متكامل من Veeam + Securiti .ai تمكين توسيع نطاق وكلاء الذكاء الاصطناعي الآمنين

منظر

جولة فيمون 2026 - البيانات والذكاء الاصطناعي يتلاقيان من أجل عصر الوكلاء

منظر

ما هو الامتثال للذكاء الاصطناعي وكيف يمكن للذكاء الاصطناعي أن يساعد في الامتثال التنظيمي؟

المساهمون

أنس بيج

مدير تسويق المنتجات في Securiti

عادل حسن

السيد. Data Privacy محلل في Securiti

CIPM، CIPP/كندا

نُشر في 4 أغسطس 2024

يُمثل الذكاء الاصطناعي التوليدي (GenAI) ذروة الإنجازات التكنولوجية، متجاوزًا بكثير الرهبة التي أحدثها ظهور الإنترنت. بدأ العالم ينظر إلى الابتكار من منظور فريد عندما كشف العقول التي تقف وراء OpenAI ChatGPT للجماهير.

أشارت دراسة أجراها معهد ماكينزي العالمي عام 2023 إلى التأثير المحتمل للذكاء الاصطناعي العام على الإيرادات السنوية في مختلف القطاعات على مستوى العالم، والذي يتراوح بين 2.6 و4.4 تريليون دولار. كما سرد التقرير العديد من حالات الاستخدام التي يمكن لهذه التقنية من خلالها تعزيز الإنتاجية بشكل ملحوظ، مثل توليد أكواد البرامج تلقائيًا وتقديم دعم تفاعلي للعملاء.

مع ذلك، غالبًا ما تميل القوى العظمى بطبيعتها إلى إفساد نفسها إذا تُركت دون رقابة. لذا، يمتلك الذكاء الاصطناعي القدرة على إنشاء ملفات تعريف مستخدمين متحيزة، والمساهمة في خطاب الكراهية، وإنتاج تعليقات تمييزية، أو انتهاك خصوصية المستخدمين. data privacy .

وهنا تبرز أهمية الامتثال لمعايير الذكاء الاصطناعي. فهو السبيل الذي يمكن للصناعات من خلاله نشر واستخدام أنظمة الذكاء الاصطناعي بشكل آمن ومسؤول.

تتناول هذه المدونة تعريف وأهمية الامتثال للذكاء الاصطناعي، والتحديات التي تواجهها المؤسسات عند تنفيذه، وعواقب عدم الامتثال، وأفضل الممارسات لتمكين الاستخدام الآمن والمتوافق مع معايير الذكاء الاصطناعي.

ما هو الامتثال للذكاء الاصطناعي؟

يشير الامتثال لمعايير الذكاء الاصطناعي إلى الالتزام باللوائح والمعايير الصناعية والأطر المصممة لتنظيم نشر وتطوير واستخدام أنظمة الذكاء الاصطناعي والبيانات المرتبطة بها. وكما ذُكر سابقًا، يمكن أن يكون للذكاء الاصطناعي تأثير إيجابي على المجتمع والاقتصاد والبيئة، أو تأثير سلبي يتمثل في التحيز والتمييز وخطاب الكراهية والصحافة الكاذبة وانتهاكات الخصوصية، وغيرها.

لذا، تضمن قوانين وأطر الذكاء الاصطناعي تغطية جميع الجوانب الحاسمة لدورة حياة تطوير الذكاء الاصطناعي لضمان استخدامه الآمن والمسؤول. على سبيل المثال، تضمن قوانين الذكاء الاصطناعي حماية الأفراد data privacy تُصان الحقوق؛ لذا، تشترط هذه اللوائح جمع البيانات المستخدمة لتدريب الذكاء الاصطناعي أو نماذج اللغة الكبيرة واستخدامها بشكل قانوني وأخلاقي. على سبيل المثال، قضية تطبيق Lensa AI ، حيث ادعى فنانون رقميون أن التطبيق سرق أعمالهم الفنية واستخدمها لتدريبه دون موافقتهم.

وبالمثل، يتطلب الامتثال لمعايير الذكاء الاصطناعي من المؤسسات ضمان عدم استخدام أنظمة الذكاء الاصطناعي الخاصة بها للتمييز ضد أي فئة معينة أو لخداع الناس. كما تضمن أطر أخلاقيات وحوكمة الذكاء الاصطناعي نشر أنظمة الذكاء الاصطناعي واستخدامها بمسؤولية لصالح المجتمع ككل.

تهدف هذه القوانين أيضًا إلى حماية البنية التحتية للذكاء الاصطناعي من التهديدات الناشئة، مثل التسميم الإلكتروني، وتسريب البيانات، وغيرها، والتي قد تُعرّض الشركات لمخاطر مثل اختراقات البيانات. ولتوضيح الأمر، تشير 60% من الشركات إلى أنها لا تزال غير مستعدة للهجمات الإلكترونية المدعومة بالذكاء الاصطناعي.

أهمية الامتثال للوائح الذكاء الاصطناعي

بغض النظر عن مدى تعقيد قوانين الذكاء الاصطناعي أو المعايير الأخلاقية، فإن الامتثال للوائح الذكاء الاصطناعي الناشئة أمر بالغ الأهمية. دعونا نلقي نظرة سريعة على بعض الأسباب التي تدفع الشركات إلى ضمان الامتثال:

نشر الذكاء الاصطناعي الأخلاقي

في عام ٢٠١٨، اضطرت إحدى كبرى شركات التجارة الإلكترونية إلى إزالة أداة التوظيف التجريبية المدعومة بالذكاء الاصطناعي بسبب نتائج تمييزية ضد المتقدمات من النساء. يُعدّ التحيز والتمييز من أكثر المخاطر شيوعًا وخطورةً في بعض أنظمة الذكاء الاصطناعي. تدخل هذه المخاطر دورة حياة تطوير الذكاء الاصطناعي إما من خلال المُطوّر أو نتيجة استخدام مجموعات بيانات متحيزة. إلى جانب التحيز، تُعدّ عدم المساواة، والاعتماد على الذكاء الاصطناعي، والظلم، ووجود أنظمة ذكاء اصطناعي معيبة، من المخاطر الأخرى التي قد تُؤدي إلى أضرار سياسية واجتماعية وبيئية جسيمة.

من منظور المؤسسة، عندما لا يتم معالجة التحيز في أنظمة الذكاء الاصطناعي، فقد ينتج عنه تطبيقات ذات نتائج مشوهة يمكن أن تؤدي إلى الإضرار بالسمعة، والعقوبات التنظيمية، وفقدان ثقة العملاء.

تعرّف أكثر على الذكاء الاصطناعي الأخلاقي

إدارة مخاطر الذكاء الاصطناعي الاستباقية والتخفيف من آثارها

أتاح توحيد تبني الحوسبة السحابية المتعددة وإدارة دورة حياة التطبيقات للمؤسسات ضمان قابلية التوسع السريع لبيئة الذكاء الاصطناعي لديها. ومع ذلك، فقد أدى هذا التوحيد إلى ظهور العديد من المخاطر الأخرى المتعلقة بالخصوصية والأمان والحوكمة. على سبيل المثال، ضعف سياسات الاحتفاظ بالبيانات وتقليلها، أو عدم فعالية... consent management قد يُعرّض النظام النظام لمخاطر قانونية. وقد يؤدي غياب ضمانات قوية تحمي من هذه المخاطر إلى فرض غرامات وعقوبات تنظيمية غير مرغوب فيها.

وبالمثل، توجد مخاطر معينة مرتبطة بأمن الذكاء الاصطناعي، مثل عدم وجود صلاحيات مناسبة لنماذج الذكاء الاصطناعي أو ضوابط وصول فعّالة على تدفق البيانات. وعدم اتخاذ تدابير مناسبة لتحديد هذه المخاطر والتخفيف من حدتها قد يؤدي إلى حوادث أمن سيبراني.

الشفافية والمساءلة في مجال الذكاء الاصطناعي

يؤثر الامتثال لمعايير الذكاء الاصطناعي بشكل كبير على الشفافية في نماذج أو أنظمة الذكاء الاصطناعي والمساءلة. وتتيح هذه العناصر الأساسية للمؤسسات إجراء عمليات تدقيق وتقييم وتفسير دورية للقرارات التي تتخذها نماذج الذكاء الاصطناعي الخاصة بها.

تتطلب نماذج الذكاء الاصطناعي العام كميات هائلة من البيانات للتدريب، لذا من الضروري ضمان جودة هذه البيانات. غالبًا ما تُدرَّب أنظمة الذكاء الاصطناعي باستخدام بيانات غير دقيقة، مما يؤدي إلى استجابات غير مناسبة أو وهمية. وبالمثل، لوحظ أن بعض روبوتات الذكاء الاصطناعي قد تأثرت سلبًا برسائل مسيئة، مما أدى إلى خطاب كراهية. هنا، يلعب الامتثال للوائح الذكاء الاصطناعي دورًا هامًا، إذ يُلزم أنظمة الذكاء الاصطناعي بتوفير مستوى معين من الشفافية، مما يُساعد المؤسسات على تحديد مصدر المشكلة واقتراح حلول تصحيحية.

المشهد التنظيمي الحالي للذكاء الاصطناعي

يُعدّ الذكاء الاصطناعي بوابةً للابتكارات التحويلية. مع ذلك، فإن هذه التقنية الثورية محفوفة بمخاطر أمنية ومخاطر تتعلق بالخصوصية. لذا، وكما data privacy وبما أن قوانين الحماية أصبحت الآن بمثابة التزامات بالغة الأهمية للشركات، فإن الامتثال لقوانين الذكاء الاصطناعي يُعتبر الآن أيضاً أساساً دائماً للأطر القانونية العالمية الحالية.

قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي

حالياً، يتصدر قانون الاتحاد الأوروبي للذكاء الاصطناعي (قانون الذكاء الاصطناعي للاتحاد الأوروبي) السباق العالمي لـ AI governance ، متبوعًا بالأمر التنفيذي الأمريكي بشأن الذكاء الاصطناعي وقانون الذكاء الاصطناعي والبيانات الكندي (AIDA)، على سبيل المثال لا الحصر.

سيدخل قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي حيز التنفيذ في الأول من أغسطس/آب 2024، وسيُطبّق تدريجياً. وباتباع نهج قائم على المخاطر والأهداف، يفرض القانون عدداً من الالتزامات على الجهات التي تتعامل مع أنظمة الذكاء الاصطناعي بمختلف صفاتها. كما ينص القانون على إنشاء المجلس الأوروبي للذكاء الاصطناعي (EAIB) كهيئة تنظيمية مستقلة مسؤولة، من بين أمور أخرى، عن التنسيق بين السلطات الوطنية المختصة وتقديم المشورة بشأن تنفيذ قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي.

يصنف قانون الاتحاد الأوروبي للذكاء الاصطناعي أنظمة الذكاء الاصطناعي إلى مجموعات منفصلة بناءً على مستوى المخاطر المرتبطة بكل فئة. وتشمل هذه الفئات أنظمة الذكاء الاصطناعي ذات المخاطر غير المقبولة، والمخاطر العالية، والمخاطر المحدودة، والمخاطر الضئيلة. وتتناسب شدة الالتزام طرديًا مع مستوى المخاطر المرتبطة بنظام ذكاء اصطناعي معين. فعلى سبيل المثال، يُحظر نشر أو استخدام أنظمة الذكاء الاصطناعي التي تندرج ضمن فئة المخاطر غير المقبولة، لأنها تُشكل مخاطر جسيمة على سلامة الناس ومعيشتهم وحقوقهم الأساسية.

تم تصميم قانون الذكاء الاصطناعي للاتحاد الأوروبي بحيث يحترم أيضًا الحقوق الأساسية للمستخدمين الممنوحة بموجب اللائحة العامة لحماية البيانات للاتحاد الأوروبي (GDPR) ، فيما يتعلق بمعالجة البيانات الشخصية.

إطار إدارة مخاطر الذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتكنولوجيا

أطلق المعهد الوطني للمعايير والتكنولوجيا (NIST) أول إطار عمل للذكاء الاصطناعي في أوائل عام 2023. والغرض من إطار عمل NIST AI RMF 1.0 هو تزويد المؤسسات بخارطة طريق استراتيجية يمكن أن تُمكّن من بناء الثقة في تطوير أنظمة الذكاء الاصطناعي ونشرها واستخدامها، وتساعد على تعزيز الاستخدام المسؤول للذكاء الاصطناعي.

يُوفر إطار عمل الذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتكنولوجيا (NIST) للمؤسسات طريقة استراتيجية لتحديد مخاطر الذكاء الاصطناعي وتقييمها والتخفيف من حدتها. وهذا من شأنه أن يُمكّن المؤسسات من نشر أنظمة الذكاء الاصطناعي بطريقة أخلاقية مع تجنب أي ضرر محتمل بسلاسة. كما يُعزز هذا الإطار المساءلة والشفافية عند تطوير نماذج وتطبيقات الذكاء الاصطناعي واستخدامها.

ينقسم هذا الإطار إلى قسمين. يناقش القسم الأول ويحدد الجوانب الأساسية لنظام ذكاء اصطناعي جدير بالثقة . أما القسم الثاني، فيوضح أفضل الممارسات لتطبيق هذا الإطار مع تقليل المخاطر طوال دورة حياة تطوير الذكاء الاصطناعي. وينقسم القسم الثاني بدوره إلى أربع وظائف رئيسية: الحوكمة، والتخطيط، والقياس، والإدارة.

تعرّف على المزيد حول قوانين الذكاء الاصطناعي الفيدرالية الأمريكية

التحدي الحرج والمخاطر التي تعيق الامتثال لمعايير الذكاء الاصطناعي

تشير دراسة استقصائية أجرتها شركة أكسنتشر إلى موقف إيجابي لدى الشركات تجاه الامتثال لقوانين الذكاء الاصطناعي، حيث ذكرت أن 77% منها تعتبر لوائح الذكاء الاصطناعي المستقبلية أولوية على مستوى الشركة. ومع ذلك، غالبًا ما تعيق العديد من التحديات والمخاطر جهود الشركات لتحقيق الامتثال. على سبيل المثال، عدم وضوح استخدام الذكاء الاصطناعي غير الرسمي.

يشير مصطلح الذكاء الاصطناعي الخفي إلى نماذج أو أنظمة أو تطبيقات الذكاء الاصطناعي التي يتم نشرها واستخدامها دون ضوابط وسياسات أمنية فعّالة. ويمكن وصف هذه الأنظمة بأنها نماذج غير مصرح بها، إذ نادراً ما تكون فرق تكنولوجيا المعلومات على دراية بها أو مصرحاً باستخدامها.

يُعرّض انتشار الذكاء الاصطناعي الخفي في بيئة المؤسسات هذه البيئة لسلسلة من الثغرات والمخاطر. فعلى سبيل المثال، نظرًا لعدم امتلاك المؤسسات رؤية واضحة لهذه الأنظمة، فإنها تجهل المخاطر المرتبطة بها. ويؤدي هذا الجهل إلى مشاكل مثل تسميم الذكاء الاصطناعي، والتأثيرات الضارة، والهلوسة الناتجة عنه، وغيرها. وبالمثل، تستفيد نماذج اللغة الكبيرة من كميات هائلة من بيانات التدريب لإنتاج استجابات ذكية. وقد يؤدي غياب ضوابط أمنية مناسبة لهذه النماذج وبيانات التدريب إلى هجمات خبيثة، أو التلاعب بالبيانات، أو تسريبها.

في نهاية المطاف، قد يعرض الذكاء الاصطناعي الخفي المؤسسات ليس فقط لانتهاكات الامتثال، بل أيضاً لمخاطر أمنية وفقدان السمعة.

يُعدّ الذكاء الاصطناعي الخفي أحد التحديات العديدة التي تعيق جهود الامتثال في المؤسسات. فعلى سبيل المثال، تلعب قابلية التفسير دورًا حاسمًا في تعزيز الشفافية والمساءلة في تطوير الذكاء الاصطناعي واستخدامه. ومع ذلك، ونظرًا لغياب الضوابط والسياسات المناسبة المتعلقة بنماذج الذكاء الاصطناعي وبيانات التدريب، يصبح من الصعب ضمان قابلية تفسير الذكاء الاصطناعي والمساءلة عنه.

أفضل الممارسات لتبسيط الامتثال لمعايير الذكاء الاصطناعي وتحقيقه

للسيطرة الاستراتيجية على بيئة الذكاء الاصطناعي الخاصة بك، Securiti يوصي هذا التقرير بالنظر في أفضل الممارسات الخمس التالية AI governance والامتثال له.

اكتشف نماذج الذكاء الاصطناعي وفهرسها

من الأهمية بمكان أن تكتشف المؤسسات نماذج الذكاء الاصطناعي في بيئاتها العامة والخاصة وبيئات البرمجيات كخدمة (SaaS) للحصول على صورة شاملة لبيئة الذكاء الاصطناعي لديها. ويشمل ذلك اكتشاف نماذج الذكاء الاصطناعي المعتمدة وغير المعتمدة في بيئات الإنتاج وغير الإنتاج. كما يجب فهرسة البيانات الوصفية المرتبطة بخصائص وميزات نموذج الذكاء الاصطناعي لتقييم تأثيره ومخاطره ومتطلبات الامتثال. ويجب أتمتة عملية الاكتشاف والفهرسة وتحديثها باستمرار لتعكس التغييرات عند إضافة نماذج ذكاء اصطناعي جديدة إلى البيئة.

تقييم المخاطر وتصنيف نماذج الذكاء الاصطناعي

قيّم الجوانب المؤثرة على نماذج الذكاء الاصطناعي في بيئات الحوسبة السحابية العامة والخاصة والسحابية (SaaS). يشمل ذلك تقييم كلٍ من مزودي خدمات الحوسبة السحابية العامة ومزودي خدمات SaaS. وثّق نماذج الذكاء الاصطناعي التي يستخدمها المزودون، وكيفية استخدامهم لبياناتك، وكيف تؤثر خدماتهم الشاملة على بيئة الذكاء الاصطناعي لديك. بعد التقييم، قدّم تصنيفات للمخاطر استنادًا إلى قانون الاتحاد الأوروبي للذكاء الاصطناعي وغيره من اللوائح والمعايير لتغطية الجوانب الرئيسية، مثل سمية الذكاء الاصطناعي، والتشويش، وما إلى ذلك. ستُمكّنك هذه التصنيفات من تحديد نماذج الذكاء الاصطناعي التي يجب السماح بها أو حظرها.

رسم خرائط ورصد تدفقات البيانات والذكاء الاصطناعي

إلى جانب اكتشاف نماذج الذكاء الاصطناعي وتقييم المخاطر، من الضروري أيضاً فهم كيفية تفاعل هذه النماذج مع أنظمة البيانات الأخرى ومجموعات البيانات والعمليات والسياسات. وهذا يمكّن المؤسسات من تحديد أوجه التبعية والمخاطر المحتملة ومعالجتها استباقياً.

تطبيق ضوابط البيانات والذكاء الاصطناعي لضمان الخصوصية والأمان والامتثال

يجب وضع ضوابط وسياسات مناسبة لحماية البيانات الحساسة، لضمان عدم وصولها إلى نماذج الذكاء الاصطناعي دون وجود ضمانات قوية. ويتحقق ذلك من خلال شقين: أولاً، يجب وضع ضوابط على مدخلات البيانات، لضمان فحصها وتصنيفها وتنظيفها بشكل صحيح قبل إرسالها إلى نماذج الذكاء الاصطناعي. على سبيل المثال، ينبغي تجزئة البيانات الحساسة أو إخفاؤها أو إخفاء هويتها قبل إرسالها إلى أنظمة الذكاء الاصطناعي. ثانياً، يجب وضع ضوابط على البيانات الخارجة من نماذج الذكاء الاصطناعي. يجب تطبيق جدران حماية من نوع LLM لحماية البيانات من مخاطر الحقن السريع أو تسريبها عبر الذكاء الاصطناعي، وما إلى ذلك.

الالتزام باللوائح ومعايير الصناعة

إجراء تقييمات لتقييم الوضع الحالي للامتثال للوائح ومعايير الذكاء الاصطناعي. بالإضافة إلى ذلك، تطبيق إطار عمل قوي لأتمتة الامتثال لقوانين الذكاء الاصطناعي العالمية ومعايير الصناعة باستخدام قواعد وضوابط واختبارات موحدة.

استوفِ متطلبات الامتثال للذكاء الاصطناعي بسرعة مع Securiti

أمن الذكاء الاصطناعي وحوكمته، وهو تكامل بين Securiti Data Command Center تم تصميمها لمساعدة المؤسسات على تطوير ونشر واستخدام الذكاء الاصطناعي مع الاستفادة من البيانات السياقية + ذكاء الذكاء الاصطناعي والضوابط الآلية.

اطلب عرضًا توضيحيًا لمعرفة كيفية أتمتة امتثال الذكاء الاصطناعي باستخدام Securiti .

قم بتحليل هذه المقالة باستخدام الذكاء الاصطناعي

تظهر المطالبات في أدوات الذكاء الاصطناعي التابعة لجهات خارجية.
انضم إلى قائمتنا البريدية

احصل على أحدث المعلومات والتحديثات القانونية والمزيد مباشرةً في بريدك الإلكتروني



قصص أخرى قد تهمك
مقاطع فيديو
عرض المزيد
ريحان جليل، من شركة Veeam، يتحدث عن Agent Commander: theCUBE + NYSE Wired: قادة الأمن السيبراني
بعد استحواذ شركة Veeam على Securiti يمثل إطلاق برنامج Agent Commander خطوة هامة نحو مساعدة المؤسسات على تبني وكلاء الذكاء الاصطناعي بثقة أكبر. في...
عرض المزيد
تخفيف مخاطر قائمة OWASP لأهم 10 مخاطر لتطبيقات ماجستير القانون 2025
أحدث الذكاء الاصطناعي التوليدي (GenAI) تحولاً جذرياً في طريقة عمل الشركات وتوسعها ونموها. يوجد تطبيق للذكاء الاصطناعي لكل غرض، بدءاً من زيادة إنتاجية الموظفين وصولاً إلى تبسيط العمليات...
عرض المزيد
أفضل 6 DSPM حالات الاستخدام
مع ظهور الذكاء الاصطناعي التوليدي (GenAI)، أصبحت البيانات أكثر ديناميكية. يتم توليد بيانات جديدة بوتيرة أسرع من أي وقت مضى، ونقلها إلى أنظمة وتطبيقات متنوعة...
عرض المزيد
قانون الخصوصية في كولورادو (CPA)
ما هو قانون خصوصية كولورادو؟ قانون خصوصية كولورادو هو قانون شامل لحماية الخصوصية، تم توقيعه في 7 يوليو 2021. وقد وضع معايير جديدة لحماية البيانات الشخصية...
عرض المزيد
Securiti لمساعد الطيار في البرمجيات كخدمة (SaaS)
تسريع اعتماد Copilot بأمان وثقة: تتطلع المؤسسات إلى اعتماد Microsoft 365 Copilot لزيادة الإنتاجية والكفاءة. ومع ذلك، تظل المخاوف الأمنية، مثل حماية البيانات...
عرض المزيد
أهم عشرة اعتبارات لاستخدام البيانات غير المهيكلة بأمان مع الذكاء الاصطناعي العام
نسبة مذهلة تصل إلى 90% من بيانات المؤسسات غير منظمة. وتُستخدم هذه البيانات بسرعة لتغذية تطبيقات الذكاء الاصطناعي من الجيل الجديد، مثل روبوتات الدردشة والبحث المدعوم بالذكاء الاصطناعي.
عرض المزيد
جينكور للذكاء الاصطناعي: بناء أنظمة ذكاء اصطناعي آمنة وعالية الجودة للمؤسسات في دقائق
مع تبني المؤسسات للذكاء الاصطناعي التوليدي، تواجه فرق البيانات والذكاء الاصطناعي العديد من العقبات: ربط مصادر البيانات غير المهيكلة والمهيكلة بشكل آمن، والحفاظ على الضوابط والحوكمة المناسبة،...
عرض المزيد
كيفية التعامل مع قانون حماية خصوصية المستهلك في كاليفورنيا: رؤى أساسية للشركات
ما هو قانون حقوق الخصوصية في كاليفورنيا (CPRA)؟ هو تشريع ولاية كاليفورنيا الذي يهدف إلى حماية خصوصية سكانها الرقمية. وقد دخل حيز التنفيذ في يناير...
عرض المزيد
التكيف مع التحول: الانتقال إلى معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS) الإصدار 4.0
ما هو معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS)؟ هو مجموعة من معايير الأمان لضمان المعالجة والتخزين الآمنين للبيانات، و...
عرض المزيد
تأمين البيانات والذكاء الاصطناعي: دليل إدارة الثقة والمخاطر والأمن (TRiSM)
أثارت المخاطر الأمنية المتزايدة للذكاء الاصطناعي قلق 48% من مسؤولي أمن المعلومات حول العالم. انضموا إلى هذه الجلسة الرئيسية للتعرف على دليل عملي لتمكين الثقة في الذكاء الاصطناعي، وإدارة المخاطر،...

جلسات حوارية مميزة

تسليط الضوء
الاستعداد للمستقبل لمحترفي الخصوصية
شاهد الآن منظر
تسليط الضوء 50:52
من البيانات إلى النشر: حماية الذكاء الاصطناعي المؤسسي من خلال الأمن والحوكمة
شاهد الآن منظر
تسليط الضوء 11:29
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
شاهد الآن منظر
تسليط الضوء 11:18
إعادة هيكلة تمويل العقارات - كيف تُجري شركة ووكر آند دنلوب تحديثًا لمحفظتها الاستثمارية البالغة 135 مليار دولار أمريكي بالاعتماد على البيانات أولاً
شاهد الآن منظر
تسليط الضوء 13:38
تسريع المعجزات - كيف تُدمج شركة سانوفي الذكاء الاصطناعي لتقليص مدة تطوير الأدوية بشكل كبير
صورة مصغرة لشركة سانوفي
شاهد الآن منظر
تسليط الضوء 10:35
حدث تحول جوهري في مركز ثقل البيانات
شاهد الآن منظر
تسليط الضوء 14:21
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
شاهد الآن منظر
تسليط الضوء 12:!3
لا يمكنك بناء خطوط الأنابيب أو المستودعات أو منصات الذكاء الاصطناعي بدون معرفة تجارية
شاهد الآن منظر
تسليط الضوء 47:42
الأمن السيبراني – حيث يقوم القادة بالشراء والبناء والشراكة
ريحان جليل
شاهد الآن منظر
تسليط الضوء 27:29
بناء ذكاء اصطناعي آمن باستخدام Databricks و Gencore
ريحان جليل
شاهد الآن منظر
أحدث
عرض المزيد
بناء ذكاء اصطناعي سيادي باستخدام HPE Private Cloud AI و Veeam Securiti Gencore AI
كيف تُساهم تقنيات الذكاء الاصطناعي في السحابة الخاصة من HPE، وتسريع NVIDIA، وVeeam؟ Securiti يدعم نظام Gencore AI الذكاء الاصطناعي الآمن والمُدار للمؤسسات مع تطبيق السياسات عبر سير العمل RAG والمساعدين والوكلاء.
عرض المزيد
Securiti أعلنت شركة .ai عن اختيار شركة أكسنتشر كشريك العام لعام 2025
في إطار الاحتفال المستمر بالتعاون المؤثر في DataAI Security ، Securiti منحت شركة .ai، التابعة لشركة Veeam، شركة Accenture لقب شريك العام لعام 2025....
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ قانون حماية خصوصية المستهلك في كاليفورنيا؟ عرض المزيد
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ القانون؟
يمكن للشركات أن تستفيد من بعض الدروس الحيوية من أكبر إجراء إنفاذي تم اتخاذه مؤخراً في تاريخ قانون خصوصية المستهلك في كاليفورنيا (CCPA). Securiti مدونة 's تغطي جميع التفاصيل المهمة التي يجب معرفتها.
عرض المزيد
الذكاء الاصطناعي وقانون HIPAA: ما يعنيه وكيفية أتمتة الامتثال
تعرّف على كيفية تطبيق قانون قابلية نقل التأمين الصحي والمساءلة (HIPAA) على الذكاء الاصطناعي في تأمين المعلومات الصحية المحمية. تعلّم كيف...
عرض المزيد
الذكاء الاصطناعي الوكيل والخصوصية: إدارة وكلاء الذكاء الاصطناعي المستقلين في المؤسسات
تعرّف على كيفية إدارة الذكاء الاصطناعي الوكيل في المؤسسة. إدارة مخاطر الخصوصية، والتحكم في الوصول إلى البيانات، وإنفاذ السياسات، وضمان الامتثال لوكلاء الذكاء الاصطناعي المستقلين.
عرض المزيد
خيارات الانسحاب الدائمة: سحب الموافقة عبر التسويق، والبرمجيات كخدمة، والذكاء الاصطناعي العام
Securiti تقدم الورقة البيضاء الخاصة بـ [اسم الشركة] نظرة عامة مفصلة حول متطلبات سحب الموافقة المختلفة في مجالات التسويق، والبرمجيات كخدمة (SaaS)، والذكاء الاصطناعي العام (GenAI). اقرأ الآن لمعرفة المزيد.
عرض المزيد
ROT Data Minimization
التخلص من البيانات الزائدة والقديمة والتافهة (ROT) لتحسين دقة الذكاء الاصطناعي، وتقليل تكاليف التخزين، وتقليل مخاطر الأمن والامتثال على نطاق واسع.
عرض المزيد
قائد العملاء: ملخص الحل
تعرّف على كيفية قيام Agent Commander باكتشاف وكلاء الذكاء الاصطناعي، وحماية بيانات المؤسسة من خلال ضوابط التشغيل، وتصحيح أخطاء الذكاء الاصطناعي - مما يتيح اعتماد الذكاء الاصطناعي بشكل آمن ومتوافق مع المعايير في...
عرض المزيد
تخلص من مخاطر البيانات في الذكاء الاصطناعي
تعرف على كيفية إعداد بيانات المؤسسة لاعتماد Gemini Enterprise بشكل آمن من خلال الحوكمة الأولية، واكتشاف البيانات الحساسة، وضوابط سياسة ما قبل الفهرسة.
عرض المزيد
دليل الحصول على شهادة HITRUST
Securiti يُعد الكتاب الإلكتروني دليلاً عملياً للحصول على شهادة HITRUST، ويغطي كل شيء بدءاً من اختيار i1 مقابل r2 ونطاق الأنظمة وصولاً إلى إدارة خطط العمل والتخطيط...
ما هو
جديد