الإعلان عن Agent Commander - أول حل متكامل من Veeam + Securiti .ai تمكين توسيع نطاق وكلاء الذكاء الاصطناعي الآمنين

منظر

جولة فيمون 2026 - البيانات والذكاء الاصطناعي يتلاقيان من أجل عصر الوكلاء

منظر

تطبيق مساعدي الذكاء الاصطناعي المسؤولين في الدنمارك: دليل للقطاعين العام والخاص

مؤلف

سيد تطهير كاظمي

Data Privacy المحلل

CIPP/أوروبا

نُشر في 4 ديسمبر 2024

أدى التوسع المتزايد في استخدام مساعدي الذكاء الاصطناعي في مختلف القطاعات إلى خلق فرص واعدة وتحديات كبيرة. وإدراكًا لأهمية التطوير المسؤول والأخلاقي للذكاء الاصطناعي، نشرت الوكالة الرقمية الدنماركية (Digitaliseringsstyrelsen) ورقة بحثية بعنوان " الاستخدام المسؤول لمساعدي الذكاء الاصطناعي في القطاعين العام والخاص ". تُحدد هذه الوثيقة، التي طُوّرت من خلال تعاون فريد بين جهات فاعلة في القطاعين العام والخاص، عملية من تسع نقاط لتطوير وتنفيذ مساعدي الذكاء الاصطناعي بشكل مسؤول، لا سيما أولئك الذين يستفيدون من الذكاء الاصطناعي التوليدي ونماذج اللغة، في القطاعين العام والخاص في الدنمارك.

يُعرَّف المساعد الذكي بأنه نظام، أو جزء من نظام، يستخدم نماذج لغوية لأداء مهام محددة بدرجة معينة من الاستقلالية. صُممت هذه المساعدات لتعزيز كفاءة وجودة تنفيذ المهام، وغالبًا ما تهدف إلى استبدال العمليات التي يقودها البشر والتي تتطلب حُكمًا بشريًا، وذلك بالاستفادة من الأدوات والبيانات من أنظمة الأعمال الحالية.

تتناول هذه العملية المكونة من تسع نقاط الأطر القانونية مثل اللائحة العامة لحماية البيانات (GDPR) وقانون الذكاء الاصطناعي للاتحاد الأوروبي (قانون الذكاء الاصطناعي) ، مع التركيز على أمن البيانات وضمان الجودة والاعتبارات الأخلاقية. ولأغراض التوضيح، تم تضمين أمثلة محددة لتطبيقات مساعدي الذكاء الاصطناعي من المنظمات التي ساهمت في هذه الورقة البيضاء. وتهدف هذه الورقة إلى توجيه المنظمات خلال تحديات وفرص دمج مساعدي الذكاء الاصطناعي مع الالتزام بالمعايير القانونية والأخلاقية. كما تم توفير قائمة مرجعية في نهاية الورقة لمساعدة المنظمات على فهم المتطلبات القانونية للائحة العامة لحماية البيانات وقانون الذكاء الاصطناعي .

9 خطوات لدمج مساعد الذكاء الاصطناعي بشكل مسؤول

تُقدّم الورقة البيضاء منهجية من تسع نقاط مصممة لتوجيه المؤسسات في التطوير والتنفيذ والصيانة المسؤولة لمساعدي الذكاء الاصطناعي. تتناول هذه النقاط جوانب مختلفة من دورة حياة مساعد الذكاء الاصطناعي، بدءًا من مرحلة التخطيط والتصميم الأولية وصولًا إلى التشغيل والتحسين المستمر. تُركّز المنهجية على اتباع نهج مرن وتكراري، وتُقرّ بأن المؤسسات ستحتاج غالبًا إلى إعادة التقييم والتكيّف مع نمو فهمها للذكاء الاصطناعي، أو ظهور تحديات جديدة، أو توسّع نطاق مساعد الذكاء الاصطناعي.

النقاط التسع للعملية هي كالتالي:

1. تحديد حالة الاستخدام

يُعدّ تحديد حالة استخدام مساعد الذكاء الاصطناعي بوضوح الخطوة الأولى. ويتضمن ذلك تحديد مشكلة أو فرصة محددة داخل المؤسسة يمكن لمساعد الذكاء الاصطناعي معالجتها. على سبيل المثال، قد تستخدم المؤسسة مساعد الذكاء الاصطناعي لتحسين خدمة العملاء، أو أتمتة المهام المتكررة، أو تبسيط عملية تجارية معقدة. تساعد هذه الخطوة الأولية على مواءمة مساعد الذكاء الاصطناعي مع الأهداف العامة للمؤسسة، وترسم مسارًا واضحًا لعملية التنفيذ.

2. الدعم من خلال منصة تقنية مرنة

يُعد بناء مساعد الذكاء الاصطناعي على منصة تقنية مرنة أمرًا بالغ الأهمية من أجل التكامل السلس وقابلية التوسع والتكيف مع التطورات المستقبلية في تكنولوجيا الذكاء الاصطناعي.

تعتمد المنظمات على ثلاثة مناهج رئيسية لتطوير المنصة التقنية:

  • التطوير الداخلي؛
  • التعاون مع الموردين الخارجيين؛ أو
  • الاستعانة بمصادر خارجية لتنفيذ عملية التطوير بأكملها.

لكل نهج آثاره الخاصة على التكلفة، والتحكم في الحل، ومستوى الخبرة التقنية المطلوبة. من المهم مراعاة الاستراتيجية والأهداف طويلة الأجل للمؤسسة عند اختيار مثل هذه المنصة.

3. تقييم البيانات اللازمة ومعالجة البيانات

تُشكّل البيانات أساس أي مساعد ذكاء اصطناعي، ويتعين على المؤسسات تقييم نوع البيانات وجودتها وسهولة الوصول إليها بدقة لضمان فعالية عمل هذا المساعد. ويشمل ذلك مراعاة دقة البيانات وملاءمتها وتوقيتها. ويُعدّ إعداد البيانات والتحقق من صحتها وأمنها أمورًا بالغة الأهمية، لا سيما عند التعامل مع البيانات الحساسة. ويمكن لتقنيات مثل تقنية التوليد المُعزز بالاسترجاع (RAG) أن تُحسّن الدقة وتُقلّل من مخاطر "هلوسات" الذكاء الاصطناعي، التي تحدث عندما يُولّد الذكاء الاصطناعي معلومات غير صحيحة أو مُضلّلة. كما يُمكن لتقنية إخفاء البيانات المنهجية، التي تستبدل البيانات الحساسة في المطالبات بقيم مؤقتة، أن تُساعد في حماية الخصوصية.

يُعدّ الالتزام بالأطر القانونية، ولا سيما اللائحة العامة لحماية البيانات (GDPR) وقانون الذكاء الاصطناعي، أمرًا لا يقبل المساومة. يُقدّم هذا المستند قائمة مرجعية مُفصّلة في الملحق (أ) لمساعدة المؤسسات على فهم وتطبيق المتطلبات الخاصة بهذه اللوائح. ورغم أنها ليست شاملة، إلا أنها تُشكّل نقطة انطلاق قيّمة لضمان الامتثال، سواءً عند تطوير البرامج داخليًا أو عند شراء مساعدي الذكاء الاصطناعي كحلول قياسية. ومع ذلك، ينبغي إجراء تقييم قانوني شامل لكل مساعد على حدة.

تُعدّ هذه الخطوة بالغة الأهمية في تطوير وتطبيق مساعدي الذكاء الاصطناعي. فهي ليست مجرد إجراء شكلي، بل عملية مستمرة يجب دمجها في كل مرحلة من مراحل دورة حياة مساعد الذكاء الاصطناعي. وتكتسب هذه الخطوة أهمية خاصة في ظل التطور السريع للقوانين المتعلقة بالذكاء الاصطناعي.

بحكم طبيعتها، تقوم أنظمة الذكاء الاصطناعي بمعالجة البيانات للتعلم وتنفيذ المهام الموكلة إليها. وقد تتضمن هذه البيانات في كثير من الأحيان معلومات شخصية، مما يستدعي تطبيق اللائحة العامة لحماية البيانات (GDPR).

يحدد النظام الأوروبي العام لحماية البيانات (GDPR) قواعد صارمة لكيفية جمع هذه البيانات وتخزينها واستخدامها. وتشمل الاعتبارات الرئيسية المتعلقة بالنظام الأوروبي العام لحماية البيانات ما يلي:

  • تقليل البيانات؛
  • حماية؛
  • الشفافية؛
  • المساءلة؛
  • الأساس القانوني للمعالجة؛
  • حقوق أصحاب البيانات؛ و
  • التعامل مع عمليات نقل البيانات الشخصية إلى دول ثالثة.

إذا لم تتضمن العملية معالجة البيانات الشخصية، فلا ينطبق عليها قانون حماية البيانات العامة (GDPR). على سبيل المثال، لا يقوم مساعد الذكاء الاصطناعي الذي يساعد المستخدمين في اختيار رموز القطاعات بمعالجة البيانات الشخصية، وبالتالي لا ينطبق عليه قانون حماية البيانات العامة.

إلى جانب معالجة البيانات، تُستخدم مساعدات الذكاء الاصطناعي أيضًا لأتمتة المهام، وتقديم التوصيات، أو حتى اتخاذ إجراءات بناءً على البيانات التي تعالجها. هذه القدرة على اتخاذ القرارات، لا سيما عندما يكون لهذه القرارات تأثير كبير على الأفراد أو المجتمع، هي ما يُبرز أهمية قانون الذكاء الاصطناعي.

يعتمد قانون الذكاء الاصطناعي على نهج قائم على المخاطر، ما يعني أن مستوى التدقيق ومتطلبات الامتثال لمساعد الذكاء الاصطناعي يعتمد على الضرر المحتمل الذي قد يسببه. وتحدد الورقة البيضاء أربعة مستويات للمخاطر في قانون الذكاء الاصطناعي:

  • المخاطر غير المقبولة: تُحظر أنظمة الذكاء الاصطناعي التي تُشكّل تهديدًا كبيرًا لسلامة الإنسان أو حقوقه الأساسية أو كرامته. وقد تشمل هذه الأنظمة أنظمة التقييم الاجتماعي، أو تلك التي تستخدم أساليب تلاعبية لإلحاق الضرر بالمستخدمين.
  • المخاطر العالية: تخضع أنظمة الذكاء الاصطناعي التي تتمتع بإمكانية عالية للتأثير على السلامة أو الحقوق الأساسية، مثل تلك المستخدمة في البنية التحتية الحيوية والتعليم والتوظيف وإنفاذ القانون، لمتطلبات صارمة قبل طرحها في السوق. تشمل هذه المتطلبات تقييمات المطابقة، وأنظمة إدارة المخاطر، ومجموعات بيانات عالية الجودة، وتوثيقًا شاملاً، وشفافية، وإشرافًا بشريًا، ودقة، ومتانة، وأمنًا سيبرانيًا.

يُمكن إيجاد مثال على مساعدي الذكاء الاصطناعي ذوي المخاطر العالية في القطاع المالي، الذي يتضمن التعامل مع بيانات شخصية حساسة، مما يجعل آثار استخدام الذكاء الاصطناعي بالغة الأهمية من حيث التأثير المحتمل على حقوق الأفراد وسلامتهم. على سبيل المثال، يستخدم مساعدو الذكاء الاصطناعي المُطورون لأتمتة جوانب من التحليل المحاسبي في بنك يسك الذكاء الاصطناعي التوليدي لإنتاج مسودات تقارير بناءً على البيانات المالية المستقاة من أنظمة البنك والمصادر العامة. قبل تطبيق هذا النظام، أجرى البنك تقييمًا شاملًا للمخاطر، بمشاركة لجنة الذكاء الاصطناعي والعديد من الإدارات. تطلبت هذه العملية تعاونًا بين مختلف الإدارات لمراعاة عوامل مثل أمن تكنولوجيا المعلومات، وحماية البيانات، وأخلاقيات البيانات. data quality والمخاطر التشغيلية.

  • مخاطر محدودة: تخضع أنظمة الذكاء الاصطناعي التي تُشكّل في المقام الأول مخاطر تتعلق بالشفافية لالتزامات محددة تهدف إلى ضمان إطلاع المستخدمين على تفاعلهم مع نظام الذكاء الاصطناعي. ومن أمثلة مساعدي الذكاء الاصطناعي الذين يندرجون ضمن هذه الفئة: TopGPT، وهو مساعد ذكاء اصطناعي طوّرته شركة Topdanmark لتوفير معلومات حول التأمين الشخصي، ومساعد التوثيق EASLEY AI من شركة Netcompany، المصمم لتعزيز كفاءة واتساق توثيق المشاريع. يفي مساعدو الذكاء الاصطناعي هؤلاء بمتطلبات الشفافية من خلال إعلام المستخدمين بأنهم يتفاعلون مع نظام ذكاء اصطناعي.
  • مخاطر ضئيلة أو معدومة: وفقًا للورقة البيضاء، تندرج غالبية أنظمة الذكاء الاصطناعي المستخدمة حاليًا في الاتحاد الأوروبي ضمن هذه الفئة، بما في ذلك تطبيقات مثل ألعاب الفيديو المدعومة بالذكاء الاصطناعي أو مرشحات البريد العشوائي. يسمح قانون الذكاء الاصطناعي بالاستخدام الحر للذكاء الاصطناعي مع أدنى حد من المخاطر.

إلى جانب المخاطر المرتبطة بأنظمة الذكاء الاصطناعي، يُعدّ فهم الدور المحدد الذي تؤديه المؤسسة فيما يتعلق بمساعد الذكاء الاصطناعي أمرًا بالغ الأهمية لتحديد الالتزامات القانونية. وتفصّل الورقة البيضاء دورين رئيسيين ضمن إطار عمل الذكاء الاصطناعي:

  • المزود: إذا قامت المنظمة بتطوير أو تكليف أو طرح مساعد الذكاء الاصطناعي في السوق، فإنها تعتبر المزود وتتحمل غالبية الالتزامات بموجب قانون الذكاء الاصطناعي، وخاصة بالنسبة للأنظمة عالية المخاطر.
  • المُشغِّل: إذا كانت المنظمة تستخدم مساعدًا يعمل بالذكاء الاصطناعي تحت سلطتها، فإنها تُعتبر المُشغِّل وهي المسؤولة عن ضمان استخدام مساعد الذكاء الاصطناعي بشكل آمن وقانوني في سياقه.

لفهم أفضل لعتبات المخاطر هذه والالتزامات المترتبة على كل من المزوّد والمنفّذ، يُرجى الرجوع إلى Securiti الورقة البيضاء الخاصة بقانون الذكاء الاصطناعي.

5. تحديد حدود قدرات ومسؤوليات مساعد الذكاء الاصطناعي

يُعدّ تحديد حدود واضحة لقدرات ومسؤوليات مساعد الذكاء الاصطناعي أمرًا بالغ الأهمية لضمان استخدامه المسؤول وتقليل مخاطر الأخطاء أو العواقب غير المقصودة. يجب على المؤسسات تحديد المهام والمسؤوليات والأدوات المحددة التي يمكن لمساعد الذكاء الاصطناعي الوصول إليها. تتضمن الهندسة الموجهة استخدام تعليمات دقيقة لتوجيه عمل مساعد الذكاء الاصطناعي، وهي تقنية أساسية لوضع الحدود وضمان أداء مساعد الذكاء الاصطناعي ضمن نطاقه المحدد. من خلال تحديد هذه الحدود وتنفيذها بشكل منهجي، تستطيع المؤسسات ضمان عمل مساعدي الذكاء الاصطناعي لديها بكفاءة وأمان وأخلاقية ضمن أدوارهم المحددة.

6. بناء نظام ضمان الجودة المنظم

تُعدّ عمليات ضمان الجودة القوية ضرورية للتحقق من دقة وموثوقية مساعد الذكاء الاصطناعي، والتزامه بالمعايير الأخلاقية والقانونية. ويشمل ذلك تطبيق أساليب الاختبار التقليدية وتقنيات الذكاء الاصطناعي المتخصصة. فعلى سبيل المثال، عندما يحاول الخبراء استغلال نقاط ضعف مساعد الذكاء الاصطناعي، يساعد فريق الاختبار الأحمر في تحديد المخاطر المحتملة. وتتيح البرامج التجريبية للمؤسسات اختبار مساعد الذكاء الاصطناعي مع مجموعة محدودة من المستخدمين في بيئة واقعية. بالإضافة إلى ذلك، يُوصى باستخدام أساليب متنوعة لمراقبة الجودة، مثل التحكم القائم على القواعد، الذي يستخدم قواعد محددة مسبقًا لتقييم المخرجات، والتحقق القائم على النموذج، الذي يستخدم نموذج ذكاء اصطناعي منفصل للتحقق من صحة استجابات مساعد الذكاء الاصطناعي.

7. تتبع البيانات ذات الصلة باستخدام مساعد الذكاء الاصطناعي

يُتيح جمع وتحليل بيانات استخدام مساعد الذكاء الاصطناعي فهمًا أعمق لأدائه وسلوك المستخدمين ومجالات التحسين المحتملة. لذا، ينبغي على المؤسسات تطبيق أنظمة تسجيل بيانات فعّالة تُوثّق نقاط البيانات ذات الصلة، مثل استفسارات المستخدمين، وردود الذكاء الاصطناعي، وسياق التفاعلات، ومصادر المعلومات التي يستخدمها مساعد الذكاء الاصطناعي. تُعدّ هذه البيانات بالغة الأهمية لعمليات التدقيق، واستكشاف الأخطاء وإصلاحها، وضمان الامتثال للوائح المتغيرة.

8. تخطيط التنفيذ التنظيمي والتدريب

يتطلب التنفيذ الناجح اتباع نهج مدروس جيدًا يراعي تأثير مساعد الذكاء الاصطناعي على المؤسسة وموظفيها. تحتاج المؤسسات إلى صياغة رؤية واضحة لشرح الغرض من مساعد الذكاء الاصطناعي وفوائده، ومعالجة المخاوف المحتملة، وتعزيز نظرة إيجابية للتغيير. يُعدّ التدريب الكافي للموظفين أمرًا بالغ الأهمية لضمان فهمهم لكيفية استخدام مساعد الذكاء الاصطناعي بفعالية، وتفسير مخرجاته، والتعرف على القيود أو التحيزات المحتملة. كما أن بناء الثقة مع المستخدمين ضروري لتشجيع تبني مساعد الذكاء الاصطناعي وتحقيق أقصى استفادة منه.

9. إنشاء هياكل للمتابعة والدعم

يُعدّ الدعم والصيانة المستمران أساسيين لضمان فعالية وموثوقية مساعد الذكاء الاصطناعي. ويتضمن ذلك إنشاء هياكل دعم متخصصة تشمل توجيهات الخبراء، وآليات التغذية الراجعة، وأنظمة المراقبة الآلية، وإجراءات المتابعة البشرية. تُمكّن آليات التغذية الراجعة المستخدمين من الإبلاغ عن الأخطاء أو اقتراح التحسينات، بينما تُساعد أنظمة المراقبة في تحديد المشكلات المحتملة، مثل الاختراقات الأمنية أو حالات الخلل في أداء الذكاء الاصطناعي. تُبرز هذه الورقة البحثية أهمية اتباع نهج استباقي في الصيانة، مع التقييم المنتظم للبيانات وإجراء تعديلات بقيادة الخبراء لتحسين الأداء وضمان مواكبة مساعد الذكاء الاصطناعي لاحتياجات المؤسسة المتغيرة.

كيف Securiti يمكن المساعدة

يجب على المنظمات التي تعالج البيانات الشخصية من خلال أنظمة الذكاء الاصطناعي ضمان امتثال ممارساتها للائحة العامة لحماية البيانات (GDPR) وقانون الذكاء الاصطناعي. الاستفادة من Securiti 's Data Command Center — منصة مركزية مصممة لتقديم معلومات سياقية وضوابط وتنسيق — يمكن للمؤسسات ضمان الاستخدام الآمن للبيانات والذكاء الاصطناعي مع مراعاة الامتثال التنظيمي الحالي والمستقبلي من خلال:

  • الامتثال للائحة العامة لحماية البيانات (GDPR):
    • توحيد ضوابط البيانات عبر الأمن والخصوصية والامتثال والحوكمة من خلال منصة واحدة متكاملة تمامًا.
    • الاستفادة من ذكاء البيانات السياقية والأتمتة لضمان الامتثال لمبادئ اللائحة العامة لحماية البيانات مثل تقليل البيانات، وتحديد الغرض، والمساءلة.
  • إدارة الامتثال للذكاء الاصطناعي:
    • اكتشاف وتصنيف وتحديد الغرض والخصائص لنماذج الذكاء الاصطناعي المعتمدة وغير المعتمدة عبر السحابات العامة والسحابات الخاصة وتطبيقات SaaS.
    • إجراء تقييمات لمخاطر الذكاء الاصطناعي لتحديد وتصنيف أنظمة الذكاء الاصطناعي حسب مستوى المخاطر.
    • ربط نماذج الذكاء الاصطناعي بمصادر البيانات والعمليات والتطبيقات والمخاطر المحتملة والتزامات الامتثال.
    • تطبيق ضوابط مناسبة للخصوصية والأمن والحوكمة لحماية البيانات وأنظمة الذكاء الاصطناعي.
    • ضمان الامتثال للوائح البيانات والذكاء الاصطناعي المعمول بها.

اطلب عرضًا توضيحيًا لمعرفة المزيد.

قم بتحليل هذه المقالة باستخدام الذكاء الاصطناعي

تظهر المطالبات في أدوات الذكاء الاصطناعي التابعة لجهات خارجية.
انضم إلى قائمتنا البريدية

احصل على أحدث المعلومات والتحديثات القانونية والمزيد مباشرةً في بريدك الإلكتروني



قصص أخرى قد تهمك
مقاطع فيديو
عرض المزيد
ريحان جليل، من شركة Veeam، يتحدث عن Agent Commander: theCUBE + NYSE Wired: قادة الأمن السيبراني
بعد استحواذ شركة Veeam على Securiti يمثل إطلاق برنامج Agent Commander خطوة هامة نحو مساعدة المؤسسات على تبني وكلاء الذكاء الاصطناعي بثقة أكبر. في...
عرض المزيد
تخفيف مخاطر قائمة OWASP لأهم 10 مخاطر لتطبيقات ماجستير القانون 2025
أحدث الذكاء الاصطناعي التوليدي (GenAI) تحولاً جذرياً في طريقة عمل الشركات وتوسعها ونموها. يوجد تطبيق للذكاء الاصطناعي لكل غرض، بدءاً من زيادة إنتاجية الموظفين وصولاً إلى تبسيط العمليات...
عرض المزيد
أفضل 6 DSPM حالات الاستخدام
مع ظهور الذكاء الاصطناعي التوليدي (GenAI)، أصبحت البيانات أكثر ديناميكية. يتم توليد بيانات جديدة بوتيرة أسرع من أي وقت مضى، ونقلها إلى أنظمة وتطبيقات متنوعة...
عرض المزيد
قانون الخصوصية في كولورادو (CPA)
ما هو قانون خصوصية كولورادو؟ قانون خصوصية كولورادو هو قانون شامل لحماية الخصوصية، تم توقيعه في 7 يوليو 2021. وقد وضع معايير جديدة لحماية البيانات الشخصية...
عرض المزيد
Securiti لمساعد الطيار في البرمجيات كخدمة (SaaS)
تسريع اعتماد Copilot بأمان وثقة: تتطلع المؤسسات إلى اعتماد Microsoft 365 Copilot لزيادة الإنتاجية والكفاءة. ومع ذلك، تظل المخاوف الأمنية، مثل حماية البيانات...
عرض المزيد
أهم عشرة اعتبارات لاستخدام البيانات غير المهيكلة بأمان مع الذكاء الاصطناعي العام
نسبة مذهلة تصل إلى 90% من بيانات المؤسسات غير منظمة. وتُستخدم هذه البيانات بسرعة لتغذية تطبيقات الذكاء الاصطناعي من الجيل الجديد، مثل روبوتات الدردشة والبحث المدعوم بالذكاء الاصطناعي.
عرض المزيد
جينكور للذكاء الاصطناعي: بناء أنظمة ذكاء اصطناعي آمنة وعالية الجودة للمؤسسات في دقائق
مع تبني المؤسسات للذكاء الاصطناعي التوليدي، تواجه فرق البيانات والذكاء الاصطناعي العديد من العقبات: ربط مصادر البيانات غير المهيكلة والمهيكلة بشكل آمن، والحفاظ على الضوابط والحوكمة المناسبة،...
عرض المزيد
كيفية التعامل مع قانون حماية خصوصية المستهلك في كاليفورنيا: رؤى أساسية للشركات
ما هو قانون حقوق الخصوصية في كاليفورنيا (CPRA)؟ هو تشريع ولاية كاليفورنيا الذي يهدف إلى حماية خصوصية سكانها الرقمية. وقد دخل حيز التنفيذ في يناير...
عرض المزيد
التكيف مع التحول: الانتقال إلى معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS) الإصدار 4.0
ما هو معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS)؟ هو مجموعة من معايير الأمان لضمان المعالجة والتخزين الآمنين للبيانات، و...
عرض المزيد
تأمين البيانات والذكاء الاصطناعي: دليل إدارة الثقة والمخاطر والأمن (TRiSM)
أثارت المخاطر الأمنية المتزايدة للذكاء الاصطناعي قلق 48% من مسؤولي أمن المعلومات حول العالم. انضموا إلى هذه الجلسة الرئيسية للتعرف على دليل عملي لتمكين الثقة في الذكاء الاصطناعي، وإدارة المخاطر،...

جلسات حوارية مميزة

تسليط الضوء
الاستعداد للمستقبل لمحترفي الخصوصية
شاهد الآن منظر
تسليط الضوء 50:52
من البيانات إلى النشر: حماية الذكاء الاصطناعي المؤسسي من خلال الأمن والحوكمة
شاهد الآن منظر
تسليط الضوء 11:29
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
شاهد الآن منظر
تسليط الضوء 11:18
إعادة هيكلة تمويل العقارات - كيف تُجري شركة ووكر آند دنلوب تحديثًا لمحفظتها الاستثمارية البالغة 135 مليار دولار أمريكي بالاعتماد على البيانات أولاً
شاهد الآن منظر
تسليط الضوء 13:38
تسريع المعجزات - كيف تُدمج شركة سانوفي الذكاء الاصطناعي لتقليص مدة تطوير الأدوية بشكل كبير
صورة مصغرة لشركة سانوفي
شاهد الآن منظر
تسليط الضوء 10:35
حدث تحول جوهري في مركز ثقل البيانات
شاهد الآن منظر
تسليط الضوء 14:21
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
شاهد الآن منظر
تسليط الضوء 12:!3
لا يمكنك بناء خطوط الأنابيب أو المستودعات أو منصات الذكاء الاصطناعي بدون معرفة تجارية
شاهد الآن منظر
تسليط الضوء 47:42
الأمن السيبراني – حيث يقوم القادة بالشراء والبناء والشراكة
ريحان جليل
شاهد الآن منظر
تسليط الضوء 27:29
بناء ذكاء اصطناعي آمن باستخدام Databricks و Gencore
ريحان جليل
شاهد الآن منظر
أحدث
عرض المزيد
بناء ذكاء اصطناعي سيادي باستخدام HPE Private Cloud AI و Veeam Securiti Gencore AI
كيف تُساهم تقنيات الذكاء الاصطناعي في السحابة الخاصة من HPE، وتسريع NVIDIA، وVeeam؟ Securiti يدعم نظام Gencore AI الذكاء الاصطناعي الآمن والمُدار للمؤسسات مع تطبيق السياسات عبر سير العمل RAG والمساعدين والوكلاء.
عرض المزيد
Securiti أعلنت شركة .ai عن اختيار شركة أكسنتشر كشريك العام لعام 2025
في إطار الاحتفال المستمر بالتعاون المؤثر في DataAI Security ، Securiti منحت شركة .ai، التابعة لشركة Veeam، شركة Accenture لقب شريك العام لعام 2025....
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ قانون حماية خصوصية المستهلك في كاليفورنيا؟ عرض المزيد
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ القانون؟
يمكن للشركات أن تستفيد من بعض الدروس الحيوية من أكبر إجراء إنفاذي تم اتخاذه مؤخراً في تاريخ قانون خصوصية المستهلك في كاليفورنيا (CCPA). Securiti مدونة 's تغطي جميع التفاصيل المهمة التي يجب معرفتها.
عرض المزيد
الذكاء الاصطناعي وقانون HIPAA: ما يعنيه وكيفية أتمتة الامتثال
تعرّف على كيفية تطبيق قانون قابلية نقل التأمين الصحي والمساءلة (HIPAA) على الذكاء الاصطناعي في تأمين المعلومات الصحية المحمية. تعلّم كيف...
التنقل العالمي AI Governance دليل شامل للامتثال المؤسسي عرض المزيد
التنقل العالمي AI Governance دليل شامل للامتثال المؤسسي
Securiti تُقدّم أحدث ورقة بحثية للمنظمة شرحاً وافياً للتحدي المعقد المتمثل في التنقل في العالم AI governance التحديات. اقرأ الآن للاستفادة من هذه الأفكار.
عرض المزيد
قلل من المعلومات التي تكشفها: ضوابط الخصوصية للذكاء الاصطناعي Agents and Copilots
تقليل انكشاف البيانات في الذكاء الاصطناعي agents and copilots قم بتطبيق ضوابط حماية الخصوصية مثل تقليل البيانات، وضوابط الوصول، وإخفاء البيانات، وإنفاذ السياسات لمنع التسريب و...
عرض المزيد
قائد العملاء: ملخص الحل
تعرّف على كيفية قيام Agent Commander باكتشاف وكلاء الذكاء الاصطناعي، وحماية بيانات المؤسسة من خلال ضوابط التشغيل، وتصحيح أخطاء الذكاء الاصطناعي - مما يتيح اعتماد الذكاء الاصطناعي بشكل آمن ومتوافق مع المعايير في...
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti عرض المزيد
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti
التزم بتعديلات قانون خصوصية المستهلك في كاليفورنيا لعام 2026 باستخدام Securiti وتشمل هذه المتطلبات تحديث متطلبات الموافقة، وتوسيع تعريفات البيانات الحساسة، وتعزيز حقوق المستهلك، وتقييمات الجاهزية.
عرض المزيد
تخلص من مخاطر البيانات في الذكاء الاصطناعي
تعرف على كيفية إعداد بيانات المؤسسة لاعتماد Gemini Enterprise بشكل آمن من خلال الحوكمة الأولية، واكتشاف البيانات الحساسة، وضوابط سياسة ما قبل الفهرسة.
عرض المزيد
دليل الحصول على شهادة HITRUST
Securiti يُعد الكتاب الإلكتروني دليلاً عملياً للحصول على شهادة HITRUST، ويغطي كل شيء بدءاً من اختيار i1 مقابل r2 ونطاق الأنظمة وصولاً إلى إدارة خطط العمل والتخطيط...
ما هو
جديد