الإعلان عن Agent Commander - أول حل متكامل من Veeam + Securiti .ai تمكين توسيع نطاق وكلاء الذكاء الاصطناعي الآمنين

منظر

وزارة الخزانة الأمريكية تدرس المخاطر الأمنية المتعلقة بالذكاء الاصطناعي في قطاع الخدمات المالية: ما تحتاج إلى معرفته

المساهمون

جوسلين هول

مدير أول لإدارة المنتجات في Securiti

جاك بيركويتز

كبير مسؤولي البيانات في Securiti

استمع إلى المحتوى

هذا المنشور متاح أيضاً باللغات التالية: English

إن التبني الواسع النطاق للذكاء الاصطناعي من الجيل الأول يغير مشهد البيانات، ويقدم قيمة لا توصف للمؤسسات التي تتطلع إلى زيادة الكفاءة وإطلاق رؤى الأعمال باستخدام أنظمة الذكاء الاصطناعي من الجيل الأول - ولكنه يطرح أيضًا مخاوف أمنية غير مسبوقة ألهمت بالفعل إجراءات تنظيمية عالمية، كما هو الحال في التبني الأخير لقانون الذكاء الاصطناعي للاتحاد الأوروبي - بالإضافة إلى الأمر التنفيذي الصادر عن إدارة بايدن في أكتوبر 2023 لضمان الاستخدام "الآمن والموثوق" للذكاء الاصطناعي.

بناءً على هذا التوجيه، أصدرت وزارة الخزانة الأمريكية تقريرًا بعنوان "إدارة مخاطر الأمن السيبراني المتعلقة بالذكاء الاصطناعي في قطاع الخدمات المالية"، يُسلط الضوء على أهمية الإدارة المسؤولة لمخاطر الأمن السيبراني المرتبطة بالذكاء الاصطناعي في هذا القطاع، مُشيرةً إلى أن "قطاع الخدمات المالية يتعرض بشكل متزايد لتهديدات أمنية سيبرانية مُكلفة وعمليات احتيال إلكتروني". ويُقر التقرير، الذي نُشر في 27 مارس 2024، بقيمة التقدم التكنولوجي والابتكار المسؤولين في قطاع الخدمات المالية، مع تحديد المخاطر المصاحبة للتقنيات الناشئة، وحث المؤسسات المالية على معالجة المخاطر المتعلقة بالذكاء الاصطناعي، والأمن السيبراني، والاحتيال.

أهمية ذلك: يضع التقرير الأساس للوائح المستقبلية

قد يتساءل العاملون في مجال الخدمات المالية عن مدى أهمية أو جدوى تقرير وزارة الخزانة الذي لا يُعدّ لائحة تنظيمية في الوقت الراهن. ففي عصر الرقابة التنظيمية المستمرة، تستخدم الهيئات التنظيمية في جميع أنحاء العالم، وعلى المستويين الفيدرالي والولائي في الولايات المتحدة، هذه التقارير لإطلاع القطاع على التغييرات المرتقبة والتي قد تُفرض قريباً.

مع أن جميع بنود التقرير قد لا تتحول في نهاية المطاف إلى لوائح تنظيمية، إلا أن العديد منها سيتحول. هذه الإشارة تساعد الشركات على الاستعداد للوائح دون تشتيت تركيزها عن أعمالها الأساسية، كما أنها تُمكّن الجهات التنظيمية من الاستفادة من ردود فعل القطاع وتعليقاته. لن تصبح كل توصية في هذا التقرير متطلباً تنظيمياً، لكنها تُشير إلى أن الجهات التنظيمية ستركز أكثر من أي وقت مضى على مخاطر الذكاء الاصطناعي من الجيل الجديد، وستتحرك لاتخاذ إجراءات في هذا الاتجاه.

توصيات من التقرير

عند دراسة التحديات والفرص المباشرة وغير المباشرة المتعلقة بالذكاء الاصطناعي، يحدد تقرير وزارة الخزانة عشر توصيات واستنتاجات رئيسية للوكالات والهيئات التنظيمية وشركات الخدمات المالية الخاصة للنظر فيها عند معالجة المخاطر المباشرة المتعلقة بالذكاء الاصطناعي. وهي:

  1. الحاجة إلى معجم مشترك للذكاء الاصطناعي: إن إنشاء معجم خاص بالذكاء الاصطناعي، وهو أمر ضروري للغاية، وتحقيق الاتساق في جميع أنحاء القطاع فيما يتعلق بمفهوم "الذكاء الاصطناعي"، من شأنه أن يفيد المؤسسات المالية والجهات التنظيمية والمستهلكين.
  2. معالجة فجوة القدرات المتزايدة: عندما يتعلق الأمر بتطوير أنظمة الذكاء الاصطناعي الداخلية، فإن المؤسسات المالية الكبيرة تتفوق بكثير على المؤسسات الصغيرة بسبب التفاوت في موارد البيانات - كما أن تلك التي انتقلت إلى السحابة تتمتع بميزة على تلك التي لم تفعل ذلك.
  3. تضييق فجوة بيانات الاحتيال: كما هو الحال مع فجوة القدرات، تمتلك المؤسسات الكبيرة بيانات تاريخية أكثر من المؤسسات الصغيرة، وميزة في بناء نماذج الذكاء الاصطناعي الداخلية لمكافحة الاحتيال.
  4. التنسيق التنظيمي: في ظل المشهد التنظيمي الدولي والفيدرالي وعلى مستوى الولايات المعقد والمتداخل للغاية في مجال الخدمات المالية، تتعاون المؤسسات المالية والجهات التنظيمية بشأن كيفية معالجة مخاوف الرقابة والتجزئة التنظيمية في بيئة الذكاء الاصطناعي سريعة التغير.
  5. توسيع إطار إدارة مخاطر الذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتكنولوجيا (NIST): توجد فرص لتوسيع وتخصيص إطار إدارة مخاطر الذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتكنولوجيا (NIST) ليشمل المزيد من المحتوى حول AI governance وإدارة المخاطر للخدمات المالية.
  6. أفضل الممارسات لرسم خرائط سلسلة توريد البيانات و"ملصقات التغذية": هناك حاجة إلى تطوير أفضل الممارسات لرسم خرائط سلاسل توريد البيانات وتوحيد الأوصاف - على غرار ملصقات التغذية على الطعام - لما هي البيانات التي تم استخدامها لتدريب نموذج الذكاء الاصطناعي، ومن أين نشأت البيانات، وكيف يتم استخدام البيانات لأنظمة الذكاء الاصطناعي ومقدمي البيانات.
  7. إمكانية التفسير لحلول الذكاء الاصطناعي ذات الصندوق الأسود: هناك حاجة إلى مزيد من البحث والتطوير حول حلول إمكانية التفسير لأنظمة الصندوق الأسود، مثل الذكاء الاصطناعي التوليدي الذي يأخذ في الاعتبار المدخلات والمخرجات والاختبار القوي.
  8. الثغرات في رأس المال البشري: يجب معالجة فجوة المواهب في القوى العاملة في مجال الذكاء الاصطناعي من خلال وضع أفضل الممارسات لاستخدام أنظمة الذكاء الاصطناعي بأمان للممارسين الأقل مهارة وتوفير تدريب خاص بالوظائف في مجال الذكاء الاصطناعي للموظفين في المجالات القانونية والامتثال وغيرها من المجالات خارج تكنولوجيا المعلومات.
  9. فك تشابك حلول الهوية الرقمية: إن وضع معايير تقنية قوية للهوية الرقمية على المستويات الدولية والوطنية والصناعية يمكن أن يساعد المؤسسات المالية على مكافحة الاحتيال وتعزيز الأمن السيبراني.
  10. التنسيق الدولي: لا تزال الرؤية المستقبلية لتنظيم الذكاء الاصطناعي في الخدمات المالية غير واضحة. وستواصل وزارة الخزانة الأمريكية التواصل مع نظرائها الأجانب بشأن مخاطر وفوائد الذكاء الاصطناعي في الخدمات المالية.

رغم أن هذه الإرشادات والنتائج الرئيسية تُوفر إطارًا ممتازًا لرسم ملامح الطريق المستقبلي، إلا أن تطبيقها عمليًا ليس بالأمر السهل. فالمؤسسات المالية لديها العديد من الجوانب المعقدة (وهذا أقل ما يُقال)، لذا فإنّ معالجة هذه التوصيات - حتى تلك التي تقع ضمن نطاق مسؤوليتها - لا يتعلق بـ"ما إذا" ينبغي عليها تطبيقها، بل بـ"كيف" ينبغي عليها ذلك. وفي الوقت نفسه، لا شكّ أنه مع تزايد أهمية الامتثال المتعلق بالذكاء الاصطناعي، فقد حان الوقت لهذه الشركات لإعادة النظر في بيئات بياناتها مع التركيز على ممارسات الذكاء الاصطناعي المسؤولة.

أبرز التحديات التي تواجه إدارة التهديدات السيبرانية الخاصة بالذكاء الاصطناعي في قطاع الخدمات المالية

تعتمد التطورات التكنولوجية لأنظمة الذكاء الاصطناعي على البيانات، وبينما تُطرح هذه الأنظمة تحديات أمنية جديدة، فإن العديد من التحديات التي تواجهها المؤسسات المالية في استخدام أنظمة ذكاء اصطناعي آمنة وموثوقة تتمحور حول البيانات. غالبًا ما يواجه مسؤولو أمن المعلومات، ومسؤولو البيانات، ومسؤولو حماية البيانات في القطاع المالي صعوبة في حماية البيانات الحساسة بشكل فعال وشامل، وفي وضع وتطبيق AI governance ، وفي تحقيق الامتثال عند إدارة أنظمة الجيل القادم من الذكاء الاصطناعي، كل ذلك مع ضمان قابلية التوسع لممارسات البيانات والذكاء الاصطناعي السليمة. تشمل أبرز التحديات التي تعيق المؤسسات المالية عن المضي قدمًا في استخدام الذكاء الاصطناعي الآمن والموثوق ما يلي:

الذكاء الاصطناعي غير الخاضع للرقابة والخفي: تعمل نماذج الذكاء الاصطناعي على كميات هائلة من البيانات، غالباً ما تكون مجهولة المصدر، ولا يمكنها "نسيان" أو "محو" ما تم تدريبها عليه مسبقاً. علاوة على ذلك، ولأن هذه النماذج لا تعتمد فقط على شفرة برمجية مباشرة، بل أيضاً على المنطق الذي يتعلم من تلك البيانات، فإن مخرجاتها غالباً ما تكون متغيرة باستمرار. وبدون وجود ضوابط ورقابة مناسبة، تواجه المؤسسات المالية مخاطر تتعلق بغموض هذه البيانات، فضلاً عن نقاط الضعف، وأنظمة الذكاء الاصطناعي الخفية، والتفاعلات غير المنضبطة، ومخالفات الامتثال، وغيرها من الثغرات الأمنية.

بيانات ضخمة، غامضة، وغير خاضعة للرقابة: قبل أن تتمكن المؤسسات المالية من تحديد التهديدات الأمنية المتعلقة بالذكاء الاصطناعي لبيئة بياناتها وتحديد أولوياتها بذكاء، يجب أن يكون لديها ضوابط متسقة عبر جميع بيئات البيانات والذكاء الاصطناعي، وأن تعرف مكان وجود بياناتها الحساسة. إذا افتقرت المؤسسات إلى رؤية شاملة لبيئة بياناتها، فإن الحديث عن إدارة الذكاء الاصطناعي يصبح مستحيلاً. ورغم أن هذا تحدٍّ كبير، إلا أن اتباع نهج أساسي يتضمن اكتشاف جميع البيانات ورسم خرائط لها على نطاق واسع عبر المؤسسة - بما في ذلك البيئات المحلية، والسحابية الهجينة، وبيئات الجهات الخارجية - يُعد خطوة ضرورية لبعض المؤسسات المالية التي تتطلع إلى الابتكار من خلال دمج الذكاء الاصطناعي.

العمليات المنعزلة: يتطلب التعامل مع التوجهات التنظيمية فهمًا شاملًا للسياق عبر مختلف قطاعات الأعمال والمؤسسات والبيانات. تُعدّ معظم المؤسسات المالية عبارة عن تكتلات من عمليات الاستحواذ وقطاعات الأعمال، مع وجود تفاعل أو قواسم مشتركة ضئيلة للغاية بينها، وتؤكد بياناتها هذا الواقع. قبل استخلاص رؤى سياقية موثوقة من بياناتها، يجب على المؤسسات الحصول على نظرة شاملة لجميع بياناتها، مما يُمكّنها من تطبيق قواعد وتصنيفات موحدة على أنظمة التصنيف.

الوصول المفرط: بات ربط صلاحيات المستخدمين بهوياتهم وضمان تطبيق مبدأ أقل الصلاحيات في جميع أنحاء المؤسسة تحديًا متزايدًا. فالنهج المتساهل الذي يمنح صلاحيات واسعة للمستخدمين الداخليين يعرض المعلومات الحساسة للخطر، كما أن وجود مستخدمين ذوي صلاحيات مفرطة، ممن لديهم القدرة على الوصول إلى بيانات لا يستخدمونها، يزيد من نقاط الضعف الأمنية.

إدارة الاستجابة للاختراقات: لا يعني الأمن الحماية التامة من الاختراقات، بل يتطلب إدارةً فعّالة وسريعة وشفافة وشاملة ومتوافقة مع المعايير. أصبحت الاستجابة للاختراقات أكثر أهمية من أي وقت مضى، لا سيما في بيئات الحوسبة السحابية والذكاء الاصطناعي سريعة التطور. تحتاج المؤسسات المالية إلى معرفة البيانات التي تم اختراقها، ومكان وجودها، ونوع المعلومات الحساسة التي تحتويها، وإدارة استجابتها بفعالية وكفاءة.

إعطاء الأولوية للمعالجة: تُعدّ معالجة البيانات المعرضة للخطر مهمة شاقة لأي مؤسسة، وقد باتت عبئًا يفوق قدرة أي فرد أو مجموعة أفراد أو فريق على إنجازها. لذا، باتت العمليات الآلية ضرورية لتحديد البيانات والأنظمة التي تتطلب معالجة، وتتبعها، وتحديد أولوياتها، ومعالجتها بنجاح.

الامتثال: يتسم المشهد التنظيمي بالتعقيد وعدم اليقين، ويتزايد تعقيداً ودقةً باستمرار، بوتيرة أسرع من أي وقت مضى. تعاني العديد من المؤسسات المالية من ثغرات في عمليات الامتثال لديها، مما يعرضها للعقوبات والرسوم القانونية والإضرار بسمعتها. يتطلب تحقيق الامتثال والحفاظ عليه في عالم البيانات والذكاء الاصطناعي سريع التطور مراقبة تنظيمية مستمرة.

البيانات السياقية الكاملة والذكاء الاصطناعي أمران أساسيان

مع وجود بنية تحتية مناسبة للبيانات، تستطيع المؤسسات حماية جميع بيئات البيانات والذكاء الاصطناعي على مستوى المؤسسة - سواءً كانت سحابية أو محلية أو برمجيات كخدمة أو تابعة لجهات خارجية - على نطاق واسع، وذلك من خلال تحديد مواقع البيانات الحساسة ورسم خرائط لها أينما وُجدت، ووضع تصنيفات لإنشاء معايير موحدة ضرورية؛ وإنشاء عمليات منسقة بين مختلف قطاعات الأعمال، بالإضافة إلى فرق الخصوصية والحوكمة والأمن والامتثال؛ وتمكين مشاركة البيانات بشكل آمن؛ وتوسيع نطاق استخدام بيئة البيانات بشكل فعال لاستخلاص رؤى أكثر موثوقية تدفع عجلة الابتكار وتُترجم إلى قيمة تجارية قابلة للقياس. تُعد حماية البيانات والذكاء الاصطناعي وتقليل المخاطر أساس النجاح، لكن تحويل البيانات من مصدر خطر إلى أصل هو الخطوة التالية المرجوة - وهي في متناول المؤسسات المالية.

تحتاج شركات الخدمات المالية إلى نظام موحد Data Command Center وهذا يسمح لهم بمركزة عمليات البيانات والذكاء الاصطناعي والإجابة على أسئلة رئيسية مثل ما هي البيانات الحساسة الموجودة في أي من بيئات السحابة الخاصة بهم، والبيئات المحلية، وبيئات الطرف الثالث والموردين، ومن لديه حق الوصول إليها، وما هي اللوائح العابرة للحدود أو غيرها التي تنطبق عليها، وما هي نماذج الذكاء الاصطناعي المرتبطة بها، وأين توجد، ولمن تنتمي، وما إلى ذلك.

أدخل البيانات السياقية والذكاء الاصطناعي

تحتاج المؤسسات المالية إلى القدرة على استخلاص رؤى سياقية معمقة لبياناتها وأنظمة الذكاء الاصطناعي لديها، وذلك لتطبيق الضوابط المناسبة وإدارة المخاطر والحد منها بفعالية. يتطلب ذلك فهم السياق المحيط بالبيانات واكتساب شفافية في أنظمة الذكاء الاصطناعي، ما يُتيح فهمًا أفضل لمكوناتها والتحكم الأمثل في طريقة عملها.

Data mapping : تحديد وتعريف العلاقات بين عناصر البيانات المختلفة عبر قواعد البيانات والأنظمة الخاصة بك، وفهم تدفقات البيانات عبر التطبيقات والمصادر المختلفة لدمج البيانات أو توحيدها أو ترحيلها بشكل فعال.

مبدأ أقل الامتيازات: تحتاج فرق أمن المؤسسات إلى إدارة ضوابط الوصول الداخلية وضمان تطبيق مبدأ أقل الامتيازات على مستوى الشركة. من خلال ضوابط البيانات الموحدة، يمكنهم الحصول على رؤى دقيقة حول أذونات المستخدمين وأنماط الوصول، وفرض ضوابط صارمة عبر إخفاء البيانات الحساسة ديناميكيًا وتمكين مشاركة البيانات بشكل آمن، والامتثال لمتطلبات الامتثال المهمة في مختلف اللوائح العالمية.

Data Security Posture Management ( DSPM ): اكتشاف وتصنيف جميع البيانات غير المعروفة في السحابة؛ الحصول على رؤى سياقية حول البيانات مثل ملكية الأشخاص، والالتزامات التنظيمية، وبيانات التعريف الخاصة بالأمان والخصوصية؛ تحديد مخاطر الأمان والخصوصية التي تهدد البيانات؛ تحديد أولويات الأخطاء في التكوين ومعالجتها؛ منع الوصول غير المصرح به إلى البيانات واستخدامها data lineage لرسم خرائط البيانات عبر المصادر المنظمة وغير المنظمة، والحد من مخاطر اختراق البيانات، وتأمين مشاركة البيانات.

معالجة الاختراقات: إعطاء الأولوية لمخاطر أمن البيانات قبل حدوث الاختراق من خلال معالجة الانتهاكات الأكثر خطورة أولاً، والتواجد في وضع أفضل لاكتشاف التهديدات عند ظهورها، والاستجابة بسرعة في حالة حدوث اختراق، وإدارة حوادث الاختراق المحتملة بطريقة فعالة وسلسة ومتوافقة.

تصنيف المخاطر: حتى لو كانت المؤسسات المالية مطلعة على بياناتها وأنظمة الذكاء الاصطناعي الخاصة بها، فقد لا تكون على دراية بتصنيفات مخاطر هذه الأنظمة. تحتاج المؤسسات إلى رؤية واضحة للمخاطر التي تشكلها أنظمتها، وخاصة معايير المخاطر المختلفة المتعلقة بكل نموذج من نماذج الذكاء الاصطناعي، حتى تتمكن من تحديد المخاطر المحتملة والتخفيف منها بفعالية، وفهم أي أنظمة الذكاء الاصطناعي يجب السماح بها وأيها يجب حظرها.

الامتثال والتدقيق: الامتثال للوائح الفيدرالية الأمريكية والولائية والعالمية المتزايدة التعقيد والمتنامية والمتداخلة مع تلبية مراجعات مؤسستك الخاصة بضوابط الأمن الداخلي والسياسات والإجراءات.

حان الوقت الآن لكي تضع الخدمات المالية الضوابط المناسبة.

سواءً كان تقرير وزارة الخزانة الأمريكية بمثابة إشارة تحذيرية لمؤسسات الخدمات المالية بشأن اللوائح المستقبلية التي ستواجهها، أو أن هذه المؤسسات ببساطة تدرك أن إرساء ممارسات ذكاء اصطناعي موثوقة وآمنة ومسؤولة ومتوافقة مع المعايير يصب في مصلحة أعمالها، فقد حان الوقت الآن لكي تولي هذه المؤسسات اهتمامًا جديًا، لا سيما إذا لم تكن قد أولت تاريخيًا أولوية للامتثال للوائح البيانات وحوكمتها وأمنها وخصوصيتها. إن تبني الذكاء الاصطناعي يعني، أكثر من أي وقت مضى، تسارع وتيرة المخاطر واللوائح المتعلقة بالبيانات التي تواجه الخدمات المالية، وكذلك الفرص المتاحة أمامها.

إن وضع ضوابط وقائية الآن ليس مجرد خطوة مهمة نحو أفضل الممارسات، بل هو أمر بالغ الأهمية لتحقيق ميزة تنافسية والحفاظ عليها، أو حتى للبقاء في دائرة الضوء، في عالم تتزايد فيه متطلبات الحماية يومًا بعد يوم، ولا يزال فيه سقف القيمة غير محدد. سيجد قادة المؤسسات، من رؤساء أمن المعلومات إلى رؤساء البيانات إلى رؤساء حماية البيانات، قيمةً في التنسيق المتبادل، وتوسيع نطاق استخدام البيانات، وتحسين الشفافية وحماية البيانات التي تتيحها رحلة الامتثال، حيث يُسهم استخدامهم المسؤول للذكاء الاصطناعي في توليد رؤى أكثر موثوقية، وقرارات أكثر استنارة، وابتكار أكثر كفاءة، وسمعة أفضل لعلامتهم التجارية.

هل ترغب بمعرفة المزيد عن الخطوات التالية؟ تفضل بالاطلاع على Securiti "التنقل في الامتثال للذكاء الاصطناعي: نهج متكامل لإطار إدارة مخاطر الذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتكنولوجيا وقانون الذكاء الاصطناعي للاتحاد الأوروبي" لتحصين نفسك وفريقك وشركتك بالمعرفة والاستراتيجيات والخطوات التالية التي يحتاجونها لإطلاق العنان لقوة بيانات الجيل من الذكاء الاصطناعي - بأمان.

يستكشف AI Governance مركز securiti

قم بتحليل هذه المقالة باستخدام الذكاء الاصطناعي

تظهر المطالبات في أدوات الذكاء الاصطناعي التابعة لجهات خارجية.
انضم إلى قائمتنا البريدية

احصل على أحدث المعلومات والتحديثات القانونية والمزيد مباشرةً في بريدك الإلكتروني


يشارك

قصص أخرى قد تهمك
مقاطع فيديو
عرض المزيد
ريحان جليل، من شركة Veeam، يتحدث عن Agent Commander: theCUBE + NYSE Wired: قادة الأمن السيبراني
بعد استحواذ شركة Veeam على Securiti يمثل إطلاق برنامج Agent Commander خطوة هامة نحو مساعدة المؤسسات على تبني وكلاء الذكاء الاصطناعي بثقة أكبر. في...
عرض المزيد
تخفيف مخاطر قائمة OWASP لأهم 10 مخاطر لتطبيقات ماجستير القانون 2025
أحدث الذكاء الاصطناعي التوليدي (GenAI) تحولاً جذرياً في طريقة عمل الشركات وتوسعها ونموها. يوجد تطبيق للذكاء الاصطناعي لكل غرض، بدءاً من زيادة إنتاجية الموظفين وصولاً إلى تبسيط العمليات...
عرض المزيد
أفضل 6 DSPM حالات الاستخدام
مع ظهور الذكاء الاصطناعي التوليدي (GenAI)، أصبحت البيانات أكثر ديناميكية. يتم توليد بيانات جديدة بوتيرة أسرع من أي وقت مضى، ونقلها إلى أنظمة وتطبيقات متنوعة...
عرض المزيد
قانون الخصوصية في كولورادو (CPA)
ما هو قانون خصوصية كولورادو؟ قانون خصوصية كولورادو هو قانون شامل لحماية الخصوصية، تم توقيعه في 7 يوليو 2021. وقد وضع معايير جديدة لحماية البيانات الشخصية...
عرض المزيد
Securiti لمساعد الطيار في البرمجيات كخدمة (SaaS)
تسريع اعتماد Copilot بأمان وثقة: تتطلع المؤسسات إلى اعتماد Microsoft 365 Copilot لزيادة الإنتاجية والكفاءة. ومع ذلك، تظل المخاوف الأمنية، مثل حماية البيانات...
عرض المزيد
أهم عشرة اعتبارات لاستخدام البيانات غير المهيكلة بأمان مع الذكاء الاصطناعي العام
نسبة مذهلة تصل إلى 90% من بيانات المؤسسات غير منظمة. وتُستخدم هذه البيانات بسرعة لتغذية تطبيقات الذكاء الاصطناعي من الجيل الجديد، مثل روبوتات الدردشة والبحث المدعوم بالذكاء الاصطناعي.
عرض المزيد
جينكور للذكاء الاصطناعي: بناء أنظمة ذكاء اصطناعي آمنة وعالية الجودة للمؤسسات في دقائق
مع تبني المؤسسات للذكاء الاصطناعي التوليدي، تواجه فرق البيانات والذكاء الاصطناعي العديد من العقبات: ربط مصادر البيانات غير المهيكلة والمهيكلة بشكل آمن، والحفاظ على الضوابط والحوكمة المناسبة،...
عرض المزيد
كيفية التعامل مع قانون حماية خصوصية المستهلك في كاليفورنيا: رؤى أساسية للشركات
ما هو قانون حقوق الخصوصية في كاليفورنيا (CPRA)؟ هو تشريع ولاية كاليفورنيا الذي يهدف إلى حماية خصوصية سكانها الرقمية. وقد دخل حيز التنفيذ في يناير...
عرض المزيد
التكيف مع التحول: الانتقال إلى معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS) الإصدار 4.0
ما هو معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS)؟ هو مجموعة من معايير الأمان لضمان المعالجة والتخزين الآمنين للبيانات، و...
عرض المزيد
تأمين البيانات والذكاء الاصطناعي: دليل إدارة الثقة والمخاطر والأمن (TRiSM)
أثارت المخاطر الأمنية المتزايدة للذكاء الاصطناعي قلق 48% من مسؤولي أمن المعلومات حول العالم. انضموا إلى هذه الجلسة الرئيسية للتعرف على دليل عملي لتمكين الثقة في الذكاء الاصطناعي، وإدارة المخاطر،...

جلسات حوارية مميزة

تسليط الضوء
الاستعداد للمستقبل لمحترفي الخصوصية
شاهد الآن منظر
تسليط الضوء 50:52
من البيانات إلى النشر: حماية الذكاء الاصطناعي المؤسسي من خلال الأمن والحوكمة
شاهد الآن منظر
تسليط الضوء 11:29
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
شاهد الآن منظر
تسليط الضوء 11:18
إعادة هيكلة تمويل العقارات - كيف تُجري شركة ووكر آند دنلوب تحديثًا لمحفظتها الاستثمارية البالغة 135 مليار دولار أمريكي بالاعتماد على البيانات أولاً
شاهد الآن منظر
تسليط الضوء 13:38
تسريع المعجزات - كيف تُدمج شركة سانوفي الذكاء الاصطناعي لتقليص مدة تطوير الأدوية بشكل كبير
صورة مصغرة لشركة سانوفي
شاهد الآن منظر
تسليط الضوء 10:35
حدث تحول جوهري في مركز ثقل البيانات
شاهد الآن منظر
تسليط الضوء 14:21
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
شاهد الآن منظر
تسليط الضوء 12:!3
لا يمكنك بناء خطوط الأنابيب أو المستودعات أو منصات الذكاء الاصطناعي بدون معرفة تجارية
شاهد الآن منظر
تسليط الضوء 47:42
الأمن السيبراني – حيث يقوم القادة بالشراء والبناء والشراكة
ريحان جليل
شاهد الآن منظر
تسليط الضوء 27:29
بناء ذكاء اصطناعي آمن باستخدام Databricks و Gencore
ريحان جليل
شاهد الآن منظر
أحدث
عرض المزيد
بناء ذكاء اصطناعي سيادي باستخدام HPE Private Cloud AI و Veeam Securiti Gencore AI
كيف تُساهم تقنيات الذكاء الاصطناعي في السحابة الخاصة من HPE، وتسريع NVIDIA، وVeeam؟ Securiti يدعم نظام Gencore AI الذكاء الاصطناعي الآمن والمُدار للمؤسسات مع تطبيق السياسات عبر سير العمل RAG والمساعدين والوكلاء.
عرض المزيد
Securiti أعلنت شركة .ai عن اختيار شركة أكسنتشر كشريك العام لعام 2025
في إطار الاحتفال المستمر بالتعاون المؤثر في DataAI Security ، Securiti منحت شركة .ai، التابعة لشركة Veeam، شركة Accenture لقب شريك العام لعام 2025....
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ قانون حماية خصوصية المستهلك في كاليفورنيا؟ عرض المزيد
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ القانون؟
يمكن للشركات أن تستفيد من بعض الدروس الحيوية من أكبر إجراء إنفاذي تم اتخاذه مؤخراً في تاريخ قانون خصوصية المستهلك في كاليفورنيا (CCPA). Securiti مدونة 's تغطي جميع التفاصيل المهمة التي يجب معرفتها.
عرض المزيد
الذكاء الاصطناعي وقانون HIPAA: ما يعنيه وكيفية أتمتة الامتثال
تعرّف على كيفية تطبيق قانون قابلية نقل التأمين الصحي والمساءلة (HIPAA) على الذكاء الاصطناعي في تأمين المعلومات الصحية المحمية. تعلّم كيف...
عرض المزيد
قلل من المعلومات التي تكشفها: ضوابط الخصوصية للذكاء الاصطناعي Agents and Copilots
تقليل انكشاف البيانات في الذكاء الاصطناعي agents and copilots قم بتطبيق ضوابط حماية الخصوصية مثل تقليل البيانات، وضوابط الوصول، وإخفاء البيانات، وإنفاذ السياسات لمنع التسريب و...
عرض المزيد
من وضوح البيانات إلى سرعة الذكاء الاصطناعي
اطلع على الورقة البيضاء واكتشف كيف يتم توحيد DataAI security يحوّل إدارة البيانات إلى عامل تمكين للأعمال، ويعزز ابتكار الذكاء الاصطناعي من خلال الشفافية والامتثال وإدارة المخاطر...
عرض المزيد
قائد العملاء: ملخص الحل
تعرّف على كيفية قيام Agent Commander باكتشاف وكلاء الذكاء الاصطناعي، وحماية بيانات المؤسسة من خلال ضوابط التشغيل، وتصحيح أخطاء الذكاء الاصطناعي - مما يتيح اعتماد الذكاء الاصطناعي بشكل آمن ومتوافق مع المعايير في...
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti عرض المزيد
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti
التزم بتعديلات قانون خصوصية المستهلك في كاليفورنيا لعام 2026 باستخدام Securiti وتشمل هذه المتطلبات تحديث متطلبات الموافقة، وتوسيع تعريفات البيانات الحساسة، وتعزيز حقوق المستهلك، وتقييمات الجاهزية.
عرض المزيد
تخلص من مخاطر البيانات في الذكاء الاصطناعي
تعرف على كيفية إعداد بيانات المؤسسة لاعتماد Gemini Enterprise بشكل آمن من خلال الحوكمة الأولية، واكتشاف البيانات الحساسة، وضوابط سياسة ما قبل الفهرسة.
عرض المزيد
دليل الحصول على شهادة HITRUST
Securiti يُعد الكتاب الإلكتروني دليلاً عملياً للحصول على شهادة HITRUST، ويغطي كل شيء بدءاً من اختيار i1 مقابل r2 ونطاق الأنظمة وصولاً إلى إدارة خطط العمل والتخطيط...
ما هو
جديد