Veeam تكمل الاستحواذ على Securiti لإنشاء أول منصة بيانات موثوقة في القطاع لتسريع الذكاء الاصطناعي الآمن على نطاق واسع

عرض

الذكاء الاصطناعي الآمن والمسؤول في أستراليا - استجابة الحكومة المؤقتة

المؤلف

صدف أيوب شودري

محلل Data Privacy في Securiti

CIPP/الولايات المتحدة

هذا المنشور متاح أيضاً في: English

لمحة عامة

في 17 يناير 2024، نشرت وزارة الصناعة والعلوم والموارد (DISR) في 17 يناير 2024، رد الحكومة الأسترالية المؤقت على استشارة وزارة الصناعة والعلوم والموارد (DISR) بشأن ورقة المناقشة الخاصة بها بعنوان "دعم الذكاء الاصطناعي المسؤول في أستراليا". سعت ورقة المناقشة الصادرة في 1 يونيو 2023 إلى الحصول على آراء حول كيفية قيام الحكومة الأسترالية بالتخفيف من أي مخاطر محتملة للذكاء الاصطناعي ودعم ممارسات الذكاء الاصطناعي الآمنة والمسؤولة. يوجز الرد على وجه الخصوص التعليقات الواردة من أصحاب المصلحة ويناقش استراتيجية الحكومة لضمان التطوير الآمن للذكاء الاصطناعي.

الرد المؤقت للحكومة الأسترالية

في الفترة من 1 يونيو إلى 4 أغسطس 2023، انخرطت الحكومة في مشاورات مكثفة، ساعيةً إلى الحصول على مدخلات من مختلف أصحاب المصلحة مثل الجمهور ومجموعات المناصرة والأوساط الأكاديمية والصناعية والشركات القانونية والوكالات الحكومية. في حين أعربت المذكرات المقدمة للمشاورات ("المذكرات") عن الحماس للفوائد المحتملة للذكاء الاصطناعي في مجالات مثل الرعاية الصحية والتعليم والإنتاجية، فقد أثيرت مخاوف بشأن الأضرار المحتملة طوال دورة حياته.

ومن الأمثلة على ذلك انتهاكات قوانين الملكية الفكرية أثناء جمع البيانات، والتحيزات التي تؤثر على مخرجات النماذج، والتأثيرات البيئية أثناء التدريب، وقضايا المنافسة التي تؤثر على المستهلكين. والجدير بالذكر أن هذه الطلبات المقدمة أكدت على عدم كفاية الأطر التنظيمية الحالية في معالجة مخاطر الذكاء الاصطناعي، مما أدى إلى توافق في الآراء حول ضرورة وجود حواجز وقائية تنظيمية، خاصةً لتطبيقات الذكاء الاصطناعي عالية المخاطر.

النقاط الرئيسية المستخلصة من الاستجابة المؤقتة

تلتزم الحكومة، بعد أن بدأت حوارًا مع المجتمع الأسترالي من خلال ورقة مناقشة، بمواصلة هذا الحوار حول الاستفادة الفعالة من فرص الذكاء الاصطناعي مع معالجة المخاطر المرتبطة به. وقد أبرز التحليل الأولي، الذي شمل التقارير المقدمة والمناقشات العالمية مثل قمة سلامة الذكاء الاصطناعي، الرؤى الرئيسية التالية:

  1. الاعتراف بالتأثير الإيجابي للذكاء الاصطناعي على خلق فرص العمل ونمو الصناعة.
  2. وإدراكًا منها أن تطبيقات الذكاء الاصطناعي لا تستلزم جميعها استجابات تنظيمية، تؤكد الحكومة على ضرورة ضمان الاستخدام غير المعوق للذكاء الاصطناعي منخفض المخاطر. وفي الوقت نفسه، تقر الحكومة بأن الإطار التنظيمي الحالي لا يفي بالغرض، لا سيما في معالجة المخاطر التي تشكلها تطبيقات الذكاء الاصطناعي عالية المخاطر في البيئات المشروعة والنماذج الحدودية.
  3. وتُعتبر القوانين الحالية غير كافية لمنع الأضرار الناجمة عن الذكاء الاصطناعي قبل حدوثها، مما يستلزم تعزيز الاستجابة للأضرار اللاحقة لوقوعها. يمكن أن تؤدي السرعة والحجم الفريدين لأنظمة الذكاء الاصطناعي إلى تفاقم الأضرار، مما يجعلها في بعض الأحيان غير قابلة للعلاج. ويدفع هذا الوضع إلى النظر في استجابة مصممة خصيصًا للذكاء الاصطناعي.
  4. تفكر الحكومة في فرض التزامات إلزامية على أولئك الذين يطورون أو يستخدمون أنظمة الذكاء الاصطناعي عالية الخطورة لضمان السلامة، وتؤكد على التعاون الدولي لوضع معايير السلامة، مع الاعتراف بتكامل النماذج المطورة في الخارج في أستراليا.

تهدف الحكومة الأسترالية إلى التطوير الآمن للذكاء الاصطناعي في البيئات عالية الخطورة وتشجع استخدام الذكاء الاصطناعي في البيئات منخفضة الخطورة. يشمل التركيز الفوري على تقييم الضمانات الإلزامية، والنظر في التنفيذ من خلال القوانين الحالية أو النهج المبتكرة، والالتزام بالتشاور الوثيق مع الصناعة والأوساط الأكاديمية والمجتمع.

المبادئ الموجهة لاستجابة الحكومة المؤقتة لدعم الذكاء الاصطناعي الآمن والمسؤول

التزمت الحكومة الأسترالية بخمسة مبادئ عند توجيه استجابتها المؤقتة:

  1. النهج القائم على المخاطر: اعتماد إطار عمل قائم على المخاطر لتيسير الاستخدام الآمن للذكاء الاصطناعي، وتكييف الالتزامات المفروضة على المطورين والناشرين بناءً على مستوى المخاطر المقدرة المرتبطة باستخدام الذكاء الاصطناعي أو نشره أو تطويره.
  2. متوازن ومتناسب: تجنب الأعباء غير الضرورية أو غير المتناسبة على الشركات والمجتمع والمنظمين. ستوازن الحكومة بين الحاجة إلى الابتكار والمنافسة والحاجة إلى حماية مصالح المجتمع، بما في ذلك الخصوصية والأمن والسلامة العامة والسلامة على الإنترنت.
  3. التعاون والشفافية: تأكيداً على الانفتاح، ستشارك الحكومة بنشاط مع الخبراء على الصعيد الوطني لصياغة نهجها في الاستخدام الآمن والمسؤول للذكاء الاصطناعي. كما سيتم السعي إلى مشاركة الجمهور والخبرة التقنية، بما يضمن اتخاذ إجراءات حكومية واضحة تمكّن مطوري الذكاء الاصطناعي ومنفذيه ومستخدميه من معرفة حقوقهم والحماية التي يتمتعون بها.
  4. شريك دولي موثوق به: الاتساق مع إعلان بلتشلي والاستفادة من أسسها القوية وقدراتها المحلية لدعم العمل العالمي للتصدي لمخاطر الذكاء الاصطناعي
  5. المجتمع أولاً: من خلال وضع الناس والمجتمعات المحلية في الصميم، ستعطي الحكومة الأولوية لتطوير وتنفيذ مناهج تنظيمية تتماشى مع احتياجات جميع الأفراد وقدراتهم وسياقهم الاجتماعي.

الخطوات التالية للحكومة الأسترالية في مجال الذكاء الاصطناعي

وتماشيًا مع الهدف العام للحكومة الأسترالية المتمثل في تعظيم الفرص التي يوفرها الذكاء الاصطناعي لاقتصادنا ومجتمعنا، تتعلق الخطوات التالية المقترحة بما يلي:

a. منع الأضرار

واستجابةً للمخاوف، تهدف الحكومة إلى مواصلة استكشاف المزيد من الحواجز التنظيمية التي تركز على الاختبار والشفافية والمساءلة لمنع الأضرار المرتبطة بالذكاء الاصطناعي. ويشمل ذلك:

  • الاختبار: الاختبار الداخلي والخارجي، وتبادل أفضل ممارسات السلامة، والتدقيق المستمر، وتدابير الأمن السيبراني.
  • الشفافية: وعي المستخدم باستخدام نظام الذكاء الاصطناعي، والإبلاغ العام عن القيود والقدرات، والكشف عن تفاصيل معالجة البيانات.
  • المساءلة: تعيين أدوار محددة لسلامة الذكاء الاصطناعي والتدريب الإلزامي للمطورين، لا سيما في البيئات عالية الخطورة.

ويشمل ذلك تعريف "المخاطر العالية" والمواءمة مع المبادرات الحكومية الحالية. واستكمالاً للاعتبارات التنظيمية المستقبلية، تشمل الخطوات الفورية ما يلي:

  • معيار سلامة الذكاء الاصطناعي: سوف يتعاون المركز الوطني للذكاء الاصطناعي مع قطاع الصناعة لتطوير معيار طوعي لسلامة الذكاء الاصطناعي، مما يبسّط اعتماد الذكاء الاصطناعي المسؤول للشركات.
  • النظر في وضع العلامات المائية: ستعمل وزارة الصناعة مع أصحاب المصلحة في الصناعة لتقييم الفوائد المحتملة للعلامات المائية الطوعية أو آليات إثبات مصدر البيانات المماثلة، لا سيما في بيئات الذكاء الاصطناعي عالية المخاطر.
  • فريق الخبراء الاستشاري: إدراكًا للحاجة إلى مدخلات الخبراء، ستقوم مجموعة استشارية مؤقتة بدعم الحكومة في وضع خيارات لحواجز الحماية من الذكاء الاصطناعي. وقد تشمل الاعتبارات المستقبلية هيئة استشارية دائمة.

بعد ذلك، تشمل الخطوات التالية التشاور بشأن حواجز الحماية الإلزامية الجديدة، ووضع معيار سلامة طوعي للذكاء الاصطناعي، واستكشاف وضع العلامات الطوعية للمحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي.

b. توضيح القوانين وتعزيزها

ولمعالجة المخاوف التي أثيرت خلال المشاورات، تُبذل جهود كبيرة على مستوى الحكومة لتوضيح القوانين وتحصينها، بما يضمن حماية المواطنين. وتشمل المبادرات الرئيسية ما يلي:

  • وضع قوانين جديدة تمكّن هيئة الاتصالات والإعلام الأسترالية من مكافحة المعلومات المضللة والتضليل عبر الإنترنت.
  • المراجعة القانونية لقانون السلامة على الإنترنت لعام 2021 للتكيف مع الأضرار المتطورة على الإنترنت.
  • التعاون مع حكومات الولايات والأقاليم، والصناعة، والمجتمع البحثي لوضع إطار تنظيمي للمركبات الآلية في أستراليا، يتضمن قوانين الصحة والسلامة في العمل.
  • إجراء البحوث والمشاورات لمعالجة آثار الذكاء الاصطناعي على حقوق النشر وقانون الملكية الفكرية الأوسع نطاقاً.
  • تنفيذ إصلاحات قانون الخصوصية لتعزيز الحماية في سياق تطبيقات الذكاء الاصطناعي.
  • تعزيز قوانين المنافسة والمستهلكين في أستراليا لمعالجة القضايا الناشئة عن المنصات الرقمية.
  • إنشاء إطار عمل أسترالي للذكاء الاصطناعي التوليدي في المدارس مع وزراء التعليم لتوجيه الاستخدام المسؤول والأخلاقي لأدوات الذكاء الاصطناعي التوليدي مع ضمان الخصوصية والأمن والسلامة.
  • ضمان أمن أدوات الذكاء الاصطناعي من خلال مبادئ مثل الأمن حسب التصميم، في إطار استراتيجية الأمن السيبراني.

c. التعاون الدولي

تراقب أستراليا عن كثب كيفية استجابة البلدان الأخرى لتحديات الذكاء الاصطناعي، بما في ذلك الجهود الأولية في الاتحاد الأوروبي والولايات المتحدة وكندا. واستنادًا إلى مشاركتها في قمة سلامة الذكاء الاصطناعي في المملكة المتحدة في نوفمبر/تشرين الثاني، ستواصل الحكومة العمل مع البلدان الأخرى لتشكيل الجهود الدولية في هذا المجال. يشير الرد المؤقت إلى أن أي قوانين جديدة يجب أن تكون مصممة خصيصاً لأستراليا. ستتخذ الحكومة الأسترالية الإجراءات التالية:

  • وتماشياً مع إعلان بلتشلي، تلتزم الحكومة الأسترالية بدعم تطوير تقرير حالة العلوم.
  • تهدف المشاركة الدولية المستمرة إلى تشكيل AI governance العالمية AI governance وتعزيز النشر الآمن والمسؤول للذكاء الاصطناعي.
  • يجري حاليًا بذل جهود لتعزيز المشاركة الأسترالية في المنتديات الدولية الرئيسية التي تضع معايير الذكاء الاصطناعي.
  • إن الحوار المستمر مع الشركاء الدوليين يضمن المواءمة والتشغيل المتبادل مع استجابات أستراليا المحلية لمخاطر الذكاء الاصطناعي.

d. تعظيم فوائد الذكاء الاصطناعي

في ميزانية 2023-24، خصصت الحكومة الأسترالية 75.7 مليون دولار أمريكي لمبادرات الذكاء الاصطناعي، مع التركيز على المجالات الرئيسية التالية:

  • برنامج تبني الذكاء الاصطناعي (17 مليون دولار): إنشاء مراكز لمساعدة الشركات الصغيرة والمتوسطة في اتخاذ قرارات مستنيرة بشأن الاستفادة من الذكاء الاصطناعي لتحسين الأعمال.
  • توسيع المركز الوطني للذكاء الاصطناعي (21.6 مليون دولار): توسيع نطاق المركز للبحوث الحيوية والريادة في مجال الذكاء الاصطناعي.
  • برامج خريجي الجيل القادم من خريجي الذكاء الاصطناعي (34.5 مليون دولار): استمرار التمويل لجذب وتدريب الموجة التالية من المتخصصين في الذكاء الاصطناعي الجاهزين للعمل.

تكمل هذه المبادرات الاستثمارات الخاصة الكبيرة في قطاع التكنولوجيا في أستراليا، لا سيما في مجال الذكاء الاصطناعي، والتي بلغت 1.9 مليار دولار في عام 2022. وتلتزم الحكومة باستكشاف المزيد من الفرص لتبني الذكاء الاصطناعي وتطويره، بما في ذلك على الأرجح وضع خطة استثمار في الذكاء الاصطناعي، بما يتماشى مع الجهود المبذولة لإرساء الاستخدام المسؤول للذكاء الاصطناعي وبناء الثقة العامة.

الخاتمة

تُظهر استجابة الحكومة الأسترالية المؤقتة التزامها بتعزيز فوائد الذكاء الاصطناعي مع معالجة المخاطر المرتبطة به. وتهدف من خلال نهج قائم على المبادئ، إلى ضمان تطوير الذكاء الاصطناعي بشكل آمن ومسؤول وموجه للمجتمع، مما يساهم في النمو الاقتصادي والتقدم التكنولوجي في أستراليا. ستشكل المشاورات والتعاون المستمران إطاراً تنظيمياً شاملاً وفعالاً لمشهد الذكاء الاصطناعي المتطور.

تحليل هذه المقالة باستخدام الذكاء الاصطناعي

يتم فتح المطالبات في أدوات الذكاء الاصطناعي التابعة لجهة خارجية.
اشترك في نشرتنا الإخبارية

احصل على أحدث المعلومات والتحديثات القانونية والمزيد من المعلومات في صندوق بريدك الإلكتروني


شارك

المزيد من القصص التي قد تهمك
مقاطع الفيديو
عرض المزيد
التخفيف من حدة أفضل 10 تطبيقات OWASP لتطبيقات LLM 2025
أحدث الذكاء الاصطناعي التوليدي (GenAI) تحولاً في كيفية عمل الشركات وتوسعها ونموها. هناك تطبيق للذكاء الاصطناعي لكل غرض، بدءًا من زيادة إنتاجية الموظفين إلى تبسيط...
عرض المزيد
أهم 6 حالات استخدام DSPM
مع ظهور الذكاء الاصطناعي التوليدي (GenAI)، أصبحت البيانات أكثر ديناميكية. يتم توليد البيانات الجديدة بشكل أسرع من أي وقت مضى، ويتم نقلها إلى أنظمة وتطبيقات مختلفة...
عرض المزيد
قانون الخصوصية في كولورادو (CPA)
ما هو قانون الخصوصية في كولورادو؟ قانون الخصوصية في كولورادو هو قانون خصوصية شامل تم توقيعه في 7 يوليو 2021. وقد وضع معايير جديدة للخصوصية الشخصية...
عرض المزيد
Securiti لـ Copilot في SaaS
تسريع اعتماد Copilot بأمان وثقة تتوق المؤسسات إلى اعتماد Microsoft 365 Copilot لزيادة الإنتاجية والكفاءة. ومع ذلك، فإن المخاوف الأمنية مثل البيانات...
عرض المزيد
أهم 10 اعتبارات للاستخدام الآمن للبيانات غير المهيكلة مع الذكاء الاصطناعي الجيني
إن 90% من بيانات المؤسسة هي بيانات غير منظمة. يتم استخدام هذه البيانات بسرعة لتغذية تطبيقات GenAI مثل روبوتات الدردشة الآلية والبحث بالذكاء الاصطناعي....
عرض المزيد
جينكور للذكاء الاصطناعي: بناء أنظمة ذكاء اصطناعي آمنة على مستوى الشركات في دقائق
مع اعتماد الشركات للذكاء الاصطناعي التوليدي، تواجه فرق البيانات والذكاء الاصطناعي العديد من العقبات: الربط الآمن بين مصادر البيانات غير المنظمة والمنظمة، والحفاظ على الضوابط والحوكمة المناسبة، ...
عرض المزيد
الإبحار في قانون تنظيم حماية المستهلك: رؤى أساسية للشركات
ما هو CPRA؟ قانون حقوق الخصوصية في كاليفورنيا (CPRA) هو تشريع ولاية كاليفورنيا الذي يهدف إلى حماية الخصوصية الرقمية للمقيمين. وقد أصبح ساريًا في يناير...
عرض المزيد
الإبحار في التحول: الانتقال إلى الإصدار 4.0 من PCI DSS v4.0
ما هو PCI DSS؟ معيار PCI DSS (معيار أمن بيانات صناعة بطاقات الدفع) هو مجموعة من المعايير الأمنية لضمان المعالجة الآمنة للبيانات وتخزينها و...
عرض المزيد
تأمين البيانات + الذكاء الاصطناعي: دليل إدارة الثقة والمخاطر والأمن (TRiSM)
تُثير المخاطر الأمنية المتزايدة للذكاء الاصطناعي قلق 48% من مدراء أمن المعلومات العالميين. انضم إلى هذه المحاضرة الرئيسية للتعرف على دليل عملي لتمكين الذكاء الاصطناعي من الثقة والمخاطر والمخاطر...
شركة AWS الناشئة تعرض حوكمة الأمن السيبراني باستخدام الذكاء الاصطناعي التوليدي عرض المزيد
شركة AWS الناشئة تعرض حوكمة الأمن السيبراني باستخدام الذكاء الاصطناعي التوليدي
تحقيق التوازن بين الابتكار والحوكمة مع الذكاء الاصطناعي التوليدي يتمتع الذكاء الاصطناعي التوليدي بالقدرة على إحداث تغيير جذري في جميع جوانب الأعمال بقدرات جديدة قوية. ومع ذلك، مع...

حوارات تحت الضوء

أضواء كاشفة 50:52
من البيانات إلى النشر: حماية الذكاء الاصطناعي المؤسسي من خلال الأمن والحوكمة
شاهد الآن عرض
أضواء كاشفة 11:29
ليس ضجيجاً - رئيس قسم التحليلات في شركة Dye & Durham يُظهر كيف يبدو الذكاء الاصطناعي في العمل حقاً
ليس ضجيجاً - رئيس قسم التحليلات في شركة Dye & Durham يُظهر كيف يبدو الذكاء الاصطناعي في العمل حقاً
شاهد الآن عرض
أضواء كاشفة 11:18
إعادة توصيل أسلاك التمويل العقاري - كيف تقوم شركة ووكر آند دنلوب بتحديث محفظتها البالغة قيمتها 135 مليار دولار أمريكي بالبيانات أولاً
شاهد الآن عرض
أضواء كاشفة 13:38
تسريع المعجزات - كيف تدمج سانوفي الذكاء الاصطناعي لتقليل الجداول الزمنية لتطوير الأدوية بشكل كبير
الصورة المصغرة لسانوفي
شاهد الآن عرض
أضواء كاشفة 10:35
لقد حدث تحول جوهري في مركز ثقل البيانات
شاهد الآن عرض
أضواء كاشفة 14:21
AI Governance أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
AI Governance أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
شاهد الآن عرض
أضواء كاشفة 12:!3
لا يمكنك بناء خطوط أنابيب أو مستودعات أو منصات ذكاء اصطناعي بدون معرفة الأعمال
شاهد الآن عرض
أضواء كاشفة 47:42
الأمن السيبراني - حيث يقوم القادة بالشراء والبناء والشراكة
ريحان جليل
شاهد الآن عرض
أضواء كاشفة 27:29
بناء ذكاء اصطناعي آمن مع Databricks وGencore
ريحان جليل
شاهد الآن عرض
أضواء كاشفة 46:02
بناء ذكاء اصطناعي مؤسسي آمن: خارطة طريق عملية
شاهد الآن عرض
الأحدث
عرض المزيد
DataAI Security: لماذا تختار مؤسسات الرعاية الصحية Securiti
اكتشف لماذا تثق مؤسسات الرعاية الصحية Securiti البيانات والذكاء الاصطناعي. تعرف على العوائق الرئيسية، والمزايا الخمس المؤكدة، وما يمكن أن تحققه ابتكارات البيانات الآمنة.
عرض المزيد
الاستغلال الأنثروبولوجي مرحباً بكم في عصر هجمات عملاء الذكاء الاصطناعي
استكشف أول هجوم لعامل الذكاء الاصطناعي ولماذا يغير كل شيء، وكيف تحمي ركائز DataAI Security مثل الذكاء ورسم الأوامر وجدران الحماية البيانات الحساسة.
شرح HIPAA PHI: المعرفات، وإزالة الهوية، وقائمة التحقق من الامتثال عرض المزيد
شرح HIPAA PHI: المعرفات، وإزالة الهوية، وقائمة التحقق من الامتثال
اكتشف ما هي المعلومات الصحية المحمية (PHI) بموجب قانون HIPAA. افهم ما يعتبر معلومات صحية محمية (PHI) وفقًا لقواعد HIPAA، وقائمة المحددات الـ 18، وما يحدث لـ...
فريق الأحمر عرض المزيد
ما هو فريق الذكاء الاصطناعي الأحمر؟ الدليل الكامل
يقوم فريق AI red teaming باختبار أنظمة الذكاء الاصطناعي من حيث الأمن والسلامة ومخاطر سوء الاستخدام. تعرف على كيفية عمله، والتقنيات الشائعة، وحالات الاستخدام في العالم الواقعي، ولماذا...
عرض المزيد
إصلاح الخصوصية في أستراليا: إصلاحات تاريخية في مجال الخصوصية والأمن السيبراني والسلامة على الإنترنت
اطلع على التقرير التقني واحصل على رؤى حول قانون الخصوصية الأسترالي، و CSLP، وقانون الحد الأدنى لسن استخدام وسائل التواصل الاجتماعي، وكيف Securiti ضمان الامتثال السريع.
عرض المزيد
تطبيق قانون الموافقة على ملفات تعريف الارتباط بقيمة 475 مليون يورو من قبل CNIL: دروس أساسية للمؤسسات
قم بتنزيل المستند التقني للتعرف على الغرامة البالغة 475 مليون يورو التي فرضتها CNIL لعدم الامتثال لقواعد الموافقة على ملفات تعريف الارتباط. اكتشف الدروس الرئيسية التي يمكن أن تستفيد منها المؤسسات وكيفية أتمتة الامتثال.
عرض المزيد
ملخص الحل: Microsoft Purview + Securiti
قم بتوسيع نطاق Microsoft Purview باستخدام Securiti وتصنيف وتقليل مخاطر البيانات والذكاء الاصطناعي عبر البيئات المختلطة من خلال المراقبة المستمرة والإصلاح التلقائي. تعرف على...
أهم 7 اتجاهات في مجال أمن البيانات والذكاء الاصطناعي لعام 2026 عرض المزيد
أهم 7 اتجاهات في مجال أمن البيانات والذكاء الاصطناعي لعام 2026
اكتشف أهم 7 اتجاهات في مجال أمن البيانات والذكاء الاصطناعي لعام 2026. تعرف على كيفية تأمين وكلاء الذكاء الاصطناعي، وإدارة البيانات، وإدارة المخاطر، وتوسيع نطاق الذكاء الاصطناعي...
عرض المزيد
التنقل في HITRUST: دليل للحصول على الشهادة
يعد كتاب Securiti دليلاً عملياً للحصول على شهادة HITRUST، حيث يغطي كل شيء بدءاً من اختيار i1 مقابل r2 وأنظمة النطاق وحتى إدارة CAPs والتخطيط...
دليل المهندس المعماري DSPM عرض المزيد
دليل مهندس DSPM الاصطناعي: بناء برنامج أمن البيانات + الذكاء الاصطناعي الجاهز للمؤسسات
احصل على شهادة معتمدة في DSPM. تعلّم كيفية تصميم حل DSPM البيانات والذكاء الاصطناعي DSPM، وتفعيل أمن البيانات والذكاء الاصطناعي، وتطبيق أفضل الممارسات المؤسسية، وتمكين اعتماد الذكاء الاصطناعي الآمن...
ما الجديد