Veeam تكمل الاستحواذ على Securiti لإنشاء أول منصة بيانات موثوقة في القطاع لتسريع الذكاء الاصطناعي الآمن على نطاق واسع

عرض

إطار عمل بريسيديو للذكاء الاصطناعي: رسم مستقبل الابتكار في الذكاء الاصطناعي بمسؤولية

المساهمون

أنس بيج

مدير تسويق المنتجات في Securiti

ماريا خان

المدير القانوني Data Privacy في Securiti

FIP, CIPT, CIPM, CIPPM, CEP/E

نُشر في 6 مارس 2024

مقدمة

انعقد المنتدى الاقتصادي العالمي (WEF) في اجتماعه السنوي الرابع والخمسين في دافوس-كلوسترز في الفترة من 15 إلى 19 يناير 2024. تضمن جدول الأعمال العديد من البنود الهامة مثل التأهب الطبي، والنمو الاقتصادي العالمي المستدام، وبالطبع الذكاء الاصطناعي (AI).

وقد أسفر الاجتماع، الذي حضره رواد أعمال وصحفيون وخبراء في المجال ومئات من ممثلي الحكومات والشركات الوطنية، عن عدد كبير من الأفكار. وفي خضم كل هذا، قدم تحالف AI Governance (AIGA) إطار عمل بريسيديو للذكاء الاصطناعي.

تم تطويرها استناداً إلى التوصيات الرئاسية الصادرة عن قمة القيادة المسؤولة للذكاء الاصطناعي في أبريل 2023، حيث طورت الرابطة سلسلة من الأوراق الموجزة التي تقدم الأفكار والرؤى والتوصيات من مختلف أصحاب المصلحة المعنيين بتطوير الذكاء الاصطناعي المسؤول.

يعد إطار عمل بريسيديو للذكاء الاصطناعي تتويجاً لمسار الأنظمة الآمنة والتكنولوجيا الذي يعمل جنباً إلى جنب مع شركة آي بي إم للاستشارات. يؤكد إطار العمل على الحاجة إلى منهجية قياسية توحّد إدارة دورة حياة نماذج الذكاء الاصطناعي التوليدي مع تسليط الضوء على الحاجة إلى حوكمة أصحاب المصلحة المتعددين والتواصل الشفاف.

والأهم من ذلك، يهدف إطار عمل بريسيديو للذكاء الاصطناعي إلى أن يكون دليلاً شاملاً للشركات التي تهدف إلى الاستفادة من قدرات الذكاء الاصطناعي في عملياتها الحالية. تزود خارطة الطريق التي يقدمها هذا الإطار المؤسسات بالأدوات والفلسفات اللازمة لتجاوز التحديات الأخلاقية والتنظيمية وتحديات السلامة التي يفرضها الذكاء الاصطناعي.

وبعبارة أخرى، لا يقدم الإطار استراتيجية فحسب، بل رؤية يمكن أن تساعد المؤسسات على الاستعداد لعالم يعتمد على الذكاء الاصطناعي ويرتكز على المبادئ والقيم الأخلاقية المشتركة.

المبادئ الأساسية لإطار عمل الذكاء الاصطناعي الرئاسي

فيما يلي المبادئ الثلاثة الأساسية لإطار عمل بريسيديو للذكاء الاصطناعي:

دورة حياة الذكاء الاصطناعي الموسعة

توصي دورة الحياة الموسعة للذكاء الاصطناعي التي اقترحها إطار عمل بريسيديو بنهج جديد جذري لتطوير الذكاء الاصطناعي يتجاوز المراحل التقليدية للتصميم والبناء والنشر. وفقًا لهذه التوصية، ستغطي دورة الحياة الموسعة الجديدة مجموعة أوسع من الأنشطة، بما في ذلك تقييم المفهوم الأولي، وتقييم الأثر الأخلاقي، وتقييم أصحاب المصلحة، والمشاركة، بالإضافة إلى المراقبة الصارمة بعد النشر والتغذية الراجعة.

بالنسبة للمؤسسات المشاركة في تطوير نماذج وأنظمة الذكاء الاصطناعي، يتطلب اعتماد نهج دورة الحياة المذكور أعلاه مزيجًا من التخطيط الشامل والاستشراف المستقبلي.

المفهوم والتصميم

ستتطلب المراحل الأولية إجراء تقييم شامل للتأثير المباشر وغير المباشر لنماذج وأنظمة الذكاء الاصطناعي التي يتم تطويرها، بالإضافة إلى تأثيرها المباشر على مختلف أصحاب المصلحة المعنيين. يمكن أن يساعد ذلك في إجراء تقييم مناسب لما إذا كانت هذه التطورات تتماشى مع المبادئ التوجيهية الأخلاقية والمتطلبات التنظيمية والتطلعات التشغيلية لجميع أصحاب المصلحة.

جمع البيانات وتنظيمها

يجب فحص أي وجميع البيانات التي يتم جمعها لتدريب نماذج وأنظمة الذكاء الاصطناعي في مرحلة التطوير من خلال عملية شاملة لضمان جودتها وتنوعها وملاءمتها من حيث التمثيل. من خلال القيام بذلك، يمكن للمؤسسة أن تتجنب الاضطرار إلى التعامل مع قضايا مثل التحيز والنتائج غير العادلة التي تنبع من عدم الكفاءة في عملية جمع البيانات.

الاختبار والتحقق من الصحة

وبمجرد أن تبدأ عملية التطوير، ستحتاج المؤسسات إلى تطوير وتنفيذ آليات تتيح دورة من التقييم المستمر للمخاطر والتخفيف من حدتها بشكل مناسب. علاوة على ذلك، يجب تطوير هذه الآليات مع ضمان ممارسات حوكمة البيانات القوية التي تستمر في الحفاظ على خصوصية وجودة البيانات المستخدمة لتدريب نماذج الذكاء الاصطناعي.

تطوير النماذج والتدريب

لكي تتبنى المؤسسات نهج دورة الحياة الموسعة، والأهم من ذلك، لكي تستفيد حقًا من نهج دورة الحياة الموسعة، سيكون الاستثمار الحازم في التدريب والموارد والعمليات المناسبة أمرًا بالغ الأهمية. يتضمن ذلك اعتماد التقنيات المناسبة التي تضفي مزيدًا من التوضيح لكيفية توليد نماذج وأنظمة ذكاء اصطناعي معينة لمخرجات محددة.

من المهم ملاحظة أن هذا سيؤدي في معظم الحالات إلى ارتفاع التكاليف التشغيلية مع زيادة التعقيد الكلي لمشاريع الذكاء الاصطناعي. ومع ذلك، فإن مثل هذا النهج سيحقق فوائد كبيرة على المدى الطويل. تشمل بعض هذه الفوائد تعزيز ثقة العملاء، والحد من مخاطر عدم الامتثال التنظيمي والمخالفات التنظيمية اللاحقة، بالإضافة إلى مواءمة أفضل لجهود تطوير الذكاء الاصطناعي للمؤسسة مع القيم المجتمعية.

النشر والمراقبة

كما أن مرحلة ما بعد النشر لا تقل أهمية لأنها تتطلب وجود آلية صارمة مماثلة يمكنها مراقبة نماذج وأنظمة الذكاء الاصطناعي المطورة بشكل استباقي لأي تحيزات قد تظهر. ويوصي إطار العمل بقناة اتصال مفتوحة بين المستخدمين وجميع أصحاب المصلحة الرئيسيين المعنيين في هذه المرحلة لضمان الحصول على التغذية الراجعة في الوقت المناسب مما يسهل التدخلات الاستباقية والتخفيف الفوري من المشاكل التي تم تحديدها.

والأهم من ذلك، فإن المؤسسات التي تتبنى بنجاح هذا النهج الموسع لدورة الحياة ستعزز وترسخ مطالبها كرائدة في مجال تطوير الذكاء الاصطناعي المسؤول. ونتيجة لذلك، يمكن لهذه المؤسسات أن تكتسب ميزة تنافسية في سوق يتزايد فيه القلق بشأن الآثار الأخلاقية المختلفة لتطوير الذكاء الاصطناعي.

يشجع إطار عمل بريزيديو للذكاء الاصطناعي المؤسسات على التحرك نحو عملية تطوير ذكاء اصطناعي أكثر أخلاقية وشفافية ومساءلة تركز على المشاركة الاستباقية مع أصحاب المصلحة المتعددين في سياق الاعتبارات الاجتماعية والأخلاقية. لا يمكن للمؤسسات التي تتبنى مثل هذا التحول أن تتوقع التخفيف من المخاطر المرتبطة به وزيادة احتمالية الامتثال التنظيمي فحسب، بل أيضًا فرصة لتكون رائدة في تطوير الذكاء الاصطناعي المسؤول وتنفيذه.

درء المخاطر الشامل للمخاطر الشاملة

يهدف إطار عمل بريزيديو، من خلال حواجز الحماية الشاملة للمخاطر، إلى ضمان أن تكون جميع نماذج وأنظمة الذكاء الاصطناعي مصممة لتكون آمنة وأخلاقية ومتوافقة تمامًا مع القيم المجتمعية من خلال غرس هذه الجوانب في مرحلة التطوير.

وهي تقوم بذلك من خلال تعزيز إنشاء آليات فعالة وقوية تحدد جميع المخاطر ذات الصلة وتقيّمها وتخفف من حدتها بشكل مناسب عبر الاعتبارات الرئيسية مثل الخصوصية والأمن والشفافية. تعمل هذه الآليات بمثابة حواجز حماية تمكّن من اعتماد نهج نظامي لإدارة المخاطر بالإضافة إلى تكاملها الفعال عبر مختلف مراحل دورة حياة الذكاء الاصطناعي الموسعة المذكورة أعلاه.

يمكن أن تشمل هذه الحواجز الوقائية الشاملة على سبيل المثال لا الحصر ما يلي:

  1. الضمانات التقنية: سيتم نشرها لضمان الأمن والسلامة المناسبين لجميع نماذج وأنظمة الذكاء الاصطناعي التي يتم تطويرها. يمكن أن تشمل هذه الضمانات على سبيل المثال لا الحصر استخدام التدريب العدائي، الذي يمكّن النماذج من إحباط محاولات التلاعب ومقاومتها، بالإضافة إلى زيادة البيانات، التي تعمل على تنويع بيانات التدريب لتقديم مخرجات تعميم أفضل للنماذج.
  2. الكشف عن التحيزات الخوارزمية والتخفيف من حدتها: سيركز هذا الأمر على قيام المؤسسات بنشر تدابير لتحديد أي تحيزات محددة داخل نماذج وأنظمة الذكاء الاصطناعي المطورة والتخفيف من حدتها بشكل مناسب. يمكن أن تشمل التدابير الدقيقة على سبيل المثال لا الحصر استخدام مقاييس الإنصاف المختلفة وأدوات وتقنيات الكشف عن التحيزات التي يمكن الاستفادة منها حسب الاحتياجات التنظيمية.
  3. آليات الإشراف والتحكم البشرية: قد ينطوي ذلك على استفادة المؤسسات من شكل ما من أشكال منهجية "الإنسان في الحلقة" (HITL)، والتي تضمن أن أي نماذج وأنظمة ذكاء اصطناعي مطورة لا تعمل باستقلالية مطلقة وتسمح بالتدخل البشري، خاصة في الحالات التي تنطوي على عمليات اتخاذ القرارات الحاسمة. يمكن اتخاذ المزيد من الخطوات لتحديد الأدوار والمسؤوليات المتعلقة بالمراقبة والإدارة والتدخل في عمليات الذكاء الاصطناعي بوضوح.
  4. الشفافية والوضوح: هذه هي فلسفة تنظيمية تقود الثقافة الداخلية للمؤسسة أكثر من كونها مجموعة دقيقة من التدابير والضمانات. والغرض من ذلك هو ضمان أن تكون أي نماذج وأنظمة ذكاء اصطناعي مطورة مفهومة بشكل كافٍ للبشر. ومن ثم، يمكن الاستفادة من الآليات والتدابير المختلفة التي تسمح بشرح مناسب لكيفية عمل نماذج وأنظمة الذكاء الاصطناعي المستخدمة داخل المؤسسات. هذه الآليات والتدابير حيوية للمؤسسات من حيث بناء الثقة، وتعزيز ثقافة المساءلة، وتسهيل تفسير مخرجات الذكاء الاصطناعي بدقة.

بطبيعة الحال، يجب أن تتخطى الحواجز الوقائية نفسها الضمانات التقليدية التي تستخدمها المؤسسات. إذا تم تنفيذ ذلك بشكل صحيح، يمكن أن يمكّن المؤسسات من توقع المخاطر والمشاكل المحتملة بشكل فعال ودقيق، سواء كانت تقنية أو غير تقنية، في مرحلة التطوير.

وعلاوة على ذلك، فإن اعتماد حواجز حماية شاملة للمخاطر يرمز إلى التزام أكبر تجاه تطوير الذكاء الاصطناعي المسؤول. وسيتعين الاستثمار في الأدوات والقدرات والموارد البشرية والبنية التحتية المناسبة التي يمكن أن تسهل اعتماد مثل هذه الحواجز الوقائية لضمان مراقبتها الصارمة من أجل تخفيف المخاطر وإدارتها بكفاءة.

بالإضافة إلى ذلك، يجب تطوير آليات إبلاغ شفافة في الوقت نفسه لتمكين إظهار التزام المنظمة بالتوقعات الأخلاقية والمتطلبات التنظيمية في الوقت المناسب، مع ترسيخ هيكل مساءلة موثوق به داخل المنظمة.

منهجية التحول إلى اليسار

تمثل منهجية التحول إلى اليسار في إطار عمل بريسيديو للذكاء الاصطناعي نهجاً استباقياً لتطوير الذكاء الاصطناعي، مع التركيز على الدمج المبكر للاعتبارات الأخلاقية والسلامة والامتثال.

يشير مصطلح "التحول إلى اليسار"، الذي نشأ من هندسة البرمجيات، إلى ممارسة دمج الاختبارات وضمان الجودة (QA) في وقت مبكر من دورة التطوير لتحديد المشكلات وإصلاحها على الفور، وبالتالي توفير الوقت والموارد. تستلزم هذه المنهجية تغييرًا جوهريًا في كيفية إجراء تطوير الذكاء الاصطناعي تقليديًا، وتدعو إلى استراتيجية استباقية بدلاً من استراتيجية إدارة المخاطر القائمة على رد الفعل. وهي تشجع على التعاون المبكر والوثيق بين المطورين والمختبرين وفرق العمليات وتتطلب إشراك مجموعة متنوعة من أصحاب المصلحة، بما في ذلك خبراء الأخلاقيات والامتثال، في تخطيط مشاريع الذكاء الاصطناعي.

يستلزم اعتماد منهجية التحول إلى اليسار تغييرات كبيرة في التخطيط والتنفيذ، بهدف تطوير حلول الذكاء الاصطناعي المتقدمة تقنيًا والمسؤولة اجتماعيًا في الوقت نفسه. والأهم من ذلك، فهي تعالج الحاجة المتزايدة للامتثال التنظيمي في مواجهة لوائح الذكاء الاصطناعي الأكثر صرامة في جميع أنحاء العالم، مما يمكّن المؤسسات من التخفيف من مخاطر عدم الامتثال، والبقاء في طليعة التغييرات التنظيمية، وتعزيز ثقة الجمهور في عمليات تطوير الذكاء الاصطناعي الخاصة بهم.

سيكون الطريق نحو تطوير الذكاء الاصطناعي المسؤول واعتماده على نطاق واسع رحلة طويلة وشاقة. وسيتطلب ذلك جهدًا شاملًا وتعاونيًا عبر قطاعات وتخصصات متعددة. وستكتسب هذه الحاجة إلى مزيد من التعاون أهمية كبيرة مع استمرار تطور تقنيات وقدرات الذكاء الاصطناعي بوتيرة متسارعة في الوقت الحالي.

وبالإضافة إلى سرعة هذا التطور، فإن التكامل الواضح والضروري المتزايد للذكاء الاصطناعي في كل من المهام اليومية والبنية التحتية الحيوية. وهذا يسلط مزيدًا من الضوء على الضرورة الملحة لوجود إطار عمل قوي وأخلاقي وموثوق يمكن أن يساعد المؤسسات على تكييف التقنيات الناشئة مع مراعاة واضحة لتأثيرها على المجتمع.

في مواجهة ذلك، فإن تركيز إطار عمل بريسيديو للذكاء الاصطناعي على التبني المبكر وتنفيذ إجراءات الحماية من المخاطر ونهج دورة حياة الذكاء الاصطناعي الشامل يمكّن المؤسسات من توقع التهديدات المحتملة والتخفيف من حدتها بشكل مناسب قبل أن تشكل مخاطر كبيرة على المؤسسات. والأهم من ذلك أن إطار العمل يرسي سابقة واضحة داخل المؤسسات لاتباع نهج استباقي في AI governance بدلاً من نهج رد الفعل.

علاوة على ذلك، وبسبب تعقيد نماذج وأنظمة الذكاء الاصطناعي التي يجري تطويرها، يجب على المؤسسات أن تتطلع إلى نهج أكثر دقة يتيح منصة أكبر وأكثر اتساعًا لمختلف أصحاب المصلحة مثل قادة الصناعة وصناع السياسات والمنظمين. يؤكد هذا النهج على أهمية إطار عمل بريسيديو كنموذج للمسؤولية المشتركة يأخذ وجهات النظر والخبرات المتنوعة في الاعتبار، مما يجعله أكثر قابلية للتكيف مع تعقيدات تقنيات الذكاء الاصطناعي الناشئة وكذلك آثارها الاجتماعية,

كيف يمكن ل Securiti المساعدة

Securiti هي الشركة الرائدة في Data Command Centerات، وهي منصة مركزية تتيح الاستخدام الآمن للبيانات والذكاء الاصطناعي. يوفر ذكاءً موحدًا للبيانات وعناصر تحكم وتنسيق موحد للبيانات عبر البيئات الهجينة متعددة السحابة. تعتمد الشركات العالمية الكبيرة على Data Command Center من Securiti من أجل AI governanceوأمن البيانات والخصوصية وحوكمة البيانات والامتثال.

إن AI Security & Governance يُمكِّن المؤسسات من اكتشاف الذكاء الاصطناعي الخفي ووضع حواجز حماية للخصوصية والأمان والحوكمة لتعزيز الاعتماد الآمن للذكاء الاصطناعي.

اطلب عرضًا توضيحيًا اليوم وتعرف على المزيد حول كيفية تمكين Securiti لمؤسستك من الانتقال من القلق من الذكاء الاصطناعي إلى اعتماده بشكل منهجي وآمن.

ورقة بيضاء

5 خطوات AI Governance:
ضمان ذكاء اصطناعي آمن وجدير بالثقة ومتوافق مع المعايير الدولية

قم بتنزيل الورقة البيضاء الآن
جهاز لوحي تجريبي
مركز AIGovernance.Center

احصل على رؤى الخبراء
والموارد الرئيسية على
AI Governance

استكشف مركز AIGovernance.Center
استكشف مركز AIGovernance.Center

تحليل هذه المقالة باستخدام الذكاء الاصطناعي

يتم فتح المطالبات في أدوات الذكاء الاصطناعي التابعة لجهة خارجية.
اشترك في نشرتنا الإخبارية

احصل على أحدث المعلومات والتحديثات القانونية والمزيد من المعلومات في صندوق بريدك الإلكتروني



المزيد من القصص التي قد تهمك
مقاطع الفيديو
عرض المزيد
التخفيف من حدة أفضل 10 تطبيقات OWASP لتطبيقات LLM 2025
أحدث الذكاء الاصطناعي التوليدي (GenAI) تحولاً في كيفية عمل الشركات وتوسعها ونموها. هناك تطبيق للذكاء الاصطناعي لكل غرض، بدءًا من زيادة إنتاجية الموظفين إلى تبسيط...
عرض المزيد
أهم 6 حالات استخدام DSPM
مع ظهور الذكاء الاصطناعي التوليدي (GenAI)، أصبحت البيانات أكثر ديناميكية. يتم توليد البيانات الجديدة بشكل أسرع من أي وقت مضى، ويتم نقلها إلى أنظمة وتطبيقات مختلفة...
عرض المزيد
قانون الخصوصية في كولورادو (CPA)
ما هو قانون الخصوصية في كولورادو؟ قانون الخصوصية في كولورادو هو قانون خصوصية شامل تم توقيعه في 7 يوليو 2021. وقد وضع معايير جديدة للخصوصية الشخصية...
عرض المزيد
Securiti لـ Copilot في SaaS
تسريع اعتماد Copilot بأمان وثقة تتوق المؤسسات إلى اعتماد Microsoft 365 Copilot لزيادة الإنتاجية والكفاءة. ومع ذلك، فإن المخاوف الأمنية مثل البيانات...
عرض المزيد
أهم 10 اعتبارات للاستخدام الآمن للبيانات غير المهيكلة مع الذكاء الاصطناعي الجيني
إن 90% من بيانات المؤسسة هي بيانات غير منظمة. يتم استخدام هذه البيانات بسرعة لتغذية تطبيقات GenAI مثل روبوتات الدردشة الآلية والبحث بالذكاء الاصطناعي....
عرض المزيد
جينكور للذكاء الاصطناعي: بناء أنظمة ذكاء اصطناعي آمنة على مستوى الشركات في دقائق
مع اعتماد الشركات للذكاء الاصطناعي التوليدي، تواجه فرق البيانات والذكاء الاصطناعي العديد من العقبات: الربط الآمن بين مصادر البيانات غير المنظمة والمنظمة، والحفاظ على الضوابط والحوكمة المناسبة، ...
عرض المزيد
الإبحار في قانون تنظيم حماية المستهلك: رؤى أساسية للشركات
ما هو CPRA؟ قانون حقوق الخصوصية في كاليفورنيا (CPRA) هو تشريع ولاية كاليفورنيا الذي يهدف إلى حماية الخصوصية الرقمية للمقيمين. وقد أصبح ساريًا في يناير...
عرض المزيد
الإبحار في التحول: الانتقال إلى الإصدار 4.0 من PCI DSS v4.0
ما هو PCI DSS؟ معيار PCI DSS (معيار أمن بيانات صناعة بطاقات الدفع) هو مجموعة من المعايير الأمنية لضمان المعالجة الآمنة للبيانات وتخزينها و...
عرض المزيد
تأمين البيانات + الذكاء الاصطناعي: دليل إدارة الثقة والمخاطر والأمن (TRiSM)
تُثير المخاطر الأمنية المتزايدة للذكاء الاصطناعي قلق 48% من مدراء أمن المعلومات العالميين. انضم إلى هذه المحاضرة الرئيسية للتعرف على دليل عملي لتمكين الذكاء الاصطناعي من الثقة والمخاطر والمخاطر...
شركة AWS الناشئة تعرض حوكمة الأمن السيبراني باستخدام الذكاء الاصطناعي التوليدي عرض المزيد
شركة AWS الناشئة تعرض حوكمة الأمن السيبراني باستخدام الذكاء الاصطناعي التوليدي
تحقيق التوازن بين الابتكار والحوكمة مع الذكاء الاصطناعي التوليدي يتمتع الذكاء الاصطناعي التوليدي بالقدرة على إحداث تغيير جذري في جميع جوانب الأعمال بقدرات جديدة قوية. ومع ذلك، مع...

حوارات تحت الضوء

أضواء كاشفة 50:52
من البيانات إلى النشر: حماية الذكاء الاصطناعي المؤسسي من خلال الأمن والحوكمة
شاهد الآن عرض
أضواء كاشفة 11:29
ليس ضجيجاً - رئيس قسم التحليلات في شركة Dye & Durham يُظهر كيف يبدو الذكاء الاصطناعي في العمل حقاً
ليس ضجيجاً - رئيس قسم التحليلات في شركة Dye & Durham يُظهر كيف يبدو الذكاء الاصطناعي في العمل حقاً
شاهد الآن عرض
أضواء كاشفة 11:18
إعادة توصيل أسلاك التمويل العقاري - كيف تقوم شركة ووكر آند دنلوب بتحديث محفظتها البالغة قيمتها 135 مليار دولار أمريكي بالبيانات أولاً
شاهد الآن عرض
أضواء كاشفة 13:38
تسريع المعجزات - كيف تدمج سانوفي الذكاء الاصطناعي لتقليل الجداول الزمنية لتطوير الأدوية بشكل كبير
الصورة المصغرة لسانوفي
شاهد الآن عرض
أضواء كاشفة 10:35
لقد حدث تحول جوهري في مركز ثقل البيانات
شاهد الآن عرض
أضواء كاشفة 14:21
AI Governance أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
AI Governance أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
شاهد الآن عرض
أضواء كاشفة 12:!3
لا يمكنك بناء خطوط أنابيب أو مستودعات أو منصات ذكاء اصطناعي بدون معرفة الأعمال
شاهد الآن عرض
أضواء كاشفة 47:42
الأمن السيبراني - حيث يقوم القادة بالشراء والبناء والشراكة
ريحان جليل
شاهد الآن عرض
أضواء كاشفة 27:29
بناء ذكاء اصطناعي آمن مع Databricks وGencore
ريحان جليل
شاهد الآن عرض
أضواء كاشفة 46:02
بناء ذكاء اصطناعي مؤسسي آمن: خارطة طريق عملية
شاهد الآن عرض
الأحدث
عرض المزيد
DataAI Security: لماذا تختار مؤسسات الرعاية الصحية Securiti
اكتشف لماذا تثق مؤسسات الرعاية الصحية Securiti البيانات والذكاء الاصطناعي. تعرف على العوائق الرئيسية، والمزايا الخمس المؤكدة، وما يمكن أن تحققه ابتكارات البيانات الآمنة.
عرض المزيد
الاستغلال الأنثروبولوجي مرحباً بكم في عصر هجمات عملاء الذكاء الاصطناعي
استكشف أول هجوم لعامل الذكاء الاصطناعي ولماذا يغير كل شيء، وكيف تحمي ركائز DataAI Security مثل الذكاء ورسم الأوامر وجدران الحماية البيانات الحساسة.
شرح HIPAA PHI: المعرفات، وإزالة الهوية، وقائمة التحقق من الامتثال عرض المزيد
شرح HIPAA PHI: المعرفات، وإزالة الهوية، وقائمة التحقق من الامتثال
اكتشف ما هي المعلومات الصحية المحمية (PHI) بموجب قانون HIPAA. افهم ما يعتبر معلومات صحية محمية (PHI) وفقًا لقواعد HIPAA، وقائمة المحددات الـ 18، وما يحدث لـ...
فريق الأحمر عرض المزيد
ما هو فريق الذكاء الاصطناعي الأحمر؟ الدليل الكامل
يقوم فريق AI red teaming باختبار أنظمة الذكاء الاصطناعي من حيث الأمن والسلامة ومخاطر سوء الاستخدام. تعرف على كيفية عمله، والتقنيات الشائعة، وحالات الاستخدام في العالم الواقعي، ولماذا...
عرض المزيد
إصلاح الخصوصية في أستراليا: إصلاحات تاريخية في مجال الخصوصية والأمن السيبراني والسلامة على الإنترنت
اطلع على التقرير التقني واحصل على رؤى حول قانون الخصوصية الأسترالي، و CSLP، وقانون الحد الأدنى لسن استخدام وسائل التواصل الاجتماعي، وكيف Securiti ضمان الامتثال السريع.
عرض المزيد
تطبيق قانون الموافقة على ملفات تعريف الارتباط بقيمة 475 مليون يورو من قبل CNIL: دروس أساسية للمؤسسات
قم بتنزيل المستند التقني للتعرف على الغرامة البالغة 475 مليون يورو التي فرضتها CNIL لعدم الامتثال لقواعد الموافقة على ملفات تعريف الارتباط. اكتشف الدروس الرئيسية التي يمكن أن تستفيد منها المؤسسات وكيفية أتمتة الامتثال.
عرض المزيد
ملخص الحل: Microsoft Purview + Securiti
قم بتوسيع نطاق Microsoft Purview باستخدام Securiti وتصنيف وتقليل مخاطر البيانات والذكاء الاصطناعي عبر البيئات المختلطة من خلال المراقبة المستمرة والإصلاح التلقائي. تعرف على...
أهم 7 اتجاهات في مجال أمن البيانات والذكاء الاصطناعي لعام 2026 عرض المزيد
أهم 7 اتجاهات في مجال أمن البيانات والذكاء الاصطناعي لعام 2026
اكتشف أهم 7 اتجاهات في مجال أمن البيانات والذكاء الاصطناعي لعام 2026. تعرف على كيفية تأمين وكلاء الذكاء الاصطناعي، وإدارة البيانات، وإدارة المخاطر، وتوسيع نطاق الذكاء الاصطناعي...
عرض المزيد
التنقل في HITRUST: دليل للحصول على الشهادة
يعد كتاب Securiti دليلاً عملياً للحصول على شهادة HITRUST، حيث يغطي كل شيء بدءاً من اختيار i1 مقابل r2 وأنظمة النطاق وحتى إدارة CAPs والتخطيط...
دليل المهندس المعماري DSPM عرض المزيد
دليل مهندس DSPM الاصطناعي: بناء برنامج أمن البيانات + الذكاء الاصطناعي الجاهز للمؤسسات
احصل على شهادة معتمدة في DSPM. تعلّم كيفية تصميم حل DSPM البيانات والذكاء الاصطناعي DSPM، وتفعيل أمن البيانات والذكاء الاصطناعي، وتطبيق أفضل الممارسات المؤسسية، وتمكين اعتماد الذكاء الاصطناعي الآمن...
ما الجديد