الإعلان عن Agent Commander - أول حل متكامل من Veeam + Securiti .ai تمكين توسيع نطاق وكلاء الذكاء الاصطناعي الآمنين

منظر

لوائح الذكاء الاصطناعي: الوضع الراهن والتوقعات المستقبلية

المساهمون

أنس بيج

مدير تسويق المنتجات في Securiti

عادل حسن

السيد. Data Privacy محلل في Securiti

CIPM، CIPP/كندا

نُشر في 18 سبتمبر 2024

يمثل الذكاء الاصطناعي معضلة مثيرة للاهتمام للشركات على مستوى العالم. لطالما كان من المسلّم به أن الأتمتة هي المستقبل. وكلما تكيفت المؤسسة بشكل أفضل مع هذا الاحتمال، كلما تمكنت من تجهيز نفسها بالموارد والمعرفة اللازمة للنجاح في هذا المستقبل.

ومع ذلك، واجهت الشركات أيضاً صعوبة في التعامل مع هذه التكنولوجيا بمسؤولية.

مخرجات متحيزة، ومعلومات مضللة، وأوهام النموذج، والمستخدم data privacy تُعدّ الانتهاكات مجرد بعض المشكلات التي ثبتت إدانة معظم نماذج الذكاء الاصطناعي المستخدمة على نطاق واسع بها.

إذا لم تُعالج هذه المشكلات بالشكل المناسب، فإنها ستتفاقم مع مرور الوقت وتصبح أكثر صعوبة في التعامل معها. وقد بدأت الحكومات في جميع أنحاء العالم بسنّ قوانين للتخفيف من حدة بعض هذه المشكلات.

يُعدّ قانون الذكاء الاصطناعي للاتحاد الأوروبي تشريعًا تاريخيًا يُشاد به بالفعل باعتباره التشريع الأكثر شمولًا في مجال الذكاء الاصطناعي على مستوى العالم. وهذا لا يختلف كثيرًا عن دخول اللائحة العامة لحماية البيانات ( GDPR ) حيز التنفيذ عام 2018. حينها، أدركت الشركات في جميع أنحاء العالم أنها تمثل لحظة فارقة، وأن دولًا أخرى وأنظمة قانونية أخرى ستحذو حذوها حتمًا. وقد كان لها ما أرادت.

اليوم، يوجد في كل دولة تقريباً في العالم إما قانون لحماية البيانات ساري المفعول أو أنها في مرحلة متقدمة من العملية التشريعية نحو صياغة مثل هذا القانون.

لذا، فإنّ قوانين الذكاء الاصطناعي باقية لا محالة. وفي السنوات القادمة، ستتوسع هذه القوانين، حيث ستضع كل دولة مجموعة قوانينها الخاصة التي تنظم كيفية إدارة الشركات العاملة ضمن نطاق اختصاصها أو التي تستخدم بيانات مواطنيها لاستخدامها لتقنيات الذكاء الاصطناعي.

يُعدّ الامتثال لهذه اللوائح تحديًا كبيرًا، ولكنه ليس سوى واحد من التحديات التي ستواجهنا في هذا المستقبل. تشمل التحديات الأخرى التعامل مع العديد من اللوائح التي قد تختلف اختلافًا كبيرًا بين مختلف الولايات القضائية، وإدارة الموارد في ظل الالتزامات التي تفرضها هذه اللوائح، وأفضل السبل لتطوير ضوابط داخلية لضمان الامتثال في الوقت المناسب، وغير ذلك.

بمجرد إلقاء نظرة سريعة، يتضح أن الامتثال التام للوائح المتعلقة بالذكاء الاصطناعي يتطلب استخدامًا فعالًا وكفؤًا للموارد. ولتحقيق ذلك، يجب على الشركات أن تتبنى فهمًا استباقيًا لما قد يبدو عليه مستقبل المشهد التنظيمي للذكاء الاصطناعي، محليًا ودوليًا.

الوضع الحالي للوائح الذكاء الاصطناعي

تبنى الاتحاد الأوروبي نهجاً مماثلاً فيما يتعلق بتنظيم الذكاء الاصطناعي كما فعل في data privacy ومن المثير للاهتمام أن الولايات المتحدة قد تبنت أيضاً نهجاً مماثلاً فيما يتعلق data privacy : فبدلاً من وجود تنظيم فيدرالي، هناك مجموعة من اللوائح والإرشادات على مستوى الإدارات والولايات .

لهذا النهج مزايا وعيوب. أهمها أنه يتيح للولايات والدوائر الحكومية تصميم هذه اللوائح والإرشادات بما يتناسب مع احتياجاتها وقيمها الخاصة. قد تتبنى بعض الولايات نهجًا متساهلًا نسبيًا، بينما قد تُشدد ولايات أخرى الرقابة على الممارسات التجارية المقبولة. إلا أن هذا يأتي على حساب التوحيد، مما قد يُعيق الابتكار أو يُحد من انتشاره على نطاق واسع، إذ قد يكون ما هو قانوني تمامًا في ولاية ما محظورًا صراحةً في ولاية أخرى.

يُعدّ التعرّف على الوجه مثالًا واضحًا على ذلك. إذ توجد في كلٍّ من ولايتي إلينوي وتكساس قوانين تُنظّم استخدام هذه التقنية. مع ذلك، يحظر قانون إلينوي لحماية خصوصية المعلومات البيومترية ( BIPA ) صراحةً جمع أو تخزين أو استخدام أي بيانات يتم جمعها عبر التعرّف على الوجه دون موافقة صريحة من الفرد. في المقابل، يحظر قانون تكساس بشأن التقاط أو استخدام مُعرّفات البيانات البيومترية (CUBI) استخدام هذه البيانات لأغراض تجارية فقط، دون اشتراط موافقة الأفراد من قِبل الشركات التي تستخدمها داخليًا.

قد يؤدي هذا التباين في شرعية التكنولوجيا إلى تبني الشركات نهجًا أكثر حذرًا في تطوير ونشر تقنيات الذكاء الاصطناعي. ورغم أن هذا من شأنه أن يزيد من فرص امتثالها لمجموعة اللوائح والإرشادات المتضاربة، إلا أنه سيعيق الابتكار الواسع، إذ لا يمكن الجمع بين الأمرين.

باستثناء الولايات المتحدة، يميل باقي العالم إلى تبني نهج الاتحاد الأوروبي في تنظيم الذكاء الاصطناعي . فالتنظيم المركزي يُمكّن الشركات والمواطنين من فهم التزاماتهم وحقوقهم بشكل أفضل. ومن المرجح أن تُلبّى المتطلبات الأكثر وضوحًا ودقةً، وأن تُؤخذ بعين الاعتبار عند تطوير منتجات وخدمات جديدة متعلقة بالذكاء الاصطناعي.

بالإضافة إلى ذلك، فإنه يمكّن الشركات من أن تكون أكثر ديناميكية في جهودها المتعلقة بالامتثال حيث يمكنها التكيف بشكل أكثر كفاءة مع أي تغييرات أو تعديلات، مما يضمن قدرتها على التخفيف من المخاطر المرتبطة بعدم الامتثال بشكل أكثر فعالية.

مخاطر البيئة التنظيمية غير المستقرة

يرى أحد المدارس الفكرية أنه على الرغم من التحديات التشغيلية لزيادة لوائح الذكاء الاصطناعي، فإن عدم وجود مثل هذه اللوائح سيكون بديلاً أكثر تقلباً ولا يمكن التنبؤ به.

إن غياب قوانين تنظيم الذكاء الاصطناعي سيجعل الإنترنت أشبه بالغرب المتوحش. وبينما قد يرى أصحاب التوجهات الليبرالية هذا السيناريو الأمثل للشركات، فمن المهم الإشارة إلى أن الشركات لا تعمل بمعزل عن غيرها. فمهما بلغت ابتكارية أو ثورية منتجات أو خدمات الشركة، فإن استمراريتها على المدى الطويل تعتمد كلياً على ثقة العملاء.

من المعروف أن الشركات لا تزال تواجه صعوبة في إيجاد أفضل السبل للاستفادة من تقنية الذكاء الاصطناعي بشكل مسؤول. وقد أبرزت عدة حوادث هذا الأمر، مما دفع المستخدمين إلى التساؤل عما إذا كان من الممكن الاعتماد حقاً على الثقة المطلقة في قدرة الشركات على استخدام هذه التقنية بمسؤولية.

علاوة على ذلك، في غياب إطار تنظيمي واضح، سيزداد احتمال وقوع مثل هذه الحوادث الكارثية. وسيكون الغضب الشعبي وردود الفعل العنيفة شديدة، ولن يكون فقدان ثقة الجمهور سوى أقل مخاوف الشركات. فمثل أحجار الدومينو، قد يكون لحادث مؤسف في منطقة ما تأثير مدمر على عمليات الشركات على مستوى العالم.

كل ما سبق ليس سوى لمحة عما قد يبدو عليه العالم بدون قوانين تنظيمية خاصة بالذكاء الاصطناعي.

فرصة…؟

في الوقت نفسه، من المهم الإقرار بأن اللوائح لطالما مثّلت عائقًا أمام الشركات على مستوى العالم. فمن الناحية التشغيلية، تُجبر هذه اللوائح المؤسسات على إعادة هيكلة وتقييم العديد من ممارساتها التجارية، مع ما يترتب على ذلك من ضغط إضافي على مواردها لضمان الامتثال. ويؤدي عدم القدرة على ذلك إلى غرامات مالية وتشويه السمعة، مما يُلحق الضرر بمكانتها لدى العملاء، ويؤدي بدوره إلى فقدان ثقتهم، وهكذا دواليك. باختصار، إما الامتثال أو الزوال.

رغم أن قوانين الذكاء الاصطناعي ستفرض تحديات مماثلة، إلا أنها ستتيح أيضاً فرصاً كبيرة. فالشركات التي تتبنى نهجاً استباقياً في تطبيق تدابير الذكاء الاصطناعي المسؤول، كاستخدام مجموعات البيانات ذات المصادر الأخلاقية فقط، وإتاحة موارد الذكاء الاصطناعي القابل للتفسير (XAI) عبر الإنترنت، وإشراك الجمهور في عملية اتخاذ القرارات المتعلقة بالذكاء الاصطناعي، تستطيع استخدام هذه التدابير لتعزيز ثقة العملاء وكسب ولائهم في نهاية المطاف، مع الوفاء في الوقت نفسه بمسؤولياتها المتعلقة بالشفافية والاعتبارات الأخلاقية.

ثانيًا، كما ذُكر سابقًا، قد تفرض الأنظمة والقوانين المختلفة التزامات متباينة على المؤسسات. وبناءً على ذلك، يمكن للمؤسسات ترتيب أولويات عمليات التطوير لديها. فإذا كانت إحدى الشركات تعمل على منتج أو خدمة مبتكرة متعلقة بالذكاء الاصطناعي، فيمكنها تقييم الدول التي يُمكنها طرح هذا المنتج أو الخدمة فيها. وهذا من شأنه أن يقلل الوقت والموارد المُخصصة لضمان امتثال جميع هذه المنتجات أو الخدمات للوائح التنظيمية في الأسواق الواعدة. ويمكن بذل الجهود لضمان امتثال أوسع نطاقًا لاحقًا، ولكن يمكن توجيه الموارد الأكثر إلحاحًا اللازمة للامتثال نحو الأسواق التي تُقدم قيمة أفضل.

وأخيرًا، يمكن للوائح المتعلقة بالذكاء الاصطناعي أن تضمن سوقًا أكثر أمانًا واستقرارًا، مما يُشعر المستثمرين بالأمان والثقة في تمويل مشاريع البحث والتطوير، مع فهم واضح للأطر المعمول بها لحماية استثماراتهم. إن غياب الرقابة التنظيمية من شأنه أن يُضعف هذه الثقة.

ما يخبئه المستقبل

فيما يتعلق بمستقبل تنظيمات الذكاء الاصطناعي، فإن الوضع العالمي data privacy يُقدّم المسار التنظيمي سابقةً موثوقةً لما قد يتبعه. وسيكون قانون الذكاء الاصطناعي في الاتحاد الأوروبي بمثابة المخطط الرئيسي للعديد من الدول حول العالم أثناء صياغتها لأطر عمل وتوجيهات ولوائح شاملة ومفصلة للشركات التي تستخدم تقنيات الذكاء الاصطناعي ضمن نطاق اختصاصها.

قد تُملي عوامل حاسمة أخرى، كالتطورات التكنولوجية والجيوسياسية والديناميات المجتمعية، المعايير التنظيمية العالمية. ومن المفارقات، أنه تبعًا لمدى كفاءة نماذج الذكاء الاصطناعي بما يكفي لإدراجها في عملية صنع القرار، قد تُصبح هذه النماذج جزءًا من عملية تطوير نماذج الحوكمة المستقبلية.

علاوة على ذلك، قد يرتفع مستوى المشاركة العامة بشكل ملحوظ مع ازدياد وعي المستخدمين بتأثير هذه اللوائح على استخدامهم للإنترنت وتجربتهم الرقمية بشكل عام. سيؤدي هذا إلى نهج أكثر ديمقراطية في تنظيم الذكاء الاصطناعي، مما يضمن مراعاة آثاره الاجتماعية والأخلاقية بنفس قدر مراعاة الجوانب الاقتصادية والابتكارية.

كيف Securiti يمكن المساعدة

Securiti هو رائد في Data Command Center منصة مركزية تُمكّن من الاستخدام الآمن للبيانات والذكاء الاصطناعي. توفر هذه المنصة ذكاءً موحدًا للبيانات، وضوابط، وتنسيقًا عبر بيئات سحابية هجينة متعددة. وتعتمد عليها بعضٌ من أكثر الشركات العالمية شهرةً. Securiti 's Data Command Center لأغراض أمن البيانات والخصوصية والحوكمة والامتثال.

وذلك لأن Data Command Center يأتي مزودًا بالعديد من الوحدات والحلول الفردية المصممة بدقة لضمان امتثال مؤسستك لجميع الالتزامات الرئيسية التي قد تخضع لها بموجب مختلف القوانين واللوائح. data privacy واللوائح المتعلقة بالذكاء الاصطناعي من جميع أنحاء العالم.

وبشكل أكثر تحديدًا، تتيح وظيفة AI Security & Governance للمؤسسات اكتشاف وتصنيف جميع نماذج الذكاء الاصطناعي المستخدمة عبر السحابات العامة والخاصة وتطبيقات SaaS.

بالإضافة إلى ذلك، يمكن تقييم هذه النماذج من حيث المخاطر المختلفة، مثل السمية والتحيز وانتهاك حقوق النشر والمعلومات المضللة، لضمان تصنيفها والتعامل معها وفقًا للمتطلبات التنظيمية العالمية.

اطلب عرضًا تجريبيًا اليوم وتعرف على المزيد حول كيفية Securiti يمكن أن تساعدك في ضمان الامتثال لبعض اللوائح الرئيسية المتعلقة بالذكاء الاصطناعي في الولايات المتحدة والعالم.

قم بتحليل هذه المقالة باستخدام الذكاء الاصطناعي

تظهر المطالبات في أدوات الذكاء الاصطناعي التابعة لجهات خارجية.
انضم إلى قائمتنا البريدية

احصل على أحدث المعلومات والتحديثات القانونية والمزيد مباشرةً في بريدك الإلكتروني



قصص أخرى قد تهمك
مقاطع فيديو
عرض المزيد
ريحان جليل، من شركة Veeam، يتحدث عن Agent Commander: theCUBE + NYSE Wired: قادة الأمن السيبراني
بعد استحواذ شركة Veeam على Securiti يمثل إطلاق برنامج Agent Commander خطوة هامة نحو مساعدة المؤسسات على تبني وكلاء الذكاء الاصطناعي بثقة أكبر. في...
عرض المزيد
تخفيف مخاطر قائمة OWASP لأهم 10 مخاطر لتطبيقات ماجستير القانون 2025
أحدث الذكاء الاصطناعي التوليدي (GenAI) تحولاً جذرياً في طريقة عمل الشركات وتوسعها ونموها. يوجد تطبيق للذكاء الاصطناعي لكل غرض، بدءاً من زيادة إنتاجية الموظفين وصولاً إلى تبسيط العمليات...
عرض المزيد
أفضل 6 DSPM حالات الاستخدام
مع ظهور الذكاء الاصطناعي التوليدي (GenAI)، أصبحت البيانات أكثر ديناميكية. يتم توليد بيانات جديدة بوتيرة أسرع من أي وقت مضى، ونقلها إلى أنظمة وتطبيقات متنوعة...
عرض المزيد
قانون الخصوصية في كولورادو (CPA)
ما هو قانون خصوصية كولورادو؟ قانون خصوصية كولورادو هو قانون شامل لحماية الخصوصية، تم توقيعه في 7 يوليو 2021. وقد وضع معايير جديدة لحماية البيانات الشخصية...
عرض المزيد
Securiti لمساعد الطيار في البرمجيات كخدمة (SaaS)
تسريع اعتماد Copilot بأمان وثقة: تتطلع المؤسسات إلى اعتماد Microsoft 365 Copilot لزيادة الإنتاجية والكفاءة. ومع ذلك، تظل المخاوف الأمنية، مثل حماية البيانات...
عرض المزيد
أهم عشرة اعتبارات لاستخدام البيانات غير المهيكلة بأمان مع الذكاء الاصطناعي العام
نسبة مذهلة تصل إلى 90% من بيانات المؤسسات غير منظمة. وتُستخدم هذه البيانات بسرعة لتغذية تطبيقات الذكاء الاصطناعي من الجيل الجديد، مثل روبوتات الدردشة والبحث المدعوم بالذكاء الاصطناعي.
عرض المزيد
جينكور للذكاء الاصطناعي: بناء أنظمة ذكاء اصطناعي آمنة وعالية الجودة للمؤسسات في دقائق
مع تبني المؤسسات للذكاء الاصطناعي التوليدي، تواجه فرق البيانات والذكاء الاصطناعي العديد من العقبات: ربط مصادر البيانات غير المهيكلة والمهيكلة بشكل آمن، والحفاظ على الضوابط والحوكمة المناسبة،...
عرض المزيد
كيفية التعامل مع قانون حماية خصوصية المستهلك في كاليفورنيا: رؤى أساسية للشركات
ما هو قانون حقوق الخصوصية في كاليفورنيا (CPRA)؟ هو تشريع ولاية كاليفورنيا الذي يهدف إلى حماية خصوصية سكانها الرقمية. وقد دخل حيز التنفيذ في يناير...
عرض المزيد
التكيف مع التحول: الانتقال إلى معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS) الإصدار 4.0
ما هو معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS)؟ هو مجموعة من معايير الأمان لضمان المعالجة والتخزين الآمنين للبيانات، و...
عرض المزيد
تأمين البيانات والذكاء الاصطناعي: دليل إدارة الثقة والمخاطر والأمن (TRiSM)
أثارت المخاطر الأمنية المتزايدة للذكاء الاصطناعي قلق 48% من مسؤولي أمن المعلومات حول العالم. انضموا إلى هذه الجلسة الرئيسية للتعرف على دليل عملي لتمكين الثقة في الذكاء الاصطناعي، وإدارة المخاطر،...

جلسات حوارية مميزة

تسليط الضوء
الاستعداد للمستقبل لمحترفي الخصوصية
شاهد الآن منظر
تسليط الضوء 50:52
من البيانات إلى النشر: حماية الذكاء الاصطناعي المؤسسي من خلال الأمن والحوكمة
شاهد الآن منظر
تسليط الضوء 11:29
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
شاهد الآن منظر
تسليط الضوء 11:18
إعادة هيكلة تمويل العقارات - كيف تُجري شركة ووكر آند دنلوب تحديثًا لمحفظتها الاستثمارية البالغة 135 مليار دولار أمريكي بالاعتماد على البيانات أولاً
شاهد الآن منظر
تسليط الضوء 13:38
تسريع المعجزات - كيف تُدمج شركة سانوفي الذكاء الاصطناعي لتقليص مدة تطوير الأدوية بشكل كبير
صورة مصغرة لشركة سانوفي
شاهد الآن منظر
تسليط الضوء 10:35
حدث تحول جوهري في مركز ثقل البيانات
شاهد الآن منظر
تسليط الضوء 14:21
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
شاهد الآن منظر
تسليط الضوء 12:!3
لا يمكنك بناء خطوط الأنابيب أو المستودعات أو منصات الذكاء الاصطناعي بدون معرفة تجارية
شاهد الآن منظر
تسليط الضوء 47:42
الأمن السيبراني – حيث يقوم القادة بالشراء والبناء والشراكة
ريحان جليل
شاهد الآن منظر
تسليط الضوء 27:29
بناء ذكاء اصطناعي آمن باستخدام Databricks و Gencore
ريحان جليل
شاهد الآن منظر
أحدث
عرض المزيد
بناء ذكاء اصطناعي سيادي باستخدام HPE Private Cloud AI و Veeam Securiti Gencore AI
كيف تُساهم تقنيات الذكاء الاصطناعي في السحابة الخاصة من HPE، وتسريع NVIDIA، وVeeam؟ Securiti يدعم نظام Gencore AI الذكاء الاصطناعي الآمن والمُدار للمؤسسات مع تطبيق السياسات عبر سير العمل RAG والمساعدين والوكلاء.
عرض المزيد
Securiti أعلنت شركة .ai عن اختيار شركة أكسنتشر كشريك العام لعام 2025
في إطار الاحتفال المستمر بالتعاون المؤثر في DataAI Security ، Securiti منحت شركة .ai، التابعة لشركة Veeam، شركة Accenture لقب شريك العام لعام 2025....
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ قانون حماية خصوصية المستهلك في كاليفورنيا؟ عرض المزيد
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ القانون؟
يمكن للشركات أن تستفيد من بعض الدروس الحيوية من أكبر إجراء إنفاذي تم اتخاذه مؤخراً في تاريخ قانون خصوصية المستهلك في كاليفورنيا (CCPA). Securiti مدونة 's تغطي جميع التفاصيل المهمة التي يجب معرفتها.
عرض المزيد
الذكاء الاصطناعي وقانون HIPAA: ما يعنيه وكيفية أتمتة الامتثال
تعرّف على كيفية تطبيق قانون قابلية نقل التأمين الصحي والمساءلة (HIPAA) على الذكاء الاصطناعي في تأمين المعلومات الصحية المحمية. تعلّم كيف...
عرض المزيد
قلل من المعلومات التي تكشفها: ضوابط الخصوصية للذكاء الاصطناعي Agents and Copilots
تقليل انكشاف البيانات في الذكاء الاصطناعي agents and copilots قم بتطبيق ضوابط حماية الخصوصية مثل تقليل البيانات، وضوابط الوصول، وإخفاء البيانات، وإنفاذ السياسات لمنع التسريب و...
عرض المزيد
من وضوح البيانات إلى سرعة الذكاء الاصطناعي
اطلع على الورقة البيضاء واكتشف كيف يتم توحيد DataAI security يحوّل إدارة البيانات إلى عامل تمكين للأعمال، ويعزز ابتكار الذكاء الاصطناعي من خلال الشفافية والامتثال وإدارة المخاطر...
عرض المزيد
قائد العملاء: ملخص الحل
تعرّف على كيفية قيام Agent Commander باكتشاف وكلاء الذكاء الاصطناعي، وحماية بيانات المؤسسة من خلال ضوابط التشغيل، وتصحيح أخطاء الذكاء الاصطناعي - مما يتيح اعتماد الذكاء الاصطناعي بشكل آمن ومتوافق مع المعايير في...
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti عرض المزيد
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti
التزم بتعديلات قانون خصوصية المستهلك في كاليفورنيا لعام 2026 باستخدام Securiti وتشمل هذه المتطلبات تحديث متطلبات الموافقة، وتوسيع تعريفات البيانات الحساسة، وتعزيز حقوق المستهلك، وتقييمات الجاهزية.
عرض المزيد
تخلص من مخاطر البيانات في الذكاء الاصطناعي
تعرف على كيفية إعداد بيانات المؤسسة لاعتماد Gemini Enterprise بشكل آمن من خلال الحوكمة الأولية، واكتشاف البيانات الحساسة، وضوابط سياسة ما قبل الفهرسة.
عرض المزيد
دليل الحصول على شهادة HITRUST
Securiti يُعد الكتاب الإلكتروني دليلاً عملياً للحصول على شهادة HITRUST، ويغطي كل شيء بدءاً من اختيار i1 مقابل r2 ونطاق الأنظمة وصولاً إلى إدارة خطط العمل والتخطيط...
ما هو
جديد