الإعلان عن Agent Commander - أول حل متكامل من Veeam + Securiti .ai تمكين توسيع نطاق وكلاء الذكاء الاصطناعي الآمنين

منظر

أصدر مفوض الخصوصية في نيوزيلندا توجيهات بشأن استخدام الذكاء الاصطناعي

المساهمون

أنس بيج

مدير تسويق المنتجات في Securiti

محمد فيصل ستار

مدير الشؤون القانونية للمنتجات والامتثال العالمي للبيانات

FIP، CIPT، CIPM، CIPP/آسيا

نُشر في 3 نوفمبر 2023 / تم التحديث في 12 ديسمبر 2023

في 21 سبتمبر 2023، نشر مكتب مفوض الخصوصية في نيوزيلندا إرشاداتٍ حول الذكاء الاصطناعي ومبادئ خصوصية المعلومات. تُوسّع هذه الإرشادات نطاق التوقعات الأولية التي وضعها المكتب بشأن استخدام الذكاء الاصطناعي، والمنشورة في 25 مايو 2023. وتهدف هذه الإرشادات إلى مساعدة النيوزيلنديين الذين يستخدمون أدوات الذكاء الاصطناعي على الامتثال لقانون الخصوصية لعام 2020 فيما يتعلق باستخدام الذكاء الاصطناعي.

توضح هذه الإرشادات كيفية عمل أدوات الذكاء الاصطناعي، وتقدم أمثلة واقعية، وتطرح عدة أسئلة للتفكير فيها فيما يتعلق بمخاوف الخصوصية. كما توضح علاقة الذكاء الاصطناعي بمبادئ حماية المعلومات الشخصية الثلاثة عشر المنصوص عليها في قانون الخصوصية. وينطبق قانون الخصوصية عند جمع المعلومات الشخصية أو استخدامها أو مشاركتها، وكذلك عند استخدام أدوات الذكاء الاصطناعي.

بحسب مفوض الخصوصية، تُشكّل أدوات الذكاء الاصطناعي تحديات فريدة تتعلق بالخصوصية، إذ تُتيح هذه الأدوات طرقًا مبتكرة لجمع المعلومات الشخصية ودمجها، مما يُصعّب رؤية هذه المعلومات وفهمها وتبرير استخدامها. لذا، ينبغي على المؤسسات توخي الحذر الشديد عند إدخال المعلومات الشخصية في تقنيات الذكاء الاصطناعي، نظرًا لعدم وضوح كيفية إنتاج هذه الخوارزميات لنتائج محددة.

تشمل المعلومات الشخصية بموجب قانون الخصوصية معلومات مثل اسم الشخص وعنوانه وتفاصيل الاتصال به وصوره. وقد تشمل أيضًا بيانات وصفية تقنية مثل إحداثيات الخرائط وعناوين بروتوكول الإنترنت ومعرّفات الأجهزة المرتبطة بالشخص. كما تشمل معلومات غير دقيقة أو مُختلقة عن الشخص، بما في ذلك الملفات الشخصية المزيفة على مواقع التواصل الاجتماعي والصور المُفبركة بتقنية التزييف العميق.

نظرة عامة على الإرشادات المحدثة

تتخذ الإرشادات نهجاً واسعاً تجاه أنظمة الذكاء الاصطناعي وتأثيراتها المحتملة على الخصوصية، حيث أن الذكاء الاصطناعي لا يزال مجالاً نامياً، ويختلف الخبراء حول مدى قدرة الأنظمة الحالية وكيف سيتطور هذا بمرور الوقت.

تشير التوجيهات إلى ضرورة التزام مستخدمي الذكاء الاصطناعي في نيوزيلندا بمبادئ الملكية الفكرية في كل مرحلة من مراحل عملية الذكاء الاصطناعي. وتنص التوجيهات تحديدًا على أنه ينبغي على المؤسسات التي تستخدم أدوات الذكاء الاصطناعي ما يلي:

  • أدرك أن الخصوصية هي نقطة انطلاق للاستخدام المسؤول لأدوات الذكاء الاصطناعي، وأن أفضل وقت لبدء العمل على الخصوصية هو في البداية.
  • فكر ملياً في حالة الاستخدام قبل الاعتماد على أدوات جديدة ومثيرة لحلها، وتأكد من أنك تفهم مخاطر الخصوصية المحتملة.
  • الحصول على موافقة القيادة العليا بناءً على دراسة كاملة للمخاطر وإجراءات التخفيف.
  • قم بمراجعة ما إذا كانت أداة الذكاء الاصطناعي التوليدية ضرورية ومتناسبة مع الآثار المحتملة على الخصوصية، وفكر فيما إذا كان بإمكانك اتباع نهج مختلف.
  • قم بإجراء تقييم لأثر الخصوصية قبل استخدام هذه الأدوات، بما في ذلك مصادر البيانات التي تم تدريبها عليها ومدى ملاءمتها وموثوقيتها لأغراضك.
  • كن شفافاً، وأخبر الناس كيف ومتى ولماذا يتم استخدام الأداة.
  • ضع في اعتبارك وجهات نظر الماوري وتفاعل معهم بشأن المخاطر والآثار المحتملة لمعلوماتهم على التراث الثقافي (تاونغا).
  • وضع إجراءات تتعلق بدقة المعلومات وإمكانية وصول الأفراد إليها.
  • تأكد من إجراء مراجعة بشرية قبل اتخاذ أي إجراء بشأن مخرجات الذكاء الاصطناعي لتقليل مخاطر عدم الدقة والتحيز.
  • تأكد من أن أداة الذكاء الاصطناعي لا تحتفظ بالمعلومات الشخصية أو تفصح عنها.

إن فهم المخاطر المحتملة سيمكنك من استخدام سياسات الخصوصية لإدارة أدوات الذكاء الاصطناعي الخاصة بك وضمان أن بيانات الخصوصية تحدد توقعات واضحة.

ضع في اعتبارك مبادئ الملكية الفكرية عند استخدام أدوات الذكاء الاصطناعي

تُشكّل المبادئ التوجيهية الثلاثة عشر لحماية المعلومات الشخصية، التي تُنظّم كيفية تعامل الوكالات مع المعلومات الشخصية، المكوّن الأساسي لقانون الخصوصية. وتُنظّم هذه المبادئ أنشطة جمع المعلومات الشخصية واستخدامها ومشاركتها.

تنطبق مبادئ حماية الخصوصية سواءً كنت تُطوّر أدوات الذكاء الاصطناعي الخاصة بك، أو تستخدمها للمساعدة في اتخاذ القرارات، أو كان لديك أعضاء في الفريق يستخدمونها بشكل غير رسمي في العمل. كما تنطبق هذه المبادئ عندما تُقدّم منظمات أجنبية أدوات الذكاء الاصطناعي لمواطنين نيوزيلنديين. عليك مراعاة التزاماتك المتعلقة بالخصوصية في كل حالة.

تُقدّم مبادئ حماية البيانات الشخصية إرشاداتٍ للتعامل مع البيانات الشخصية، بما في ذلك كيفية جمعها (المبادئ 1-4)، واستخدامها وحمايتها (المبادئ 5-10)، ومشاركتها (المبادئ 11-12). كما توجد متطلباتٌ مُحدّدةٌ للمعرّفات الفريدة (المبدأ 13). ومن الأسئلة الرئيسية التي يجب طرحها:

هل بيانات التدريب التي تستند إليها أداة الذكاء الاصطناعي ذات صلة وموثوقة وأخلاقية؟

تُعيد أدوات الذكاء الاصطناعي إنتاج الأنماط من بيانات التدريب الخاصة بها. وتُلزم الجهات الحكومية عمومًا بجمع المعلومات الشخصية مباشرةً من الشخص المعني (IPP2) والإفصاح عن جميع المعلومات التي تجمعها، بما في ذلك كيفية استخدامها (IPP3). إضافةً إلى ذلك، يتعين على هذه الجهات ضمان أن تكون المعلومات الشخصية التي يتم الحصول عليها عادلة وقانونية، وألا تنتهك خصوصية الأفراد بشكل غير مبرر، لا سيما عند جمع البيانات من القاصرين (IPP4).

تُحاكي أدوات الذكاء الاصطناعي الأنماط المُلاحظة في بيانات التدريب الخاصة بها. لذا، لا يُمكن للمؤسسة معرفة ما إذا كانت الأداة تُضمّن معلومات شخصية تم الحصول عليها بطريقة تُخالف مبادئ حماية المعلومات الشخصية (IPPs) من 1 إلى 4، إلا إذا كان لديها فهم مُعمّق لبيانات التدريب وأساليب التصميم المُستخدمة في إنشائها. إضافةً إلى ذلك، قد تُحدّ أي ثغرات أو تحيّزات من الدقة (IPP8).

يتعين على المؤسسات تحديد أسباب جمعها للبيانات الشخصية، واستخدامها والإفصاح عنها فقط لتلك الأسباب (مبادئ حماية المعلومات 10 و11). وهذا يعني أنه يجب على المؤسسات تقييم أسباب احتياجاتها لجمع المعلومات بدقة، والتأكد من حصولها فقط على المعلومات الضرورية لتلبية تلك المتطلبات.

يجب على المؤسسة الإفصاح عند جمع البيانات عما إذا كانت تنوي استخدام المعلومات الشخصية لتدريب أدوات الذكاء الاصطناعي. تُعدّ بيانات التدريب أساس هذه الأدوات، وإذا كانت المؤسسة تقدم خدمةً ما، مثل روبوت محادثة أو خط هاتف، فعليها إبلاغ المستخدمين بذلك صراحةً ومنحهم خيار رفض استخدام معلوماتهم لهذه الأغراض.

بالإضافة إلى ذلك، يجب أن تكون المؤسسات على ثقة من أنها تستخدم المعلومات الشخصية بطرق تتناسب مع الغرض الذي جُمعت من أجله. وقد يتعارض إعادة استخدام المعلومات لأغراض التدريب مع هذا المبدأ (IPP10).

كيف تقوم بتتبع المعلومات التي تجمعها وتستخدمها مع أدوات الذكاء الاصطناعي؟

يحق لأي شخص طلب الوصول إلى أي معلومات تحتفظ بها أي جهة حكومية عنه وتصحيحها (IPP6 وIPP7). قبل تطبيق أي أداة ذكاء اصطناعي، يؤكد المفوض على ضرورة أن تضع المؤسسات آليات للتعامل مع طلبات الأفراد الراغبين في الوصول إلى بياناتهم الشخصية وتصحيحها. قبل استخدام أي أداة ذكاء اصطناعي خلال مرحلة الشراء، يُنصح بالتفكير في النقاط التالية:

  • هل أنت واثق من قدرتك على تقديم معلومات عن شخص ما إذا طلبها؟
  • هل أنت واثق من قدرتك على تصحيح المعلومات الشخصية؟
  • كم مرة يتم تحديث النماذج التي تعتمد عليها؟ هل يمكنك تصحيح مخرجات الذكاء الاصطناعي في الوقت المناسب؟
  • كيف ستتحقق من هوية الشخص الذي يطلب معلوماته؟

تُسهّل قدرات الذكاء الاصطناعي على الأفراد تقليد الآخرين بشكل واقعي. لذا، يجب على المؤسسات توخي الحذر الشديد عند التحقق من هوية أي شخص يطلب معلومات حساسة.

كيف تختبرون دقة أدوات الذكاء الاصطناعي ومدى عدلها في تحقيق الغرض المنشود؟ هل تتواصلون مع الأفراد والمجتمعات المهتمة بهذه القضايا؟

تُلزم المبادئ التوجيهية لحماية المعلومات الشخصية (IPP8) الجهات التي تمتلك معلومات شخصية باتخاذ تدابير معقولة للتحقق من دقة البيانات وتحديثها واكتمالها وملاءمتها وعدم تضليلها قبل استخدامها أو الإفصاح عنها. وهذا يثير التساؤل: ما هي "الخطوات المعقولة" التي يمكن للمؤسسات اتخاذها لضمان التزام تقنيات الذكاء الاصطناعي بمفهوم الدقة؟

ينبغي على أي منظمة إجراء تقييمات لأثر الخصوصية وتقييم كل مرحلة من مراحل دورة حياة أداة الذكاء الاصطناعي، وقد يشمل ذلك دراسة عملية التدريب التي طُوّرت من خلالها، والتواصل مع المجتمع، بما في ذلك الماوري، لفهم ودعم العدالة والدقة. على سبيل المثال، مناقشة الماوري حول المخاطر والآثار المحتملة لمعلوماتهم على تراثهم الثمين.

ما هي الإجراءات التي تتخذونها لتتبع وإدارة المخاطر الجديدة التي تهدد المعلومات من أدوات الذكاء الاصطناعي؟

يجب على المؤسسات حماية المعلومات الشخصية، والرسائل، وبيانات التدريب من السرقة، والوصول غير المصرح به، وسوء الاستخدام (IPP5). ويشمل ذلك استخدام تدابير الأمن السيبراني، مثل المصادقة الثنائية .

ونتيجةً لذلك، سيتعين على المؤسسات تحديد ما إذا كان بإمكانها استخدام أدوات الذكاء الاصطناعي دون مشاركة البيانات، أو ما إذا كان بإمكانها الاعتماد على بنود تعاقدية تمنع مزود الخدمة من استخدام بيانات الإدخال لأغراض التدريب. إضافةً إلى ذلك، ستحتاج هذه المؤسسات إلى استراتيجيات للاستجابة لانتهاكات الخصوصية، تتناول المخاطر المحتملة لاستخدام أدوات الذكاء الاصطناعي.

ختاماً

يقترح المفوض أن المسار الأكثر أمانًا هو تجنب وضع المعلومات الشخصية في أداة الذكاء الاصطناعي إذا كانت المنظمة غير متأكدة من ذلك والتأكد من امتثال جميع أفراد المنظمة.

نعتمد جميعًا على الأفراد والمنظمات في تحمل مسؤولية أفعالهم ضمن الإطار الأوسع، مما يستلزم أهمية اتخاذ إجراءات استباقية بشأن الخصوصية لتحسين إدارة المخاطر واستخدام أدوات الذكاء الاصطناعي بكفاءة أكبر. بالإضافة إلى ذلك، يجب على المنظمات ضمان الحصول على بيانات التدريب ومعالجتها بطريقة تتوافق مع data privacy اللوائح والقوانين المتعلقة بالذكاء الاصطناعي والمعايير الأخلاقية.

قم بتحليل هذه المقالة باستخدام الذكاء الاصطناعي

تظهر المطالبات في أدوات الذكاء الاصطناعي التابعة لجهات خارجية.
انضم إلى قائمتنا البريدية

احصل على أحدث المعلومات والتحديثات القانونية والمزيد مباشرةً في بريدك الإلكتروني



قصص أخرى قد تهمك
مقاطع فيديو
عرض المزيد
ريحان جليل، من شركة Veeam، يتحدث عن Agent Commander: theCUBE + NYSE Wired: قادة الأمن السيبراني
بعد استحواذ شركة Veeam على Securiti يمثل إطلاق برنامج Agent Commander خطوة هامة نحو مساعدة المؤسسات على تبني وكلاء الذكاء الاصطناعي بثقة أكبر. في...
عرض المزيد
تخفيف مخاطر قائمة OWASP لأهم 10 مخاطر لتطبيقات ماجستير القانون 2025
أحدث الذكاء الاصطناعي التوليدي (GenAI) تحولاً جذرياً في طريقة عمل الشركات وتوسعها ونموها. يوجد تطبيق للذكاء الاصطناعي لكل غرض، بدءاً من زيادة إنتاجية الموظفين وصولاً إلى تبسيط العمليات...
عرض المزيد
أفضل 6 DSPM حالات الاستخدام
مع ظهور الذكاء الاصطناعي التوليدي (GenAI)، أصبحت البيانات أكثر ديناميكية. يتم توليد بيانات جديدة بوتيرة أسرع من أي وقت مضى، ونقلها إلى أنظمة وتطبيقات متنوعة...
عرض المزيد
قانون الخصوصية في كولورادو (CPA)
ما هو قانون خصوصية كولورادو؟ قانون خصوصية كولورادو هو قانون شامل لحماية الخصوصية، تم توقيعه في 7 يوليو 2021. وقد وضع معايير جديدة لحماية البيانات الشخصية...
عرض المزيد
Securiti لمساعد الطيار في البرمجيات كخدمة (SaaS)
تسريع اعتماد Copilot بأمان وثقة: تتطلع المؤسسات إلى اعتماد Microsoft 365 Copilot لزيادة الإنتاجية والكفاءة. ومع ذلك، تظل المخاوف الأمنية، مثل حماية البيانات...
عرض المزيد
أهم عشرة اعتبارات لاستخدام البيانات غير المهيكلة بأمان مع الذكاء الاصطناعي العام
نسبة مذهلة تصل إلى 90% من بيانات المؤسسات غير منظمة. وتُستخدم هذه البيانات بسرعة لتغذية تطبيقات الذكاء الاصطناعي من الجيل الجديد، مثل روبوتات الدردشة والبحث المدعوم بالذكاء الاصطناعي.
عرض المزيد
جينكور للذكاء الاصطناعي: بناء أنظمة ذكاء اصطناعي آمنة وعالية الجودة للمؤسسات في دقائق
مع تبني المؤسسات للذكاء الاصطناعي التوليدي، تواجه فرق البيانات والذكاء الاصطناعي العديد من العقبات: ربط مصادر البيانات غير المهيكلة والمهيكلة بشكل آمن، والحفاظ على الضوابط والحوكمة المناسبة،...
عرض المزيد
كيفية التعامل مع قانون حماية خصوصية المستهلك في كاليفورنيا: رؤى أساسية للشركات
ما هو قانون حقوق الخصوصية في كاليفورنيا (CPRA)؟ هو تشريع ولاية كاليفورنيا الذي يهدف إلى حماية خصوصية سكانها الرقمية. وقد دخل حيز التنفيذ في يناير...
عرض المزيد
التكيف مع التحول: الانتقال إلى معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS) الإصدار 4.0
ما هو معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS)؟ هو مجموعة من معايير الأمان لضمان المعالجة والتخزين الآمنين للبيانات، و...
عرض المزيد
تأمين البيانات والذكاء الاصطناعي: دليل إدارة الثقة والمخاطر والأمن (TRiSM)
أثارت المخاطر الأمنية المتزايدة للذكاء الاصطناعي قلق 48% من مسؤولي أمن المعلومات حول العالم. انضموا إلى هذه الجلسة الرئيسية للتعرف على دليل عملي لتمكين الثقة في الذكاء الاصطناعي، وإدارة المخاطر،...

جلسات حوارية مميزة

تسليط الضوء
الاستعداد للمستقبل لمحترفي الخصوصية
شاهد الآن منظر
تسليط الضوء 50:52
من البيانات إلى النشر: حماية الذكاء الاصطناعي المؤسسي من خلال الأمن والحوكمة
شاهد الآن منظر
تسليط الضوء 11:29
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
شاهد الآن منظر
تسليط الضوء 11:18
إعادة هيكلة تمويل العقارات - كيف تُجري شركة ووكر آند دنلوب تحديثًا لمحفظتها الاستثمارية البالغة 135 مليار دولار أمريكي بالاعتماد على البيانات أولاً
شاهد الآن منظر
تسليط الضوء 13:38
تسريع المعجزات - كيف تُدمج شركة سانوفي الذكاء الاصطناعي لتقليص مدة تطوير الأدوية بشكل كبير
صورة مصغرة لشركة سانوفي
شاهد الآن منظر
تسليط الضوء 10:35
حدث تحول جوهري في مركز ثقل البيانات
شاهد الآن منظر
تسليط الضوء 14:21
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
شاهد الآن منظر
تسليط الضوء 12:!3
لا يمكنك بناء خطوط الأنابيب أو المستودعات أو منصات الذكاء الاصطناعي بدون معرفة تجارية
شاهد الآن منظر
تسليط الضوء 47:42
الأمن السيبراني – حيث يقوم القادة بالشراء والبناء والشراكة
ريحان جليل
شاهد الآن منظر
تسليط الضوء 27:29
بناء ذكاء اصطناعي آمن باستخدام Databricks و Gencore
ريحان جليل
شاهد الآن منظر
أحدث
عرض المزيد
بناء ذكاء اصطناعي سيادي باستخدام HPE Private Cloud AI و Veeam Securiti Gencore AI
كيف تُساهم تقنيات الذكاء الاصطناعي في السحابة الخاصة من HPE، وتسريع NVIDIA، وVeeam؟ Securiti يدعم نظام Gencore AI الذكاء الاصطناعي الآمن والمُدار للمؤسسات مع تطبيق السياسات عبر سير العمل RAG والمساعدين والوكلاء.
عرض المزيد
Securiti أعلنت شركة .ai عن اختيار شركة أكسنتشر كشريك العام لعام 2025
في إطار الاحتفال المستمر بالتعاون المؤثر في DataAI Security ، Securiti منحت شركة .ai، التابعة لشركة Veeam، شركة Accenture لقب شريك العام لعام 2025....
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ قانون حماية خصوصية المستهلك في كاليفورنيا؟ عرض المزيد
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ القانون؟
يمكن للشركات أن تستفيد من بعض الدروس الحيوية من أكبر إجراء إنفاذي تم اتخاذه مؤخراً في تاريخ قانون خصوصية المستهلك في كاليفورنيا (CCPA). Securiti مدونة 's تغطي جميع التفاصيل المهمة التي يجب معرفتها.
عرض المزيد
الذكاء الاصطناعي وقانون HIPAA: ما يعنيه وكيفية أتمتة الامتثال
تعرّف على كيفية تطبيق قانون قابلية نقل التأمين الصحي والمساءلة (HIPAA) على الذكاء الاصطناعي في تأمين المعلومات الصحية المحمية. تعلّم كيف...
عرض المزيد
قلل من المعلومات التي تكشفها: ضوابط الخصوصية للذكاء الاصطناعي Agents and Copilots
تقليل انكشاف البيانات في الذكاء الاصطناعي agents and copilots قم بتطبيق ضوابط حماية الخصوصية مثل تقليل البيانات، وضوابط الوصول، وإخفاء البيانات، وإنفاذ السياسات لمنع التسريب و...
عرض المزيد
من وضوح البيانات إلى سرعة الذكاء الاصطناعي
اطلع على الورقة البيضاء واكتشف كيف يتم توحيد DataAI security يحوّل إدارة البيانات إلى عامل تمكين للأعمال، ويعزز ابتكار الذكاء الاصطناعي من خلال الشفافية والامتثال وإدارة المخاطر...
عرض المزيد
قائد العملاء: ملخص الحل
تعرّف على كيفية قيام Agent Commander باكتشاف وكلاء الذكاء الاصطناعي، وحماية بيانات المؤسسة من خلال ضوابط التشغيل، وتصحيح أخطاء الذكاء الاصطناعي - مما يتيح اعتماد الذكاء الاصطناعي بشكل آمن ومتوافق مع المعايير في...
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti عرض المزيد
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti
التزم بتعديلات قانون خصوصية المستهلك في كاليفورنيا لعام 2026 باستخدام Securiti وتشمل هذه المتطلبات تحديث متطلبات الموافقة، وتوسيع تعريفات البيانات الحساسة، وتعزيز حقوق المستهلك، وتقييمات الجاهزية.
عرض المزيد
تخلص من مخاطر البيانات في الذكاء الاصطناعي
تعرف على كيفية إعداد بيانات المؤسسة لاعتماد Gemini Enterprise بشكل آمن من خلال الحوكمة الأولية، واكتشاف البيانات الحساسة، وضوابط سياسة ما قبل الفهرسة.
عرض المزيد
دليل الحصول على شهادة HITRUST
Securiti يُعد الكتاب الإلكتروني دليلاً عملياً للحصول على شهادة HITRUST، ويغطي كل شيء بدءاً من اختيار i1 مقابل r2 ونطاق الأنظمة وصولاً إلى إدارة خطط العمل والتخطيط...
ما هو
جديد