الإعلان عن Agent Commander - أول حل متكامل من Veeam + Securiti .ai تمكين توسيع نطاق وكلاء الذكاء الاصطناعي الآمنين

منظر

لمحة عامة عن المبادئ التوجيهية الوطنية الماليزية بشأن AI Governance والأخلاق

المساهمون

أنس بيج

مدير تسويق المنتجات في Securiti

سيدة إيمان غارديزي

شريك Data Privacy محلل في Securiti

سلمى خان

Data Privacy محلل في Securiti

CIPP/آسيا

نُشر في 18 ديسمبر 2024

مقدمة

أصدرت ماليزيا، عبر وزارة العلوم والتكنولوجيا والابتكار، المبادئ التوجيهية الوطنية لحوكمة AI Governance وأخلاقياته (مبادئ الذكاء الاصطناعي التوجيهية) في سبتمبر 2024. وتستجيب هذه المبادئ التوجيهية للتطور السريع في مجال الذكاء الاصطناعي وإمكاناته في إحداث ثورة في العديد من الصناعات. كما تهدف إلى دعم تنفيذ خارطة الطريق الوطنية للذكاء الاصطناعي (خارطة الطريق للذكاء الاصطناعي) 2021-2025 التي نُشرت سابقًا، وذلك لتعزيز مكانة ماليزيا كدولة ذات اقتصاد متطور يعتمد على الذكاء الاصطناعي.

وبالتالي، توفر المبادئ التوجيهية للذكاء الاصطناعي إطارًا أساسيًا وتضمن تطوير ونشر تقنيات الذكاء الاصطناعي بطريقة تتوافق مع المبادئ الأخلاقية وتعطي الأولوية للمصلحة العامة والسلامة والإنصاف.

أهداف إرشادات الذكاء الاصطناعي

باختصار، تهدف إرشادات الذكاء الاصطناعي إلى:

  • دعم وتسهيل تنفيذ خارطة طريق الذكاء الاصطناعي؛
  • تعزيز موثوقية أنظمة الذكاء الاصطناعي وجدارتها بالثقة؛
  • معالجة المخاطر المحتملة لتطوير ونشر أنظمة الذكاء الاصطناعي؛ و
  • تعزيز التنمية الاقتصادية والقدرة التنافسية والإنتاجية من خلال الاستفادة من الذكاء الاصطناعي.

نطاق إرشادات الذكاء الاصطناعي

لا يوجد في ماليزيا حاليًا تشريع محدد ينظم استخدام الذكاء الاصطناعي. ورغم أن مبادئ الذكاء الاصطناعي السبعة الواردة في خارطة طريق الذكاء الاصطناعي ليست ملزمة قانونًا، فإن المبادئ التوجيهية للذكاء الاصطناعي تحث مطوري ومستخدمي الذكاء الاصطناعي على تبنيها كأفضل الممارسات في هذا المجال. وهي تقدم توصيات مخصصة لما يلي:

  • توعية المستخدمين النهائيين للذكاء الاصطناعي للجمهور بشأن الاستخدام المسؤول للذكاء الاصطناعي؛
  • صناع السياسات والمنظمات الحكومية في صياغة السياسات المتعلقة بالذكاء الاصطناعي؛ و
  • للمطورين والمصممين توجيه التصميم والتنفيذ الأخلاقي لأنظمة الذكاء الاصطناعي.

سبعة مبادئ أساسية للذكاء الاصطناعي

تقترح المبادئ التوجيهية للذكاء الاصطناعي سبعة مبادئ أساسية لضمان تطوير ونشر تقنيات الذكاء الاصطناعي بطريقة تتوافق مع المعايير الأخلاقية والقانونية. وتشمل هذه المبادئ ما يلي:

  • الإنصاف : ضمان تطوير ونشر أنظمة الذكاء الاصطناعي خالية من التحيز والتمييز.
  • الموثوقية والسلامة والتحكم : تمكين التدابير الأمنية لضمان أداء أنظمة الذكاء الاصطناعي على النحو المنشود.
  • الخصوصية والأمان : يجب أن تخضع أنظمة الذكاء الاصطناعي لاختبارات صارمة وتقييمات للمخاطر للتأكد من أنها تؤمن البيانات الشخصية وتحافظ على خصوصية المستخدم.
  • الشمولية : ضمان أن تكون أنظمة الذكاء الاصطناعي متاحة ومفيدة لجميع شرائح المجتمع.
  • الشفافية : ضمان الشفافية من خلال شرح قدرات الذكاء الاصطناعي بوضوح، والإفصاح عن المعلومات ذات الصلة، وتبسيط فهم خوارزميات الذكاء الاصطناعي لتقييم المخاطر المتغيرة. إضافةً إلى ذلك، ضمان الوضوح في عمليات الذكاء الاصطناعي وعمليات صنع القرار.
  • المساءلة : ضمان محاسبة مطوري أنظمة الذكاء الاصطناعي ومنفذيها على أداء أنظمة الذكاء الاصطناعي ونتائجها.
  • السعي لتحقيق المنفعة والسعادة للإنسان : ضمان استفادة مطوري أنظمة الذكاء الاصطناعي ومنفذيها من تقنيات الذكاء الاصطناعي لتعزيز رفاهية الإنسان واحترام الحقوق الفردية.

التزامات أصحاب المصلحة

تحدد المبادئ التوجيهية للذكاء الاصطناعي التزامات المجموعات الرئيسية الثلاث لأصحاب المصلحة - المستخدمين النهائيين وصناع السياسات والمطورين - ضمن إطار المسؤولية المشتركة.

1. المستخدمون النهائيون

يستخدم المستخدمون النهائيون، سواء كانوا أفرادًا أو مؤسسات، منتجات الذكاء الاصطناعي بطرق متنوعة، بما في ذلك المساعدين الافتراضيين والأجهزة المنزلية الذكية. كما يُستخدم الذكاء الاصطناعي في إنشاء المحتوى، وكشف الاحتيال، والأمن.

حقوق حماية المستهلك

يجب على مطوري ومستخدمي الذكاء الاصطناعي إنشاء أنظمة أخلاقية لضمان حقوق المستخدمين النهائيين المختلفة، بما في ذلك:

  • الحق في أن يتم احترامه في جميع الأوقات فيما يتعلق بمنتجات وخدمات الذكاء الاصطناعي؛
  • الحق في أن يتم إبلاغهم عندما تقوم خوارزمية بالإبلاغ عن بياناتهم الشخصية إلى أطراف ثالثة، أو تستخدمها لاتخاذ قرارات أو تستخدمها لتقديم عروض للسلع والخدمات؛
  • الحق في الاعتراض والحصول على تفسير؛
  • الحق في النسيان وحذف البيانات الشخصية؛
  • الحق في التفاعل مع إنسان بدلاً من الذكاء الاصطناعي؛
  • الحق في الإنصاف والتعويض عن الأضرار (إن وجدت)؛
  • الحق في التعويض الجماعي إذا انتهكت شركة ما حقوق المستخدمين النهائيين؛ و
  • الحق في تقديم شكوى إلى سلطة إشرافية أو اتخاذ إجراءات قانونية.

يجب على مطوري ومستخدمي الذكاء الاصطناعي إنشاء أنظمة لضمان توفر هذه الحقوق.

المساءلة

يجب على المستخدمين النهائيين توخي الحذر عند استخدام أدوات الذكاء الاصطناعي، والتأكد من استخدام التكنولوجيا بطريقة مستدامة ومسؤولة وأخلاقية.

يجب على أصحاب المصلحة، ومالكي النماذج، ومطوري الذكاء الاصطناعي تحمل مسؤولية حلول الذكاء الاصطناعي، إذ يؤدي ذلك إلى ضمان تشغيل أنظمة الذكاء الاصطناعي بطريقة متوافقة مع المعايير. لذا، ينبغي على مطوري الذكاء الاصطناعي مراعاة الاستخدام المقصود للنظام، وقدراته التقنية، وموثوقيته وجودته، وآثاره المحتملة على الأفراد ذوي الاحتياجات الخاصة لتجنب أي ضرر.

تدابير حماية المستهلك الرئيسية للذكاء الاصطناعي

ولزيادة حماية المستخدمين النهائيين، يمكن اتخاذ الخطوات التالية:

  • تعريف الذكاء الاصطناعي التوليدي وتحديد نطاقه وتطبيقاته بوضوح؛
  • ضمان قيام الشركات بالإفصاح عن المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي؛
  • يتطلب موافقة صريحة من المستخدم لاستخدام البيانات؛
  • وضع مبادئ توجيهية للدقة والإنصاف؛
  • محاسبة الشركات على المنتجات الضارة؛
  • التدقيق المنتظم وإنفاذ الامتثال ؛
  • تثقيف الجمهور بشأن مخاطر وفوائد الذكاء الاصطناعي؛ و
  • إشراك أصحاب المصلحة لوضع سياسات متوازنة.

2. صانعو السياسات في الحكومة والوكالات والمنظمات والمؤسسات

تستهدف المبادئ التوجيهية للذكاء الاصطناعي أيضًا صانعي السياسات والمخططين والمديرين المشرفين على سياسات وتخطيط القوى العاملة في مجال الذكاء الاصطناعي. وهي تقدم نهجًا منظمًا لضمان التطبيق الأخلاقي والمسؤول للذكاء الاصطناعي، ومساعدة صانعي السياسات والهيئات التنظيمية في إنفاذ اللوائح، وحماية حقوق المستهلكين، وتشجيع المنافسة العادلة في مختلف القطاعات. وتشمل الالتزامات الرئيسية لصانعي السياسات ما يلي:

صياغة السياسات وإنفاذها

يجب على صانعي السياسات وضع وإنفاذ لوائح توازن بين الابتكار والرفاهية العامة مع تشجيع تطوير وتطبيق الذكاء الاصطناعي الأخلاقي في مختلف الصناعات وإنفاذ الامتثال لقوانين ولوائح الذكاء الاصطناعي.

حماية المستهلك

يجب عليهم حماية الأفراد من الضرر الناجم عن القرارات المتعلقة بالذكاء الاصطناعي، وضمان العدالة في التفاعلات المتعلقة بالذكاء الاصطناعي، وحماية حقوق المستهلك.

ضمان الشفافية

ينبغي لواضعي السياسات تطبيق سياسات تُلزم بأنظمة ذكاء اصطناعي تتسم بالشفافية والمساءلة والحيادية، لضمان فهم أصحاب المصلحة لكيفية اتخاذ القرارات. وتُطبَّق مبادئ الشفافية بشكل أساسي في الحالات التي يُستخدم فيها الذكاء الاصطناعي في صنع القرار. ويجب استيفاء المتطلبات الخمسة التالية:

  • الإفصاح الكامل عن المعلومات التي يستخدمها نظام الذكاء الاصطناعي لاتخاذ القرارات؛
  • الاستخدام المقصود لأنظمة الذكاء الاصطناعي؛
  • بيانات التدريب (بما في ذلك وصف البيانات المستخدمة للتدريب، وأي تحيزات تاريخية أو اجتماعية في البيانات، والأساليب المستخدمة لضمان جودة البيانات)؛
  • صيانة وتقييم أنظمة الذكاء الاصطناعي؛
  • والقدرة على الطعن في قرارات أنظمة الذكاء الاصطناعي.

الأخلاق والشمولية

يجب أن تضمن السياسات عدم التمييز والإنصاف والشمولية في أنظمة الذكاء الاصطناعي، لا سيما في الصناعات ذات التأثير الكبير مثل الإدارة العامة والرعاية الصحية والتمويل.

بناء القدرات

تتحمل الحكومات مسؤولية وضع مبادرات التوعية بالذكاء الاصطناعي ورفع مستوى الوعي العام به. AI governance والأخلاق والحقوق.

3. المطورون والمصممون ومقدمو التكنولوجيا والموردون

تستهدف إرشادات الذكاء الاصطناعي أيضًا المطورين والمصممين الذين يُنشئون منتجات ذكاء اصطناعي لمختلف الصناعات، وتتضمن معايير تكنولوجية، وقواعد أخلاقية، وأفضل الممارسات لضمان تطوير ونشر الذكاء الاصطناعي بشكل أخلاقي، وتحسين النتائج، وتقليل المخاوف الأخلاقية. وتشمل الالتزامات الرئيسية للمطورين والمصممين ما يلي:

ينبغي على المطورين الحصول على موافقة الأفراد قبل معالجة أو مشاركة المعلومات الشخصية لأغراض البحث والتطبيق في مجال الذكاء الاصطناعي عند الاقتضاء.

التطور الأخلاقي

من التصميم إلى التسليم، يجب على مطوري الذكاء الاصطناعي اتباع المبادئ التوجيهية الأخلاقية والتأكد من أن أنظمتهم غير متحيزة وعادلة وآمنة.

المعايير الفنية

يجب على المطورين الالتزام بالمعايير المحلية والمؤشرات الفنية المقبولة دوليًا لضمان موثوقية النظام وسلامته. كما يجب أن توفر أنظمة الذكاء الاصطناعي للأفراد حماية قوية للبيانات والخصوصية طوال دورة حياتها.

تخفيف التحيز

يجب على المطورين اكتشاف وتصحيح أي تحيزات محتملة في أنظمة الذكاء الاصطناعي بشكل استباقي لضمان نتائج عادلة والامتناع عن استخدام بيانات ومعلومات المستخدمين دون أساس قانوني.

آليات المساءلة

يجب على المطورين تبني ميزات قوية ومتطورة تُمكّن من التتبع والتدقيق، مما يضمن المساءلة عن قرارات أنظمة الذكاء الاصطناعي.

تقييم المخاطر

يجب على المطورين إجراء تقييمات ومراقبة للمخاطر بشكل فعال، واعتماد خطوات لتخفيف المخاطر لمعالجة حالات تطوير ونشر الذكاء الاصطناعي غير المتوقعة.

التدابير الأمنية

يجب أن تخضع أنظمة الذكاء الاصطناعي لاختبارات صارمة لضمان موثوقيتها وسلامتها وأدائها الآمن. كما يجب أن تعمل بكفاءة عالية، وأن تدير الظروف الشائعة وغير الشائعة بفعالية، وأن توفر ضمانات ضد العواقب السلبية أو تقللها إلى أدنى حد. ويتعين على المطورين إجراء اختبارات شاملة، والحصول على شهادات اعتماد، وتقييم المخاطر للحد من هذه المخاطر.

الخصوصية بالتصميم

عند تطبيق نظام الذكاء الاصطناعي عملياً، يجب على المطورين أيضاً مراعاة مبادئ الأمن بالتصميم والخصوصية بالتصميم وتقييم لوائح أمن المعلومات والخصوصية الدولية.

المراقبة والتقييم المستمران

لتقييم تأثير أنظمة الذكاء الاصطناعي على الخصوصية والأمن، يجب مراقبتها في الوقت الفعلي وتحديثها باستمرار. وهذا يعني تقييم فعالية إجراءات الحماية القائمة وتحديثها لمواجهة التهديدات المتطورة. إضافةً إلى ذلك، يجب على المؤسسات تحديد ومعالجة أي انحرافات أو تغييرات في توزيع البيانات بشكل استباقي لتقييم أي تحيزات في نظام الذكاء الاصطناعي وإجراء التعديلات اللازمة.

4. المسؤوليات المشتركة

الشفافية والثقة

يتحمل جميع أصحاب المصلحة مسؤولية تعزيز ثقافة الشفافية في تطوير الذكاء الاصطناعي ونشره وتشغيله واتخاذ القرارات لضمان ثقة المستخدم.

تعاون

يجب على أصحاب المصلحة التعاون لمعالجة القضايا متعددة الأوجه مثل الخصوصية والأمن والحد من التحيز من خلال ضمان مشاركتهم.

القيادة الأخلاقية

يجب على أصحاب المصلحة أن يتبنوا بنشاط دوراً قيادياً لتعزيز التطبيق الأخلاقي للذكاء الاصطناعي وضمان أنه يخدم المصلحة العامة دون الإضرار بحقوق الأفراد أو مبادئهم.

كيف Securiti يمكن المساعدة

Securiti تُعدّ الشركة رائدةً في مجال مركز قيادة البيانات والذكاء الاصطناعي، وهي منصة مركزية تُمكّن من الاستخدام الآمن للبيانات والذكاء الاصطناعي من الجيل الجديد. وتُوفّر هذه المنصة ذكاءً موحدًا للبيانات، وضوابط، وتنسيقًا عبر بيئات سحابية هجينة متعددة. وتعتمد عليها كبرى الشركات العالمية. Securiti 's Data Command Center لأغراض أمن البيانات والخصوصية والحوكمة والامتثال.

Securiti تُمكّن منصة Gencore AI المؤسسات من الاتصال الآمن بمئات أنظمة البيانات مع الحفاظ على ضوابط البيانات وحوكمتها أثناء تدفق البيانات إلى أنظمة GenAI الحديثة. وتعتمد المنصة على مخطط معرفي فريد يوفر رؤى سياقية دقيقة حول البيانات وأنظمة الذكاء الاصطناعي.

توفر Gencore AI ضوابط قوية في جميع أنحاء نظام الذكاء الاصطناعي للتوافق مع سياسات الشركة وحقوقها، والحماية من الهجمات الخبيثة، وحماية البيانات الحساسة. وهذا يمكّن المؤسسات من الامتثال لإرشادات الذكاء الاصطناعي بشأن AI Governance والأخلاق.

اطلب عرضًا توضيحيًا لمعرفة المزيد.

قم بتحليل هذه المقالة باستخدام الذكاء الاصطناعي

تظهر المطالبات في أدوات الذكاء الاصطناعي التابعة لجهات خارجية.
انضم إلى قائمتنا البريدية

احصل على أحدث المعلومات والتحديثات القانونية والمزيد مباشرةً في بريدك الإلكتروني



قصص أخرى قد تهمك
مقاطع فيديو
عرض المزيد
ريحان جليل، من شركة Veeam، يتحدث عن Agent Commander: theCUBE + NYSE Wired: قادة الأمن السيبراني
بعد استحواذ شركة Veeam على Securiti يمثل إطلاق برنامج Agent Commander خطوة هامة نحو مساعدة المؤسسات على تبني وكلاء الذكاء الاصطناعي بثقة أكبر. في...
عرض المزيد
تخفيف مخاطر قائمة OWASP لأهم 10 مخاطر لتطبيقات ماجستير القانون 2025
أحدث الذكاء الاصطناعي التوليدي (GenAI) تحولاً جذرياً في طريقة عمل الشركات وتوسعها ونموها. يوجد تطبيق للذكاء الاصطناعي لكل غرض، بدءاً من زيادة إنتاجية الموظفين وصولاً إلى تبسيط العمليات...
عرض المزيد
أفضل 6 DSPM حالات الاستخدام
مع ظهور الذكاء الاصطناعي التوليدي (GenAI)، أصبحت البيانات أكثر ديناميكية. يتم توليد بيانات جديدة بوتيرة أسرع من أي وقت مضى، ونقلها إلى أنظمة وتطبيقات متنوعة...
عرض المزيد
قانون الخصوصية في كولورادو (CPA)
ما هو قانون خصوصية كولورادو؟ قانون خصوصية كولورادو هو قانون شامل لحماية الخصوصية، تم توقيعه في 7 يوليو 2021. وقد وضع معايير جديدة لحماية البيانات الشخصية...
عرض المزيد
Securiti لمساعد الطيار في البرمجيات كخدمة (SaaS)
تسريع اعتماد Copilot بأمان وثقة: تتطلع المؤسسات إلى اعتماد Microsoft 365 Copilot لزيادة الإنتاجية والكفاءة. ومع ذلك، تظل المخاوف الأمنية، مثل حماية البيانات...
عرض المزيد
أهم عشرة اعتبارات لاستخدام البيانات غير المهيكلة بأمان مع الذكاء الاصطناعي العام
نسبة مذهلة تصل إلى 90% من بيانات المؤسسات غير منظمة. وتُستخدم هذه البيانات بسرعة لتغذية تطبيقات الذكاء الاصطناعي من الجيل الجديد، مثل روبوتات الدردشة والبحث المدعوم بالذكاء الاصطناعي.
عرض المزيد
جينكور للذكاء الاصطناعي: بناء أنظمة ذكاء اصطناعي آمنة وعالية الجودة للمؤسسات في دقائق
مع تبني المؤسسات للذكاء الاصطناعي التوليدي، تواجه فرق البيانات والذكاء الاصطناعي العديد من العقبات: ربط مصادر البيانات غير المهيكلة والمهيكلة بشكل آمن، والحفاظ على الضوابط والحوكمة المناسبة،...
عرض المزيد
كيفية التعامل مع قانون حماية خصوصية المستهلك في كاليفورنيا: رؤى أساسية للشركات
ما هو قانون حقوق الخصوصية في كاليفورنيا (CPRA)؟ هو تشريع ولاية كاليفورنيا الذي يهدف إلى حماية خصوصية سكانها الرقمية. وقد دخل حيز التنفيذ في يناير...
عرض المزيد
التكيف مع التحول: الانتقال إلى معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS) الإصدار 4.0
ما هو معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS)؟ هو مجموعة من معايير الأمان لضمان المعالجة والتخزين الآمنين للبيانات، و...
عرض المزيد
تأمين البيانات والذكاء الاصطناعي: دليل إدارة الثقة والمخاطر والأمن (TRiSM)
أثارت المخاطر الأمنية المتزايدة للذكاء الاصطناعي قلق 48% من مسؤولي أمن المعلومات حول العالم. انضموا إلى هذه الجلسة الرئيسية للتعرف على دليل عملي لتمكين الثقة في الذكاء الاصطناعي، وإدارة المخاطر،...

جلسات حوارية مميزة

تسليط الضوء 50:52
من البيانات إلى النشر: حماية الذكاء الاصطناعي المؤسسي من خلال الأمن والحوكمة
شاهد الآن منظر
تسليط الضوء 11:29
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
شاهد الآن منظر
تسليط الضوء 11:18
إعادة هيكلة تمويل العقارات - كيف تُجري شركة ووكر آند دنلوب تحديثًا لمحفظتها الاستثمارية البالغة 135 مليار دولار أمريكي بالاعتماد على البيانات أولاً
شاهد الآن منظر
تسليط الضوء 13:38
تسريع المعجزات - كيف تُدمج شركة سانوفي الذكاء الاصطناعي لتقليص مدة تطوير الأدوية بشكل كبير
صورة مصغرة لشركة سانوفي
شاهد الآن منظر
تسليط الضوء 10:35
حدث تحول جوهري في مركز ثقل البيانات
شاهد الآن منظر
تسليط الضوء 14:21
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
شاهد الآن منظر
تسليط الضوء 12:!3
لا يمكنك بناء خطوط الأنابيب أو المستودعات أو منصات الذكاء الاصطناعي بدون معرفة تجارية
شاهد الآن منظر
تسليط الضوء 47:42
الأمن السيبراني – حيث يقوم القادة بالشراء والبناء والشراكة
ريحان جليل
شاهد الآن منظر
تسليط الضوء 27:29
بناء ذكاء اصطناعي آمن باستخدام Databricks و Gencore
ريحان جليل
شاهد الآن منظر
تسليط الضوء 46:02
بناء ذكاء اصطناعي آمن للمؤسسات: خارطة طريق عملية
شاهد الآن منظر
أحدث
عرض المزيد
Securiti أعلنت شركة .ai عن اختيار شركة أكسنتشر كشريك العام لعام 2025
في إطار الاحتفال المستمر بالتعاون المؤثر في DataAI Security ، Securiti منحت شركة .ai، التابعة لشركة Veeam، شركة Accenture لقب شريك العام لعام 2025....
عرض المزيد
نقدم لكم قائد العملاء
إن وعود وكلاء الذكاء الاصطناعي مذهلة - فالأنظمة الذكية التي تتخذ القرارات، وتستخدم الأدوات، وتؤتمت سير العمل المعقد، تعمل كمضاعفات قوة لكل معرفة...
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ قانون حماية خصوصية المستهلك في كاليفورنيا؟ عرض المزيد
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ القانون؟
يمكن للشركات أن تستفيد من بعض الدروس الحيوية من أكبر إجراء إنفاذي تم اتخاذه مؤخراً في تاريخ قانون خصوصية المستهلك في كاليفورنيا (CCPA). Securiti مدونة 's تغطي جميع التفاصيل المهمة التي يجب معرفتها.
عرض المزيد
الذكاء الاصطناعي وقانون HIPAA: ما يعنيه وكيفية أتمتة الامتثال
تعرّف على كيفية تطبيق قانون قابلية نقل التأمين الصحي والمساءلة (HIPAA) على الذكاء الاصطناعي في تأمين المعلومات الصحية المحمية. تعلّم كيف...
عرض المزيد
من وضوح البيانات إلى سرعة الذكاء الاصطناعي
اطلع على الورقة البيضاء واكتشف كيف يتم توحيد DataAI security يحوّل إدارة البيانات إلى عامل تمكين للأعمال، ويعزز ابتكار الذكاء الاصطناعي من خلال الشفافية والامتثال وإدارة المخاطر...
عرض المزيد
دليل تنفيذ قانون بيانات الاتحاد الأوروبي: التعامل مع طلبات الوصول إلى البيانات، ومشاركة البيانات، والتحويل السحابي
Securiti توفر الورقة البيضاء الخاصة بـ دليل تنفيذ مفصل لتحقيق الامتثال لقانون البيانات، مما يجعلها قراءة أساسية للشركات التي تعمل بالبيانات في الاتحاد الأوروبي.
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti عرض المزيد
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti
التزم بتعديلات قانون خصوصية المستهلك في كاليفورنيا لعام 2026 باستخدام Securiti وتشمل هذه المتطلبات تحديث متطلبات الموافقة، وتوسيع تعريفات البيانات الحساسة، وتعزيز حقوق المستهلك، وتقييمات الجاهزية.
عرض المزيد
أين تنتهك الخصوصية: الذكاء الاصطناعي الوكيل في المؤسسات
يُحدث الذكاء الاصطناعي الآلي تحولاً جذرياً في المؤسسات، ولكن ما هو ثمن ذلك على الخصوصية؟ اكتشف أهم 10 مخاطر، والضوابط الرئيسية، وكيفية التعامل معها. Securiti يُمكّن من تحقيق الأمان والتوسع...
عرض المزيد
تخلص من مخاطر البيانات في الذكاء الاصطناعي
تعرف على كيفية إعداد بيانات المؤسسة لاعتماد Gemini Enterprise بشكل آمن من خلال الحوكمة الأولية، واكتشاف البيانات الحساسة، وضوابط سياسة ما قبل الفهرسة.
عرض المزيد
دليل الحصول على شهادة HITRUST
Securiti يُعد الكتاب الإلكتروني دليلاً عملياً للحصول على شهادة HITRUST، ويغطي كل شيء بدءاً من اختيار i1 مقابل r2 ونطاق الأنظمة وصولاً إلى إدارة خطط العمل والتخطيط...
ما هو
جديد