الإعلان عن Agent Commander - أول حل متكامل من Veeam + Securiti .ai تمكين توسيع نطاق وكلاء الذكاء الاصطناعي الآمنين

منظر

نظرة عامة على مشروع قانون الجمعية العامة رقم 2885 في كاليفورنيا بشأن الذكاء الاصطناعي

المساهمون

أنس بيج

مدير تسويق المنتجات في Securiti

أسواه جاويد

شريك Data Privacy محلل في Securiti

نُشر في 3 أبريل 2025

مقدمة

يستلزم التطور السريع للذكاء الاصطناعي وضع أطر تنظيمية متينة تتصدى لمخاطره وتأثيره على المجتمع. وتُعدّ كاليفورنيا، الرائدة في مجال الأطر التنظيمية، في طليعة الولايات التي تتصدى للمخاطر المرتبطة بالذكاء الاصطناعي.

يتناول مشروع قانون الجمعية العامة لولاية كاليفورنيا رقم 2885 (AB 2885) ، وهو أحد أحدث مبادرات الولاية، تطوير الذكاء الاصطناعي ونشره وتنظيمه على وجه التحديد. ويهدف هذا القانون التشريعي إلى توحيد تعريف "الذكاء الاصطناعي" في مختلف قوانين كاليفورنيا. ويُعدّ هذا الأمر بالغ الأهمية نظرًا للنمو الهائل الذي يشهده قطاع الذكاء الاصطناعي وتزايد تطبيقاته في الحياة اليومية. وقد عدّل مشروع القانون قانون الأعمال والمهن ، وقانون التعليم ، وقانون الحكومة فيما يتعلق بالذكاء الاصطناعي . وقد أقرّ وزير الخارجية مشروع القانون AB 2885 في 28 سبتمبر 2024.

يتناول هذا الدليل بالتفصيل التعريفات الرئيسية الواردة في القانون AB 2885، والتعديلات، والأحكام الرئيسية، والآثار المترتبة على الشركات، وكيفية تطبيقها. Securiti يمكن أن يساعد ذلك في ضمان الامتثال السريع.

ثانيًا: التعريفات الرئيسية

عدّل القانون AB 2885 قانون الأعمال والمهن، وقانون التعليم، وقانون الحكومة فيما يتعلق بالذكاء الاصطناعي للتعريفات التالية:

أ. الذكاء الاصطناعي

"الذكاء الاصطناعي" يعني نظامًا مصممًا أو قائمًا على الآلة يختلف في مستوى استقلاليته ويمكنه، لأهداف صريحة أو ضمنية، أن يستنتج من المدخلات التي يتلقاها كيفية توليد مخرجات يمكن أن تؤثر على البيئات المادية أو الافتراضية.

ب. نظام اتخاذ القرار الآلي

يُقصد بـ"نظام اتخاذ القرار الآلي" عملية حسابية مستمدة من التعلم الآلي، أو النمذجة الإحصائية، أو تحليل البيانات، أو الذكاء الاصطناعي، تُصدر مخرجات مبسطة، تشمل درجة أو تصنيفًا أو توصية، تُستخدم لمساعدة أو استبدال عملية اتخاذ القرار البشري التقديرية، وتؤثر بشكل ملموس على الأفراد. ولا يشمل "نظام اتخاذ القرار الآلي" مرشح البريد الإلكتروني العشوائي، أو جدار الحماية، أو برامج مكافحة الفيروسات، أو أدوات إدارة الهوية والوصول، أو الآلة الحاسبة، أو قاعدة البيانات، أو مجموعة البيانات، أو أي تجميع آخر للبيانات.

ج. المحتوى

يشير مصطلح "المحتوى" إلى التصريحات أو التعليقات التي يدلي بها المستخدمون، والوسائط التي يتم إنشاؤها أو نشرها أو مشاركتها أو التفاعل معها بأي شكل آخر من قِبل المستخدمين على خدمة أو تطبيق عبر الإنترنت. ولا يشمل ذلك الوسائط التي يتم وضعها على خدمة أو تطبيق حصراً لأغراض التخزين السحابي أو نقل الملفات أو التعاون في الملفات.

د. التزييف العميق

"التزييف العميق" يعني المحتوى الصوتي أو المرئي، الذي يتم إنشاؤه أو التلاعب به بواسطة الذكاء الاصطناعي، والذي من شأنه أن يبدو زائفًا على أنه أصلي أو حقيقي ويتضمن تصويرًا لأشخاص يبدو أنهم يقولون أو يفعلون أشياء لم يقولوها أو يفعلوها دون موافقتهم.

هـ. تزوير المحتوى الرقمي

"تزوير المحتوى الرقمي" يعني استخدام التقنيات، بما في ذلك الذكاء الاصطناعي وتقنيات التعلم الآلي، لتلفيق أو التلاعب بالمحتوى الصوتي أو المرئي أو النصي بقصد التضليل.

و. مصدر المحتوى الرقمي

"أصل المحتوى الرقمي" يعني التسلسل الزمني القابل للتحقق للجزء الأصلي من المحتوى الرقمي، مثل الصورة أو الفيديو أو التسجيل الصوتي أو المستند الإلكتروني.

ز. نظام اتخاذ القرارات الآلي عالي المخاطر

"نظام اتخاذ القرارات الآلي عالي المخاطر" يعني نظام اتخاذ القرارات الآلي الذي يستخدم لمساعدة أو استبدال القرارات التقديرية البشرية التي لها تأثير قانوني أو تأثير كبير مماثل، بما في ذلك القرارات التي تؤثر بشكل مادي على الوصول إلى السكن أو أماكن الإقامة أو الموافقة عليها، والتعليم، والتوظيف، والائتمان، والرعاية الصحية، والعدالة الجنائية.

ثالثًا: وكالة العمليات الحكومية

يُحدد القسم 4 من مشروع القانون AB 2885 التعديلات التي أُدخلت على قانون الحكومة. وينص القانون على إنشاء وكالة عمليات حكومية تابعة لوزير العمليات الحكومية، الذي يُكلف بتقييم آثار ومخاطر تقنيات التزييف العميق وتزوير المحتوى الرقمي على حكومة ولاية كاليفورنيا، والشركات العاملة فيها، وسكانها. وسيشمل التقييم ما يلي:

  • انتشار تقنية التزييف العميق على نطاق واسع وما يرتبط بها من مخاطر تتعلق بالخصوصية.
  • الآثار المحتملة لهذه التقنيات على الخصوصية وتأثير تقنيات تزوير المحتوى الرقمي على المشاركة المدنية، بما في ذلك تأثيرها على الناخبين.
  • الآثار القانونية المحيطة بهذه التقنيات.
  • أفضل الممارسات للتخفيف من المخاطر، بما في ذلك جدوى اعتماد معيار لأصل المحتوى الرقمي لمكافحة التزوير والتزييف العميق.

يهدف هذا التقييم إلى تعزيز الخصوصية والأمان والثقة في المحتوى الرقمي. بالإضافة إلى ذلك، كُلِّف وزير العمليات الحكومية بوضع خطة تتضمن ما يلي:

  • دراسة جدوى وتحديات تطوير معايير تحديد مصدر المحتوى الرقمي للدوائر الحكومية.
  • تعزيز التدقيق في عمليات التزوير الرقمي لصالح شركات الإنترنت والصحفيين ومنظمات الرقابة والجمهور.
  • تطوير آليات لمنشئي المحتوى للتحقق من صحة الوسائط الأصلية والتلاعبات غير الخادعة باستخدام التشفير.
  • تطوير أو تحديد أدوات للجمهور للتحقق من صحة وسائل الإعلام مع الحفاظ على الخصوصية والحريات المدنية.

تهدف هذه الخطة إلى تحسين الثقة في المحتوى الرقمي مع حماية الخصوصية الشخصية.

تقرير

يتعين على وزير العمليات الحكومية تقديم تقرير إلى المجلس التشريعي بحلول الأول من أكتوبر/تشرين الأول 2024، يُقيّم فيه التطبيقات والمخاطر المحتملة لتقنية التزييف العميق على الشركات في كاليفورنيا وحكومة الولاية. ويتضمن هذا التقرير خطة منسقة وتوصيات لتعديل تعريفات تزوير المحتوى الرقمي والتزييف العميق. ويجب أن يلتزم التقرير بأحكام المادة 9795 من قانون الحكومة. وينتهي العمل بهذا البند في الأول من يناير/كانون الثاني 2025، ما لم يمدده أي تشريع لاحق.

رابعاً: قسم التكنولوجيا

ينص مشروع القانون AB 2885، من خلال تعديل قانون الحكومة، على إنشاء وزارة التكنولوجيا لإجراء جرد تفصيلي لجميع أنظمة اتخاذ القرارات الآلية عالية المخاطر التي تم اقتراح استخدامها أو تطويرها أو شرائها من قبل أي وكالة حكومية، أو التي تستخدمها أو تطورها أو تشتريها حاليًا أي وكالة حكومية، وذلك بحلول 1 سبتمبر 2024 كحد أقصى، بالتنسيق مع الهيئات المشتركة بين الوكالات الأخرى حسبما تراه الوزارة مناسبًا. ويجب أن يشمل هذا الجرد ما يلي:

  • القرارات التي يمكن لنظام اتخاذ القرارات الآلي اتخاذها أو دعمها والفوائد المرجوة منها.
  • نتائج البحث التي تقيّم فعالية ومزايا تطبيقات وبدائل نظام اتخاذ القرار الآلي.
  • فئات البيانات والمعلومات الشخصية المستخدمة.
  • تدابير تخفيف المخاطر، بما في ذلك مقاييس الأداء، وضوابط الأمن السيبراني، وضوابط الخصوصية، وتقييمات المخاطر.
  • إجراءات الطعن في القرارات التي تتخذها هذه الأنظمة.

يهدف هذا إلى ضمان الشفافية والأمن والإنصاف في استخدام الذكاء الاصطناعي من قبل الكيانات الحكومية.

تقرير

يتعين على وزارة التكنولوجيا تقديم تقرير شامل عن أنظمة اتخاذ القرارات الآلية عالية المخاطر إلى لجنة مجلس الشيوخ المعنية بالتنظيم الحكومي ولجنة الجمعية العامة المعنية بالخصوصية وحماية المستهلك بحلول 1 يناير 2025، وفي كل عام بعد ذلك. وينتهي هذا الالتزام بتقديم التقارير في 1 يناير 2029. ووفقًا للمادة 9795 من قانون الحكومة، يجب أن تلتزم جميع التقارير ببروتوكولات التقديم الصحيحة للتقارير التشريعية.

خامساً: الأحكام الرئيسية بموجب القانون AB 2885

تتضمن الأحكام الرئيسية لمشروع القانون AB 2885 ما يلي:

أ. جرد أنظمة الذكاء الاصطناعي عالية المخاطر

يتعين على وزارة التكنولوجيا تحديد الجهات الحكومية التي تستخدم "أنظمة الذكاء الاصطناعي عالية المخاطر" وإدراجها في قائمة جرد. تُصنف هذه الأنظمة على أنها عالية المخاطر نظرًا لقدرتها على التأثير بشكل كبير على الأفراد أو الجماعات، لا سيما في مجالات مثل السلامة العامة والتوظيف والرعاية الصحية. والهدف من ذلك هو ضمان إلمام الجهات الحكومية التام بتطبيقات الذكاء الاصطناعي وآثاره المجتمعية المحتملة.

ستقوم إدارة التكنولوجيا بتقييم كيفية اتخاذ هذه الأنظمة للقرارات وضمان استخدامها بمسؤولية. وسيشمل الجرد أوصافًا لأنظمة الذكاء الاصطناعي، وتطبيقاتها المقصودة، وأي بيانات مستخدمة في تدريبها أو تشغيلها.

ب. المحتوى المُزيّف بتقنية التزييف العميق والذكاء الاصطناعي المُتلاعب

يُسلّط مشروع القانون AB 2885 الضوء على المخاوف بشأن المحتوى التلاعبي المُولّد بواسطة الذكاء الاصطناعي، مثل تقنية التزييف العميق، والذي يُشكّل خطرًا كبيرًا على السلامة العامة والخصوصية. ويقترح مشروع القانون AB 2885 آليات للكشف عن استخدام المحتوى الخادع المُولّد بواسطة الذكاء الاصطناعي في العمليات الحكومية والحدّ منه.

ج. إعانات التنمية الاقتصادية

تنص المادة 53083.1 من قانون الحكومة، بصيغتها المعدلة، على إلزام السلطات المحلية بتقديم معلومات شاملة للجمهور قبل منح إعانات مراكز التوزيع التابعة للمستودعات لأغراض التنمية الاقتصادية. وتشمل هذه المعلومات بيانات المستفيد، وجدول الإعانة، وفرص العمل المتوقعة، والأجور، والإيرادات الضريبية.

يتعين على الوكالات أيضاً عقد جلسات استماع عامة سنوية وتقديم تقارير عن تأثيرات الذكاء الاصطناعي على التوظيف، ولا سيما الأتمتة المرتبطة به. ويُحظر إبرام اتفاقيات عدم الإفصاح، ويتعين على الوكالات تقديم تقاريرها إلى مكتب الحاكم. تضمن هذه الإجراءات الشفافية والمساءلة فيما يتعلق بالإعانات العامة.

سادساً: آثار القانون AB 2885

يُدخل مشروع القانون AB 2885 آثاراً متعددة على مختلف الكيانات المتأثرة بأحكامه.

أ. للوكالات الحكومية

ينص مشروع القانون على إلزام الوكالات الحكومية بإجراء عمليات تدقيق شاملة للتحيز والنزاهة، وتقييم أنظمة الذكاء الاصطناعي لديها، وضمان شفافية استخدامها. ورغم أن هذه الخطوات قد تؤدي إلى زيادة النفقات الإدارية، إلا أنها تهدف إلى ضمان الاستخدام المناسب والأخلاقي للذكاء الاصطناعي.

ب. لسكان كاليفورنيا

يحمي هذا الإجراء الأفراد من الأحكام الغامضة أو المتحيزة الصادرة عن الذكاء الاصطناعي. كما يمنحهم الحق في معرفة كيفية تأثير أدوات الذكاء الاصطناعي عليهم والقدرة على الاعتراض على عملية صنع القرار في أنظمة الذكاء الاصطناعي.

ج. لمطوري التكنولوجيا

يجب على مطوري أنظمة الذكاء الاصطناعي الالتزام بالمبادئ التوجيهية المتطورة بشأن الشفافية، والحد من التحيز، والاعتبارات الأخلاقية. وقد يؤدي عدم الالتزام إلى تدقيق أكبر في نماذج الذكاء الاصطناعي التي ينتجها المطورون، وربما يؤثر على تصميم تقنيات الذكاء الاصطناعي المستقبلية.

سابعاً: كيف Securiti يمكن المساعدة

Securiti هو رائد في Data Command Center منصة مركزية تُمكّن من الاستخدام الآمن للبيانات والذكاء الاصطناعي العام. توفر هذه المنصة ذكاءً موحدًا للبيانات، وضوابط، وتنسيقًا عبر بيئات سحابية هجينة متعددة. وتعتمد عليها كبرى الشركات العالمية. Securiti 's Data Command Center لأغراض أمن البيانات والخصوصية والحوكمة والامتثال.

Securiti تُزيل مجموعة Genstack AI Suite من GenStack التعقيدات والمخاطر الكامنة في دورة حياة الذكاء الاصطناعي العام، مما يُمكّن المؤسسات من استخدام بياناتها المنظمة وغير المنظمة بسرعة وأمان في أي مكان مع أي نظام ذكاء اصطناعي وأنظمة إدارة التعلم. توفر المجموعة ميزات مثل استيعاب البيانات واستخراجها بشكل آمن، وإخفاء البيانات، وإخفاء الهوية، والتنقيح، بالإضافة إلى إمكانيات الفهرسة والاسترجاع. علاوة على ذلك، تُسهّل المجموعة تهيئة أنظمة إدارة التعلم للأسئلة والأجوبة، وضوابط البيانات المدمجة للحوكمة والخصوصية والأمان، وجدران الحماية لأنظمة إدارة التعلم لتمكين التبني الآمن للذكاء الاصطناعي العام.

اطلب عرضًا توضيحيًا لمعرفة المزيد.

الأسئلة الشائعة

يُعدّ مشروع القانون AB 2885 قانونًا في ولاية كاليفورنيا يُرسي تعريفًا موحدًا للذكاء الاصطناعي ويضع مبادئ توجيهية لكيفية استخدام الوكالات الحكومية لأنظمة الذكاء الاصطناعي. ويهدف إلى تحسين الوضوح والرقابة والمساءلة في تطوير ونشر الذكاء الاصطناعي.

إذا كان نظام الذكاء الاصطناعي الخاص بك يستخدم من قبل وكالات ولاية كاليفورنيا، أو يدعمها بشكل غير مباشر، فيجب عليك الامتثال للقانون AB 2885. وهذا يشمل القدرة على توثيق كيفية عمل النظام، وكيفية معالجة البيانات، وكيفية الحفاظ على ضوابط المخاطر والشفافية.

بموجب القانون AB 2885، يجب على الوكالات الحكومية ما يلي:

  • احتفظ بقائمة بجميع أنظمة الذكاء الاصطناعي وأنظمة اتخاذ القرارات الآلية التي يستخدمونها
  • تحديد الأنظمة التي تعتبر عالية المخاطر، وخاصة تلك التي تؤثر على حقوق الناس أو وصولهم إلى الخدمات
  • قم بتقييم هذه الأنظمة من حيث التحيز والدقة والإنصاف والشفافية
  • الإبلاغ عن النتائج لدعم المساءلة والتوعية العامة

تساعد هذه المتطلبات مجتمعة على ضمان استخدام الذكاء الاصطناعي بما يتماشى مع المعايير الأخلاقية ومعايير الخصوصية.

قم بتحليل هذه المقالة باستخدام الذكاء الاصطناعي

تظهر المطالبات في أدوات الذكاء الاصطناعي التابعة لجهات خارجية.
انضم إلى قائمتنا البريدية

احصل على أحدث المعلومات والتحديثات القانونية والمزيد مباشرةً في بريدك الإلكتروني



قصص أخرى قد تهمك
مقاطع فيديو
عرض المزيد
ريحان جليل، من شركة Veeam، يتحدث عن Agent Commander: theCUBE + NYSE Wired: قادة الأمن السيبراني
بعد استحواذ شركة Veeam على Securiti يمثل إطلاق برنامج Agent Commander خطوة هامة نحو مساعدة المؤسسات على تبني وكلاء الذكاء الاصطناعي بثقة أكبر. في...
عرض المزيد
تخفيف مخاطر قائمة OWASP لأهم 10 مخاطر لتطبيقات ماجستير القانون 2025
أحدث الذكاء الاصطناعي التوليدي (GenAI) تحولاً جذرياً في طريقة عمل الشركات وتوسعها ونموها. يوجد تطبيق للذكاء الاصطناعي لكل غرض، بدءاً من زيادة إنتاجية الموظفين وصولاً إلى تبسيط العمليات...
عرض المزيد
أفضل 6 DSPM حالات الاستخدام
مع ظهور الذكاء الاصطناعي التوليدي (GenAI)، أصبحت البيانات أكثر ديناميكية. يتم توليد بيانات جديدة بوتيرة أسرع من أي وقت مضى، ونقلها إلى أنظمة وتطبيقات متنوعة...
عرض المزيد
قانون الخصوصية في كولورادو (CPA)
ما هو قانون خصوصية كولورادو؟ قانون خصوصية كولورادو هو قانون شامل لحماية الخصوصية، تم توقيعه في 7 يوليو 2021. وقد وضع معايير جديدة لحماية البيانات الشخصية...
عرض المزيد
Securiti لمساعد الطيار في البرمجيات كخدمة (SaaS)
تسريع اعتماد Copilot بأمان وثقة: تتطلع المؤسسات إلى اعتماد Microsoft 365 Copilot لزيادة الإنتاجية والكفاءة. ومع ذلك، تظل المخاوف الأمنية، مثل حماية البيانات...
عرض المزيد
أهم عشرة اعتبارات لاستخدام البيانات غير المهيكلة بأمان مع الذكاء الاصطناعي العام
نسبة مذهلة تصل إلى 90% من بيانات المؤسسات غير منظمة. وتُستخدم هذه البيانات بسرعة لتغذية تطبيقات الذكاء الاصطناعي من الجيل الجديد، مثل روبوتات الدردشة والبحث المدعوم بالذكاء الاصطناعي.
عرض المزيد
جينكور للذكاء الاصطناعي: بناء أنظمة ذكاء اصطناعي آمنة وعالية الجودة للمؤسسات في دقائق
مع تبني المؤسسات للذكاء الاصطناعي التوليدي، تواجه فرق البيانات والذكاء الاصطناعي العديد من العقبات: ربط مصادر البيانات غير المهيكلة والمهيكلة بشكل آمن، والحفاظ على الضوابط والحوكمة المناسبة،...
عرض المزيد
كيفية التعامل مع قانون حماية خصوصية المستهلك في كاليفورنيا: رؤى أساسية للشركات
ما هو قانون حقوق الخصوصية في كاليفورنيا (CPRA)؟ هو تشريع ولاية كاليفورنيا الذي يهدف إلى حماية خصوصية سكانها الرقمية. وقد دخل حيز التنفيذ في يناير...
عرض المزيد
التكيف مع التحول: الانتقال إلى معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS) الإصدار 4.0
ما هو معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS)؟ هو مجموعة من معايير الأمان لضمان المعالجة والتخزين الآمنين للبيانات، و...
عرض المزيد
تأمين البيانات والذكاء الاصطناعي: دليل إدارة الثقة والمخاطر والأمن (TRiSM)
أثارت المخاطر الأمنية المتزايدة للذكاء الاصطناعي قلق 48% من مسؤولي أمن المعلومات حول العالم. انضموا إلى هذه الجلسة الرئيسية للتعرف على دليل عملي لتمكين الثقة في الذكاء الاصطناعي، وإدارة المخاطر،...

جلسات حوارية مميزة

تسليط الضوء 50:52
من البيانات إلى النشر: حماية الذكاء الاصطناعي المؤسسي من خلال الأمن والحوكمة
شاهد الآن منظر
تسليط الضوء 11:29
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
شاهد الآن منظر
تسليط الضوء 11:18
إعادة هيكلة تمويل العقارات - كيف تُجري شركة ووكر آند دنلوب تحديثًا لمحفظتها الاستثمارية البالغة 135 مليار دولار أمريكي بالاعتماد على البيانات أولاً
شاهد الآن منظر
تسليط الضوء 13:38
تسريع المعجزات - كيف تُدمج شركة سانوفي الذكاء الاصطناعي لتقليص مدة تطوير الأدوية بشكل كبير
صورة مصغرة لشركة سانوفي
شاهد الآن منظر
تسليط الضوء 10:35
حدث تحول جوهري في مركز ثقل البيانات
شاهد الآن منظر
تسليط الضوء 14:21
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
شاهد الآن منظر
تسليط الضوء 12:!3
لا يمكنك بناء خطوط الأنابيب أو المستودعات أو منصات الذكاء الاصطناعي بدون معرفة تجارية
شاهد الآن منظر
تسليط الضوء 47:42
الأمن السيبراني – حيث يقوم القادة بالشراء والبناء والشراكة
ريحان جليل
شاهد الآن منظر
تسليط الضوء 27:29
بناء ذكاء اصطناعي آمن باستخدام Databricks و Gencore
ريحان جليل
شاهد الآن منظر
تسليط الضوء 46:02
بناء ذكاء اصطناعي آمن للمؤسسات: خارطة طريق عملية
شاهد الآن منظر
أحدث
Securiti أعلنت شركة أكسنتشر عن اختيارها شريك العام لعام 2025 في مجال أمن البيانات والذكاء الاصطناعي. عرض المزيد
Securiti أعلنت شركة .ai عن اختيار شركة أكسنتشر كشريك العام لعام 2025
في إطار الاحتفال المستمر بالتعاون المؤثر في DataAI Security ، Securiti منحت شركة .ai، التابعة لشركة Veeam، شركة Accenture لقب شريك العام لعام 2025....
عرض المزيد
نقدم لكم قائد العملاء
إن وعود وكلاء الذكاء الاصطناعي مذهلة - فالأنظمة الذكية التي تتخذ القرارات، وتستخدم الأدوات، وتؤتمت سير العمل المعقد، تعمل كمضاعفات قوة لكل معرفة...
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ قانون حماية خصوصية المستهلك في كاليفورنيا؟ عرض المزيد
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ القانون؟
يمكن للشركات أن تستفيد من بعض الدروس الحيوية من أكبر إجراء إنفاذي تم اتخاذه مؤخراً في تاريخ قانون خصوصية المستهلك في كاليفورنيا (CCPA). Securiti مدونة 's تغطي جميع التفاصيل المهمة التي يجب معرفتها.
عرض المزيد
الذكاء الاصطناعي وقانون HIPAA: ما يعنيه وكيفية أتمتة الامتثال
تعرّف على كيفية تطبيق قانون قابلية نقل التأمين الصحي والمساءلة (HIPAA) على الذكاء الاصطناعي في تأمين المعلومات الصحية المحمية. تعلّم كيف...
تنسيق الموافقة من أجل الذكاء الاصطناعي الآمن عرض المزيد
تنسيق الموافقة من أجل الذكاء الاصطناعي الآمن
اطلع على الورقة البيضاء وتعرف على كيفية تفعيل الموافقة عبر البيانات والذكاء الاصطناعي العام من خلال إطار عمل عملي وضوابط قابلة للتنفيذ وخارطة طريق للتنفيذ لمدة 30/60/90 يومًا.
عرض المزيد
قائمة التحقق من جاهزية الامتثال لقوانين الخصوصية لعام 2026
اطلع على الورقة البيضاء للحصول على دليل عملي لتعزيز جاهزية الخصوصية، والذي يتضمن رؤى رئيسية، وقائمة التحقق من الامتثال للخصوصية لعام 2026، وكيفية تطبيق ذلك عمليًا...
DataAI Security للبيع بالتجزئة عرض المزيد
DataAI Security للبيع بالتجزئة
قم بتنزيل الموجز واستكشف كيف يمكن لتجار التجزئة توسيع نطاق استخدام البيانات والذكاء الاصطناعي بشكل آمن باستخدام Securiti مركز قيادة DataAI وحماية البيانات الحساسة وإدارة المخاطر...
الاتجاهات الناشئة في مجال أمن الذكاء الاصطناعي لعام 2026 عرض المزيد
الاتجاهات الناشئة في مجال أمن الذكاء الاصطناعي لعام 2026
Securiti يقدم أحدث رسم بياني من الشركة لقادة الأمن شرحًا تفصيليًا لجميع اتجاهات أمن الذكاء الاصطناعي الناشئة لعام 2026 لمساعدتهم على التقييم والتخطيط...
عرض المزيد
تخلص من مخاطر البيانات في الذكاء الاصطناعي
تعرف على كيفية إعداد بيانات المؤسسة لاعتماد Gemini Enterprise بشكل آمن من خلال الحوكمة الأولية، واكتشاف البيانات الحساسة، وضوابط سياسة ما قبل الفهرسة.
عرض المزيد
دليل الحصول على شهادة HITRUST
Securiti يُعد الكتاب الإلكتروني دليلاً عملياً للحصول على شهادة HITRUST، ويغطي كل شيء بدءاً من اختيار i1 مقابل r2 ونطاق الأنظمة وصولاً إلى إدارة خطط العمل والتخطيط...
ما هو
جديد