الإعلان عن Agent Commander - أول حل متكامل من Veeam + Securiti .ai تمكين توسيع نطاق وكلاء الذكاء الاصطناعي الآمنين

منظر

جولة فيمون 2026 - البيانات والذكاء الاصطناعي يتلاقيان من أجل عصر الوكلاء

منظر

نظرة عامة على مشروع قانون الجمعية العامة رقم 2885 في كاليفورنيا بشأن الذكاء الاصطناعي

المساهمون

أنس بيج

مدير تسويق المنتجات في Securiti

أسواه جاويد

شريك Data Privacy محلل في Securiti

نُشر في 3 أبريل 2025

مقدمة

يستلزم التطور السريع للذكاء الاصطناعي وضع أطر تنظيمية متينة تتصدى لمخاطره وتأثيره على المجتمع. وتُعدّ كاليفورنيا، الرائدة في مجال الأطر التنظيمية، في طليعة الولايات التي تتصدى للمخاطر المرتبطة بالذكاء الاصطناعي.

يتناول مشروع قانون الجمعية العامة لولاية كاليفورنيا رقم 2885 (AB 2885) ، وهو أحد أحدث مبادرات الولاية، تطوير الذكاء الاصطناعي ونشره وتنظيمه على وجه التحديد. ويهدف هذا القانون التشريعي إلى توحيد تعريف "الذكاء الاصطناعي" في مختلف قوانين كاليفورنيا. ويُعدّ هذا الأمر بالغ الأهمية نظرًا للنمو الهائل الذي يشهده قطاع الذكاء الاصطناعي وتزايد تطبيقاته في الحياة اليومية. وقد عدّل مشروع القانون قانون الأعمال والمهن ، وقانون التعليم ، وقانون الحكومة فيما يتعلق بالذكاء الاصطناعي . وقد أقرّ وزير الخارجية مشروع القانون AB 2885 في 28 سبتمبر 2024.

يتناول هذا الدليل بالتفصيل التعريفات الرئيسية الواردة في القانون AB 2885، والتعديلات، والأحكام الرئيسية، والآثار المترتبة على الشركات، وكيفية تطبيقها. Securiti يمكن أن يساعد ذلك في ضمان الامتثال السريع.

ثانيًا: التعريفات الرئيسية

عدّل القانون AB 2885 قانون الأعمال والمهن، وقانون التعليم، وقانون الحكومة فيما يتعلق بالذكاء الاصطناعي للتعريفات التالية:

أ. الذكاء الاصطناعي

"الذكاء الاصطناعي" يعني نظامًا مصممًا أو قائمًا على الآلة يختلف في مستوى استقلاليته ويمكنه، لأهداف صريحة أو ضمنية، أن يستنتج من المدخلات التي يتلقاها كيفية توليد مخرجات يمكن أن تؤثر على البيئات المادية أو الافتراضية.

ب. نظام اتخاذ القرار الآلي

يُقصد بـ"نظام اتخاذ القرار الآلي" عملية حسابية مستمدة من التعلم الآلي، أو النمذجة الإحصائية، أو تحليل البيانات، أو الذكاء الاصطناعي، تُصدر مخرجات مبسطة، تشمل درجة أو تصنيفًا أو توصية، تُستخدم لمساعدة أو استبدال عملية اتخاذ القرار البشري التقديرية، وتؤثر بشكل ملموس على الأفراد. ولا يشمل "نظام اتخاذ القرار الآلي" مرشح البريد الإلكتروني العشوائي، أو جدار الحماية، أو برامج مكافحة الفيروسات، أو أدوات إدارة الهوية والوصول، أو الآلة الحاسبة، أو قاعدة البيانات، أو مجموعة البيانات، أو أي تجميع آخر للبيانات.

ج. المحتوى

يشير مصطلح "المحتوى" إلى التصريحات أو التعليقات التي يدلي بها المستخدمون، والوسائط التي يتم إنشاؤها أو نشرها أو مشاركتها أو التفاعل معها بأي شكل آخر من قِبل المستخدمين على خدمة أو تطبيق عبر الإنترنت. ولا يشمل ذلك الوسائط التي يتم وضعها على خدمة أو تطبيق حصراً لأغراض التخزين السحابي أو نقل الملفات أو التعاون في الملفات.

د. التزييف العميق

"التزييف العميق" يعني المحتوى الصوتي أو المرئي، الذي يتم إنشاؤه أو التلاعب به بواسطة الذكاء الاصطناعي، والذي من شأنه أن يبدو زائفًا على أنه أصلي أو حقيقي ويتضمن تصويرًا لأشخاص يبدو أنهم يقولون أو يفعلون أشياء لم يقولوها أو يفعلوها دون موافقتهم.

هـ. تزوير المحتوى الرقمي

"تزوير المحتوى الرقمي" يعني استخدام التقنيات، بما في ذلك الذكاء الاصطناعي وتقنيات التعلم الآلي، لتلفيق أو التلاعب بالمحتوى الصوتي أو المرئي أو النصي بقصد التضليل.

و. مصدر المحتوى الرقمي

"أصل المحتوى الرقمي" يعني التسلسل الزمني القابل للتحقق للجزء الأصلي من المحتوى الرقمي، مثل الصورة أو الفيديو أو التسجيل الصوتي أو المستند الإلكتروني.

ز. نظام اتخاذ القرارات الآلي عالي المخاطر

"نظام اتخاذ القرارات الآلي عالي المخاطر" يعني نظام اتخاذ القرارات الآلي الذي يستخدم لمساعدة أو استبدال القرارات التقديرية البشرية التي لها تأثير قانوني أو تأثير كبير مماثل، بما في ذلك القرارات التي تؤثر بشكل مادي على الوصول إلى السكن أو أماكن الإقامة أو الموافقة عليها، والتعليم، والتوظيف، والائتمان، والرعاية الصحية، والعدالة الجنائية.

ثالثًا: وكالة العمليات الحكومية

يُحدد القسم 4 من مشروع القانون AB 2885 التعديلات التي أُدخلت على قانون الحكومة. وينص القانون على إنشاء وكالة عمليات حكومية تابعة لوزير العمليات الحكومية، الذي يُكلف بتقييم آثار ومخاطر تقنيات التزييف العميق وتزوير المحتوى الرقمي على حكومة ولاية كاليفورنيا، والشركات العاملة فيها، وسكانها. وسيشمل التقييم ما يلي:

  • انتشار تقنية التزييف العميق على نطاق واسع وما يرتبط بها من مخاطر تتعلق بالخصوصية.
  • الآثار المحتملة لهذه التقنيات على الخصوصية وتأثير تقنيات تزوير المحتوى الرقمي على المشاركة المدنية، بما في ذلك تأثيرها على الناخبين.
  • الآثار القانونية المحيطة بهذه التقنيات.
  • أفضل الممارسات للتخفيف من المخاطر، بما في ذلك جدوى اعتماد معيار لأصل المحتوى الرقمي لمكافحة التزوير والتزييف العميق.

يهدف هذا التقييم إلى تعزيز الخصوصية والأمان والثقة في المحتوى الرقمي. بالإضافة إلى ذلك، كُلِّف وزير العمليات الحكومية بوضع خطة تتضمن ما يلي:

  • دراسة جدوى وتحديات تطوير معايير تحديد مصدر المحتوى الرقمي للدوائر الحكومية.
  • تعزيز التدقيق في عمليات التزوير الرقمي لصالح شركات الإنترنت والصحفيين ومنظمات الرقابة والجمهور.
  • تطوير آليات لمنشئي المحتوى للتحقق من صحة الوسائط الأصلية والتلاعبات غير الخادعة باستخدام التشفير.
  • تطوير أو تحديد أدوات للجمهور للتحقق من صحة وسائل الإعلام مع الحفاظ على الخصوصية والحريات المدنية.

تهدف هذه الخطة إلى تحسين الثقة في المحتوى الرقمي مع حماية الخصوصية الشخصية.

تقرير

يتعين على وزير العمليات الحكومية تقديم تقرير إلى المجلس التشريعي بحلول الأول من أكتوبر/تشرين الأول 2024، يُقيّم فيه التطبيقات والمخاطر المحتملة لتقنية التزييف العميق على الشركات في كاليفورنيا وحكومة الولاية. ويتضمن هذا التقرير خطة منسقة وتوصيات لتعديل تعريفات تزوير المحتوى الرقمي والتزييف العميق. ويجب أن يلتزم التقرير بأحكام المادة 9795 من قانون الحكومة. وينتهي العمل بهذا البند في الأول من يناير/كانون الثاني 2025، ما لم يمدده أي تشريع لاحق.

رابعاً: قسم التكنولوجيا

ينص مشروع القانون AB 2885، من خلال تعديل قانون الحكومة، على إنشاء وزارة التكنولوجيا لإجراء جرد تفصيلي لجميع أنظمة اتخاذ القرارات الآلية عالية المخاطر التي تم اقتراح استخدامها أو تطويرها أو شرائها من قبل أي وكالة حكومية، أو التي تستخدمها أو تطورها أو تشتريها حاليًا أي وكالة حكومية، وذلك بحلول 1 سبتمبر 2024 كحد أقصى، بالتنسيق مع الهيئات المشتركة بين الوكالات الأخرى حسبما تراه الوزارة مناسبًا. ويجب أن يشمل هذا الجرد ما يلي:

  • القرارات التي يمكن لنظام اتخاذ القرارات الآلي اتخاذها أو دعمها والفوائد المرجوة منها.
  • نتائج البحث التي تقيّم فعالية ومزايا تطبيقات وبدائل نظام اتخاذ القرار الآلي.
  • فئات البيانات والمعلومات الشخصية المستخدمة.
  • تدابير تخفيف المخاطر، بما في ذلك مقاييس الأداء، وضوابط الأمن السيبراني، وضوابط الخصوصية، وتقييمات المخاطر.
  • إجراءات الطعن في القرارات التي تتخذها هذه الأنظمة.

يهدف هذا إلى ضمان الشفافية والأمن والإنصاف في استخدام الذكاء الاصطناعي من قبل الكيانات الحكومية.

تقرير

يتعين على وزارة التكنولوجيا تقديم تقرير شامل عن أنظمة اتخاذ القرارات الآلية عالية المخاطر إلى لجنة مجلس الشيوخ المعنية بالتنظيم الحكومي ولجنة الجمعية العامة المعنية بالخصوصية وحماية المستهلك بحلول 1 يناير 2025، وفي كل عام بعد ذلك. وينتهي هذا الالتزام بتقديم التقارير في 1 يناير 2029. ووفقًا للمادة 9795 من قانون الحكومة، يجب أن تلتزم جميع التقارير ببروتوكولات التقديم الصحيحة للتقارير التشريعية.

خامساً: الأحكام الرئيسية بموجب القانون AB 2885

تتضمن الأحكام الرئيسية لمشروع القانون AB 2885 ما يلي:

أ. جرد أنظمة الذكاء الاصطناعي عالية المخاطر

يتعين على وزارة التكنولوجيا تحديد الجهات الحكومية التي تستخدم "أنظمة الذكاء الاصطناعي عالية المخاطر" وإدراجها في قائمة جرد. تُصنف هذه الأنظمة على أنها عالية المخاطر نظرًا لقدرتها على التأثير بشكل كبير على الأفراد أو الجماعات، لا سيما في مجالات مثل السلامة العامة والتوظيف والرعاية الصحية. والهدف من ذلك هو ضمان إلمام الجهات الحكومية التام بتطبيقات الذكاء الاصطناعي وآثاره المجتمعية المحتملة.

ستقوم إدارة التكنولوجيا بتقييم كيفية اتخاذ هذه الأنظمة للقرارات وضمان استخدامها بمسؤولية. وسيشمل الجرد أوصافًا لأنظمة الذكاء الاصطناعي، وتطبيقاتها المقصودة، وأي بيانات مستخدمة في تدريبها أو تشغيلها.

ب. المحتوى المُزيّف بتقنية التزييف العميق والذكاء الاصطناعي المُتلاعب

يُسلّط مشروع القانون AB 2885 الضوء على المخاوف بشأن المحتوى التلاعبي المُولّد بواسطة الذكاء الاصطناعي، مثل تقنية التزييف العميق، والذي يُشكّل خطرًا كبيرًا على السلامة العامة والخصوصية. ويقترح مشروع القانون AB 2885 آليات للكشف عن استخدام المحتوى الخادع المُولّد بواسطة الذكاء الاصطناعي في العمليات الحكومية والحدّ منه.

ج. إعانات التنمية الاقتصادية

تنص المادة 53083.1 من قانون الحكومة، بصيغتها المعدلة، على إلزام السلطات المحلية بتقديم معلومات شاملة للجمهور قبل منح إعانات مراكز التوزيع التابعة للمستودعات لأغراض التنمية الاقتصادية. وتشمل هذه المعلومات بيانات المستفيد، وجدول الإعانة، وفرص العمل المتوقعة، والأجور، والإيرادات الضريبية.

يتعين على الوكالات أيضاً عقد جلسات استماع عامة سنوية وتقديم تقارير عن تأثيرات الذكاء الاصطناعي على التوظيف، ولا سيما الأتمتة المرتبطة به. ويُحظر إبرام اتفاقيات عدم الإفصاح، ويتعين على الوكالات تقديم تقاريرها إلى مكتب الحاكم. تضمن هذه الإجراءات الشفافية والمساءلة فيما يتعلق بالإعانات العامة.

سادساً: آثار القانون AB 2885

يُدخل مشروع القانون AB 2885 آثاراً متعددة على مختلف الكيانات المتأثرة بأحكامه.

أ. للوكالات الحكومية

ينص مشروع القانون على إلزام الوكالات الحكومية بإجراء عمليات تدقيق شاملة للتحيز والنزاهة، وتقييم أنظمة الذكاء الاصطناعي لديها، وضمان شفافية استخدامها. ورغم أن هذه الخطوات قد تؤدي إلى زيادة النفقات الإدارية، إلا أنها تهدف إلى ضمان الاستخدام المناسب والأخلاقي للذكاء الاصطناعي.

ب. لسكان كاليفورنيا

يحمي هذا الإجراء الأفراد من الأحكام الغامضة أو المتحيزة الصادرة عن الذكاء الاصطناعي. كما يمنحهم الحق في معرفة كيفية تأثير أدوات الذكاء الاصطناعي عليهم والقدرة على الاعتراض على عملية صنع القرار في أنظمة الذكاء الاصطناعي.

ج. لمطوري التكنولوجيا

يجب على مطوري أنظمة الذكاء الاصطناعي الالتزام بالمبادئ التوجيهية المتطورة بشأن الشفافية، والحد من التحيز، والاعتبارات الأخلاقية. وقد يؤدي عدم الالتزام إلى تدقيق أكبر في نماذج الذكاء الاصطناعي التي ينتجها المطورون، وربما يؤثر على تصميم تقنيات الذكاء الاصطناعي المستقبلية.

سابعاً: كيف Securiti يمكن المساعدة

Securiti هو رائد في Data Command Center منصة مركزية تُمكّن من الاستخدام الآمن للبيانات والذكاء الاصطناعي العام. توفر هذه المنصة ذكاءً موحدًا للبيانات، وضوابط، وتنسيقًا عبر بيئات سحابية هجينة متعددة. وتعتمد عليها كبرى الشركات العالمية. Securiti 's Data Command Center لأغراض أمن البيانات والخصوصية والحوكمة والامتثال.

Securiti تُزيل مجموعة Genstack AI Suite من GenStack التعقيدات والمخاطر الكامنة في دورة حياة الذكاء الاصطناعي العام، مما يُمكّن المؤسسات من استخدام بياناتها المنظمة وغير المنظمة بسرعة وأمان في أي مكان مع أي نظام ذكاء اصطناعي وأنظمة إدارة التعلم. توفر المجموعة ميزات مثل استيعاب البيانات واستخراجها بشكل آمن، وإخفاء البيانات، وإخفاء الهوية، والتنقيح، بالإضافة إلى إمكانيات الفهرسة والاسترجاع. علاوة على ذلك، تُسهّل المجموعة تهيئة أنظمة إدارة التعلم للأسئلة والأجوبة، وضوابط البيانات المدمجة للحوكمة والخصوصية والأمان، وجدران الحماية لأنظمة إدارة التعلم لتمكين التبني الآمن للذكاء الاصطناعي العام.

اطلب عرضًا توضيحيًا لمعرفة المزيد.

الأسئلة الشائعة

يُعدّ مشروع القانون AB 2885 قانونًا في ولاية كاليفورنيا يُرسي تعريفًا موحدًا للذكاء الاصطناعي ويضع مبادئ توجيهية لكيفية استخدام الوكالات الحكومية لأنظمة الذكاء الاصطناعي. ويهدف إلى تحسين الوضوح والرقابة والمساءلة في تطوير ونشر الذكاء الاصطناعي.

إذا كان نظام الذكاء الاصطناعي الخاص بك يستخدم من قبل وكالات ولاية كاليفورنيا، أو يدعمها بشكل غير مباشر، فيجب عليك الامتثال للقانون AB 2885. وهذا يشمل القدرة على توثيق كيفية عمل النظام، وكيفية معالجة البيانات، وكيفية الحفاظ على ضوابط المخاطر والشفافية.

بموجب القانون AB 2885، يجب على الوكالات الحكومية ما يلي:

  • احتفظ بقائمة بجميع أنظمة الذكاء الاصطناعي وأنظمة اتخاذ القرارات الآلية التي يستخدمونها
  • تحديد الأنظمة التي تعتبر عالية المخاطر، وخاصة تلك التي تؤثر على حقوق الناس أو وصولهم إلى الخدمات
  • قم بتقييم هذه الأنظمة من حيث التحيز والدقة والإنصاف والشفافية
  • الإبلاغ عن النتائج لدعم المساءلة والتوعية العامة

تساعد هذه المتطلبات مجتمعة على ضمان استخدام الذكاء الاصطناعي بما يتماشى مع المعايير الأخلاقية ومعايير الخصوصية.

قم بتحليل هذه المقالة باستخدام الذكاء الاصطناعي

تظهر المطالبات في أدوات الذكاء الاصطناعي التابعة لجهات خارجية.
انضم إلى قائمتنا البريدية

احصل على أحدث المعلومات والتحديثات القانونية والمزيد مباشرةً في بريدك الإلكتروني



قصص أخرى قد تهمك
مقاطع فيديو
عرض المزيد
ريحان جليل، من شركة Veeam، يتحدث عن Agent Commander: theCUBE + NYSE Wired: قادة الأمن السيبراني
بعد استحواذ شركة Veeam على Securiti يمثل إطلاق برنامج Agent Commander خطوة هامة نحو مساعدة المؤسسات على تبني وكلاء الذكاء الاصطناعي بثقة أكبر. في...
عرض المزيد
تخفيف مخاطر قائمة OWASP لأهم 10 مخاطر لتطبيقات ماجستير القانون 2025
أحدث الذكاء الاصطناعي التوليدي (GenAI) تحولاً جذرياً في طريقة عمل الشركات وتوسعها ونموها. يوجد تطبيق للذكاء الاصطناعي لكل غرض، بدءاً من زيادة إنتاجية الموظفين وصولاً إلى تبسيط العمليات...
عرض المزيد
أفضل 6 DSPM حالات الاستخدام
مع ظهور الذكاء الاصطناعي التوليدي (GenAI)، أصبحت البيانات أكثر ديناميكية. يتم توليد بيانات جديدة بوتيرة أسرع من أي وقت مضى، ونقلها إلى أنظمة وتطبيقات متنوعة...
عرض المزيد
قانون الخصوصية في كولورادو (CPA)
ما هو قانون خصوصية كولورادو؟ قانون خصوصية كولورادو هو قانون شامل لحماية الخصوصية، تم توقيعه في 7 يوليو 2021. وقد وضع معايير جديدة لحماية البيانات الشخصية...
عرض المزيد
Securiti لمساعد الطيار في البرمجيات كخدمة (SaaS)
تسريع اعتماد Copilot بأمان وثقة: تتطلع المؤسسات إلى اعتماد Microsoft 365 Copilot لزيادة الإنتاجية والكفاءة. ومع ذلك، تظل المخاوف الأمنية، مثل حماية البيانات...
عرض المزيد
أهم عشرة اعتبارات لاستخدام البيانات غير المهيكلة بأمان مع الذكاء الاصطناعي العام
نسبة مذهلة تصل إلى 90% من بيانات المؤسسات غير منظمة. وتُستخدم هذه البيانات بسرعة لتغذية تطبيقات الذكاء الاصطناعي من الجيل الجديد، مثل روبوتات الدردشة والبحث المدعوم بالذكاء الاصطناعي.
عرض المزيد
جينكور للذكاء الاصطناعي: بناء أنظمة ذكاء اصطناعي آمنة وعالية الجودة للمؤسسات في دقائق
مع تبني المؤسسات للذكاء الاصطناعي التوليدي، تواجه فرق البيانات والذكاء الاصطناعي العديد من العقبات: ربط مصادر البيانات غير المهيكلة والمهيكلة بشكل آمن، والحفاظ على الضوابط والحوكمة المناسبة،...
عرض المزيد
كيفية التعامل مع قانون حماية خصوصية المستهلك في كاليفورنيا: رؤى أساسية للشركات
ما هو قانون حقوق الخصوصية في كاليفورنيا (CPRA)؟ هو تشريع ولاية كاليفورنيا الذي يهدف إلى حماية خصوصية سكانها الرقمية. وقد دخل حيز التنفيذ في يناير...
عرض المزيد
التكيف مع التحول: الانتقال إلى معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS) الإصدار 4.0
ما هو معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS)؟ هو مجموعة من معايير الأمان لضمان المعالجة والتخزين الآمنين للبيانات، و...
عرض المزيد
تأمين البيانات والذكاء الاصطناعي: دليل إدارة الثقة والمخاطر والأمن (TRiSM)
أثارت المخاطر الأمنية المتزايدة للذكاء الاصطناعي قلق 48% من مسؤولي أمن المعلومات حول العالم. انضموا إلى هذه الجلسة الرئيسية للتعرف على دليل عملي لتمكين الثقة في الذكاء الاصطناعي، وإدارة المخاطر،...

جلسات حوارية مميزة

تسليط الضوء
الاستعداد للمستقبل لمحترفي الخصوصية
شاهد الآن منظر
تسليط الضوء 50:52
من البيانات إلى النشر: حماية الذكاء الاصطناعي المؤسسي من خلال الأمن والحوكمة
شاهد الآن منظر
تسليط الضوء 11:29
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
شاهد الآن منظر
تسليط الضوء 11:18
إعادة هيكلة تمويل العقارات - كيف تُجري شركة ووكر آند دنلوب تحديثًا لمحفظتها الاستثمارية البالغة 135 مليار دولار أمريكي بالاعتماد على البيانات أولاً
شاهد الآن منظر
تسليط الضوء 13:38
تسريع المعجزات - كيف تُدمج شركة سانوفي الذكاء الاصطناعي لتقليص مدة تطوير الأدوية بشكل كبير
صورة مصغرة لشركة سانوفي
شاهد الآن منظر
تسليط الضوء 10:35
حدث تحول جوهري في مركز ثقل البيانات
شاهد الآن منظر
تسليط الضوء 14:21
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
شاهد الآن منظر
تسليط الضوء 12:!3
لا يمكنك بناء خطوط الأنابيب أو المستودعات أو منصات الذكاء الاصطناعي بدون معرفة تجارية
شاهد الآن منظر
تسليط الضوء 47:42
الأمن السيبراني – حيث يقوم القادة بالشراء والبناء والشراكة
ريحان جليل
شاهد الآن منظر
تسليط الضوء 27:29
بناء ذكاء اصطناعي آمن باستخدام Databricks و Gencore
ريحان جليل
شاهد الآن منظر
أحدث
عرض المزيد
بناء ذكاء اصطناعي سيادي باستخدام HPE Private Cloud AI و Veeam Securiti Gencore AI
كيف تُساهم تقنيات الذكاء الاصطناعي في السحابة الخاصة من HPE، وتسريع NVIDIA، وVeeam؟ Securiti يدعم نظام Gencore AI الذكاء الاصطناعي الآمن والمُدار للمؤسسات مع تطبيق السياسات عبر سير العمل RAG والمساعدين والوكلاء.
عرض المزيد
Securiti أعلنت شركة .ai عن اختيار شركة أكسنتشر كشريك العام لعام 2025
في إطار الاحتفال المستمر بالتعاون المؤثر في DataAI Security ، Securiti منحت شركة .ai، التابعة لشركة Veeam، شركة Accenture لقب شريك العام لعام 2025....
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ قانون حماية خصوصية المستهلك في كاليفورنيا؟ عرض المزيد
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ القانون؟
يمكن للشركات أن تستفيد من بعض الدروس الحيوية من أكبر إجراء إنفاذي تم اتخاذه مؤخراً في تاريخ قانون خصوصية المستهلك في كاليفورنيا (CCPA). Securiti مدونة 's تغطي جميع التفاصيل المهمة التي يجب معرفتها.
عرض المزيد
الذكاء الاصطناعي وقانون HIPAA: ما يعنيه وكيفية أتمتة الامتثال
تعرّف على كيفية تطبيق قانون قابلية نقل التأمين الصحي والمساءلة (HIPAA) على الذكاء الاصطناعي في تأمين المعلومات الصحية المحمية. تعلّم كيف...
عرض المزيد
الذكاء الاصطناعي الوكيل والخصوصية: إدارة وكلاء الذكاء الاصطناعي المستقلين في المؤسسات
تعرّف على كيفية إدارة الذكاء الاصطناعي الوكيل في المؤسسة. إدارة مخاطر الخصوصية، والتحكم في الوصول إلى البيانات، وإنفاذ السياسات، وضمان الامتثال لوكلاء الذكاء الاصطناعي المستقلين.
عرض المزيد
خيارات الانسحاب الدائمة: سحب الموافقة عبر التسويق، والبرمجيات كخدمة، والذكاء الاصطناعي العام
Securiti تقدم الورقة البيضاء الخاصة بـ [اسم الشركة] نظرة عامة مفصلة حول متطلبات سحب الموافقة المختلفة في مجالات التسويق، والبرمجيات كخدمة (SaaS)، والذكاء الاصطناعي العام (GenAI). اقرأ الآن لمعرفة المزيد.
عرض المزيد
ROT Data Minimization
التخلص من البيانات الزائدة والقديمة والتافهة (ROT) لتحسين دقة الذكاء الاصطناعي، وتقليل تكاليف التخزين، وتقليل مخاطر الأمن والامتثال على نطاق واسع.
عرض المزيد
قائد العملاء: ملخص الحل
تعرّف على كيفية قيام Agent Commander باكتشاف وكلاء الذكاء الاصطناعي، وحماية بيانات المؤسسة من خلال ضوابط التشغيل، وتصحيح أخطاء الذكاء الاصطناعي - مما يتيح اعتماد الذكاء الاصطناعي بشكل آمن ومتوافق مع المعايير في...
عرض المزيد
تخلص من مخاطر البيانات في الذكاء الاصطناعي
تعرف على كيفية إعداد بيانات المؤسسة لاعتماد Gemini Enterprise بشكل آمن من خلال الحوكمة الأولية، واكتشاف البيانات الحساسة، وضوابط سياسة ما قبل الفهرسة.
عرض المزيد
دليل الحصول على شهادة HITRUST
Securiti يُعد الكتاب الإلكتروني دليلاً عملياً للحصول على شهادة HITRUST، ويغطي كل شيء بدءاً من اختيار i1 مقابل r2 ونطاق الأنظمة وصولاً إلى إدارة خطط العمل والتخطيط...
ما هو
جديد