الإعلان عن Agent Commander - أول حل متكامل من Veeam + Securiti .ai تمكين توسيع نطاق وكلاء الذكاء الاصطناعي الآمنين

منظر

ما يجب أن تعرفه عن قانون الذكاء الاصطناعي في كولورادو

تشغيل الفيديو
المساهمون

أنس بيج

مدير تسويق المنتجات في Securiti

محمد إسماعيل

مساعد Data Privacy محلل في Securiti

عثمان طارق

محلل أول للامتثال العالمي في Securiti

CIPP/US

نُشر في 27 يونيو 2024

مشروع قانون مجلس الشيوخ رقم 24-205 في ولاية كولورادو، والمعروف أيضًا باسم قانون الذكاء الاصطناعي في كولورادو ، هو تشريع شامل في مجال الذكاء الاصطناعي يهدف إلى تنظيم مطوري ومستخدمي أنظمة الذكاء الاصطناعي عالية المخاطر. والأهم من ذلك، أنه الأول من نوعه في الولايات المتحدة. وبإقراره لهذا القانون، وضعت كولورادو نفسها في طليعة الجهود المبذولة لمعالجة المخاطر المحتملة المرتبطة بأنظمة الذكاء الاصطناعي.

يُفرض هذا القانون مجموعة من المسؤوليات على الجهات المعنية بتطوير ونشر قدرات الذكاء الاصطناعي، بما في ذلك الشفافية وحماية المستهلك. ويتشابه هذا القانون، في اعتماده على نهج قائم على المخاطر، مع قانون الذكاء الاصطناعي للاتحاد الأوروبي في عدة جوانب.

على أي حال، ونظرًا لكونه أول قانون من نوعه يتعلق بالذكاء الاصطناعي في الولايات المتحدة، فمن المؤكد أنه سيُلهم قوانين أخرى مماثلة قد تتبعه. لذا، فإن فهم تفاصيل قانون كولورادو للذكاء الاصطناعي قد يُمهد الطريق للامتثال لتلك القوانين في المستقبل.

تابع القراءة لمعرفة المزيد.

من هم الملزمون بالامتثال للقانون؟

ينطبق هذا القانون على كلٍّ من مطوّري ومستخدمي أنظمة الذكاء الاصطناعي عالية المخاطر، ويتضمن التزاماتٍ عليهم. يُعرَّف المطوّر بأنه الشخص الذي يمارس أعمالاً تجارية في كولورادو، ويقوم بتطوير نظام ذكاء اصطناعي أو تعديله بشكلٍ جوهريٍّ ومتعمّد. أما المستخدم فهو الشخص الذي يمارس أعمالاً تجارية في كولورادو، ويقوم بنشر أو استخدام نظام ذكاء اصطناعي عالي المخاطر.

بخلاف قوانين الخصوصية في الولايات الأمريكية، لا يوجد حد أدنى صريح لتطبيق قانون الذكاء الاصطناعي في كولورادو.

تعريفات المصطلحات الرئيسية

فيما يلي بعض التعريفات الرئيسية كما وردت وناقشت في النص القانوني الرسمي للقانون:

التمييز الخوارزمي

"التمييز الخوارزمي" يعني أي حالة يؤدي فيها استخدام الذكاء الاصطناعي إلى معاملة تفاضلية غير قانونية أو تأثير يضر بفرد أو مجموعة من الأفراد على أساس عمرهم الفعلي أو المتصور، أو لونهم، أو إعاقتهم، أو أصلهم العرقي، أو معلوماتهم الجينية، أو إتقانهم المحدود للغة الإنجليزية، أو أصلهم القومي، أو عرقهم، أو دينهم، أو صحتهم الإنتاجية، أو جنسهم، أو وضعهم كمحاربين قدامى، أو أي تصنيف آخر محمي بموجب قوانين ولاية كولورادو أو القوانين الفيدرالية.

ومع ذلك، فإن التمييز الخوارزمي لا يشمل ما يلي:

  • عرض أو ترخيص أو استخدام نظام ذكاء اصطناعي عالي المخاطر من قبل مطور أو ناشر لغرض وحيد هو:
    • إجراء المطور أو الناشر لاختبارات ذاتية لتحديد التمييز أو التخفيف من حدته أو منعه، أو لضمان الامتثال لقوانين الولاية أو القوانين الفيدرالية؛ أو
    • توسيع قاعدة المتقدمين أو العملاء أو المشاركين لزيادة التنوع أو معالجة التمييز التاريخي.
  • فعل أو امتناع عن فعل من قبل أو نيابة عن نادٍ خاص أو مؤسسة أخرى غير مفتوحة للجمهور في الواقع، كما هو منصوص عليه في الباب الثاني من "قانون الحقوق المدنية لعام 1964" الفيدرالي.

نظام الذكاء الاصطناعي

"نظام الذكاء الاصطناعي" يعني أي نظام قائم على الآلة، والذي يستنتج من المدخلات التي يتلقاها النظام، لأي هدف صريح أو ضمني، كيفية توليد مخرجات، بما في ذلك المحتوى أو القرارات أو التنبؤات أو التوصيات، التي يمكن أن تؤثر على البيئات المادية أو الافتراضية.

قرار ذو تبعات

القرار التبعي يعني القرار الذي له تأثير قانوني جوهري أو تأثير مماثل ذو أهمية على توفير أو رفض أي منتج أو خدمة لأي مستهلك، أو على تكلفة أو شروط:

  • الالتحاق بالتعليم أو فرصة التعليم؛
  • العمل أو فرصة العمل؛
  • خدمة مالية أو خدمة إقراض؛
  • خدمة حكومية أساسية؛
  • خدمات الرعاية الصحية؛
  • السكن؛
  • التأمين؛ أو
  • خدمة قانونية.

مستهلك

"المستهلك" يعني فرداً مقيماً في ولاية كولورادو.

انشر

"النشر" يعني استخدام نظام ذكاء اصطناعي عالي المخاطر.

نظام ذكاء اصطناعي عالي المخاطر

يشير مصطلح "نظام الذكاء الاصطناعي عالي المخاطر" إلى أي نظام ذكاء اصطناعي، عند نشره، يتخذ قرارًا مصيريًا أو يكون عاملًا جوهريًا في اتخاذه.

لكنها لا تشمل ما يلي:

  • نظام الذكاء الاصطناعي إذا كان الهدف منه:
    • أداء مهمة إجرائية محددة؛
    • يهدف هذا النظام إلى رصد أنماط اتخاذ القرار أو الانحرافات عن أنماط اتخاذ القرار السابقة، ولا يُقصد به أن يحل محل التقييم البشري الذي تم إجراؤه مسبقًا أو أن يؤثر عليه دون مراجعة بشرية كافية؛ أو
  • التقنيات التالية، إلا في الحالات التي يؤدي فيها نشرها أو استخدامها إلى قرار ذي تبعات:
    • تقنية مكافحة الاحتيال التي لا تستخدم تقنية التعرف على الوجه؛
    • برنامج مكافحة البرامج الضارة؛
    • مضاد للفيروسات؛
    • ألعاب الفيديو المدعومة بالذكاء الاصطناعي؛
    • الآلات الحاسبة؛
    • الأمن السيبراني؛
    • قواعد البيانات؛
    • تخزين البيانات؛
    • جدار الحماية؛
    • تسجيل نطاقات الإنترنت؛
    • يتم تحميل موقع الإنترنت؛
    • التواصل؛
    • تصفية الرسائل المزعجة والمكالمات الآلية؛
    • التدقيق الإملائي؛
    • جداول البيانات؛
    • التخزين المؤقت للويب؛
    • استضافة المواقع الإلكترونية أو أي تقنية مماثلة؛ أو
    • التكنولوجيا التي تتواصل مع المستهلكين باللغة الطبيعية لغرض تزويد المستخدمين بالمعلومات، وتقديم الإحالات، أو التوصيات، والإجابة على الأسئلة، وتخضع لسياسة استخدام مقبولة تحظر إنشاء محتوى تمييزي أو ضار.

التعديل المتعمد والجوهري

"التعديل المتعمد والجوهري" أو "يعدل بشكل متعمد وجوهري" يعني تغييرًا متعمدًا يتم إجراؤه على نظام الذكاء الاصطناعي مما يؤدي إلى أي خطر جديد يمكن التنبؤ به بشكل معقول للتمييز الخوارزمي.

لا يشمل ذلك أي تغيير يتم إجراؤه على نظام ذكاء اصطناعي عالي المخاطر أو أداء نظام ذكاء اصطناعي عالي المخاطر، إذا:

  1. يستمر نظام الذكاء الاصطناعي عالي المخاطر في التعلم بعد أن يصبح نظام الذكاء الاصطناعي عالي المخاطر:
    1. عرضها أو بيعها أو تأجيرها أو ترخيصها أو منحها أو إتاحتها بأي شكل آخر لجهة النشر؛ أو
    2. تم نشرها؛
  2. تم إجراء التغيير على نظام الذكاء الاصطناعي عالي المخاطر نتيجة للتعلم الموصوف أعلاه؛
  3. تم تحديد التغيير مسبقًا من قبل الجهة المنفذة، أو طرف ثالث متعاقد مع الجهة المنفذة، عندما أكملت الجهة المنفذة أو الطرف الثالث تقييمًا أوليًا لنظام الذكاء الاصطناعي عالي المخاطر هذا؛
  4. تم إدراج هذا التغيير في الوثائق الفنية لنظام الذكاء الاصطناعي عالي المخاطر.

عامل جوهري

يشمل "العامل الجوهري" أي استخدام لنظام الذكاء الاصطناعي لإنشاء أي محتوى أو قرار أو تنبؤ أو توصية تتعلق بالمستهلك والتي تستخدم كأساس لاتخاذ قرارات مهمة بشأن المستهلك.

واجبات المطورين

يفرض قانون الذكاء الاصطناعي في كولورادو التزامات صارمة على المطورين لضمان الشفافية وحماية المصلحة العامة. وسيتم تناول هذه الالتزامات بالتفصيل أدناه:

واجب العناية المعقولة لحماية المستهلكين من التمييز الخوارزمي

يجب على مطوري أنظمة الذكاء الاصطناعي عالية المخاطر توخي الحذر المعقول لحماية مستخدميهم من أي مخاطر متوقعة بشكل معقول للتمييز الخوارزمي الناتج عن استخدام نظام الذكاء الاصطناعي عالي المخاطر هذا.

هناك افتراض قابل للدحض بأن المطور قد اتخذ العناية المعقولة إذا امتثل المطور للمتطلبات ذات الصلة من هذا القانون بالإضافة إلى أي متطلبات والتزامات إضافية منصوص عليها في القواعد التي سنها مكتب المدعي العام.

الوثائق المطلوبة التي يجب تقديمها إلى القائمين بالنشر

ما لم يُستثنى من هذا الشرط، فإن مطور نظام الذكاء الاصطناعي عالي المخاطر سيوفر ما يلي لمنفذ النظام أو مطوريه الآخرين:

  • بيان عام يصف الاستخدامات المتوقعة بشكل معقول والاستخدامات الضارة وغير المناسبة المعروفة لنظام الذكاء الاصطناعي عالي المخاطر؛
  • الوثائق التي تقدم تفاصيل عن:
    • أنواع البيانات المستخدمة لتدريب نظام الذكاء الاصطناعي عالي المخاطر؛
    • القيود المعروفة أو المتوقعة بشكل معقول لنظام الذكاء الاصطناعي عالي المخاطر، بالإضافة إلى المخاطر المعروفة أو المتوقعة بشكل معقول للتمييز الخوارزمي عن الاستخدام المقصود لنظام الذكاء الاصطناعي عالي المخاطر؛
    • أهداف نظام الذكاء الاصطناعي عالي المخاطر؛
    • الفوائد والاستخدامات المقصودة لنظام الذكاء الاصطناعي عالي المخاطر؛
    • جميع المعلومات الأخرى ذات الصلة مطلوبة لكي يلتزم المُشغِّل بمتطلبات هذا القانون.
  • الوثائق التي تصف ما يلي:
    • كيف تم تقييم أداء نظام الذكاء الاصطناعي عالي المخاطر بالإضافة إلى تدابير التخفيف من التمييز الخوارزمي التي تم اتخاذها قبل عرض النظام أو بيعه أو تأجيره أو منحه أو إتاحته للجمهور العام؛
    • تدابير إدارة البيانات المستخدمة لتغطية مجموعات بيانات التدريب والتدابير المستخدمة لتقييم مدى ملاءمة مصادر البيانات والتحيزات المحتملة وتدابير التخفيف؛
    • المخرجات المقصودة لنظام الذكاء الاصطناعي عالي المخاطر؛
    • التدابير التي اتخذها المطور للتخفيف من المخاطر المتوقعة للتمييز الخوارزمي الذي قد ينشأ عن نشر نظام الذكاء الاصطناعي عالي المخاطر؛
    • كيف ينبغي استخدام نظام الذكاء الاصطناعي عالي المخاطر ومراقبته عندما يُستخدم لاتخاذ قرار مصيري أو العمل كعامل جوهري فيه.
  • أي وثائق إضافية ضرورية لمساعدة القائم بالنشر في فهم مخرجات وأداء نظام الذكاء الاصطناعي عالي المخاطر بشكل عام، بما في ذلك مخاطره المحتملة للتمييز الخوارزمي.

الوثائق الخاصة بتقييمات الأثر

ما لم يتم إعفاؤه بموجب هذا القانون، فإن المطور الذي يعرض أو يبيع أو يؤجر أو يرخص أو يعطي أو يتيح بأي شكل آخر نظام الذكاء الاصطناعي عالي المخاطر إلى الناشر أو المطورين الآخرين لنظام الذكاء الاصطناعي عالي المخاطر، مطالب بتوفير الوثائق والمعلومات ذات الصلة إلى الناشر أو المطور، بقدر الإمكان، من خلال بطاقات النماذج أو بطاقات مجموعات البيانات أو تقييمات الأثر الأخرى اللازمة للناشر أو أي طرف ثالث يعمل مع الناشر لإكمال تقييم الأثر.

لا يُطلب من المطور الذي يعمل أيضًا كمنفذ لنظام الذكاء الاصطناعي عالي المخاطر إنشاء مثل هذه الوثائق إلا إذا تم تقديم نظام الذكاء الاصطناعي عالي المخاطر إلى كيان غير تابع يعمل كمنفذ.

تفاصيل نظام الذكاء الاصطناعي عالي المخاطر على الموقع الإلكتروني

يجب على المطور نشر بيان على موقعه الإلكتروني أو في قائمة حالات الاستخدام العامة يكون واضحاً وسهل الفهم ويلخص ما يلي:

  • أنواع أنظمة الذكاء الاصطناعي عالية المخاطر التي قام المطور بتطويرها أو تعديلها عمداً أو بشكل كبير والتي تتوفر حالياً للمطورين الآخرين أو القائمين على النشر؛
  • كيف يدير المطور المخاطر المعروفة والمتوقعة بشكل معقول للتمييز الخوارزمي التي قد تنشأ عن تطوير أو تعديل متعمد أو جوهري لأنواع أنظمة الذكاء الاصطناعي عالية المخاطر المستخدمة حاليًا.

يجب تحديث البيان المذكور أعلاه حسب الضرورة لضمان دقته في غضون تسعين يومًا بعد أن يقوم المطور بإجراء أي تعديلات متعمدة أو جوهرية على نظام الذكاء الاصطناعي عالي المخاطر.

إشعار إلى المدعي العام وآخرين

يجب على مطور نظام الذكاء الاصطناعي عالي المخاطر الكشف عن أي مخاطر معروفة أو يمكن توقعها بشكل معقول تتعلق بالتمييز الخوارزمي الناتج عن استخدام نظام الذكاء الاصطناعي عالي المخاطر إلى المدعي العام، وكذلك إلى جهات النشر والمطورين الآخرين المعروفين لنظام الذكاء الاصطناعي عالي المخاطر، وذلك بالطريقة التي يحددها المدعي العام دون تأخير غير مبرر، ولكن في موعد لا يتجاوز تسعين يومًا من التاريخ الذي:

  • يكتشف المطور من خلال الاختبارات والتحليلات المستمرة أن نظام الذكاء الاصطناعي عالي المخاطر الخاص به قد تم نشره وتسبب أو من المحتمل بشكل معقول أن يكون قد تسبب في التمييز الخوارزمي؛
  • يتلقى المطور تقريرًا موثوقًا به من جهة النشر يفيد بأنه تم نشر نظام الذكاء الاصطناعي عالي المخاطر وأدى إلى حالة من التمييز الخوارزمي.

لن تتطلب أي من متطلبات التوثيق المذكورة أعلاه من المطور الكشف عن سر تجاري، أو معلومات محمية من الكشف بموجب قانون الولاية أو القانون الفيدرالي، أو معلومات من شأنها أن تؤدي إلى خطر أمني على المطور.

ابتداءً من 1 فبراير 2026، يجوز للنائب العام إلزام المطور بالكشف عن أي وثائق يُلزمه هذا القانون بالكشف عنها. ويجوز للنائب العام تقييم كل بيان أو وثيقة للتأكد من امتثالها لمتطلبات القانون ذات الصلة. ويجوز للمطور تصنيف أي معلومات أو وثائق مُقدمة بموجب هذا الشرط كسر تجاري أو معلومات ملكية. وفي حال خضوع أي معلومات مُقدمة بموجب هذا التصنيف لامتياز السرية بين المحامي وموكله أو حماية نتاج العمل، فإن ذلك لا يُعد تنازلاً عن هذا الامتياز أو الحماية.

واجبات المُنشرين

واجب العناية المعقولة لحماية المستهلكين من التمييز الخوارزمي

يجب على من يقوم بتشغيل نظام ذكاء اصطناعي عالي المخاطر اتخاذ الاحتياطات والخطوات المناسبة لحماية المستهلكين من أي مخاطر معروفة أو يمكن التنبؤ بها بشكل معقول للتمييز الخوارزمي.

هناك افتراض قابل للدحض بأن من قام بنشر نظام الذكاء الاصطناعي عالي المخاطر قد استخدم العناية المعقولة إذا امتثل للمتطلبات أو الالتزامات المنصوص عليها في هذا القانون أو القواعد التي أصدرها المدعي العام.

سياسة وبرنامج إدارة المخاطر

يجب على مُشغّل نظام ذكاء اصطناعي عالي المخاطر تطبيق سياسة وبرنامج لإدارة المخاطر يُنظّمان استخدام ونشر هذا النظام. ويجب أن تُفصّل هذه السياسة والبرنامج المبادئ والعمليات والكوادر التي يستخدمها المُشغّل لتحديد وتوثيق وتخفيف أي مخاطر معروفة أو مُتوقعة للتمييز الخوارزمي. إضافةً إلى ذلك، يجب تخطيط وتنفيذ سياسة وبرنامج إدارة المخاطر بدقة، مع تحديثات ومراجعات دورية طوال دورة حياة نظام الذكاء الاصطناعي عالي المخاطر.

والأهم من ذلك، يجب أن تكون سياسة وبرنامج إدارة المخاطر هذا معقولين بالنظر إلى ما يلي:

  • التوجيهات والمعايير المنصوص عليها في أحدث إصدار من "إطار إدارة مخاطر الذكاء الاصطناعي" الذي نشره المعهد الوطني للمعايير والتكنولوجيا في وزارة التجارة الأمريكية، أو معيار ISO/IEC 42001 الصادر عن المنظمة الدولية للتوحيد القياسي، أو أي إطار آخر لإدارة المخاطر معترف به وطنياً أو دولياً لأنظمة الذكاء الاصطناعي أو أي إطار آخر لإدارة المخاطر لأنظمة الذكاء الاصطناعي يراه المدعي العام مناسباً؛
  • حجم وتعقيد برنامج النشر؛
  • طبيعة ونطاق نظام الذكاء الاصطناعي عالي المخاطر الذي قام بنشره، بما في ذلك استخداماته المقصودة؛
  • حساسية وحجم البيانات التي تتم معالجتها فيما يتعلق بنظام الذكاء الاصطناعي عالي المخاطر الذي قام بنشره المُشغِّل.

قد تغطي سياسة وبرنامج إدارة المخاطر الذي ينفذه القائم بالنشر والمتعلق بالمتطلبات المذكورة أعلاه أنظمة الذكاء الاصطناعي المتعددة عالية المخاطر التي ينشرها القائم بالنشر.

إتمام تقييم الأثر

ما لم يُستثنى من ذلك:

  • يجب على الجهة المنفذة أو الطرف الثالث المتعاقد معها والتي تقوم بنشر نظام الذكاء الاصطناعي عالي المخاطر إكمال تقييم الأثر لنظام الذكاء الاصطناعي عالي المخاطر؛
  • يجب على الجهة المنفذة أو طرف ثالث متعاقد معها إكمال تقييم الأثر لنظام الذكاء الاصطناعي عالي المخاطر مرة واحدة على الأقل سنوياً وفي غضون تسعين يوماً بعد إجراء أي تعديل متعمد وجوهري على نظام الذكاء الاصطناعي عالي المخاطر.

يجب أن يتضمن تقييم الأثر الذي يتم إجراؤه وفقًا للمتطلبات المذكورة أعلاه ما يلي:

  • بيان من الجهة المنفذة يكشف عن الغرض، وحالات الاستخدام المقصودة، وسياق النشر، والفوائد التي يوفرها نظام الذكاء الاصطناعي عالي المخاطر؛
  • تحليل ما إذا كان نشر نظام الذكاء الاصطناعي عالي المخاطر يشكل أي مخاطر معروفة أو يمكن التنبؤ بها بشكل معقول للتمييز الخوارزمي، وإذا كان الأمر كذلك، فما طبيعة المخاطر وتدابير التخفيف المعمول بها؛
  • وصف لفئات البيانات التي يعالجها نظام الذكاء الاصطناعي عالي المخاطر كمدخلات والمخرجات اللاحقة؛
  • نظرة عامة على فئات البيانات التي يستخدمها القائم بالنشر لتخصيص نظام الذكاء الاصطناعي عالي المخاطر؛
  • أي مقاييس تستخدم لتقييم أداء وقيود نظام الذكاء الاصطناعي عالي المخاطر؛
  • وصف لأي تدابير الشفافية المتخذة فيما يتعلق بنظام الذكاء الاصطناعي عالي المخاطر، بما في ذلك أي خطوات لإبلاغ العميل بنظام الذكاء الاصطناعي عالي المخاطر عند استخدام مثل هذا النظام؛
  • وصف لعملية المراقبة بعد النشر وحماية المستخدم المتعلقة بأنظمة الذكاء الاصطناعي عالية المخاطر، مثل الإشراف والاستخدام وعملية التعلم التي وضعها القائم بالنشر لمعالجة أي مشكلات تنشأ عن استخدام أنظمة الذكاء الاصطناعي عالية المخاطر.

بالإضافة إلى أي معلومات مذكورة أعلاه، يجب أن يتضمن تقييم الأثر الذي يتم إجراؤه بعد تعديل متعمد وجوهري لنظام الذكاء الاصطناعي عالي المخاطر بيانًا يكشف عن مدى استخدام نظام الذكاء الاصطناعي عالي المخاطر بطريقة تتوافق مع استخدامات المطور المقصودة لنظام الذكاء الاصطناعي عالي المخاطر أو تختلف عنها.

قد يتناول تقييم واحد للأثر مجموعة مماثلة من أنظمة الذكاء الاصطناعي عالية المخاطر التي نشرها الناشر.

إذا قام أحد الناشرين أو طرف ثالث متعاقد معه الناشر بإجراء تقييم للأثر للامتثال لقانون أو لائحة أخرى سارية، فإن هذا التقييم سيفي بمتطلبات هذا القانون، شريطة أن يكون مماثلاً في النطاق والتأثير المطلوبين لتقييم الأثر الذي يتم إجراؤه وفقًا للقانون.

حفظ السجلات

يجب على الجهة المنفذة الاحتفاظ بجميع تقييمات الأثر التي تم إجراؤها لنظام الذكاء الاصطناعي عالي المخاطر لمدة ثلاث سنوات على الأقل بعد النشر النهائي لنظام الذكاء الاصطناعي عالي المخاطر.

مراجعة نظام الذكاء الاصطناعي عالي المخاطر

يجب على الجهة المنفذة أو الطرف الثالث المتعاقد معها مراجعة نشر نظام الذكاء الاصطناعي عالي المخاطر مرة واحدة على الأقل سنوياً لضمان عدم تسببه في التمييز الخوارزمي.

متطلبات إخطار المستهلك

يجب على الجهة التي تقوم بنشر نظام ذكاء اصطناعي عالي المخاطر لاتخاذ قرار مصيري يتعلق بأحد العملاء، أو أن تكون عاملاً أساسياً في اتخاذه، أن:

  • قم بإخطار العميل بأن الجهة المنفذة قد نشرت نظام ذكاء اصطناعي عالي المخاطر لاتخاذ قرار مصيري، أو أن تكون عاملاً أساسياً في اتخاذه، قبل اتخاذ مثل هذا القرار؛
  • تزويد العميل ببيان يكشف عن الغرض من نظام الذكاء الاصطناعي عالي المخاطر وطبيعة القرار اللاحق، بالإضافة إلى معلومات الاتصال الخاصة بالجهة المنفذة، ووصف بلغة بسيطة لنظام الذكاء الاصطناعي عالي المخاطر، وتعليمات حول كيفية الوصول إلى البيان العام المطلوب بموجب هذا القانون؛
  • تزويد المستهلكين بمعلومات تتعلق بحقهم في إلغاء الاشتراك في معالجة بياناتهم الشخصية المتعلقة بالمستهلك لأغراض التنميط في سبيل اتخاذ قرارات ينتج عنها آثار قانونية أو آثار مماثلة ذات أهمية فيما يتعلق بالمستهلك.

قرار ذو عواقب سلبية

ينبغي على الجهة التي تقوم بنشر نظام ذكاء اصطناعي عالي المخاطر لاتخاذ قرار مصيري يتعلق بالمستهلك، أو أن تكون عاملاً أساسياً في اتخاذه، أن تقدم للمستهلك، إذا كان القرار المصيري ضاراً به، ما يلي:

  • بيان يكشف عن السبب الرئيسي للقرار اللاحق، بما في ذلك:
    • مدى وكيفية مساهمة نظام الذكاء الاصطناعي عالي المخاطر في القرار اللاحق؛
    • نوع البيانات التي تمت معالجتها بواسطة نظام الذكاء الاصطناعي عالي المخاطر في اتخاذ القرار اللاحق؛
    • مصادر البيانات المستخدمة.
  • فرصة لتصحيح أي بيانات شخصية غير صحيحة قد يكون نظام الذكاء الاصطناعي عالي المخاطر قد عالجها في اتخاذ القرار اللاحق، أو كعامل جوهري في اتخاذه؛
  • فرصة للطعن في قرار سلبي ذي تبعات تتعلق بالمستهلك حيث يسمح الطعن بالمراجعة البشرية ما لم يكن توفير فرصة الطعن ليس في مصلحة المستهلك.

ما لم يُنص على خلاف ذلك، يجب على الجهة المنفذة تقديم إشعار وبيان ومعلومات الاتصال ووصف فيما يتعلق بنشر نظام الذكاء الاصطناعي عالي المخاطر لاتخاذ القرار التبعي، أو أن تكون عاملاً جوهرياً في اتخاذه، وكذلك القرار التبعي السلبي:

  • مباشرة إلى المستهلك؛
  • بلغة بسيطة وسهلة الفهم؛
  • في جميع اللغات التي يقدم فيها الناشر العقود وإخلاء المسؤولية وإعلانات البيع وغيرها من المعلومات للمستهلكين؛
  • بصيغة يسهل الوصول إليها للمستهلكين ذوي الإعاقة.

إذا تعذر تقديم الإشعار والبيان ومعلومات الاتصال والوصف مباشرة إلى المستهلكين، فيجب على الجهة المنفذة إتاحتها بطريقة يسهل على المستهلك الوصول إليها.

تفاصيل نظام الذكاء الاصطناعي عالي المخاطر على الموقع الإلكتروني

علاوة على ذلك، يجب على الجهة المنفذة ضمان توفر بيان على موقعها الإلكتروني يكون واضحاً وسهل الفهم ويلخص ما يلي:

  • أنواع أنظمة الذكاء الاصطناعي عالية المخاطر التي يتم نشرها حاليًا من قبل الجهة الناشرة؛
  • كيف يدير القائم بالنشر المخاطر المعروفة أو المتوقعة بشكل معقول للتمييز الخوارزمي الناجم عن نشر نظام الذكاء الاصطناعي عالي المخاطر؛
  • طبيعة ومصدر ومدى المعلومات التي جمعها المُشغِّل بالتفصيل.

يجب تحديث البيان المذكور أعلاه بشكل دوري.

ومع ذلك، فإن شرط البيان هذا لا ينطبق على الناشر إذا كان ذلك في وقت قيام الناشر بنشر نظام الذكاء الاصطناعي عالي المخاطر وطوال الوقت الذي يتم فيه نشر نظام الذكاء الاصطناعي عالي المخاطر.

  • المُنفِّذ:
    • يضم أقل من خمسين موظفاً بدوام كامل؛
    • لا تستخدم بياناتها الخاصة لتدريب نظام الذكاء الاصطناعي عالي المخاطر.
  • نظام الذكاء الاصطناعي عالي المخاطر:
    • يُستخدم وفقًا لما تم الكشف عنه في استخداماته المقصودة؛
    • يستمر في التعلم من البيانات المستمدة من مصادر أخرى غير بيانات المُشغِّل نفسه.
  • يوفر برنامج النشر تقييمات الأثر للمستهلكين والتي:
    • قام مطور نظام الذكاء الاصطناعي عالي المخاطر بإكمال النظام وتسليمه إلى جهة النشر؛
    • يتضمن معلومات مشابهة إلى حد كبير للمعلومات الواردة في تقييم الأثر المطلوب بموجب أحكام هذا القانون.

إخطار المدعي العام

إذا قام الناشر بنشر نظام ذكاء اصطناعي عالي المخاطر في أو بعد 1 فبراير 2026، واكتشف لاحقًا أن النظام قد تسبب في تمييز خوارزمي، فيجب على الناشر إرسال إشعار إلى المدعي العام يكشف عن هذا الاكتشاف دون تأخير وفي غضون تسعين يومًا.

لا يُلزم هذا القانون المُورِّد بالكشف عن أي سر تجاري أو معلومات محمية من الإفصاح بموجب قوانين الولاية أو القوانين الفيدرالية. وفي حال حجب المُورِّد معلومات، فعليه إخطار المستهلك وتقديم مبرر لذلك.

المستندات المطلوبة من قبل المدعي العام

يجوز للنائب العام أن يطلب من الجهة المنفذة أو أي طرف ثالث متعاقد معها الكشف، في غضون تسعين يومًا من تاريخ الطلب، عن سياسة إدارة المخاطر المطبقة، وتقييم الأثر المنجز، والوثائق الأخرى المحفوظة وفقًا لأحكام هذا القانون. ويجوز للنائب العام بعد ذلك تقييم هذه الوثائق للتأكد من امتثالها لمتطلبات هذا القانون.

يجوز للجهة المنفذة تصنيف أي وثيقة على أنها تتضمن معلومات سرية أو أسرارًا تجارية. إذا كانت سياسة إدارة المخاطر، أو تقييم الأثر، أو غيرها من الوثائق التي تمت مشاركتها مع النائب العام تتضمن معلومات تخضع لامتياز السرية بين المحامي والموكل أو حماية نتاج العمل، فإن الإفصاح عنها لا يُعد تنازلاً عن هذا الامتياز أو الحماية.

الكشف عن نظام الذكاء الاصطناعي للمستهلكين

يجب على أي جهة نشر أو مطور آخر يقوم بنشر أو عرض أو بيع أو تأجير أو ترخيص أو إعطاء أو إتاحة نظام ذكاء اصطناعي يهدف إلى التفاعل مع المستهلك أن تضمن الكشف عن هذه التفاعلات لكل مستهلك يتفاعل مع نظام الذكاء الاصطناعي هذا.

لا يُشترط الإفصاح عن مثل هذه المعلومات في الحالات التي يكون من الواضح فيها للشخص العادي أنه يتفاعل مع نظام ذكاء اصطناعي.

الإعفاءات

على الرغم من أن قانون الذكاء الاصطناعي في كولورادو يتضمن التزامات صارمة على مطوري ومستخدمي أنظمة الذكاء الاصطناعي عالية المخاطر، إلا أنه يوفر أيضاً بعض الاستثناءات لتحقيق التوازن في الرقابة التنظيمية. وتشمل هذه الاستثناءات ما يلي:

لا يوجد في القانون ما يقيد قدرة المطور أو الناشر أو أي كيان آخر على:

  1. الامتثال للقوانين واللوائح والأنظمة الفيدرالية أو الولائية أو البلدية ذات الصلة؛
  2. الامتثال لأي استفسار أو تحقيق أو أمر استدعاء أو استدعاء مدني أو جنائي أو تنظيمي صادر عن سلطة اتحادية أو سلطة تابعة للولاية أو سلطة بلدية أو سلطة حكومية أخرى؛
  3. التعاون مع وكالات إنفاذ القانون؛
  4. التحقيق في الدعاوى القانونية أو إثباتها أو ممارستها أو الدفاع عنها أو الاستعداد لها؛
  5. اتخاذ إجراءات فورية لحماية المصالح الضرورية لحياة أو سلامة المستهلك أو أي فرد آخر؛
  6. منع الحوادث الأمنية أو سرقة الهوية أو الاحتيال أو المضايقة أو الأنشطة الخبيثة أو الخادعة أو الأنشطة غير القانونية أو الكشف عنها أو الاستجابة لها أو الحماية منها بأي وسيلة أخرى غير استخدام تقنية التعرف على الوجه؛
  7. المشاركة في البحوث العلمية العامة أو التي تخضع لمراجعة الأقران والتي تصب في المصلحة العامة؛
  8. إجراء أنشطة البحث والاختبار والتطوير المتعلقة بأنظمة الذكاء الاصطناعي بخلاف الاختبارات التي تُجرى في ظروف العالم الحقيقي قبل طرح أنظمة الذكاء الاصطناعي هذه في السوق؛
  9. مساعدة مطور أو ناشر أو كيان آخر في أي من الالتزامات المفروضة بموجب القانون.

علاوة على ذلك، فإن الالتزامات المفروضة على المطورين والمنفذين وأي كيانات أخرى بموجب القانون لا تقيد قدرتهم على:

  • بدء عملية سحب المنتج من السوق؛
  • تحديد وإصلاح الأخطاء التقنية في الوظائف الحالية أو المستقبلية.

امتياز الإثبات

لا تنطبق الالتزامات المفروضة بموجب القانون على المطورين والمنفذين والكيانات الأخرى في الحالات التي ينتهك فيها الامتثال امتيازًا إثباتيًا بموجب قوانين الولاية المعنية.

حرية التعبير والصحافة

لا يفرض القانون أي التزامات على المطورين أو الناشرين أو الكيانات الأخرى التي تؤثر سلبًا على حقوق أو حريات الأشخاص، مثل الحق في حرية التعبير وحرية الصحافة الممنوحة بموجب التعديل الأول لدستور الولايات المتحدة، والقسم 10 من المادة الثانية من دستور الولاية.

الإعفاءات الفيدرالية

لا ينطبق أي شيء في القانون على المطورين، والمنفذين، والكيانات الأخرى:

  • بقدر ما يقوم المطور، والمنفذ، والكيانات الأخرى بتشغيل أو تعديل نظام ذكاء اصطناعي عالي المخاطر بشكل جوهري:
    • تم اعتماد ذلك أو ترخيصه أو اعتماده أو الموافقة عليه أو تطويره أو منحه من قبل وكالة اتحادية مثل إدارة الغذاء والدواء الاتحادية (FDA) أو إدارة الطيران الاتحادية (FAA) ويعمل في نطاق سلطة تلك الوكالة الاتحادية؛
    • يتوافق ذلك مع المعايير التي وضعتها وكالة اتحادية، مثل تلك التي وضعها المكتب الاتحادي للمنسق الوطني لتكنولوجيا المعلومات الصحية.
  • إجراء البحوث لدعم طلب الحصول على الموافقة أو الشهادة من وكالة اتحادية؛
  • القيام بأعمال بموجب أو فيما يتعلق بعقد مع وزارة التجارة الأمريكية أو وزارة الدفاع أو الإدارة الوطنية للملاحة الجوية والفضاء ما لم يكن المطور أو المطور أو الكيان الآخر يعمل على نظام ذكاء اصطناعي عالي المخاطر يتخذ قرارات مصيرية تتعلق بالتوظيف أو السكن؛
  • هي كيان مشمول بموجب قانون قابلية نقل التأمين الصحي والمساءلة لعام 1996 (HIPAA)، ويمكن تعديل اللوائح الصادرة بموجب هذا القانون وتقديم توصيات بشأن ما يلي:
    • هل هي مُولّدة بواسطة الذكاء الاصطناعي؟
    • إلزام مقدم الرعاية الصحية باتخاذ إجراءات تتعلق بتنفيذ هذه التوصيات؛
    • لا تُعتبر من الحالات عالية الخطورة.

إعفاءات خاصة بالقطاعات الصناعية

لا ينطبق أي شيء في القانون على أي نظام ذكاء اصطناعي يتم الحصول عليه من قبل أو لصالح الحكومة الفيدرالية أو أي وكالة أو إدارة فيدرالية ما لم يكن نظام الذكاء الاصطناعي نظام ذكاء اصطناعي عالي المخاطر يتخذ قرارًا ذا عواقب تتعلق بالتوظيف أو السكن.

شركات التأمين، وجمعيات المنافع الأخوية، ومطوري الذكاء الاصطناعي لشركات التأمين إذا كانوا يمتثلون بالفعل للوائح وقواعد التأمين الحالية المحددة التي وضعها مفوض التأمين.

يُعتبر أي بنك، أو بنك خارج الولاية، أو اتحاد ائتماني مرخص من قبل ولاية كولورادو، أو اتحاد ائتماني فيدرالي، أو اتحاد ائتماني خارج الولاية، أو أي جهة تابعة أخرى، ملتزمًا تمامًا بمتطلبات هذا القانون إذا كان ملتزمًا بأي لوائح مماثلة أخرى تنطبق على استخدام أنظمة الذكاء الاصطناعي عالية المخاطر، وتلك اللوائح:

  • فرض متطلبات صارمة مماثلة؛
  • يُطلب من البنك، أو البنك الموجود خارج الولاية، أو الاتحاد الائتماني المرخص من قبل ولاية كولورادو، أو الاتحاد الائتماني الفيدرالي، أو الاتحاد الائتماني الموجود خارج الولاية، أو أي جهة تابعة أخرى، القيام بما يلي:
    • إجراء تدقيق منتظم لاستخدام أنظمة الذكاء الاصطناعي عالية المخاطر من قبل البنك، أو البنوك خارج الولاية، أو الاتحادات الائتمانية المرخصة من قبل ولاية كولورادو، أو الاتحادات الائتمانية الفيدرالية، أو الاتحادات الائتمانية خارج الولاية، أو أي جهة تابعة أخرى، وذلك للتأكد من امتثالها لقوانين مكافحة التمييز على مستوى الولاية أو المستوى الفيدرالي المطبقة على هذه المؤسسات؛
    • التخفيف من أي أسباب للتمييز الخوارزمي نتيجة استخدام أنظمة الذكاء الاصطناعي عالية المخاطر.

الهيئة التنظيمية

سيكون للمدعي العام لولاية كولورادو السلطة الحصرية لإنفاذ أحكام القانون.

الدفاع الإيجابي

في أي دعوى يرفعها المدعي العام لإنفاذ أحكام القانون، يُعتبر دفاعًا إيجابيًا أن المطور أو الناشر أو أي كيان آخر:

  • يكتشف ويعالج المخالفة نتيجة لما يلي:
    • التعليقات التي يشجع المطور أو الناشر أو أي كيان آخر المستهلك على مشاركتها مع المطور أو الناشر أو أي كيان آخر؛
    • اختبار الخصوم أو فريق الهجوم الأحمر؛
    • عملية مراجعة داخلية.
  • وهو متوافق مع ما يلي:
    • أحدث إصدار من إطار إدارة مخاطر الذكاء الاصطناعي؛
    • إطار آخر لإدارة المخاطر معترف به وطنياً أو دولياً لأنظمة الذكاء الاصطناعي إذا كانت هذه المعايير تعادل المتطلبات المنصوص عليها في هذا القانون؛
    • أي إطار آخر لإدارة المخاطر يوصي به المدعي العام.

يتحمل المطور أو الناشر أو الطرف الثالث عبء إثبات امتثالهم للمتطلبات المذكورة أعلاه للمدعي العام.

ومع ذلك، لا شيء في هذا القانون أو صلاحيات الإنفاذ الممنوحة للنائب العام سيمنع أو يؤثر بأي شكل من الأشكال على أي حق أو مطالبة أو سبيل انتصاف أو افتراض أو دفاع متاح بموجب القانون أو الإنصاف.

وبالمثل، فإن هذا القانون لا يوفر أي أساس ولن يخضع لحق خاص في اتخاذ إجراء بشأن أي انتهاكات لأحكام هذا القانون.

وضع القواعد من قبل المدعي العام

يجوز للنائب العام إصدار القواعد اللازمة لتنفيذ وإنفاذ أحكام قانون الذكاء الاصطناعي في كولورادو، بما في ذلك:

  • الوثائق والمتطلبات الخاصة بالمطورين؛
  • محتويات ومتطلبات الإشعارات والإفصاحات؛
  • محتوى ومتطلبات سياسة وبرنامج إدارة المخاطر؛
  • محتوى ومتطلبات تقييمات الأثر؛
  • متطلبات الافتراضات القابلة للدحض؛
  • متطلبات الدفاع الإيجابي.

بيانات فعالة

سيدخل قانون الذكاء الاصطناعي في كولورادو حيز التنفيذ في الأول من فبراير عام 2026.

كيف يمكن Securiti يساعد

رغم أن كولورادو هي أول ولاية أمريكية تُصدر قانونًا شاملًا للذكاء الاصطناعي من هذا النوع، فمن المؤكد أن ولايات وإدارات أخرى ستحذو حذوها. وبينما قد تتشابه هذه القوانين المستقبلية وتختلف في بعض الجوانب مع قانون الذكاء الاصطناعي في كولورادو، يبقى أمر واحد واضحًا: ستحتاج المؤسسات إلى حل موثوق يساعدها على الوفاء بأي التزامات تفرضها عليها هذه القوانين.

ومن المثير للاهتمام أن الأتمتة تمثل الخيار الأفضل للمؤسسات للقيام بذلك.

هذا هو المكان الذي Securiti يمكن أن يساعد. إنه رائد في Data Command Center منصة مركزية تُمكّن من الاستخدام الآمن للبيانات والذكاء الاصطناعي العام. كما توفر ذكاءً موحدًا للبيانات، وضوابط، وتنسيقًا عبر بيئات سحابية هجينة متعددة. وتعتمد عليها مؤسسات عالمية مرموقة وذات سمعة طيبة. Securiti 's Data Command Center من أجل أمن البيانات والخصوصية والحوكمة والامتثال، فضلاً عن الاستخدام الآمن للبيانات وقدرات الذكاء الاصطناعي العام.

اطلب عرضًا تجريبيًا اليوم وتعرف على المزيد حول كيفية Securiti يمكننا مساعدتك في الامتثال لقانون الذكاء الاصطناعي في كولورادو.

قم بتحليل هذه المقالة باستخدام الذكاء الاصطناعي

تظهر المطالبات في أدوات الذكاء الاصطناعي التابعة لجهات خارجية.
انضم إلى قائمتنا البريدية

احصل على أحدث المعلومات والتحديثات القانونية والمزيد مباشرةً في بريدك الإلكتروني



قصص أخرى قد تهمك
مقاطع فيديو
عرض المزيد
ريحان جليل، من شركة Veeam، يتحدث عن Agent Commander: theCUBE + NYSE Wired: قادة الأمن السيبراني
بعد استحواذ شركة Veeam على Securiti يمثل إطلاق برنامج Agent Commander خطوة هامة نحو مساعدة المؤسسات على تبني وكلاء الذكاء الاصطناعي بثقة أكبر. في...
عرض المزيد
تخفيف مخاطر قائمة OWASP لأهم 10 مخاطر لتطبيقات ماجستير القانون 2025
أحدث الذكاء الاصطناعي التوليدي (GenAI) تحولاً جذرياً في طريقة عمل الشركات وتوسعها ونموها. يوجد تطبيق للذكاء الاصطناعي لكل غرض، بدءاً من زيادة إنتاجية الموظفين وصولاً إلى تبسيط العمليات...
عرض المزيد
أفضل 6 DSPM حالات الاستخدام
مع ظهور الذكاء الاصطناعي التوليدي (GenAI)، أصبحت البيانات أكثر ديناميكية. يتم توليد بيانات جديدة بوتيرة أسرع من أي وقت مضى، ونقلها إلى أنظمة وتطبيقات متنوعة...
عرض المزيد
قانون الخصوصية في كولورادو (CPA)
ما هو قانون خصوصية كولورادو؟ قانون خصوصية كولورادو هو قانون شامل لحماية الخصوصية، تم توقيعه في 7 يوليو 2021. وقد وضع معايير جديدة لحماية البيانات الشخصية...
عرض المزيد
Securiti لمساعد الطيار في البرمجيات كخدمة (SaaS)
تسريع اعتماد Copilot بأمان وثقة: تتطلع المؤسسات إلى اعتماد Microsoft 365 Copilot لزيادة الإنتاجية والكفاءة. ومع ذلك، تظل المخاوف الأمنية، مثل حماية البيانات...
عرض المزيد
أهم عشرة اعتبارات لاستخدام البيانات غير المهيكلة بأمان مع الذكاء الاصطناعي العام
نسبة مذهلة تصل إلى 90% من بيانات المؤسسات غير منظمة. وتُستخدم هذه البيانات بسرعة لتغذية تطبيقات الذكاء الاصطناعي من الجيل الجديد، مثل روبوتات الدردشة والبحث المدعوم بالذكاء الاصطناعي.
عرض المزيد
جينكور للذكاء الاصطناعي: بناء أنظمة ذكاء اصطناعي آمنة وعالية الجودة للمؤسسات في دقائق
مع تبني المؤسسات للذكاء الاصطناعي التوليدي، تواجه فرق البيانات والذكاء الاصطناعي العديد من العقبات: ربط مصادر البيانات غير المهيكلة والمهيكلة بشكل آمن، والحفاظ على الضوابط والحوكمة المناسبة،...
عرض المزيد
كيفية التعامل مع قانون حماية خصوصية المستهلك في كاليفورنيا: رؤى أساسية للشركات
ما هو قانون حقوق الخصوصية في كاليفورنيا (CPRA)؟ هو تشريع ولاية كاليفورنيا الذي يهدف إلى حماية خصوصية سكانها الرقمية. وقد دخل حيز التنفيذ في يناير...
عرض المزيد
التكيف مع التحول: الانتقال إلى معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS) الإصدار 4.0
ما هو معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS)؟ هو مجموعة من معايير الأمان لضمان المعالجة والتخزين الآمنين للبيانات، و...
عرض المزيد
تأمين البيانات والذكاء الاصطناعي: دليل إدارة الثقة والمخاطر والأمن (TRiSM)
أثارت المخاطر الأمنية المتزايدة للذكاء الاصطناعي قلق 48% من مسؤولي أمن المعلومات حول العالم. انضموا إلى هذه الجلسة الرئيسية للتعرف على دليل عملي لتمكين الثقة في الذكاء الاصطناعي، وإدارة المخاطر،...

جلسات حوارية مميزة

تسليط الضوء
الاستعداد للمستقبل لمحترفي الخصوصية
شاهد الآن منظر
تسليط الضوء 50:52
من البيانات إلى النشر: حماية الذكاء الاصطناعي المؤسسي من خلال الأمن والحوكمة
شاهد الآن منظر
تسليط الضوء 11:29
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
شاهد الآن منظر
تسليط الضوء 11:18
إعادة هيكلة تمويل العقارات - كيف تُجري شركة ووكر آند دنلوب تحديثًا لمحفظتها الاستثمارية البالغة 135 مليار دولار أمريكي بالاعتماد على البيانات أولاً
شاهد الآن منظر
تسليط الضوء 13:38
تسريع المعجزات - كيف تُدمج شركة سانوفي الذكاء الاصطناعي لتقليص مدة تطوير الأدوية بشكل كبير
صورة مصغرة لشركة سانوفي
شاهد الآن منظر
تسليط الضوء 10:35
حدث تحول جوهري في مركز ثقل البيانات
شاهد الآن منظر
تسليط الضوء 14:21
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
شاهد الآن منظر
تسليط الضوء 12:!3
لا يمكنك بناء خطوط الأنابيب أو المستودعات أو منصات الذكاء الاصطناعي بدون معرفة تجارية
شاهد الآن منظر
تسليط الضوء 47:42
الأمن السيبراني – حيث يقوم القادة بالشراء والبناء والشراكة
ريحان جليل
شاهد الآن منظر
تسليط الضوء 27:29
بناء ذكاء اصطناعي آمن باستخدام Databricks و Gencore
ريحان جليل
شاهد الآن منظر
أحدث
عرض المزيد
بناء ذكاء اصطناعي سيادي باستخدام HPE Private Cloud AI و Veeam Securiti Gencore AI
كيف تُساهم تقنيات الذكاء الاصطناعي في السحابة الخاصة من HPE، وتسريع NVIDIA، وVeeam؟ Securiti يدعم نظام Gencore AI الذكاء الاصطناعي الآمن والمُدار للمؤسسات مع تطبيق السياسات عبر سير العمل RAG والمساعدين والوكلاء.
عرض المزيد
Securiti أعلنت شركة .ai عن اختيار شركة أكسنتشر كشريك العام لعام 2025
في إطار الاحتفال المستمر بالتعاون المؤثر في DataAI Security ، Securiti منحت شركة .ai، التابعة لشركة Veeam، شركة Accenture لقب شريك العام لعام 2025....
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ قانون حماية خصوصية المستهلك في كاليفورنيا؟ عرض المزيد
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ القانون؟
يمكن للشركات أن تستفيد من بعض الدروس الحيوية من أكبر إجراء إنفاذي تم اتخاذه مؤخراً في تاريخ قانون خصوصية المستهلك في كاليفورنيا (CCPA). Securiti مدونة 's تغطي جميع التفاصيل المهمة التي يجب معرفتها.
عرض المزيد
الذكاء الاصطناعي وقانون HIPAA: ما يعنيه وكيفية أتمتة الامتثال
تعرّف على كيفية تطبيق قانون قابلية نقل التأمين الصحي والمساءلة (HIPAA) على الذكاء الاصطناعي في تأمين المعلومات الصحية المحمية. تعلّم كيف...
عرض المزيد
قلل من المعلومات التي تكشفها: ضوابط الخصوصية للذكاء الاصطناعي Agents and Copilots
تقليل انكشاف البيانات في الذكاء الاصطناعي agents and copilots قم بتطبيق ضوابط حماية الخصوصية مثل تقليل البيانات، وضوابط الوصول، وإخفاء البيانات، وإنفاذ السياسات لمنع التسريب و...
عرض المزيد
من وضوح البيانات إلى سرعة الذكاء الاصطناعي
اطلع على الورقة البيضاء واكتشف كيف يتم توحيد DataAI security يحوّل إدارة البيانات إلى عامل تمكين للأعمال، ويعزز ابتكار الذكاء الاصطناعي من خلال الشفافية والامتثال وإدارة المخاطر...
عرض المزيد
قائد العملاء: ملخص الحل
تعرّف على كيفية قيام Agent Commander باكتشاف وكلاء الذكاء الاصطناعي، وحماية بيانات المؤسسة من خلال ضوابط التشغيل، وتصحيح أخطاء الذكاء الاصطناعي - مما يتيح اعتماد الذكاء الاصطناعي بشكل آمن ومتوافق مع المعايير في...
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti عرض المزيد
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti
التزم بتعديلات قانون خصوصية المستهلك في كاليفورنيا لعام 2026 باستخدام Securiti وتشمل هذه المتطلبات تحديث متطلبات الموافقة، وتوسيع تعريفات البيانات الحساسة، وتعزيز حقوق المستهلك، وتقييمات الجاهزية.
عرض المزيد
تخلص من مخاطر البيانات في الذكاء الاصطناعي
تعرف على كيفية إعداد بيانات المؤسسة لاعتماد Gemini Enterprise بشكل آمن من خلال الحوكمة الأولية، واكتشاف البيانات الحساسة، وضوابط سياسة ما قبل الفهرسة.
عرض المزيد
دليل الحصول على شهادة HITRUST
Securiti يُعد الكتاب الإلكتروني دليلاً عملياً للحصول على شهادة HITRUST، ويغطي كل شيء بدءاً من اختيار i1 مقابل r2 ونطاق الأنظمة وصولاً إلى إدارة خطط العمل والتخطيط...
ما هو
جديد