الإعلان عن Agent Commander - أول حل متكامل من Veeam + Securiti .ai تمكين توسيع نطاق وكلاء الذكاء الاصطناعي الآمنين

منظر

إرشادات ولاية أوريغون بشأن الذكاء الاصطناعي: ما تحتاج الشركات إلى معرفته

المساهمون

أسواه جاويد

شريك Data Privacy محلل في Securiti

عادل حسن

السيد. Data Privacy محلل في Securiti

CIPM، CIPP/كندا

نُشر في 16 يناير 2025

في 24 ديسمبر 2024، أصدرت وزارة العدل في ولاية أوريغون توجيهات بشأن الذكاء الاصطناعي ، مؤكدةً على كيفية تغطية الإطار القانوني الحالي لأنظمة الذكاء الاصطناعي. وبينما تُقرّ التوجيهات بإمكانات الذكاء الاصطناعي في تحسين الكفاءة والمساهمة في النمو الاقتصادي، فإنها تُسلط الضوء أيضاً على بعض السلبيات، بما في ذلك قضايا الخصوصية والتحيز والشفافية.

على الرغم من عدم وجود قانون خاص بالذكاء الاصطناعي في ولاية أوريغون، إلا أن الدليل الإرشادي يوضح أن الذكاء الاصطناعي ليس غير خاضع للتنظيم بشكل كامل. فالقوانين القائمة تُطبق على استخدام الذكاء الاصطناعي، وتتناول قضايا مثل العدالة والمساءلة وحماية المستهلك. ولتوضيح ذلك، يستعرض الدليل الإرشادي بإيجاز بعض القوانين، مثل قانون الممارسات التجارية غير المشروعة وقانون خصوصية المستهلك في أوريغون، وتطبيقها على حالات استخدام مختلفة للذكاء الاصطناعي.

1. قانون الممارسات التجارية غير المشروعة (UTPA)

يهدف قانون الممارسات التجارية غير المشروعة ( UTPA)، المواد من 646.605 إلى 646.656 من قانون ولاية أوريغون، والذي سُنّ عام 1971، إلى حماية المستهلكين من الممارسات التجارية الخادعة والمضللة. ويوضح الدليل أن الشركات التي تُطوّر أو تنشر أو تبيع أنظمة الذكاء الاصطناعي تخضع بالكامل لأحكام قانون الممارسات التجارية غير المشروعة أثناء تسويقها أو بيعها أو استخدامها للذكاء الاصطناعي. كما يُقدّم الدليل عدة أمثلة يُمكن أن يُخالف فيها مطوّرو ومُستخدمو الذكاء الاصطناعي أحكام هذا القانون، ومنها:

  • التحريفات في المعاملات الاستهلاكية، بما في ذلك عدم الإفصاح عن أي حقيقة. (قانون ولاية أوريغون 646.608(2))
  • عدم الإفصاح عن العيوب المادية المعروفة. (قانون ولاية أوريغون 646.608(1)(t))
  • يُحظر التضليل بشأن منتج ذكاء اصطناعي فيما يتعلق بميزاته أو استخداماته أو خصائصه، أو فيما يتعلق بـ"العقارات أو السلع أو الخدمات" التي يُزعم أنها تحظى برعاية أو موافقة غير مستحقة. على سبيل المثال، المراجعات ومقاطع الفيديو المزيفة التي يُنشئها الذكاء الاصطناعي والتي تُصوّر زوراً تأييد المشاهير. (ORS 646.608(1)(e))
  • استخدام الذكاء الاصطناعي لخلق تخفيضات أسعار خادعة، مثل "التخفيضات السريعة" الوهمية. (ORS 646.608(1)(j))
  • استخدام الذكاء الاصطناعي لتحديد أسعار باهظة بشكل غير معقول أثناء حالات الطوارئ. (قانون ولاية أوريغون 646.607(3))
  • استخدام الصوت المُنتَج بالذكاء الاصطناعي في المكالمات الآلية لتزييف هوية المتصل. (قانون ولاية أوريغون 646.608(1)(ff))
  • يُحظر استخدام الذكاء الاصطناعي في أي ممارسة غير أخلاقية تتعلق ببيع أو تأجير أو التخلص من المنتجات أو الخدمات أو العقارات، أو تحصيل أو إنفاذ أي التزام قانوني. ويشمل ذلك استغلال جهل المستهلك أو السماح له عمداً بإتمام معاملة لا تعود عليه بأي فائدة مادية. (قانون ولاية أوريغون 646.607(1))

توضح الإرشادات أن الأمثلة المذكورة هي بعض الطرق العديدة التي ينطبق بها قانون UTPA على الذكاء الاصطناعي.

2. قانون خصوصية المستهلك في ولاية أوريغون (OCPA)

دخل قانون خصوصية المستهلك في ولاية أوريغون (OCPA)، ORS 646A.570-646A.589، حيز التنفيذ في يوليو 2024، مانحًا المستهلكين مزيدًا من التحكم في بياناتهم الشخصية. غالبًا ما يعتمد الذكاء الاصطناعي التوليدي على البيانات الشخصية للمستهلكين، وبالتالي ينطبق قانون خصوصية المستهلك في ولاية أوريغون (OCPA) مباشرةً على هذه التقنية. ويقدم الدليل بعض الأمثلة على الحالات التي ينطبق فيها قانون خصوصية المستهلك في ولاية أوريغون (OCPA) على الذكاء الاصطناعي، مثل:

  • إشعارات الخصوصية : يجب على الشركات أن تفصح بوضوح للمستهلكين في إشعارات الخصوصية الخاصة بها عند استخدام بيانات المستهلك لتدريب أنظمة الذكاء الاصطناعي.
  • التزامات مشتري البيانات: بموجب قانون حماية خصوصية المستهلك في أونتاريو (OCPA)، يُعتبر المطورون الذين يشترون أو يستخدمون مجموعات بيانات من جهات خارجية لتدريب النماذج "متحكمين". وهذا يعني أنهم ملزمون بالالتزام بنفس المعايير التي يلتزم بها جامعو البيانات الأصليون.
  • الموافقة على البيانات الحساسة (ORS 646A.578(2)(b)) : إذا كانت البيانات الحساسة، كما هو محدد في قانون حماية المستهلك في أورانج (OCPA)، يجب على الشركات الحصول على موافقة صريحة من المستهلكين قبل استخدام بياناتهم الشخصية لتدريب أو تطوير نماذج الذكاء الاصطناعي.
  • الموافقة الصريحة على الاستخدامات الثانوية (ORS 646A.578(2)(a)) : يلتزم مطورو ومستخدمو أنظمة الذكاء الاصطناعي بالحصول على موافقة صريحة على أي استخدامات جديدة أو ثانوية للبيانات تتجاوز غرضها الأولي.
  • إلغاء الموافقة (ORS 646A.578(1)(d)) : يجب على الشركات توفير آلية للمستهلكين لإلغاء موافقتهم ويجب عليها التوقف عن معالجة البيانات في غضون 15 يومًا من استلام طلب الإلغاء.
  • حقوق المستهلك : يجب على الشركات التي تستخدم أو تطور نماذج الذكاء الاصطناعي احترام حقوق المستهلك مثل الحق في إلغاء الاشتراك في التنميط والحق في طلب محو البيانات الشخصية التي يتم تقديمها لهم بموجب قانون حماية المستهلك عبر الإنترنت (OCPA).
  • تقييمات حماية البيانات (ORS 646A.586) : يُطلب من المطورين والمنفذين إجراء تقييمات حماية البيانات قبل معالجة البيانات الشخصية للمستهلكين لأغراض التنميط أو أي نشاط آخر يشكل "خطرًا متزايدًا على المستهلكين".

3. قانون حماية معلومات المستهلك في ولاية أوريغون

ينص قانون حماية معلومات المستهلك في ولاية أوريغون (OCIPA)، المواد من 646A.600 إلى 646A.628 من قانون ولاية أوريغون، على تدابير لحماية البيانات الشخصية للمستهلكين. ويوضح الدليل أن قانون OCIPA ينطبق على مطوري الذكاء الاصطناعي، حيث يُلزمهم بإخطار المستهلكين والمدعي العام لولاية أوريغون في حال حدوث خرق أمني. علاوة على ذلك، فإن انتهاكات قانون OCIPA قابلة للتنفيذ بموجب قانون حماية المستهلك الموحد (UTPA).

4. قانون المساواة في ولاية أوريغون

يهدف قانون المساواة في ولاية أوريغون (OEA)، الفصل 659A من قانون ولاية أوريغون، إلى منع التمييز وضمان تكافؤ الفرص للجميع. ويؤكد التوجيه على ضرورة ألا تُشجع أنظمة الذكاء الاصطناعي على التحيزات أو الممارسات التمييزية، لا سيما في المجالات الحساسة كالإسكان والتوظيف والإقراض، والتي تُعتبر غير قانونية بموجب قانون المساواة في ولاية أوريغون.

خاتمة

يُقدّم دليل ولاية أوريغون للذكاء الاصطناعي خارطة طريق مدروسة للاستخدام المسؤول والأخلاقي للذكاء الاصطناعي، مُبيّنًا كيف تُواصل القوانين الحالية معالجة تحديات الابتكارات الناشئة. ويُذكّر الدليل بأن الأطر القانونية القائمة لا تزال سارية وقادرة على تنظيم الذكاء الاصطناعي من خلال تسليط الضوء على تشريعات مُحدّدة. ويُحثّ الشركات التي تستخدم أو تُطوّر تقنيات الذكاء الاصطناعي على مواءمة ممارساتها مع هذه اللوائح لضمان الامتثال وحماية المستهلك والإنصاف. ويُعدّ هذا النهج المتوازن ضروريًا لتشجيع المسؤولية مع إتاحة المجال للابتكار في هذه البيئة التكنولوجية سريعة التطور.

كيف Securiti يمكن المساعدة

Securiti تُعدّ الشركة رائدةً في مجال مركز قيادة البيانات والذكاء الاصطناعي، وهي منصة مركزية تُمكّن من الاستخدام الآمن للبيانات والذكاء الاصطناعي من الجيل الجديد. وتُوفّر هذه المنصة ذكاءً موحدًا للبيانات، وضوابط، وتنسيقًا عبر بيئات سحابية هجينة متعددة. وتعتمد عليها كبرى الشركات العالمية. Securiti 's Data Command Center لأغراض أمن البيانات والخصوصية والحوكمة والامتثال.

Securiti تُمكّن منصة Gencore AI المؤسسات من الاتصال الآمن بمئات أنظمة البيانات مع الحفاظ على ضوابط البيانات وحوكمتها أثناء تدفق البيانات إلى أنظمة GenAI الحديثة. وتعتمد المنصة على مخطط معرفي فريد يوفر رؤى سياقية دقيقة حول البيانات وأنظمة الذكاء الاصطناعي.

توفر Gencore AI ضوابط قوية في جميع أنحاء نظام الذكاء الاصطناعي لضمان التوافق مع سياسات الشركات وحقوقها، والحماية من الهجمات الخبيثة، وحماية البيانات الحساسة. وهذا يمكّن المؤسسات من الامتثال لإرشادات الذكاء الاصطناعي في ولاية أوريغون.

اطلب عرضًا توضيحيًا لمعرفة المزيد.

قم بتحليل هذه المقالة باستخدام الذكاء الاصطناعي

تظهر المطالبات في أدوات الذكاء الاصطناعي التابعة لجهات خارجية.
انضم إلى قائمتنا البريدية

احصل على أحدث المعلومات والتحديثات القانونية والمزيد مباشرةً في بريدك الإلكتروني



قصص أخرى قد تهمك
مقاطع فيديو
عرض المزيد
ريحان جليل، من شركة Veeam، يتحدث عن Agent Commander: theCUBE + NYSE Wired: قادة الأمن السيبراني
بعد استحواذ شركة Veeam على Securiti يمثل إطلاق برنامج Agent Commander خطوة هامة نحو مساعدة المؤسسات على تبني وكلاء الذكاء الاصطناعي بثقة أكبر. في...
عرض المزيد
تخفيف مخاطر قائمة OWASP لأهم 10 مخاطر لتطبيقات ماجستير القانون 2025
أحدث الذكاء الاصطناعي التوليدي (GenAI) تحولاً جذرياً في طريقة عمل الشركات وتوسعها ونموها. يوجد تطبيق للذكاء الاصطناعي لكل غرض، بدءاً من زيادة إنتاجية الموظفين وصولاً إلى تبسيط العمليات...
عرض المزيد
أفضل 6 DSPM حالات الاستخدام
مع ظهور الذكاء الاصطناعي التوليدي (GenAI)، أصبحت البيانات أكثر ديناميكية. يتم توليد بيانات جديدة بوتيرة أسرع من أي وقت مضى، ونقلها إلى أنظمة وتطبيقات متنوعة...
عرض المزيد
قانون الخصوصية في كولورادو (CPA)
ما هو قانون خصوصية كولورادو؟ قانون خصوصية كولورادو هو قانون شامل لحماية الخصوصية، تم توقيعه في 7 يوليو 2021. وقد وضع معايير جديدة لحماية البيانات الشخصية...
عرض المزيد
Securiti لمساعد الطيار في البرمجيات كخدمة (SaaS)
تسريع اعتماد Copilot بأمان وثقة: تتطلع المؤسسات إلى اعتماد Microsoft 365 Copilot لزيادة الإنتاجية والكفاءة. ومع ذلك، تظل المخاوف الأمنية، مثل حماية البيانات...
عرض المزيد
أهم عشرة اعتبارات لاستخدام البيانات غير المهيكلة بأمان مع الذكاء الاصطناعي العام
نسبة مذهلة تصل إلى 90% من بيانات المؤسسات غير منظمة. وتُستخدم هذه البيانات بسرعة لتغذية تطبيقات الذكاء الاصطناعي من الجيل الجديد، مثل روبوتات الدردشة والبحث المدعوم بالذكاء الاصطناعي.
عرض المزيد
جينكور للذكاء الاصطناعي: بناء أنظمة ذكاء اصطناعي آمنة وعالية الجودة للمؤسسات في دقائق
مع تبني المؤسسات للذكاء الاصطناعي التوليدي، تواجه فرق البيانات والذكاء الاصطناعي العديد من العقبات: ربط مصادر البيانات غير المهيكلة والمهيكلة بشكل آمن، والحفاظ على الضوابط والحوكمة المناسبة،...
عرض المزيد
كيفية التعامل مع قانون حماية خصوصية المستهلك في كاليفورنيا: رؤى أساسية للشركات
ما هو قانون حقوق الخصوصية في كاليفورنيا (CPRA)؟ هو تشريع ولاية كاليفورنيا الذي يهدف إلى حماية خصوصية سكانها الرقمية. وقد دخل حيز التنفيذ في يناير...
عرض المزيد
التكيف مع التحول: الانتقال إلى معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS) الإصدار 4.0
ما هو معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS)؟ هو مجموعة من معايير الأمان لضمان المعالجة والتخزين الآمنين للبيانات، و...
عرض المزيد
تأمين البيانات والذكاء الاصطناعي: دليل إدارة الثقة والمخاطر والأمن (TRiSM)
أثارت المخاطر الأمنية المتزايدة للذكاء الاصطناعي قلق 48% من مسؤولي أمن المعلومات حول العالم. انضموا إلى هذه الجلسة الرئيسية للتعرف على دليل عملي لتمكين الثقة في الذكاء الاصطناعي، وإدارة المخاطر،...

جلسات حوارية مميزة

تسليط الضوء
الاستعداد للمستقبل لمحترفي الخصوصية
شاهد الآن منظر
تسليط الضوء 50:52
من البيانات إلى النشر: حماية الذكاء الاصطناعي المؤسسي من خلال الأمن والحوكمة
شاهد الآن منظر
تسليط الضوء 11:29
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
شاهد الآن منظر
تسليط الضوء 11:18
إعادة هيكلة تمويل العقارات - كيف تُجري شركة ووكر آند دنلوب تحديثًا لمحفظتها الاستثمارية البالغة 135 مليار دولار أمريكي بالاعتماد على البيانات أولاً
شاهد الآن منظر
تسليط الضوء 13:38
تسريع المعجزات - كيف تُدمج شركة سانوفي الذكاء الاصطناعي لتقليص مدة تطوير الأدوية بشكل كبير
صورة مصغرة لشركة سانوفي
شاهد الآن منظر
تسليط الضوء 10:35
حدث تحول جوهري في مركز ثقل البيانات
شاهد الآن منظر
تسليط الضوء 14:21
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
شاهد الآن منظر
تسليط الضوء 12:!3
لا يمكنك بناء خطوط الأنابيب أو المستودعات أو منصات الذكاء الاصطناعي بدون معرفة تجارية
شاهد الآن منظر
تسليط الضوء 47:42
الأمن السيبراني – حيث يقوم القادة بالشراء والبناء والشراكة
ريحان جليل
شاهد الآن منظر
تسليط الضوء 27:29
بناء ذكاء اصطناعي آمن باستخدام Databricks و Gencore
ريحان جليل
شاهد الآن منظر
أحدث
عرض المزيد
بناء ذكاء اصطناعي سيادي باستخدام HPE Private Cloud AI و Veeam Securiti Gencore AI
كيف تُساهم تقنيات الذكاء الاصطناعي في السحابة الخاصة من HPE، وتسريع NVIDIA، وVeeam؟ Securiti يدعم نظام Gencore AI الذكاء الاصطناعي الآمن والمُدار للمؤسسات مع تطبيق السياسات عبر سير العمل RAG والمساعدين والوكلاء.
عرض المزيد
Securiti أعلنت شركة .ai عن اختيار شركة أكسنتشر كشريك العام لعام 2025
في إطار الاحتفال المستمر بالتعاون المؤثر في DataAI Security ، Securiti منحت شركة .ai، التابعة لشركة Veeam، شركة Accenture لقب شريك العام لعام 2025....
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ قانون حماية خصوصية المستهلك في كاليفورنيا؟ عرض المزيد
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ القانون؟
يمكن للشركات أن تستفيد من بعض الدروس الحيوية من أكبر إجراء إنفاذي تم اتخاذه مؤخراً في تاريخ قانون خصوصية المستهلك في كاليفورنيا (CCPA). Securiti مدونة 's تغطي جميع التفاصيل المهمة التي يجب معرفتها.
عرض المزيد
الذكاء الاصطناعي وقانون HIPAA: ما يعنيه وكيفية أتمتة الامتثال
تعرّف على كيفية تطبيق قانون قابلية نقل التأمين الصحي والمساءلة (HIPAA) على الذكاء الاصطناعي في تأمين المعلومات الصحية المحمية. تعلّم كيف...
عرض المزيد
قلل من المعلومات التي تكشفها: ضوابط الخصوصية للذكاء الاصطناعي Agents and Copilots
تقليل انكشاف البيانات في الذكاء الاصطناعي agents and copilots قم بتطبيق ضوابط حماية الخصوصية مثل تقليل البيانات، وضوابط الوصول، وإخفاء البيانات، وإنفاذ السياسات لمنع التسريب و...
عرض المزيد
من وضوح البيانات إلى سرعة الذكاء الاصطناعي
اطلع على الورقة البيضاء واكتشف كيف يتم توحيد DataAI security يحوّل إدارة البيانات إلى عامل تمكين للأعمال، ويعزز ابتكار الذكاء الاصطناعي من خلال الشفافية والامتثال وإدارة المخاطر...
عرض المزيد
قائد العملاء: ملخص الحل
تعرّف على كيفية قيام Agent Commander باكتشاف وكلاء الذكاء الاصطناعي، وحماية بيانات المؤسسة من خلال ضوابط التشغيل، وتصحيح أخطاء الذكاء الاصطناعي - مما يتيح اعتماد الذكاء الاصطناعي بشكل آمن ومتوافق مع المعايير في...
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti عرض المزيد
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti
التزم بتعديلات قانون خصوصية المستهلك في كاليفورنيا لعام 2026 باستخدام Securiti وتشمل هذه المتطلبات تحديث متطلبات الموافقة، وتوسيع تعريفات البيانات الحساسة، وتعزيز حقوق المستهلك، وتقييمات الجاهزية.
عرض المزيد
تخلص من مخاطر البيانات في الذكاء الاصطناعي
تعرف على كيفية إعداد بيانات المؤسسة لاعتماد Gemini Enterprise بشكل آمن من خلال الحوكمة الأولية، واكتشاف البيانات الحساسة، وضوابط سياسة ما قبل الفهرسة.
عرض المزيد
دليل الحصول على شهادة HITRUST
Securiti يُعد الكتاب الإلكتروني دليلاً عملياً للحصول على شهادة HITRUST، ويغطي كل شيء بدءاً من اختيار i1 مقابل r2 ونطاق الأنظمة وصولاً إلى إدارة خطط العمل والتخطيط...
ما هو
جديد