حاكم ولاية فرجينيا يستخدم حق النقض ضد قانون مطوري ومستخدمي الذكاء الاصطناعي عالي المخاطر
في 24 مارس/آذار 2025، استخدم حاكم ولاية فرجينيا، غلين يونغكين، حق النقض ضد قانون مطوري ومنفذي الذكاء الاصطناعي عالي المخاطر (HB 2094)، مصرحًا بأن سنّه سيُنشئ إطارًا تنظيميًا مُرهقًا للذكاء الاصطناعي ويُعيق نمو صناعة الذكاء الاصطناعي في الولاية. أقرّ المجلس التشريعي مشروع القانون في 20 فبراير/شباط 2025، ولو لم يُستخدم حق النقض، لكان ثاني تشريع شامل للذكاء الاصطناعي على مستوى الولايات، بعد قانون الذكاء الاصطناعي في ولاية كولورادو .
أكد الحاكم في بيان نقضه أن مشروع القانون لم يراعِ التطور السريع لصناعة الذكاء الاصطناعي، وأنه سيُلقي عبئًا ثقيلًا على الشركات الصغيرة والناشئة. والجدير بالذكر أن غرفة التجارة الأمريكية كانت قد حثت الحاكم في وقت سابق من شهر فبراير على استخدام حق النقض ضد هذا المشروع لأسباب عديدة ، ولا سيما الأثر السلبي الذي قد يُلحقه بالشركات الصغيرة.
ماذا تضمن مشروع القانون؟
دعونا نلقي نظرة سريعة على ما كان سيصبح أول إطار تنظيمي شامل للذكاء الاصطناعي في ولاية فرجينيا لو تم سنّه.
نِطَاق
كان من المفترض أن ينطبق مشروع القانون بشكل أساسي على مطوري ومستخدمي أنظمة الذكاء الاصطناعي عالية المخاطر. ويصنف مشروع القانون نظام الذكاء الاصطناعي على أنه عالي المخاطر إذا كان مصممًا خصيصًا لاتخاذ قرارات مصيرية بشكل مستقل، أو أن يكون عاملًا أساسيًا في اتخاذها، فيما يتعلق بالمستهلكين. ويُعد أي قرار، بموجب مشروع القانون، قرارًا مصيريًا إذا كان له تأثير قانوني جوهري، أو تأثير مماثل في أهميته، على توفير أو حجب الخدمات الأساسية، مثل التوظيف، والسكن، والتأمين، والتعليم، وما إلى ذلك.
التزامات المطورين والناشرين
كان مشروع القانون سيُلزم مطوري أنظمة الذكاء الاصطناعي عالية المخاطر بما يلي:
- الكشف عن التطبيقات المقترحة لنظام الذكاء الاصطناعي عالي المخاطر؛
- الاحتفاظ بوثائق شاملة، بما في ذلك تقييمات أداء نظام الذكاء الاصطناعي، وتدابير إدارة البيانات، وتقييمات الأثر، وبطاقة النموذج، وما إلى ذلك؛
- الالتزام بأطر إدارة مخاطر الذكاء الاصطناعي المعترف بها، مثل إطار إدارة مخاطر الذكاء الاصطناعي الصادر عن المعهد الوطني للمعايير والتكنولوجيا (NIST)، ومعيار ISO/IEC 42001، وما إلى ذلك، و
- قم بتصنيف المحتوى الرقمي الاصطناعي لتسهيل تعرف المستهلك عليه.
وبالمثل، كان سيُطلب من القائمين على نشر أنظمة الذكاء الاصطناعي عالية المخاطر ما يلي:
- حماية المستهلكين من المخاطر المعروفة أو المتوقعة للتمييز الخوارزمي؛
- إجراء تقييمات الأثر قبل نشر نظام الذكاء الاصطناعي عالي المخاطر؛
- إخطار المستهلكين بشأن تفاعلهم مع نظام الذكاء الاصطناعي؛
- إبلاغ المستهلكين بأسباب القرار السلبي، ومصادر البيانات، وحقهم في التصحيح والاستئناف؛ و
- نشر بيانات واضحة بشأن إدارة مخاطر التمييز والاحتفاظ بها.
أهم النقاط
يتماشى رفض ولاية فرجينيا لمشروع القانون HB 2094 مع النهج الأوسع الذي تتبعه الحكومة الفيدرالية الأمريكية، والذي يركز بشكل أكبر على تعزيز ابتكارات الذكاء الاصطناعي بدلاً من التركيز على السلامة، كما هو الحال في الاتحاد الأوروبي. وبينما تُدرس مشاريع قوانين مماثلة من قبل هيئات تشريعية في ولايات مختلفة، فإن التوجه في الولايات المتحدة يميل أكثر نحو الاعتماد على الأطر التنظيمية القائمة بدلاً من سن قوانين جديدة فيما يتعلق بتنظيم التقنيات الناشئة، وخاصة الذكاء الاصطناعي.
كيف Securiti يمكن المساعدة
Securiti تُعدّ الشركة رائدةً في مجال مركز قيادة البيانات والذكاء الاصطناعي، وهي منصة مركزية تُمكّن من الاستخدام الآمن للبيانات والذكاء الاصطناعي من الجيل الجديد. وتُوفّر هذه المنصة ذكاءً موحدًا للبيانات، وضوابط، وتنسيقًا عبر بيئات سحابية هجينة متعددة. وتعتمد عليها كبرى الشركات العالمية. Securiti 's Data Command Center لأغراض أمن البيانات والخصوصية والحوكمة والامتثال.
Securiti تُمكّن منصة Gencore AI المؤسسات من الاتصال الآمن بمئات أنظمة البيانات مع الحفاظ على ضوابط البيانات وحوكمتها أثناء تدفق البيانات إلى أنظمة GenAI الحديثة. وتعتمد المنصة على مخطط معرفي فريد يوفر رؤى سياقية دقيقة حول البيانات وأنظمة الذكاء الاصطناعي.
توفر Gencore AI ضوابط قوية في جميع أنحاء نظام الذكاء الاصطناعي لضمان التوافق مع سياسات الشركة وحقوقها، والحماية من الهجمات الخبيثة، وحماية البيانات الحساسة. وهذا يمكّن المؤسسات من الامتثال للوائح الذكاء الاصطناعي.
اطلب عرضًا توضيحيًا لمعرفة المزيد.