تم توقيع مشروع قانون الجمعية العامة لولاية كاليفورنيا لعام 2013 (AB 2013) بشأن الذكاء الاصطناعي التوليدي: شفافية بيانات التدريب ليصبح قانونًا في 28 سبتمبر 2024، بعد أن وافق عليه مجلس الولاية ومجلس الشيوخ بالولاية.
يُدخل القانون متطلبات الشفافية لمطوري أنظمة الذكاء الاصطناعي التوليدي (GenAI) . ويُلزم المطورين بالكشف علنًا عن معلومات حول البيانات المستخدمة لتدريب واختبار نماذج الذكاء الاصطناعي التوليدي الخاصة بهم. وتُستثنى من هذه المتطلبات أنظمة وخدمات الذكاء الاصطناعي التوليدي المستخدمة لأغراض تتعلق بالأمن القومي أو الشؤون العسكرية أو الدفاعية.
يتناول هذا القانون المخاوف التنظيمية والعامة المتزايدة بشأن تحيز النماذج، والخصوصية، وعوامل المساءلة الأخلاقية الأخرى. ولذلك، يُعدّ خطوة أولى حيوية في اتجاه يتطلب من المطورين مزيدًا من الشفافية بشأن عمليات تطوير البرمجيات الخلفية. ويساعد هذا القانون سكان كاليفورنيا على فهم كيفية عمل أنظمة الذكاء الاصطناعي بشكل أفضل، مع تعزيز الابتكار المسؤول.
تابع القراءة لمعرفة المزيد عن القانون بمزيد من التفصيل.
على من ينطبق القانون؟
ينطبق القانون على مطوري أنظمة أو خدمات الذكاء الاصطناعي التوليدي، أو الكيانات التي تُجري تعديلات جوهرية على هذه الأنظمة. ويشمل مصطلح "المطور" أي شخص أو شراكة أو وكالة حكومية (على مستوى الولاية أو المستوى المحلي) أو شركة تقوم بتصميم أو برمجة أو إنتاج أو إجراء تعديلات جوهرية على نظام أو خدمة ذكاء اصطناعي لاستخدامها من قِبل عامة الناس. ويُستثنى من تعريف عامة الناس ما يلي:
- الكيانات التابعة هي الكيانات التي تسيطر، بشكل مباشر أو غير مباشر، عبر وسيط واحد أو أكثر، على كيان آخر، أو تخضع لسيطرته، أو تخضع لسيطرة مشتركة معه. وهذا يعني أن شرط نشر الوثائق العامة بموجب قانون AB 2013 لا ينطبق إلا عندما تُتاح أنظمة الذكاء الاصطناعي خارج الشبكة الداخلية أو التابعة للمنظمة.
- أعضاء الطاقم الطبي في المستشفى.
إن عبارة "يعدلها بشكل جوهري" تعني إنشاء إصدار جديد أو إصدار جديد أو تحديث آخر لنظام أو خدمة الذكاء الاصطناعي التوليدي الذي يغير بشكل جوهري وظائفه أو أدائه، بما في ذلك نتائج إعادة التدريب أو الضبط الدقيق.
ما الذي ينظمه؟
ينظم القانون "الذكاء الاصطناعي التوليدي"، والذي يُعرَّف بأنه الذكاء الاصطناعي القادر على توليد محتوى اصطناعي مشتق، مثل النصوص والصور والفيديوهات والصوتيات، والذي يحاكي بنية وخصائص بيانات تدريب الذكاء الاصطناعي. ويسري هذا التنظيم على الأنظمة أو الخدمات التي تم إصدارها في أو بعد 1 يناير 2022.
التزامات المطورين
يُطلب من المطورين نشر وثائق محددة حول بيانات التدريب على مواقعهم الإلكترونية العامة بحلول 1 يناير 2026 (أو قبل إجراء أي تعديلات جوهرية). يجب أن تتضمن هذه الوثائق ما يلي:
- مصادر أو مالكي مجموعات البيانات.
- وصف لكيفية توافق مجموعات البيانات مع الغرض المقصود من نظام الذكاء الاصطناعي.
- عدد وأنواع نقاط البيانات في مجموعات البيانات.
- سواء كانت مجموعات البيانات تحتوي على معلومات محمية بحقوق الطبع والنشر، أو العلامات التجارية، أو براءات الاختراع، أو معلومات متاحة للجمهور.
- سواء قام المطور بشراء مجموعات البيانات أو ترخيصها.
- سواء كانت مجموعات البيانات تتضمن "معلومات شخصية" أو "معلومات المستهلك المجمعة".
- سواء قام المطور بتنظيف أو معالجة أو تعديل مجموعات البيانات والغرض المقصود من تلك الجهود فيما يتعلق بنظام أو خدمة الذكاء الاصطناعي؛
- الفترة الزمنية لجمع البيانات وما إذا كان جمع البيانات مستمراً.
- الفترة الزمنية التي تم خلالها جمع البيانات في مجموعات البيانات، بما في ذلك إشعار إذا كان جمع البيانات مستمراً.
- معلومات حول توليد البيانات الاصطناعية، إن وجدت.
الإعفاءات
تُستثنى بعض أنظمة أو خدمات الذكاء الاصطناعي من متطلبات شفافية بيانات التدريب:
- أنظمة أو خدمات الذكاء الاصطناعي المستخدمة حصراً لأغراض الأمن والنزاهة.
- أنظمة أو خدمات الذكاء الاصطناعي المستخدمة لتشغيل الطائرات في المجال الجوي الوطني.
- أنظمة أو خدمات الذكاء الاصطناعي المطورة لأغراض الأمن القومي أو العسكرية أو الدفاعية، متاحة فقط للكيانات الفيدرالية.
أهم النقاط الرئيسية
يُعدّ الاحتفاظ بسجلّ لمصدر البيانات أمرًا بالغ الأهمية للامتثال لقانون الجمعية لعام 2013، الذي يُلزم بالشفافية فيما يتعلق بمجموعات البيانات المستخدمة لتدريب أنظمة الذكاء الاصطناعي التوليدية. ومن خلال تتبّع مصدر مجموعات البيانات وملكيةها وتعديلاتها واستخدامها بدقة، تستطيع الشركات تلبية متطلبات القانون بالإفصاح عن كيفية دعم البيانات لوظائف الذكاء الاصطناعي، وما إذا كانت تحتوي على معلومات شخصية أو حساسة ، وما إذا كانت تُستخدم أي بيانات اصطناعية.