مقدمة
يستلزم التطور السريع للذكاء الاصطناعي وضع أطر تنظيمية متينة تتصدى لمخاطره وتأثيره على المجتمع. وتُعدّ كاليفورنيا، الرائدة في مجال الأطر التنظيمية، في طليعة الولايات التي تتصدى للمخاطر المرتبطة بالذكاء الاصطناعي.
يتناول مشروع قانون الجمعية العامة لولاية كاليفورنيا رقم 2885 (AB 2885) ، وهو أحد أحدث مبادرات الولاية، تطوير الذكاء الاصطناعي ونشره وتنظيمه على وجه التحديد. ويهدف هذا القانون التشريعي إلى توحيد تعريف "الذكاء الاصطناعي" في مختلف قوانين كاليفورنيا. ويُعدّ هذا الأمر بالغ الأهمية نظرًا للنمو الهائل الذي يشهده قطاع الذكاء الاصطناعي وتزايد تطبيقاته في الحياة اليومية. وقد عدّل مشروع القانون قانون الأعمال والمهن ، وقانون التعليم ، وقانون الحكومة فيما يتعلق بالذكاء الاصطناعي . وقد أقرّ وزير الخارجية مشروع القانون AB 2885 في 28 سبتمبر 2024.
يتناول هذا الدليل بالتفصيل التعريفات الرئيسية الواردة في القانون AB 2885، والتعديلات، والأحكام الرئيسية، والآثار المترتبة على الشركات، وكيفية تطبيقها. Securiti يمكن أن يساعد ذلك في ضمان الامتثال السريع.
ثانيًا: التعريفات الرئيسية
عدّل القانون AB 2885 قانون الأعمال والمهن، وقانون التعليم، وقانون الحكومة فيما يتعلق بالذكاء الاصطناعي للتعريفات التالية:
أ. الذكاء الاصطناعي
"الذكاء الاصطناعي" يعني نظامًا مصممًا أو قائمًا على الآلة يختلف في مستوى استقلاليته ويمكنه، لأهداف صريحة أو ضمنية، أن يستنتج من المدخلات التي يتلقاها كيفية توليد مخرجات يمكن أن تؤثر على البيئات المادية أو الافتراضية.
ب. نظام اتخاذ القرار الآلي
يُقصد بـ"نظام اتخاذ القرار الآلي" عملية حسابية مستمدة من التعلم الآلي، أو النمذجة الإحصائية، أو تحليل البيانات، أو الذكاء الاصطناعي، تُصدر مخرجات مبسطة، تشمل درجة أو تصنيفًا أو توصية، تُستخدم لمساعدة أو استبدال عملية اتخاذ القرار البشري التقديرية، وتؤثر بشكل ملموس على الأفراد. ولا يشمل "نظام اتخاذ القرار الآلي" مرشح البريد الإلكتروني العشوائي، أو جدار الحماية، أو برامج مكافحة الفيروسات، أو أدوات إدارة الهوية والوصول، أو الآلة الحاسبة، أو قاعدة البيانات، أو مجموعة البيانات، أو أي تجميع آخر للبيانات.
ج. المحتوى
يشير مصطلح "المحتوى" إلى التصريحات أو التعليقات التي يدلي بها المستخدمون، والوسائط التي يتم إنشاؤها أو نشرها أو مشاركتها أو التفاعل معها بأي شكل آخر من قِبل المستخدمين على خدمة أو تطبيق عبر الإنترنت. ولا يشمل ذلك الوسائط التي يتم وضعها على خدمة أو تطبيق حصراً لأغراض التخزين السحابي أو نقل الملفات أو التعاون في الملفات.
د. التزييف العميق
"التزييف العميق" يعني المحتوى الصوتي أو المرئي، الذي يتم إنشاؤه أو التلاعب به بواسطة الذكاء الاصطناعي، والذي من شأنه أن يبدو زائفًا على أنه أصلي أو حقيقي ويتضمن تصويرًا لأشخاص يبدو أنهم يقولون أو يفعلون أشياء لم يقولوها أو يفعلوها دون موافقتهم.
هـ. تزوير المحتوى الرقمي
"تزوير المحتوى الرقمي" يعني استخدام التقنيات، بما في ذلك الذكاء الاصطناعي وتقنيات التعلم الآلي، لتلفيق أو التلاعب بالمحتوى الصوتي أو المرئي أو النصي بقصد التضليل.
و. مصدر المحتوى الرقمي
"أصل المحتوى الرقمي" يعني التسلسل الزمني القابل للتحقق للجزء الأصلي من المحتوى الرقمي، مثل الصورة أو الفيديو أو التسجيل الصوتي أو المستند الإلكتروني.
ز. نظام اتخاذ القرارات الآلي عالي المخاطر
"نظام اتخاذ القرارات الآلي عالي المخاطر" يعني نظام اتخاذ القرارات الآلي الذي يستخدم لمساعدة أو استبدال القرارات التقديرية البشرية التي لها تأثير قانوني أو تأثير كبير مماثل، بما في ذلك القرارات التي تؤثر بشكل مادي على الوصول إلى السكن أو أماكن الإقامة أو الموافقة عليها، والتعليم، والتوظيف، والائتمان، والرعاية الصحية، والعدالة الجنائية.
ثالثًا: وكالة العمليات الحكومية
يُحدد القسم 4 من مشروع القانون AB 2885 التعديلات التي أُدخلت على قانون الحكومة. وينص القانون على إنشاء وكالة عمليات حكومية تابعة لوزير العمليات الحكومية، الذي يُكلف بتقييم آثار ومخاطر تقنيات التزييف العميق وتزوير المحتوى الرقمي على حكومة ولاية كاليفورنيا، والشركات العاملة فيها، وسكانها. وسيشمل التقييم ما يلي:
- انتشار تقنية التزييف العميق على نطاق واسع وما يرتبط بها من مخاطر تتعلق بالخصوصية.
- الآثار المحتملة لهذه التقنيات على الخصوصية وتأثير تقنيات تزوير المحتوى الرقمي على المشاركة المدنية، بما في ذلك تأثيرها على الناخبين.
- الآثار القانونية المحيطة بهذه التقنيات.
- أفضل الممارسات للتخفيف من المخاطر، بما في ذلك جدوى اعتماد معيار لأصل المحتوى الرقمي لمكافحة التزوير والتزييف العميق.
يهدف هذا التقييم إلى تعزيز الخصوصية والأمان والثقة في المحتوى الرقمي. بالإضافة إلى ذلك، كُلِّف وزير العمليات الحكومية بوضع خطة تتضمن ما يلي:
- دراسة جدوى وتحديات تطوير معايير تحديد مصدر المحتوى الرقمي للدوائر الحكومية.
- تعزيز التدقيق في عمليات التزوير الرقمي لصالح شركات الإنترنت والصحفيين ومنظمات الرقابة والجمهور.
- تطوير آليات لمنشئي المحتوى للتحقق من صحة الوسائط الأصلية والتلاعبات غير الخادعة باستخدام التشفير.
- تطوير أو تحديد أدوات للجمهور للتحقق من صحة وسائل الإعلام مع الحفاظ على الخصوصية والحريات المدنية.
تهدف هذه الخطة إلى تحسين الثقة في المحتوى الرقمي مع حماية الخصوصية الشخصية.
تقرير
يتعين على وزير العمليات الحكومية تقديم تقرير إلى المجلس التشريعي بحلول الأول من أكتوبر/تشرين الأول 2024، يُقيّم فيه التطبيقات والمخاطر المحتملة لتقنية التزييف العميق على الشركات في كاليفورنيا وحكومة الولاية. ويتضمن هذا التقرير خطة منسقة وتوصيات لتعديل تعريفات تزوير المحتوى الرقمي والتزييف العميق. ويجب أن يلتزم التقرير بأحكام المادة 9795 من قانون الحكومة. وينتهي العمل بهذا البند في الأول من يناير/كانون الثاني 2025، ما لم يمدده أي تشريع لاحق.
رابعاً: قسم التكنولوجيا
ينص مشروع القانون AB 2885، من خلال تعديل قانون الحكومة، على إنشاء وزارة التكنولوجيا لإجراء جرد تفصيلي لجميع أنظمة اتخاذ القرارات الآلية عالية المخاطر التي تم اقتراح استخدامها أو تطويرها أو شرائها من قبل أي وكالة حكومية، أو التي تستخدمها أو تطورها أو تشتريها حاليًا أي وكالة حكومية، وذلك بحلول 1 سبتمبر 2024 كحد أقصى، بالتنسيق مع الهيئات المشتركة بين الوكالات الأخرى حسبما تراه الوزارة مناسبًا. ويجب أن يشمل هذا الجرد ما يلي:
- القرارات التي يمكن لنظام اتخاذ القرارات الآلي اتخاذها أو دعمها والفوائد المرجوة منها.
- نتائج البحث التي تقيّم فعالية ومزايا تطبيقات وبدائل نظام اتخاذ القرار الآلي.
- فئات البيانات والمعلومات الشخصية المستخدمة.
- تدابير تخفيف المخاطر، بما في ذلك مقاييس الأداء، وضوابط الأمن السيبراني، وضوابط الخصوصية، وتقييمات المخاطر.
- إجراءات الطعن في القرارات التي تتخذها هذه الأنظمة.
يهدف هذا إلى ضمان الشفافية والأمن والإنصاف في استخدام الذكاء الاصطناعي من قبل الكيانات الحكومية.
تقرير
يتعين على وزارة التكنولوجيا تقديم تقرير شامل عن أنظمة اتخاذ القرارات الآلية عالية المخاطر إلى لجنة مجلس الشيوخ المعنية بالتنظيم الحكومي ولجنة الجمعية العامة المعنية بالخصوصية وحماية المستهلك بحلول 1 يناير 2025، وفي كل عام بعد ذلك. وينتهي هذا الالتزام بتقديم التقارير في 1 يناير 2029. ووفقًا للمادة 9795 من قانون الحكومة، يجب أن تلتزم جميع التقارير ببروتوكولات التقديم الصحيحة للتقارير التشريعية.
خامساً: الأحكام الرئيسية بموجب القانون AB 2885
تتضمن الأحكام الرئيسية لمشروع القانون AB 2885 ما يلي:
أ. جرد أنظمة الذكاء الاصطناعي عالية المخاطر
يتعين على وزارة التكنولوجيا تحديد الجهات الحكومية التي تستخدم "أنظمة الذكاء الاصطناعي عالية المخاطر" وإدراجها في قائمة جرد. تُصنف هذه الأنظمة على أنها عالية المخاطر نظرًا لقدرتها على التأثير بشكل كبير على الأفراد أو الجماعات، لا سيما في مجالات مثل السلامة العامة والتوظيف والرعاية الصحية. والهدف من ذلك هو ضمان إلمام الجهات الحكومية التام بتطبيقات الذكاء الاصطناعي وآثاره المجتمعية المحتملة.
ستقوم إدارة التكنولوجيا بتقييم كيفية اتخاذ هذه الأنظمة للقرارات وضمان استخدامها بمسؤولية. وسيشمل الجرد أوصافًا لأنظمة الذكاء الاصطناعي، وتطبيقاتها المقصودة، وأي بيانات مستخدمة في تدريبها أو تشغيلها.
ب. المحتوى المُزيّف بتقنية التزييف العميق والذكاء الاصطناعي المُتلاعب
يُسلّط مشروع القانون AB 2885 الضوء على المخاوف بشأن المحتوى التلاعبي المُولّد بواسطة الذكاء الاصطناعي، مثل تقنية التزييف العميق، والذي يُشكّل خطرًا كبيرًا على السلامة العامة والخصوصية. ويقترح مشروع القانون AB 2885 آليات للكشف عن استخدام المحتوى الخادع المُولّد بواسطة الذكاء الاصطناعي في العمليات الحكومية والحدّ منه.
ج. إعانات التنمية الاقتصادية
تنص المادة 53083.1 من قانون الحكومة، بصيغتها المعدلة، على إلزام السلطات المحلية بتقديم معلومات شاملة للجمهور قبل منح إعانات مراكز التوزيع التابعة للمستودعات لأغراض التنمية الاقتصادية. وتشمل هذه المعلومات بيانات المستفيد، وجدول الإعانة، وفرص العمل المتوقعة، والأجور، والإيرادات الضريبية.
يتعين على الوكالات أيضاً عقد جلسات استماع عامة سنوية وتقديم تقارير عن تأثيرات الذكاء الاصطناعي على التوظيف، ولا سيما الأتمتة المرتبطة به. ويُحظر إبرام اتفاقيات عدم الإفصاح، ويتعين على الوكالات تقديم تقاريرها إلى مكتب الحاكم. تضمن هذه الإجراءات الشفافية والمساءلة فيما يتعلق بالإعانات العامة.
سادساً: آثار القانون AB 2885
يُدخل مشروع القانون AB 2885 آثاراً متعددة على مختلف الكيانات المتأثرة بأحكامه.
أ. للوكالات الحكومية
ينص مشروع القانون على إلزام الوكالات الحكومية بإجراء عمليات تدقيق شاملة للتحيز والنزاهة، وتقييم أنظمة الذكاء الاصطناعي لديها، وضمان شفافية استخدامها. ورغم أن هذه الخطوات قد تؤدي إلى زيادة النفقات الإدارية، إلا أنها تهدف إلى ضمان الاستخدام المناسب والأخلاقي للذكاء الاصطناعي.
ب. لسكان كاليفورنيا
يحمي هذا الإجراء الأفراد من الأحكام الغامضة أو المتحيزة الصادرة عن الذكاء الاصطناعي. كما يمنحهم الحق في معرفة كيفية تأثير أدوات الذكاء الاصطناعي عليهم والقدرة على الاعتراض على عملية صنع القرار في أنظمة الذكاء الاصطناعي.
ج. لمطوري التكنولوجيا
يجب على مطوري أنظمة الذكاء الاصطناعي الالتزام بالمبادئ التوجيهية المتطورة بشأن الشفافية، والحد من التحيز، والاعتبارات الأخلاقية. وقد يؤدي عدم الالتزام إلى تدقيق أكبر في نماذج الذكاء الاصطناعي التي ينتجها المطورون، وربما يؤثر على تصميم تقنيات الذكاء الاصطناعي المستقبلية.
سابعاً: كيف Securiti يمكن المساعدة
Securiti هو رائد في Data Command Center منصة مركزية تُمكّن من الاستخدام الآمن للبيانات والذكاء الاصطناعي العام. توفر هذه المنصة ذكاءً موحدًا للبيانات، وضوابط، وتنسيقًا عبر بيئات سحابية هجينة متعددة. وتعتمد عليها كبرى الشركات العالمية. Securiti 's Data Command Center لأغراض أمن البيانات والخصوصية والحوكمة والامتثال.
Securiti تُزيل مجموعة Genstack AI Suite من GenStack التعقيدات والمخاطر الكامنة في دورة حياة الذكاء الاصطناعي العام، مما يُمكّن المؤسسات من استخدام بياناتها المنظمة وغير المنظمة بسرعة وأمان في أي مكان مع أي نظام ذكاء اصطناعي وأنظمة إدارة التعلم. توفر المجموعة ميزات مثل استيعاب البيانات واستخراجها بشكل آمن، وإخفاء البيانات، وإخفاء الهوية، والتنقيح، بالإضافة إلى إمكانيات الفهرسة والاسترجاع. علاوة على ذلك، تُسهّل المجموعة تهيئة أنظمة إدارة التعلم للأسئلة والأجوبة، وضوابط البيانات المدمجة للحوكمة والخصوصية والأمان، وجدران الحماية لأنظمة إدارة التعلم لتمكين التبني الآمن للذكاء الاصطناعي العام.
اطلب عرضًا توضيحيًا لمعرفة المزيد.
الأسئلة الشائعة