أدى ظهور الذكاء الاصطناعي إلى سلسلة من التغييرات الجذرية، حيث تعيد الشركات في مختلف القطاعات هيكلة أعمالها وتحديد مساراتها نحو الابتكار. ومع الفرص الكبيرة، تأتي الحاجة إلى تنظيم سريع. وكما هو الحال مع اللائحة العامة لحماية البيانات (GDPR) السابقة، يتميز الاتحاد الأوروبي بكونه أول من أصدر قانونًا شاملًا بشأن الذكاء الاصطناعي، وهو ما يُعرف باسم " قانون الذكاء الاصطناعي ".
في 13 مارس 2024، وافق البرلمان الأوروبي على مشروع القانون بأغلبية ساحقة. إليكم ما تحتاج المنظمات إلى معرفته:
يهدف قانون الذكاء الاصطناعي للاتحاد الأوروبي
يحدد قانون الذكاء الاصطناعي المبادئ التوجيهية العامة لتطبيق الأنظمة والمنتجات والخدمات القائمة على الذكاء الاصطناعي. ويهدف إلى حماية استخدام البيانات الشخصية وغير الشخصية، والحقوق والمصالح الأساسية للأفراد داخل الاتحاد الأوروبي، وضمان أن تكون أنظمة الذكاء الاصطناعي المستخدمة آمنة وشفافة وقابلة للتتبع وغير تمييزية وصديقة للبيئة، وأن تخضع لإشراف بشري وليس تقنيات آلية.
تعريف نظام الذكاء الاصطناعي
يُرسّخ هذا القانون تعريفاً موحداً ومحايداً تكنولوجياً لماهية نظام الذكاء الاصطناعي، وهو تعريف يهدف إلى أن يكون واسعاً ومرناً بما يكفي ليشمل التطورات المستقبلية في مجال الذكاء الاصطناعي:
نظام قائم على الآلة مصمم للعمل بمستويات متفاوتة من الاستقلالية، وقد يُظهر قدرة على التكيف بعد النشر، ويستنتج، لأهداف صريحة أو ضمنية، من المدخلات التي يتلقاها، كيفية توليد مخرجات مثل التنبؤات أو المحتوى أو التوصيات أو القرارات التي يمكن أن تؤثر على البيئات المادية أو الافتراضية.
من ينطبق عليه قانون الذكاء الاصطناعي: النطاق والاستثناءات
كما هو الحال مع اللائحة العامة لحماية البيانات (GDPR)، فإن قانون الذكاء الاصطناعي له تطبيق خارج الحدود الإقليمية، مما يعني أن الشركات التي تعمل خارج الاتحاد الأوروبي قد تكون متورطة.
ينطبق قانون الذكاء الاصطناعي على:
- مقدمو الخدمات الذين يطرحون أنظمة الذكاء الاصطناعي أو نماذج الذكاء الاصطناعي للأغراض العامة في الاتحاد الأوروبي في السوق أو يضعونها في الخدمة، بغض النظر عما إذا كان مقدمو الخدمات موجودين في الاتحاد الأوروبي أم لا.
- مُشغّلو أنظمة الذكاء الاصطناعي الذين تم تأسيسهم أو تواجدوا داخل الاتحاد الأوروبي.
- مقدمو ومطورو أنظمة الذكاء الاصطناعي التي تُستخدم مخرجاتها داخل الاتحاد الأوروبي، بغض النظر عما إذا كان مقدمو أو مطورو هذه الأنظمة موجودين أو مقيمين داخل الاتحاد الأوروبي أو خارجه، بما في ذلك:
- مستوردون وموزعون لأنظمة الذكاء الاصطناعي؛
- قيام مصنعي المنتجات بطرح نظام الذكاء الاصطناعي في السوق أو تشغيله مع منتجاتهم وتحت اسمهم أو علامتهم التجارية الخاصة؛
- الممثلون المعتمدون لمقدمي الخدمات غير المقيمين في الاتحاد الأوروبي؛ و
- الأشخاص المتضررون المقيمون في الاتحاد الأوروبي.
تُستثنى الأنظمة والمجموعات التالية من القانون:
- السلطات العامة في الدول غير الأعضاء في الاتحاد الأوروبي والمنظمات الدولية التي تستخدم أنظمة الذكاء الاصطناعي بموجب اتفاقيات دولية لإنفاذ القانون أو التعاون القضائي مع الاتحاد الأوروبي أو الدولة (الدول) العضو، شريطة وجود ضمانات كافية لحماية البيانات الشخصية.
- أنظمة الذكاء الاصطناعي التي تم تطويرها أو استخدامها لأغراض تتجاوز سلطة الاتحاد الأوروبي في سن القوانين، مثل الأغراض العسكرية أو الدفاعية أو الأمنية الوطنية.
- المستخدمون الذين هم أشخاص طبيعيون يستخدمون أنظمة الذكاء الاصطناعي في سياق نشاط شخصي بحت وغير مهني.
- أنشطة البحث والاختبار (باستثناء الاختبار في ظروف العالم الحقيقي) والتطوير المتعلقة بأنظمة الذكاء الاصطناعي قبل طرحها في السوق أو استخدامها كخدمة، شريطة أن يتم تنفيذ هذه الأنشطة بما يتوافق مع قانون الاتحاد الأوروبي المعمول به.
- أنظمة الذكاء الاصطناعي التي يتم إصدارها بموجب تراخيص مجانية ومفتوحة المصدر ما لم يتم طرحها في السوق أو استخدامها كأنظمة ذكاء اصطناعي عالية المخاطر أو تندرج تحت الفصل الثاني والفصل الرابع من قانون الذكاء الاصطناعي.
نهج قائم على المخاطر: غير مقبول وعالي المخاطر
يصنف قانون الذكاء الاصطناعي أنظمة الذكاء الاصطناعي إلى فئتين رئيسيتين بناءً على المخاطر التي تشكلها تطبيقاتها واستخداماتها. وتختلف التزاماتها تبعاً لمستوى المخاطر التي يسببها نظام الذكاء الاصطناعي.
الفئة الأولى من المخاطر: أنظمة الذكاء الاصطناعي ذات المخاطر غير المقبولة
تُصنّف أنظمة الذكاء الاصطناعي التي تنطوي على مخاطر "غير مقبولة" بأنها تُعرّض سلامة الأفراد وحقوقهم الأساسية للخطر بشكل واضح، أو لديها القدرة على انتهاكها، مما قد يؤدي إلى أضرار جسدية أو نفسية. وبموجب قانون الذكاء الاصطناعي، يُحظر وضع هذه الأنظمة أو تشغيلها أو استخدامها في الاتحاد الأوروبي.
الفئة الثانية من المخاطر: أنظمة الذكاء الاصطناعي عالية المخاطر
تُعتبر أنظمة الذكاء الاصطناعي التي تُشكّل خطرًا كبيرًا على سلامة الأفراد أو صحتهم أو حقوقهم الأساسية "عالية الخطورة" بموجب القانون، ويُسمح باستخدامها مع التزامات مُحددة. تشمل هذه الفئة مكونات السلامة في المنتجات الخاضعة للوائح الاتحاد الأوروبي الخاصة بكل قطاع، والتي تظل تُصنّف عالية الخطورة خلال تقييم المطابقة من قِبل جهة خارجية بموجب تلك اللوائح. تتضمن التزامات أنظمة الذكاء الاصطناعي عالية الخطورة، من بين أمور أخرى، التوثيق، والتتبع، والأمن السيبراني، والإشراف البشري، إلى جانب متطلبات الشفافية التي تُلزم مُزوّدي أنظمة الذكاء الاصطناعي بإبلاغ المستخدمين النهائيين بأنهم يتفاعلون مع نظام ذكاء اصطناعي.
السلطات التنظيمية والعقوبات المترتبة على عدم الامتثال
يقترح قانون الذكاء الاصطناعي إنشاء هيئة إنفاذ جديدة على مستوى الاتحاد الأوروبي تُسمى المجلس الأوروبي للذكاء الاصطناعي (EAIB، أو "مجلس الذكاء الاصطناعي") ، تتولى مسؤولية وضع مدونات قواعد السلوك، وتقديم المشورة بشأن تنفيذ القانون، وتعزيز الوعي بالذكاء الاصطناعي، وجمع وتبادل الخبرات وأفضل الممارسات. إضافةً إلى ذلك، يتعين على الدول الأعضاء تعيين جهة إخطار واحدة على الأقل، وهيئة مراقبة سوق واحدة على الأقل، لضمان الامتثال على المستوى الوطني.
كما يدعو قانون الذكاء الاصطناعي إلى إنشاء مكتب للذكاء الاصطناعي لتنسيق إنفاذ قانون الذكاء الاصطناعي والتحقيق في الانتهاكات، ولجنة علمية من الخبراء المستقلين لتقديم المشورة ومراقبة المخاطر المحتملة المتعلقة بالسلامة، ومنتدى استشاري لأصحاب المصلحة لتقديم الخبرة الفنية وإشراك وجهات نظر مختلفة في عملية صنع القرار.
تماشياً مع النهج القائم على المخاطر، تختلف العقوبات المفروضة بموجب قانون الذكاء الاصطناعي بناءً على مدى خطورة المخالفة:
- في حالة انتهاك المحظورات المنصوص عليها في قانون الذكاء الاصطناعي، يمكن أن تصل الغرامات إلى 35 مليون يورو أو 7٪ من إجمالي الإيرادات السنوية العالمية للسنة المالية السابقة، أيهما أعلى.
- قد يؤدي عدم الامتثال فيما يتعلق بنماذج GPAI عالية المخاطر، والأنظمة الأخرى، إلى غرامات تصل إلى 15 مليون يورو أو 3٪ من إجمالي الإيرادات السنوية العالمية للسنة المالية السابقة، أيهما أعلى.
- قد تصل العقوبات المتعلقة بتقديم معلومات غير صحيحة أو مضللة إلى 7.5 مليون يورو أو 1٪ من إجمالي الإيرادات السنوية العالمية للسنة المالية السابقة، أيهما أعلى.
- ستُفرض غرامات على الشركات الصغيرة أو المتوسطة الحجم التي لا تمتثل للقانون كما هو محدد أعلاه، ولكنها ستدفع المبلغ الأقل المطبق.
ما الذي ينبغي على المنظمات فعله بعد ذلك لضمان الامتثال لقانون الذكاء الاصطناعي للاتحاد الأوروبي؟
يجب على المؤسسات التي تعالج البيانات الشخصية من خلال أنظمة الذكاء الاصطناعي ضمان امتثال ممارساتها لقانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي. Securiti 's Data Command Center — منصة مركزية مصممة لتوفير معلومات سياقية وضوابط وتنسيق لضمان الاستخدام الآمن للبيانات والذكاء الاصطناعي — يمكن للمؤسسات من خلالها إدارة الامتثال التنظيمي الحالي والمستقبلي عن طريق:
- اكتشاف وتصنيف وتحديد الغرض والخصائص لنماذج الذكاء الاصطناعي المعتمدة وغير المعتمدة عبر السحابات العامة والسحابات الخاصة وتطبيقات SaaS.
- إجراء تقييمات لمخاطر الذكاء الاصطناعي لتحديد وتصنيف أنظمة الذكاء الاصطناعي حسب مستوى المخاطر.
- ربط نماذج الذكاء الاصطناعي بمصادر البيانات والعمليات والتطبيقات والمخاطر المحتملة والتزامات الامتثال.
- تطبيق ضوابط مناسبة للخصوصية والأمن والحوكمة لحماية البيانات وأنظمة الذكاء الاصطناعي.
- ضمان الامتثال للوائح البيانات والذكاء الاصطناعي المعمول بها.
اطلع على الورقة البيضاء لمعرفة المزيد حول كيفية تأثير قانون الذكاء الاصطناعي للاتحاد الأوروبي على مستقبل AI governance - وكيف يمكنك ضمان استخدام الذكاء الاصطناعي المتوافق والمبتكر لمؤسستك.
يستكشف AI Governance مركز securiti