لقد أدى ظهور الذكاء الاصطناعي (AI) إلى موجة من الاضطراب مع قيام الشركات في مختلف الصناعات بإعادة هيكلة وإعادة تحديد مساراتها نحو الابتكار. ومع الفرص الكبيرة تأتي اللوائح التنظيمية السريعة. وكما هو الحال مع اللائحة العامة لحماية البيانات قبلها، يتميز الاتحاد الأوروبي بأنه وضع أول قانون شامل بشأن الذكاء الاصطناعي، وهو "قانون الذكاء الاصطناعي" الذي يحمل اسمًا مناسبًا.
في 13 مارس 2024، وافق برلمان الاتحاد الأوروبي على مشروع القانون، وأقره بأغلبية ساحقة. إليك ما تحتاج المنظمات إلى معرفته:
الهدف من قانون الاتحاد الأوروبي للذكاء الاصطناعي
يضع قانون الذكاء الاصطناعي المبادئ التوجيهية العامة لتطبيق الأنظمة والمنتجات والخدمات المعتمدة على الذكاء الاصطناعي. ويهدف إلى حماية استخدام البيانات الشخصية وغير الشخصية على حد سواء - والحقوق والمصالح الأساسية للأفراد داخل الاتحاد الأوروبي، وضمان أن تكون أنظمة الذكاء الاصطناعي المستخدمة آمنة وشفافة وقابلة للتتبع وغير تمييزية وصديقة للبيئة ويشرف عليها أشخاص - وليس تقنيات آلية.
تعريف نظام الذكاء الاصطناعي
يضع القانون تعريفًا موحدًا محايدًا من الناحية التكنولوجية لماهية نظام الذكاء الاصطناعي - وهو تعريف يهدف إلى أن يكون واسعًا ومرنًا بما يكفي ليشمل التطورات المستقبلية في مجال الذكاء الاصطناعي:
نظام قائم على الآلة مصمم للعمل بمستويات متفاوتة من الاستقلالية وقد يُظهر القدرة على التكيف بعد النشر، ويستنتج من المدخلات التي يتلقاها كيفية توليد مخرجات مثل التنبؤات أو المحتوى أو التوصيات أو القرارات التي يمكن أن تؤثر على البيئات المادية أو الافتراضية.
على من ينطبق قانون الذكاء الاصطناعي: النطاق والإعفاءات
وكما هو الحال مع اللائحة العامة لحماية البيانات، فإن قانون الذكاء الاصطناعي له تطبيق خارج الحدود الإقليمية، مما يعني أن الشركات العاملة خارج الاتحاد الأوروبي قد تكون معنية به.
ينطبق قانون الذكاء الاصطناعي على:
- مقدمو الخدمة الذين يطرحون في السوق أو يضعون في الخدمة أنظمة الذكاء الاصطناعي أو نماذج الذكاء الاصطناعي للأغراض العامة في الاتحاد الأوروبي، بغض النظر عما إذا كان مقدمو الخدمة موجودين في الاتحاد الأوروبي أم لا.
- ناشرو أنظمة الذكاء الاصطناعي المنشأة أو الموجودة داخل الاتحاد الأوروبي.
- مقدمو وناشرو أنظمة الذكاء الاصطناعي التي تُستخدم مخرجاتها داخل الاتحاد الأوروبي، بغض النظر عما إذا كان مقدمو أو ناشرو هذه الأنظمة موجودين أو غير موجودين في الاتحاد الأوروبي أو خارجه، بما في ذلك
- مستوردو وموزعو أنظمة الذكاء الاصطناعي;
- يطرح مصنعو المنتجات في السوق أو يضعون في الخدمة نظام ذكاء اصطناعي مع منتجهم وتحت اسمهم أو علامتهم التجارية الخاصة;
- الممثلون المفوضون لمقدمي الخدمات غير المقيمين في الاتحاد الأوروبي؛ و
- الأشخاص المتضررون الموجودون في الاتحاد الأوروبي.
تُستثنى الأنظمة والمجموعات التالية من القانون:
- السلطات العامة في الدول غير الأعضاء في الاتحاد الأوروبي والمنظمات الدولية التي تستخدم أنظمة الذكاء الاصطناعي بموجب الاتفاقيات الدولية لإنفاذ القانون أو التعاون القضائي مع الاتحاد الأوروبي أو الدول الأعضاء في الاتحاد الأوروبي، بشرط وجود ضمانات كافية لحماية البيانات الشخصية.
- أنظمة الذكاء الاصطناعي التي تم تطويرها أو استخدامها لأغراض تتجاوز سلطة الاتحاد الأوروبي في وضع القوانين، مثل الجيش أو الدفاع أو الأمن القومي.
- الناشرون الذين هم أشخاص طبيعيون يستخدمون أنظمة الذكاء الاصطناعي في سياق نشاط شخصي بحت غير احترافي.
- أنشطة البحث والاختبار (باستثناء الاختبار في ظروف العالم الحقيقي) وأنشطة التطوير المتعلقة بأنظمة الذكاء الاصطناعي قبل طرحها في السوق أو استخدام الخدمة في السوق، شريطة أن تتم هذه الأنشطة مع احترام قانون الاتحاد الأوروبي المعمول به.
- أنظمة الذكاء الاصطناعي التي تم إصدارها بموجب تراخيص مجانية ومفتوحة المصدر ما لم يتم طرحها في السوق أو وضعها في الخدمة كنظم ذكاء اصطناعي عالية المخاطر أو تندرج تحت الفصل الثاني والفصل الرابع من قانون الذكاء الاصطناعي.
نهج قائم على المخاطر: غير مقبول وعالي المخاطر
يصنّف قانون الذكاء الاصطناعي أنظمة الذكاء الاصطناعي إلى فئتين رئيسيتين بناءً على المخاطر التي تشكلها من خلال تطبيقها واستخدامها. تختلف التزاماتها حسب مستوى المخاطر التي يسببها نظام الذكاء الاصطناعي.
فئة المخاطر 1: أنظمة الذكاء الاصطناعي ذات المخاطر غير المقبولة
من الواضح أن أنظمة الذكاء الاصطناعي المصنفة على أنها تنطوي على مخاطر "غير مقبولة" تعرض سلامة الفرد وحقوقه الأساسية للخطر أو لديها القدرة على التعدي عليها، مما يؤدي إلى ضرر جسدي أو نفسي. بموجب قانون الذكاء الاصطناعي، يُحظر وضع أنظمة الذكاء الاصطناعي هذه أو تشغيلها أو استخدامها في الاتحاد الأوروبي.
فئة المخاطر 2: أنظمة الذكاء الاصطناعي عالية المخاطر
تُعتبر أنظمة الذكاء الاصطناعي التي تخلق خطرًا كبيرًا على سلامة الأفراد أو صحتهم أو حقوقهم الأساسية "عالية المخاطر" بموجب القانون ويُسمح باستخدامها مع التزامات معينة. تشمل هذه الفئة مكونات السلامة للمنتجات التي تندرج تحت لوائح الاتحاد الخاصة بقطاعات محددة، والتي لا تزال تعتبر عالية المخاطر أثناء تقييم المطابقة من قبل طرف ثالث بموجب تلك اللوائح. تشمل التزامات أنظمة الذكاء الاصطناعي عالية المخاطر، من بين التزامات أخرى، التوثيق وإمكانية التتبع والأمن السيبراني والإشراف البشري، إلى جانب متطلبات الشفافية التي تتطلب من مقدمي أنظمة الذكاء الاصطناعي إبلاغ المستخدمين النهائيين بأنهم يتفاعلون مع الذكاء الاصطناعي.
السلطات التنظيمية والعقوبات المفروضة في حالة عدم الامتثال
يقترح قانون الذكاء الاصطناعي إنشاء مجلس أوروبي جديد للذكاء الاصطناعي (EAIB، أو "مجلس الذكاء الاصطناعي") سلطة إنفاذ على مستوى الاتحاد الأوروبي، والذي سيكون مسؤولاً عن وضع مدونات قواعد السلوك، وتقديم المشورة بشأن تنفيذ القانون، وتعزيز محو أمية الذكاء الاصطناعي، وجمع وتبادل الخبرات وأفضل الممارسات. بالإضافة إلى ذلك، يجب على الدول الأعضاء تعيين سلطة إخطار واحدة على الأقل وسلطة مراقبة سوق واحدة على الأقل لضمان الامتثال على المستوى الوطني.
ويدعو قانون الذكاء الاصطناعي أيضًا إلى إنشاء مكتب للذكاء الاصطناعي لتنسيق إنفاذ قانون الذكاء الاصطناعي والتحقيق في الانتهاكات، ولجنة علمية من الخبراء المستقلين لتقديم المشورة ورصد المخاطر المحتملة على السلامة، ومنتدى استشاري لأصحاب المصلحة لتوفير الخبرة الفنية وإشراك مختلف وجهات النظر في عملية صنع القرار.
تماشيًا مع النهج القائم على المخاطر، تتفاوت العقوبات المفروضة على قانون الذكاء الاصطناعي بناءً على خطورة الانتهاك:
- بالنسبة لخرق المحظورات المنصوص عليها في قانون الذكاء الاصطناعي، يمكن أن تصل الغرامات إلى 35 مليون يورو أو 7% من إجمالي المبيعات السنوية العالمية للسنة المالية السابقة، أيهما أعلى.
- قد يؤدي عدم الامتثال فيما يتعلق بالأنظمة عالية المخاطر GPAI، والأنظمة الأخرى إلى فرض غرامات تصل إلى 15 مليون يورو أو 3% من إجمالي المبيعات السنوية العالمية للسنة المالية السابقة، أيهما أعلى.
- في حالة تقديم معلومات غير صحيحة أو مضللة، يمكن أن تصل العقوبات إلى 7.5 مليون يورو أو 1% من إجمالي المبيعات السنوية العالمية للسنة المالية السابقة، أيهما أعلى.
- سيتم تغريم الشركات الصغيرة أو المتوسطة الحجم التي لا تمتثل للقانون على النحو المحدد أعلاه، ولكنها ستدفع المبلغ الأقل المطبق.
ما الذي يجب على المؤسسات فعله بعد ذلك لضمان الامتثال لقانون الاتحاد الأوروبي للذكاء الاصطناعي؟
يجب أن تضمن الشركات التي تعالج البيانات الشخصية من خلال أنظمة الذكاء الاصطناعي امتثال ممارساتها لقانون الاتحاد الأوروبي للذكاء الاصطناعي. باستخدام Data Command Center من Securiti- وهو عبارة عن منصة مركزية مصممة لتقديم الذكاء السياقي والضوابط والتنسيق لضمان الاستخدام الآمن للبيانات والذكاء الاصطناعي - يمكن للمؤسسات التعامل مع الامتثال التنظيمي الحالي والمستقبلي من خلال
- اكتشاف وفهرسة وتحديد غرض وخصائص نماذج الذكاء الاصطناعي المصرح بها وغير المصرح بها عبر السحابة العامة والسحابة الخاصة وتطبيقات SaaS.
- إجراء تقييمات مخاطر الذكاء الاصطناعي لتحديد وتصنيف أنظمة الذكاء الاصطناعي حسب مستوى المخاطر.
- ربط نماذج الذكاء الاصطناعي بمصادر البيانات والعمليات والتطبيقات والمخاطر المحتملة والتزامات الامتثال.
- تنفيذ إجراءات حماية مناسبة للخصوصية والأمان والحوكمة لحماية البيانات وأنظمة الذكاء الاصطناعي.
- ضمان الامتثال للوائح البيانات والذكاء الاصطناعي المعمول بها.
اطلع على المستند التقني لمعرفة المزيد حول كيفية تشكيل قانون الاتحاد الأوروبي للذكاء الاصطناعي لمستقبل AI governance - وكيف يمكنك ضمان استخدام الذكاء الاصطناعي المتوافق والمبتكر لمؤسستك.
استكشف مركز AI Governance securiti