Veeam تكمل الاستحواذ على Securiti لإنشاء أول منصة بيانات موثوقة في القطاع لتسريع الذكاء الاصطناعي الآمن على نطاق واسع

عرض

داخل قانون الاتحاد الأوروبي للذكاء الاصطناعي، أول قانون شامل للذكاء الاصطناعي في العالم

المؤلف

أنكور غوبتا

مدير إدارة البيانات ومنتجات الذكاء الاصطناعي في Securiti

هذا المنشور متاح أيضاً في: English

لقد أدى ظهور الذكاء الاصطناعي (AI) إلى موجة من الاضطراب مع قيام الشركات في مختلف الصناعات بإعادة هيكلة وإعادة تحديد مساراتها نحو الابتكار. ومع الفرص الكبيرة تأتي اللوائح التنظيمية السريعة. وكما هو الحال مع اللائحة العامة لحماية البيانات قبلها، يتميز الاتحاد الأوروبي بأنه وضع أول قانون شامل بشأن الذكاء الاصطناعي، وهو "قانون الذكاء الاصطناعي" الذي يحمل اسمًا مناسبًا.

في 13 مارس 2024، وافق برلمان الاتحاد الأوروبي على مشروع القانون، وأقره بأغلبية ساحقة. إليك ما تحتاج المنظمات إلى معرفته:

الهدف من قانون الاتحاد الأوروبي للذكاء الاصطناعي

يضع قانون الذكاء الاصطناعي المبادئ التوجيهية العامة لتطبيق الأنظمة والمنتجات والخدمات المعتمدة على الذكاء الاصطناعي. ويهدف إلى حماية استخدام البيانات الشخصية وغير الشخصية على حد سواء - والحقوق والمصالح الأساسية للأفراد داخل الاتحاد الأوروبي، وضمان أن تكون أنظمة الذكاء الاصطناعي المستخدمة آمنة وشفافة وقابلة للتتبع وغير تمييزية وصديقة للبيئة ويشرف عليها أشخاص - وليس تقنيات آلية.

تعريف نظام الذكاء الاصطناعي

يضع القانون تعريفًا موحدًا محايدًا من الناحية التكنولوجية لماهية نظام الذكاء الاصطناعي - وهو تعريف يهدف إلى أن يكون واسعًا ومرنًا بما يكفي ليشمل التطورات المستقبلية في مجال الذكاء الاصطناعي:

نظام قائم على الآلة مصمم للعمل بمستويات متفاوتة من الاستقلالية وقد يُظهر القدرة على التكيف بعد النشر، ويستنتج من المدخلات التي يتلقاها كيفية توليد مخرجات مثل التنبؤات أو المحتوى أو التوصيات أو القرارات التي يمكن أن تؤثر على البيئات المادية أو الافتراضية.

على من ينطبق قانون الذكاء الاصطناعي: النطاق والإعفاءات

وكما هو الحال مع اللائحة العامة لحماية البيانات، فإن قانون الذكاء الاصطناعي له تطبيق خارج الحدود الإقليمية، مما يعني أن الشركات العاملة خارج الاتحاد الأوروبي قد تكون معنية به.

ينطبق قانون الذكاء الاصطناعي على:

  • مقدمو الخدمة الذين يطرحون في السوق أو يضعون في الخدمة أنظمة الذكاء الاصطناعي أو نماذج الذكاء الاصطناعي للأغراض العامة في الاتحاد الأوروبي، بغض النظر عما إذا كان مقدمو الخدمة موجودين في الاتحاد الأوروبي أم لا.
  • ناشرو أنظمة الذكاء الاصطناعي المنشأة أو الموجودة داخل الاتحاد الأوروبي.
  • مقدمو وناشرو أنظمة الذكاء الاصطناعي التي تُستخدم مخرجاتها داخل الاتحاد الأوروبي، بغض النظر عما إذا كان مقدمو أو ناشرو هذه الأنظمة موجودين أو غير موجودين في الاتحاد الأوروبي أو خارجه، بما في ذلك
    • مستوردو وموزعو أنظمة الذكاء الاصطناعي;
    • يطرح مصنعو المنتجات في السوق أو يضعون في الخدمة نظام ذكاء اصطناعي مع منتجهم وتحت اسمهم أو علامتهم التجارية الخاصة;
    • الممثلون المفوضون لمقدمي الخدمات غير المقيمين في الاتحاد الأوروبي؛ و
    • الأشخاص المتضررون الموجودون في الاتحاد الأوروبي.

تُستثنى الأنظمة والمجموعات التالية من القانون:

  1. السلطات العامة في الدول غير الأعضاء في الاتحاد الأوروبي والمنظمات الدولية التي تستخدم أنظمة الذكاء الاصطناعي بموجب الاتفاقيات الدولية لإنفاذ القانون أو التعاون القضائي مع الاتحاد الأوروبي أو الدول الأعضاء في الاتحاد الأوروبي، بشرط وجود ضمانات كافية لحماية البيانات الشخصية.
  2. أنظمة الذكاء الاصطناعي التي تم تطويرها أو استخدامها لأغراض تتجاوز سلطة الاتحاد الأوروبي في وضع القوانين، مثل الجيش أو الدفاع أو الأمن القومي.
  3. الناشرون الذين هم أشخاص طبيعيون يستخدمون أنظمة الذكاء الاصطناعي في سياق نشاط شخصي بحت غير احترافي.
  4. أنشطة البحث والاختبار (باستثناء الاختبار في ظروف العالم الحقيقي) وأنشطة التطوير المتعلقة بأنظمة الذكاء الاصطناعي قبل طرحها في السوق أو استخدام الخدمة في السوق، شريطة أن تتم هذه الأنشطة مع احترام قانون الاتحاد الأوروبي المعمول به.
  5. أنظمة الذكاء الاصطناعي التي تم إصدارها بموجب تراخيص مجانية ومفتوحة المصدر ما لم يتم طرحها في السوق أو وضعها في الخدمة كنظم ذكاء اصطناعي عالية المخاطر أو تندرج تحت الفصل الثاني والفصل الرابع من قانون الذكاء الاصطناعي.

نهج قائم على المخاطر: غير مقبول وعالي المخاطر

يصنّف قانون الذكاء الاصطناعي أنظمة الذكاء الاصطناعي إلى فئتين رئيسيتين بناءً على المخاطر التي تشكلها من خلال تطبيقها واستخدامها. تختلف التزاماتها حسب مستوى المخاطر التي يسببها نظام الذكاء الاصطناعي.

فئة المخاطر 1: أنظمة الذكاء الاصطناعي ذات المخاطر غير المقبولة

من الواضح أن أنظمة الذكاء الاصطناعي المصنفة على أنها تنطوي على مخاطر "غير مقبولة" تعرض سلامة الفرد وحقوقه الأساسية للخطر أو لديها القدرة على التعدي عليها، مما يؤدي إلى ضرر جسدي أو نفسي. بموجب قانون الذكاء الاصطناعي، يُحظر وضع أنظمة الذكاء الاصطناعي هذه أو تشغيلها أو استخدامها في الاتحاد الأوروبي.

فئة المخاطر 2: أنظمة الذكاء الاصطناعي عالية المخاطر

تُعتبر أنظمة الذكاء الاصطناعي التي تخلق خطرًا كبيرًا على سلامة الأفراد أو صحتهم أو حقوقهم الأساسية "عالية المخاطر" بموجب القانون ويُسمح باستخدامها مع التزامات معينة. تشمل هذه الفئة مكونات السلامة للمنتجات التي تندرج تحت لوائح الاتحاد الخاصة بقطاعات محددة، والتي لا تزال تعتبر عالية المخاطر أثناء تقييم المطابقة من قبل طرف ثالث بموجب تلك اللوائح. تشمل التزامات أنظمة الذكاء الاصطناعي عالية المخاطر، من بين التزامات أخرى، التوثيق وإمكانية التتبع والأمن السيبراني والإشراف البشري، إلى جانب متطلبات الشفافية التي تتطلب من مقدمي أنظمة الذكاء الاصطناعي إبلاغ المستخدمين النهائيين بأنهم يتفاعلون مع الذكاء الاصطناعي.

السلطات التنظيمية والعقوبات المفروضة في حالة عدم الامتثال

يقترح قانون الذكاء الاصطناعي إنشاء مجلس أوروبي جديد للذكاء الاصطناعي (EAIB، أو "مجلس الذكاء الاصطناعي") سلطة إنفاذ على مستوى الاتحاد الأوروبي، والذي سيكون مسؤولاً عن وضع مدونات قواعد السلوك، وتقديم المشورة بشأن تنفيذ القانون، وتعزيز محو أمية الذكاء الاصطناعي، وجمع وتبادل الخبرات وأفضل الممارسات. بالإضافة إلى ذلك، يجب على الدول الأعضاء تعيين سلطة إخطار واحدة على الأقل وسلطة مراقبة سوق واحدة على الأقل لضمان الامتثال على المستوى الوطني.

ويدعو قانون الذكاء الاصطناعي أيضًا إلى إنشاء مكتب للذكاء الاصطناعي لتنسيق إنفاذ قانون الذكاء الاصطناعي والتحقيق في الانتهاكات، ولجنة علمية من الخبراء المستقلين لتقديم المشورة ورصد المخاطر المحتملة على السلامة، ومنتدى استشاري لأصحاب المصلحة لتوفير الخبرة الفنية وإشراك مختلف وجهات النظر في عملية صنع القرار.

تماشيًا مع النهج القائم على المخاطر، تتفاوت العقوبات المفروضة على قانون الذكاء الاصطناعي بناءً على خطورة الانتهاك:

  • بالنسبة لخرق المحظورات المنصوص عليها في قانون الذكاء الاصطناعي، يمكن أن تصل الغرامات إلى 35 مليون يورو أو 7% من إجمالي المبيعات السنوية العالمية للسنة المالية السابقة، أيهما أعلى.
  • قد يؤدي عدم الامتثال فيما يتعلق بالأنظمة عالية المخاطر GPAI، والأنظمة الأخرى إلى فرض غرامات تصل إلى 15 مليون يورو أو 3% من إجمالي المبيعات السنوية العالمية للسنة المالية السابقة، أيهما أعلى.
  • في حالة تقديم معلومات غير صحيحة أو مضللة، يمكن أن تصل العقوبات إلى 7.5 مليون يورو أو 1% من إجمالي المبيعات السنوية العالمية للسنة المالية السابقة، أيهما أعلى.
  • سيتم تغريم الشركات الصغيرة أو المتوسطة الحجم التي لا تمتثل للقانون على النحو المحدد أعلاه، ولكنها ستدفع المبلغ الأقل المطبق.

ما الذي يجب على المؤسسات فعله بعد ذلك لضمان الامتثال لقانون الاتحاد الأوروبي للذكاء الاصطناعي؟

يجب أن تضمن الشركات التي تعالج البيانات الشخصية من خلال أنظمة الذكاء الاصطناعي امتثال ممارساتها لقانون الاتحاد الأوروبي للذكاء الاصطناعي. باستخدام Data Command Center من Securiti- وهو عبارة عن منصة مركزية مصممة لتقديم الذكاء السياقي والضوابط والتنسيق لضمان الاستخدام الآمن للبيانات والذكاء الاصطناعي - يمكن للمؤسسات التعامل مع الامتثال التنظيمي الحالي والمستقبلي من خلال

  1. اكتشاف وفهرسة وتحديد غرض وخصائص نماذج الذكاء الاصطناعي المصرح بها وغير المصرح بها عبر السحابة العامة والسحابة الخاصة وتطبيقات SaaS.
  2. إجراء تقييمات مخاطر الذكاء الاصطناعي لتحديد وتصنيف أنظمة الذكاء الاصطناعي حسب مستوى المخاطر.
  3. ربط نماذج الذكاء الاصطناعي بمصادر البيانات والعمليات والتطبيقات والمخاطر المحتملة والتزامات الامتثال.
  4. تنفيذ إجراءات حماية مناسبة للخصوصية والأمان والحوكمة لحماية البيانات وأنظمة الذكاء الاصطناعي.
  5. ضمان الامتثال للوائح البيانات والذكاء الاصطناعي المعمول بها.

اطلع على المستند التقني لمعرفة المزيد حول كيفية تشكيل قانون الاتحاد الأوروبي للذكاء الاصطناعي لمستقبل AI governance - وكيف يمكنك ضمان استخدام الذكاء الاصطناعي المتوافق والمبتكر لمؤسستك.

استكشف مركز AI Governance securiti

تحليل هذه المقالة باستخدام الذكاء الاصطناعي

يتم فتح المطالبات في أدوات الذكاء الاصطناعي التابعة لجهة خارجية.
اشترك في نشرتنا الإخبارية

احصل على أحدث المعلومات والتحديثات القانونية والمزيد من المعلومات في صندوق بريدك الإلكتروني


شارك

المزيد من القصص التي قد تهمك
مقاطع الفيديو
عرض المزيد
التخفيف من حدة أفضل 10 تطبيقات OWASP لتطبيقات LLM 2025
أحدث الذكاء الاصطناعي التوليدي (GenAI) تحولاً في كيفية عمل الشركات وتوسعها ونموها. هناك تطبيق للذكاء الاصطناعي لكل غرض، بدءًا من زيادة إنتاجية الموظفين إلى تبسيط...
عرض المزيد
أهم 6 حالات استخدام DSPM
مع ظهور الذكاء الاصطناعي التوليدي (GenAI)، أصبحت البيانات أكثر ديناميكية. يتم توليد البيانات الجديدة بشكل أسرع من أي وقت مضى، ويتم نقلها إلى أنظمة وتطبيقات مختلفة...
عرض المزيد
قانون الخصوصية في كولورادو (CPA)
ما هو قانون الخصوصية في كولورادو؟ قانون الخصوصية في كولورادو هو قانون خصوصية شامل تم توقيعه في 7 يوليو 2021. وقد وضع معايير جديدة للخصوصية الشخصية...
عرض المزيد
Securiti لـ Copilot في SaaS
تسريع اعتماد Copilot بأمان وثقة تتوق المؤسسات إلى اعتماد Microsoft 365 Copilot لزيادة الإنتاجية والكفاءة. ومع ذلك، فإن المخاوف الأمنية مثل البيانات...
عرض المزيد
أهم 10 اعتبارات للاستخدام الآمن للبيانات غير المهيكلة مع الذكاء الاصطناعي الجيني
إن 90% من بيانات المؤسسة هي بيانات غير منظمة. يتم استخدام هذه البيانات بسرعة لتغذية تطبيقات GenAI مثل روبوتات الدردشة الآلية والبحث بالذكاء الاصطناعي....
عرض المزيد
جينكور للذكاء الاصطناعي: بناء أنظمة ذكاء اصطناعي آمنة على مستوى الشركات في دقائق
مع اعتماد الشركات للذكاء الاصطناعي التوليدي، تواجه فرق البيانات والذكاء الاصطناعي العديد من العقبات: الربط الآمن بين مصادر البيانات غير المنظمة والمنظمة، والحفاظ على الضوابط والحوكمة المناسبة، ...
عرض المزيد
الإبحار في قانون تنظيم حماية المستهلك: رؤى أساسية للشركات
ما هو CPRA؟ قانون حقوق الخصوصية في كاليفورنيا (CPRA) هو تشريع ولاية كاليفورنيا الذي يهدف إلى حماية الخصوصية الرقمية للمقيمين. وقد أصبح ساريًا في يناير...
عرض المزيد
الإبحار في التحول: الانتقال إلى الإصدار 4.0 من PCI DSS v4.0
ما هو PCI DSS؟ معيار PCI DSS (معيار أمن بيانات صناعة بطاقات الدفع) هو مجموعة من المعايير الأمنية لضمان المعالجة الآمنة للبيانات وتخزينها و...
عرض المزيد
تأمين البيانات + الذكاء الاصطناعي: دليل إدارة الثقة والمخاطر والأمن (TRiSM)
تُثير المخاطر الأمنية المتزايدة للذكاء الاصطناعي قلق 48% من مدراء أمن المعلومات العالميين. انضم إلى هذه المحاضرة الرئيسية للتعرف على دليل عملي لتمكين الذكاء الاصطناعي من الثقة والمخاطر والمخاطر...
شركة AWS الناشئة تعرض حوكمة الأمن السيبراني باستخدام الذكاء الاصطناعي التوليدي عرض المزيد
شركة AWS الناشئة تعرض حوكمة الأمن السيبراني باستخدام الذكاء الاصطناعي التوليدي
تحقيق التوازن بين الابتكار والحوكمة مع الذكاء الاصطناعي التوليدي يتمتع الذكاء الاصطناعي التوليدي بالقدرة على إحداث تغيير جذري في جميع جوانب الأعمال بقدرات جديدة قوية. ومع ذلك، مع...

حوارات تحت الضوء

أضواء كاشفة 50:52
من البيانات إلى النشر: حماية الذكاء الاصطناعي المؤسسي من خلال الأمن والحوكمة
شاهد الآن عرض
أضواء كاشفة 11:29
ليس ضجيجاً - رئيس قسم التحليلات في شركة Dye & Durham يُظهر كيف يبدو الذكاء الاصطناعي في العمل حقاً
ليس ضجيجاً - رئيس قسم التحليلات في شركة Dye & Durham يُظهر كيف يبدو الذكاء الاصطناعي في العمل حقاً
شاهد الآن عرض
أضواء كاشفة 11:18
إعادة توصيل أسلاك التمويل العقاري - كيف تقوم شركة ووكر آند دنلوب بتحديث محفظتها البالغة قيمتها 135 مليار دولار أمريكي بالبيانات أولاً
شاهد الآن عرض
أضواء كاشفة 13:38
تسريع المعجزات - كيف تدمج سانوفي الذكاء الاصطناعي لتقليل الجداول الزمنية لتطوير الأدوية بشكل كبير
الصورة المصغرة لسانوفي
شاهد الآن عرض
أضواء كاشفة 10:35
لقد حدث تحول جوهري في مركز ثقل البيانات
شاهد الآن عرض
أضواء كاشفة 14:21
AI Governance أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
AI Governance أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
شاهد الآن عرض
أضواء كاشفة 12:!3
لا يمكنك بناء خطوط أنابيب أو مستودعات أو منصات ذكاء اصطناعي بدون معرفة الأعمال
شاهد الآن عرض
أضواء كاشفة 47:42
الأمن السيبراني - حيث يقوم القادة بالشراء والبناء والشراكة
ريحان جليل
شاهد الآن عرض
أضواء كاشفة 27:29
بناء ذكاء اصطناعي آمن مع Databricks وGencore
ريحان جليل
شاهد الآن عرض
أضواء كاشفة 46:02
بناء ذكاء اصطناعي مؤسسي آمن: خارطة طريق عملية
شاهد الآن عرض
الأحدث
عرض المزيد
DataAI Security: لماذا تختار مؤسسات الرعاية الصحية Securiti
اكتشف لماذا تثق مؤسسات الرعاية الصحية Securiti البيانات والذكاء الاصطناعي. تعرف على العوائق الرئيسية، والمزايا الخمس المؤكدة، وما يمكن أن تحققه ابتكارات البيانات الآمنة.
عرض المزيد
الاستغلال الأنثروبولوجي مرحباً بكم في عصر هجمات عملاء الذكاء الاصطناعي
استكشف أول هجوم لعامل الذكاء الاصطناعي ولماذا يغير كل شيء، وكيف تحمي ركائز DataAI Security مثل الذكاء ورسم الأوامر وجدران الحماية البيانات الحساسة.
شرح HIPAA PHI: المعرفات، وإزالة الهوية، وقائمة التحقق من الامتثال عرض المزيد
شرح HIPAA PHI: المعرفات، وإزالة الهوية، وقائمة التحقق من الامتثال
اكتشف ما هي المعلومات الصحية المحمية (PHI) بموجب قانون HIPAA. افهم ما يعتبر معلومات صحية محمية (PHI) وفقًا لقواعد HIPAA، وقائمة المحددات الـ 18، وما يحدث لـ...
فريق الأحمر عرض المزيد
ما هو فريق الذكاء الاصطناعي الأحمر؟ الدليل الكامل
يقوم فريق AI red teaming باختبار أنظمة الذكاء الاصطناعي من حيث الأمن والسلامة ومخاطر سوء الاستخدام. تعرف على كيفية عمله، والتقنيات الشائعة، وحالات الاستخدام في العالم الواقعي، ولماذا...
عرض المزيد
إصلاح الخصوصية في أستراليا: إصلاحات تاريخية في مجال الخصوصية والأمن السيبراني والسلامة على الإنترنت
اطلع على التقرير التقني واحصل على رؤى حول قانون الخصوصية الأسترالي، و CSLP، وقانون الحد الأدنى لسن استخدام وسائل التواصل الاجتماعي، وكيف Securiti ضمان الامتثال السريع.
عرض المزيد
تطبيق قانون الموافقة على ملفات تعريف الارتباط بقيمة 475 مليون يورو من قبل CNIL: دروس أساسية للمؤسسات
قم بتنزيل المستند التقني للتعرف على الغرامة البالغة 475 مليون يورو التي فرضتها CNIL لعدم الامتثال لقواعد الموافقة على ملفات تعريف الارتباط. اكتشف الدروس الرئيسية التي يمكن أن تستفيد منها المؤسسات وكيفية أتمتة الامتثال.
عرض المزيد
ملخص الحل: Microsoft Purview + Securiti
قم بتوسيع نطاق Microsoft Purview باستخدام Securiti وتصنيف وتقليل مخاطر البيانات والذكاء الاصطناعي عبر البيئات المختلطة من خلال المراقبة المستمرة والإصلاح التلقائي. تعرف على...
أهم 7 اتجاهات في مجال أمن البيانات والذكاء الاصطناعي لعام 2026 عرض المزيد
أهم 7 اتجاهات في مجال أمن البيانات والذكاء الاصطناعي لعام 2026
اكتشف أهم 7 اتجاهات في مجال أمن البيانات والذكاء الاصطناعي لعام 2026. تعرف على كيفية تأمين وكلاء الذكاء الاصطناعي، وإدارة البيانات، وإدارة المخاطر، وتوسيع نطاق الذكاء الاصطناعي...
عرض المزيد
التنقل في HITRUST: دليل للحصول على الشهادة
يعد كتاب Securiti دليلاً عملياً للحصول على شهادة HITRUST، حيث يغطي كل شيء بدءاً من اختيار i1 مقابل r2 وأنظمة النطاق وحتى إدارة CAPs والتخطيط...
دليل المهندس المعماري DSPM عرض المزيد
دليل مهندس DSPM الاصطناعي: بناء برنامج أمن البيانات + الذكاء الاصطناعي الجاهز للمؤسسات
احصل على شهادة معتمدة في DSPM. تعلّم كيفية تصميم حل DSPM البيانات والذكاء الاصطناعي DSPM، وتفعيل أمن البيانات والذكاء الاصطناعي، وتطبيق أفضل الممارسات المؤسسية، وتمكين اعتماد الذكاء الاصطناعي الآمن...
ما الجديد