مقدمة
لدى الاتحاد الأوروبي قانون الذكاء الاصطناعي ، ولدى كندا قانون الذكاء الاصطناعي المساعد ، وتشير جميع الدلائل إلى أن الولايات المتحدة ستتبنى شكلاً من أشكال التنظيم الفيدرالي الذي يستهدف هذه التكنولوجيا.
في أمريكا الجنوبية، تبرز البرازيل بشكل ملحوظ عن غيرها بفضل استباقيتها تجاه AI governance في الواقع، بين عامي 2019 و2021، قُدِّمت ثلاثة قوانين مختلفة بشأن الذكاء الاصطناعي إلى الكونغرس البرازيلي. ورغم أن أياً منها لم يُصبح قانوناً رسمياً، فإن مشروع القانون رقم 2338/2023، الذي قُدِّم في مايو 2023، يهدف إلى أن يكون تشريعاً شاملاً يُحدِّد النهج التنظيمي للذكاء الاصطناعي في البرازيل (القانون المقترح).
يركز القانون المقترح بشكل كبير على الشفافية ومسؤولية المنظمات في التخفيف من التحيزات من خلال تقييمات الأثر العامة المنتظمة التي تضمن سلسلة من المساءلة المتعلقة بجميع نماذج وأنظمة الذكاء الاصطناعي الرئيسية المستخدمة داخل المنظمة.
والجدير بالذكر أنه بالإضافة إلى العقوبات الإدارية الأخرى، فإن انتهاك القانون المقترح سيخضع لغرامة تصل إلى 50,000,000 ريال برازيلي لكل انتهاك أو 2٪ من إيرادات الشركة للسنة السابقة، باستثناء الضرائب.
تابع القراءة لتتعرف على كل ما تحتاج معرفته حول قانون الذكاء الاصطناعي الجديد في البرازيل:
ثانيًا: تعريفات المصطلحات الرئيسية
فيما يلي تعريفات لبعض المصطلحات الرئيسية المستخدمة في القانون المقترح:
أ. نظام الذكاء الاصطناعي
نظام حاسوبي، بدرجات متفاوتة من الاستقلالية، مصمم لاستنتاج كيفية تحقيق مجموعة معينة من الأهداف، باستخدام مناهج تعتمد على التعلم الآلي و/أو المنطق وتمثيل المعرفة، عبر بيانات الإدخال من الآلات أو البشر، بهدف إنتاج تنبؤات أو توصيات أو قرارات يمكن أن تؤثر على البيئة الافتراضية أو الحقيقية.
ب. مزود أنظمة الذكاء الاصطناعي
الشخص الطبيعي أو الكيان القانوني، ذو الطبيعة العامة أو الخاصة، الذي يقوم بتطوير نظام الذكاء الاصطناعي، بشكل مباشر أو عن طريق الطلب، ويهدف إلى طرحه في السوق أو تطبيقه في خدمة يقدمها، تحت اسمه أو علامته التجارية، مقابل الدفع أو مجانًا.
ج. مشغل نظام الذكاء الاصطناعي
الشخص الطبيعي أو الاعتباري، ذو الطبيعة العامة أو الخاصة، الذي يستخدم أو يوظف، نيابة عنه أو لمصلحته، نظام الذكاء الاصطناعي، ما لم يتم استخدامه في سياق نشاط شخصي ذي طبيعة غير مهنية.
د. وكلاء الذكاء الاصطناعي
مقدمو ومشغلو أنظمة الذكاء الاصطناعي.
هـ. السلطة المختصة
الهيئة أو الجهاز أو الكيان التابع للإدارة العامة الفيدرالية المسؤول عن مراقبة وتنفيذ وتفتيش الامتثال للقانون المقترح في جميع أنحاء البلاد
و- استخراج النصوص والبيانات
عملية استخراج وتحليل كميات كبيرة من البيانات، أو مقتطفات جزئية أو كاملة من المحتوى النصي، والتي يتم من خلالها استخراج الأنماط والارتباطات التي ستولد معلومات ذات صلة لتطوير أو استخدام أنظمة الذكاء الاصطناعي
ثالثاً: المبادئ التي يقوم عليها القانون المقترح
ينص القانون المقترح على أن تطوير وتطبيق واستخدام أنظمة الذكاء الاصطناعي في البرازيل يجب أن يلتزم بمبدأ حسن النية بالإضافة إلى المبادئ التالية:
- النمو الشامل، والتنمية المستدامة، والرفاهية؛
- تقرير المصير، وحرية اتخاذ القرار، وحرية الاختيار؛
- المشاركة البشرية في دورة الذكاء الاصطناعي والإشراف البشري الفعال؛
- عدم التمييز؛
- العدالة والمساواة والشمول؛
- الشفافية، وقابلية التفسير، والفهم، وقابلية التدقيق؛
- موثوقية وقوة أنظمة الذكاء الاصطناعي وأمن المعلومات؛
- الإجراءات القانونية الواجبة، وقابلية الطعن، ونظام الخصومة؛
- إمكانية تتبع القرارات خلال دورة حياة أنظمة الذكاء الاصطناعي كوسيلة للمساءلة ونسبة المسؤولية إلى شخص طبيعي أو اعتباري؛
- المساءلة والمسؤولية والتعويض الكامل عن الأضرار؛
- الوقاية والحماية والتخفيف من المخاطر النظامية الناجمة عن الاستخدامات المقصودة أو غير المقصودة والآثار غير المقصودة لأنظمة الذكاء الاصطناعي؛
- عدم الإضرار والتناسب بين الأساليب المستخدمة والأغراض المحددة والمشروعة لأنظمة الذكاء الاصطناعي.
رابعاً: التزامات المنظمات
تخضع المنظمات للالتزامات التالية بموجب القانون المقترح:
أ. تصنيف المخاطر
التقييم الأولي
يتعين على أي منظمة إجراء تقييم أولي لأي نظام ذكاء اصطناعي تقوم بتطويره لتقييم مستوى المخاطر وتصنيفها قبل طرحه في السوق للاستخدام العام. كما يجب على المنظمة تضمين أي معلومات إضافية تتعلق بأغراض أو تطبيقات أنظمة الذكاء الاصطناعي الخاصة بها.
إذا تم تصنيف نظام ما على أنه عالي المخاطر، فيجب على المنظمة المزودة للخدمة إجراء تقييم شامل للأثر الخوارزمي واتخاذ تدابير الحوكمة الأخرى اللازمة وفقًا لما يقتضيه القانون المقترح.
مع ذلك، إذا صُنِّف نظام ما على أنه منخفض المخاطر، يتعين على الجهة المُقدِّمة للخدمة تقديم الوثائق اللازمة لتقييمها لأغراض المساءلة. ويجوز للسلطة المختصة إجراء تقييمها الخاص وإعادة تصنيف النظام إذا رأت أن له مستوى مخاطر مختلفًا عن التصنيف الأولي الذي قدمته الجهة المُقدِّمة للخدمة.
مخاطرة مفرطة
تُعتبر ممارسات الذكاء الاصطناعي التالية "مخاطر مفرطة" ومحظورة نتيجة لذلك:
- الأنظمة التي تستخدم تقنيات لا شعورية تهدف إلى التأثير على شخص طبيعي ليتصرف بطريقة تتعارض مع صحته أو مع أحكام القانون المقترح؛
- الأنظمة التي تستغل نقاط ضعف فئات معينة من الأشخاص الطبيعيين، مثل تلك المرتبطة بعمرهم أو إعاقتهم الجسدية أو العقلية، للتأثير على الشخص الطبيعي ليتصرف بطريقة تتعارض مع صحته أو مع أحكام القانون المقترح؛
- الأنظمة التي تستخدمها السلطات العامة لتقييم أو تصنيف أو ترتيب الأشخاص الطبيعيين بناءً على سلوكهم الاجتماعي أو سمات شخصيتهم من خلال نظام تسجيل عالمي لتحديد مدى وصولهم إلى السلع والخدمات العامة؛
- يُسمح باستخدام أنظمة التعريف البيومترية حصراً عن بُعد وبشكل مستمر في المناطق التي يمكن للجمهور الوصول إليها حيث تتطلب أحكام القانون الاتحادي استخدامها، كما هو الحال في الحالات التالية:
- مقاضاة الجرائم التي يعاقب عليها بالسجن لمدة أقصاها أكثر من عامين؛
- البحث عن ضحايا الجرائم أو الأشخاص المفقودين؛
- البحث عن مجرم تم ضبطه متلبساً بارتكاب جريمة جنائية.
ستقدم السلطة المختصة المزيد من التوجيهات بشأن تنظيم أنظمة الذكاء الاصطناعي التي تعتبر ذات مخاطر مفرطة.
خطر مرتفع
تُعتبر ممارسات الذكاء الاصطناعي التالية "عالية المخاطر":
- الاستخدام في أجهزة الأمن المتعلقة بإدارة وتشغيل البنى التحتية الحيوية مثل التحكم في حركة المرور وشبكات إمدادات المياه والكهرباء؛
- الاستخدام في التعليم والتدريب المهني، بما في ذلك الأنظمة المستخدمة للتحقق من الوصول إلى المؤسسات التعليمية أو مؤسسات التدريب المهني أو لتقييم الطلاب والإشراف عليهم؛
- يُستخدم في التوظيف والاختيار والتصفية وتحليل المرشحين لاتخاذ القرارات بشأن الترقيات أو إنهاء علاقات العمل؛
- الاستخدام في تحليل معايير الوصول، والأهلية، والتمتع، والمراجعة، والتعدي، أو إلغاء الخدمات الخاصة والعامة الأساسية؛
- الاستخدام في تقييم الجدارة الائتمانية للشخص الطبيعي أو درجاته الائتمانية؛
- يُستخدم في تحديد الأولويات أو إرسال خدمات الاستجابة للطوارئ، بما في ذلك خدمات مكافحة الحرائق والمساعدة الطبية؛
- الاستخدام في إدارة الأنظمة المستخدمة لمساعدة السلطات القضائية في مهامها المتعلقة بتقصي الحقائق وإنفاذ القانون؛
- الاستخدام في المركبات ذاتية القيادة، عندما يشكل استخدامها مخاطر على السلامة الجسدية للأشخاص؛
- الاستخدام للأغراض الطبية؛
- الاستخدام في أنظمة التعريف البيومترية؛
- الاستخدام في التحقيقات الجنائية، وتحديداً لتقييمات المخاطر الفردية من قبل السلطات المختصة للتنبؤ بخطر ارتكاب شخص ما للجرائم أو إعادة ارتكابها؛
- الاستخدام في الدراسة التحليلية للجرائم المتعلقة بالأشخاص الطبيعيين، بهدف تمكين سلطات إنفاذ القانون من البحث في مجموعات كبيرة من البيانات المعقدة؛
- يُستخدم في التحقيقات التي تجريها السلطات لتقييم مصداقية الأدلة أثناء سير التحقيق؛
- يُستخدم في إدارة الهجرة وعمليات حرس الحدود.
سيكون للسلطة المختصة صلاحية اعتبار أي نظام ذكاء اصطناعي عالي الخطورة بناءً على واحد على الأقل من العوامل التالية:
- يتم تنفيذ النظام على نطاق واسع، مما يؤثر على عدد كبير من الناس بالإضافة إلى المنطقة الجغرافية التي يغطيها، والمدة، والتكرار؛
- قد يؤثر النظام على حقوق وحريات الأفراد؛
- يتمتع النظام بإمكانية عالية للتسبب في أضرار اقتصادية وأخلاقية؛
- يؤثر النظام على الأشخاص الطبيعيين من فئة ضعيفة محددة؛
- إن الآثار الضارة المحتملة للنظام لا رجعة فيها أو يصعب عكسها؛
- وقد تسبب نظام مماثل في أضرار اقتصادية أو معنوية؛
- إن مستوى الشفافية والتفسير والتحقق من نظام الذكاء الاصطناعي منخفض، مما يجعل الإشراف عليه أو التحكم فيه أمراً صعباً؛
- يتمتع النظام بمستوى عالٍ من إمكانية تحديد هوية أصحاب البيانات، بما في ذلك معالجة البيانات الجينية والبيومترية لغرض تحديد هوية الشخص الطبيعي بشكل فريد؛
- يقوم النظام بمعالجة البيانات حيث يتوقع الطرف المتضرر الحفاظ على سريتها، كما هو الحال في معالجة البيانات الحساسة أو السرية.
تتولى السلطة المختصة مسؤولية تحديث قائمة أنظمة الذكاء الاصطناعي عالية المخاطر بشكل دوري وفقًا لعدد من المعايير المنصوص عليها في القانون المقترح.
ب. حوكمة أنظمة الذكاء الاصطناعي
أحكام عامة
يُطلب من وكلاء الذكاء الاصطناعي وضع إطار حوكمة، بالإضافة إلى إجراءات داخلية، مصممة لضمان سلامة الأنظمة التي يديرونها، ولضمان حقوق الأفراد كما هو منصوص عليه في القانون المقترح. وتشمل هذه الإجراءات ما يلي:
- تدابير الشفافية المتعلقة باستخدام أنظمة الذكاء الاصطناعي في تفاعلاتها مع الأشخاص الطبيعيين؛
- الشفافية فيما يتعلق بتدابير الحوكمة المعتمدة في تطوير واستخدام نظام الذكاء الاصطناعي من قبل الوكيل؛
- تدابير إدارة البيانات المناسبة للتخفيف من التحيزات التمييزية المحتملة ومنعها؛
- أنشطة معالجة البيانات بما يتوافق مع لوائح حماية البيانات والخصوصية في البرازيل؛
- تبني الخصوصية من خلال التصميم ؛
- اعتماد معايير مناسبة لفصل وتنظيم مجموعات البيانات لتدريب واختبار والتحقق من صحة نتائج النظام؛
- اعتماد تدابير أمنية كافية لمعلومات الأمن.
حوكمة أنظمة الذكاء الاصطناعي عالية المخاطر
بالإضافة إلى التدابير المذكورة أعلاه، يجب على المنظمة اتخاذ التدابير الإضافية التالية عندما يتم تصنيف أنظمة التشغيل على أنها "عالية المخاطر":
- توثيق شامل حول كيفية عمل هذا النظام والقرارات المتعلقة ببنائه وتنفيذه واستخدامه؛
- استخدام الأدوات للتسجيل التلقائي لعملية النظام من أجل السماح بتقييم دقته ومتانته والتأكد من العوامل المميزة المحتملة وتنفيذ تدابير تخفيف المخاطر المعتمدة؛
- إجراء اختبارات منتظمة لتحديد مستويات الموثوقية المناسبة، وذلك حسب الصناعة ونوع تطبيق نظام الذكاء الاصطناعي؛
- إجراءات متنوعة لإدارة البيانات للقضاء على التحيزات التمييزية مثل:
- تقييم مجموعة البيانات باستخدام التدابير المناسبة للتحكم في التحيزات المعرفية البشرية التي قد تؤثر على جمع وتنظيم مجموعة البيانات وتجنب توليد التحيزات؛
- إنشاء فريق شامل مسؤول عن تصميم وتطوير النظام.
- اعتماد تدابير تقنية لتمكين تفسير نتائج أنظمة الذكاء الاصطناعي وتدابير لإتاحة معلومات عامة للمشغلين والأطراف المتأثرة المحتملة حول كيفية عمل نموذج الذكاء الاصطناعي المستخدم.
يتطلب استخدام هذه الأنظمة عالية المخاطر إشرافًا بشريًا مستمرًا للحد من المخاطر التي تشكلها. يجب أن يكون الشخص المسؤول عن الإشراف البشري قادرًا على:
- فهم قدرات وقيود نظام الذكاء الاصطناعي بشكل صحيح ومراجعة تشغيله بشكل صحيح؛
- توقع الميل المحتمل للاعتماد التلقائي أو المفرط على المخرجات التي ينتجها نظام الذكاء الاصطناعي؛
- تفسير مخرجات نظام الذكاء الاصطناعي بشكل صحيح، مع مراعاة خصائص النظام؛
- قرر عدم استخدام نظام الذكاء الاصطناعي عالي المخاطر أو تجاهل مخرجاته أو تجاوزها أو عكسها؛
- التدخل في تشغيل نظام الذكاء الاصطناعي عالي المخاطر أو تعطيل تشغيل النظام.
بالإضافة إلى ذلك، عندما تقوم الوكالات والكيانات التابعة لحكومات الاتحاد والولايات والمقاطعة الفيدرالية والبلديات بتوظيف أو تطوير أو استخدام أي من هذه الأنظمة عالية المخاطر، يجب عليها اعتماد التدابير التالية بالتزامن:
- إجراء مشاورات عامة وجلسات استماع مسبقة بشأن الاستخدام المخطط لأنظمة الذكاء الاصطناعي؛
- اعتماد ضوابط الوصول المناسبة؛
- استخدام مجموعات البيانات من مصادر آمنة تتسم بالدقة والملاءمة والحداثة وتمثيل السكان المتضررين، وتم اختبارها ضد التحيزات التمييزية؛
- توفير ضمانات للمواطنين بشأن حقهم في التفسير البشري ومراجعة القرارات التي تتخذها أنظمة الذكاء الاصطناعي والتي تولد آثارًا قانونية ذات صلة؛
- قم بنشر واجهة سهلة الاستخدام تسمح باستخدامها من قبل أنظمة أخرى لأغراض التشغيل البيني؛
- يجب إتاحة جميع التقييمات الأولية للنظام للجمهور عبر وسائل يسهل الوصول إليها.
ومع ذلك، إذا اكتشف الاتحاد والولايات والمقاطعة الفيدرالية والبلديات أنه لا يمكنها القضاء على المخاطر المرتبطة بنظام الذكاء الاصطناعي المحدد في قسم تقييم الأثر الخوارزمي أدناه أو التخفيف منها بشكل معقول، فيجب إيقاف استخدامه على الفور.
ج. تقييم الأثر الخوارزمي
يتعين على المنظمات إجراء تقييم شامل للأثر الخوارزمي لنظام الذكاء الاصطناعي المصنف على أنه "عالي المخاطر". وسيتم إخطار السلطة المختصة بخطط المنظمة لإجراء هذا التقييم، بالإضافة إلى تقديم وثائق مفصلة لكل من التقييم الأولي وتقييم الأثر الخوارزمي نفسه بمجرد اكتماله.
يجب أن يتم إجراء تقييم الأثر الخوارزمي بواسطة فريق محترف يمتلك المعرفة التقنية والعلمية والقانونية المناسبة لإجرائه.
تتمتع الجهة المختصة بصلاحية تنظيم عملية التقييم لضمان قيام فريق مستقل ونزيه من المهنيين بإجرائها. ويجب أن يتضمن التقييم الخطوات التالية:
- تحضير؛
- التعرف على المخاطر؛
- تم التوصل إلى تخفيف المخاطر؛
- يراقب.
يجب أن يكون التقييم عملية تكرارية مستمرة تتطلب تحديثات دورية. وسيتم إجراؤه لتسجيل الجوانب التالية والنظر فيها:
- جميع المخاطر المعروفة والمتوقعة المرتبطة بنظام الذكاء الاصطناعي في وقت تطويره، بالإضافة إلى المخاطر التي يمكن توقعها منه بشكل معقول؛
- فوائد النظام المُطور؛
- احتمالية حدوث العواقب السلبية التي تم تحديدها في التقييم الأولي؛
- شدة العواقب السلبية التي تم تحديدها في التقييم الأولي؛
- منطق تشغيل النظام؛
- عملية ونتائج الاختبارات والتقييمات وتدابير التخفيف التي تم تنفيذها للتحقق من الآثار المحتملة على الحقوق؛
- التدريب والإجراءات اللازمة لرفع مستوى الوعي بالمخاطر المرتبطة بالنظام؛
- جميع تدابير التخفيف وبيان وتبرير المخاطر الطفيفة المرتبطة بالنظام؛
- تفاصيل حول اختبارات مراقبة الجودة التي سيتم إجراؤها؛
- تفاصيل جميع تدابير الشفافية للجمهور، وخاصة للمستخدمين المحتملين للنظام.
بتطبيق مبدأ الحيطة والحذر، إذا كان من المحتمل أن يُحدث نظام الذكاء الاصطناعي آثارًا لا رجعة فيها أو يصعب عكسها، فإن تقييم الأثر الخوارزمي سيأخذ في الاعتبار الأدلة غير الكاملة أو التخمينية على حد سواء.
يجوز للسلطة المختصة إصدار متطلبات إضافية تتعلق بكيفية تصميم تقييمات الأثر، بما في ذلك مشاركة مختلف القطاعات الاجتماعية المتأثرة، وفقًا للمخاطر والحجم الاقتصادي للمنظمة.
في حال علم وكيل الذكاء الاصطناعي بأي مخاطر غير متوقعة على حقوق الأشخاص الطبيعيين بعد طرح نظام الذكاء الاصطناعي في السوق، يجب عليه إبلاغ السلطة المختصة وكذلك أي أفراد قد يتأثرون بذلك.
يجب نشر جميع هذه التقييمات، مع إجراء التعديلات المناسبة لحماية الأسرار الصناعية والتجارية، على أن تتضمن المعلومات التالية:
- وصف الغرض المقصود من استخدام النظام، بالإضافة إلى سياق استخدامه ونطاقه الجغرافي؛
- جميع تدابير تخفيف المخاطر التي تم تطبيقها أو التي سيتم تطبيقها.
خامساً: قاعدة البيانات العامة لأنظمة الذكاء الاصطناعي عالية المخاطر
تتولى السلطة المختصة أيضاً مهمة إنشاء قاعدة بيانات متاحة للعموم لأنظمة الذكاء الاصطناعي عالية المخاطر، وتحديثها باستمرار، على أن تتضمن هذه القاعدة (من بين معلومات أخرى) تقييمات المخاطر المنجزة لمقدمي هذه الأنظمة ومستخدميها. وستخضع هذه التقييمات للحماية بموجب قوانين الملكية الفكرية والأسرار التجارية المعمول بها.
أ. المسؤولية المدنية
تلتزم المنظمة، سواءً كانت مزودًا أو مشغلًا لنظام الذكاء الاصطناعي الذي يتسبب في أضرار اقتصادية أو معنوية أو فردية أو جماعية، بتعويض المتضررين. ويتحمل مزودو ومستخدمو أنظمة الذكاء الاصطناعي مسؤولية الأضرار الناجمة عن هذه الأنظمة، بغض النظر عن درجة استقلاليتها. علاوة على ذلك، يتحمل مزودو ومستخدمو أنظمة الذكاء الاصطناعي "عالية المخاطر" مسؤولية كاملة عن الأضرار التي تسببها، ويُفترض تورطهم في إحداثها.
في حال لحق ضرر بالشخص أثناء تعامله مع نظام عالي المخاطر أو مفرط المخاطر، تتحمل المنظمة المسؤولية الكاملة عن جميع الأضرار الناجمة. وفي هذه الحالة، يُنظر في خطأ المنظمة المتسببة في الضرر مع ترجيح كفة الإثبات لصالح الضحية.
ومع ذلك، لن تكون المنظمة مسؤولة إلا إذا استطاعت إثبات أن الضرر قد تسبب فيه الضحية أو طرف ثالث.
ب. مدونات الممارسات الجيدة والحوكمة
قد تقوم المنظمات بوضع مدوناتها الداخلية للممارسات الجيدة والحوكمة لتحديد ظروف المنظمة ونظام التشغيل والإجراءات ومعايير الأمن والمعايير التقنية والموارد التعليمية وآليات تخفيف المخاطر والتدابير الأمنية التقنية والتنظيمية المناسبة لإدارة المخاطر الناجمة عن تطبيق أنظمة الذكاء الاصطناعي.
عند وضع هذه القواعد، يجوز لمطوري ومشغلي النظام تنفيذ برنامج حوكمة يتضمن ما يلي:
- يُظهر التزامهم بتبني العمليات والسياسات الداخلية التي تضمن الامتثال الشامل للمعايير وأفضل الممارسات؛
- يتم تكييفها مع هيكل عملياتها وحجمها ونطاقها، فضلاً عن إمكاناتها الضارة؛
- يهدف إلى إقامة علاقة ثقة مع الأشخاص المتضررين؛
- وهي مدمجة في هيكل الحوكمة العام الخاص بها، وتقوم بإنشاء وإنفاذ آليات الرقابة الداخلية والخارجية؛
- وضع خطط استجابة لعكس النتائج الضارة المحتملة لنظام الذكاء الاصطناعي؛
- يتم تحديثه باستمرار بناءً على رؤى مستقاة من تقييمات الأثر؛
- يُجري تقييمًا لأثر الخوارزميات، والذي يجب أن يكون متاحًا للجمهور، وقد يلزم تكراره دوريًا؛
- يهدف إلى وضع قواعد السلوك والحوكمة لدعم التنفيذ العملي لمشروع قانون الذكاء الاصطناعي.
ج- الإبلاغ عن الحوادث
يجب على المنظمات إبلاغ السلطة المختصة فور علمها بالحادث، بما في ذلك الحالات التي تشكل فيها مخاطر على حياة وسلامة الأفراد، أو انقطاع عمليات البنية التحتية الحيوية، أو حدوث أضرار جسيمة في الممتلكات أو البيئة، فضلاً عن الانتهاكات الجسيمة للحقوق الأساسية.
ستقوم السلطة المختصة بعد ذلك بتقييم مدى خطورة الحادث وإبلاغ الجهات المعنية بتدابير التخفيف لمواجهة آثاره السلبية.
يجوز للسلطة المختصة وضع إجراء لتقييم مدى توافق مدونة السلوك الداخلية للمنظمة مع أحكام القانون المقترح.
سادساً: حقوق أصحاب البيانات
يمنح القانون المقترح الحقوق التالية للأشخاص المتضررين من أنظمة الذكاء الاصطناعي:
يحق للأشخاص المتضررين أن يتم إبلاغهم قبل أي تفاعل محتمل مع نظام الذكاء الاصطناعي، وذلك على وجه الخصوص من خلال إتاحة المعلومات التي تكشف (من بين أمور أخرى):
- استخدام الذكاء الاصطناعي، بما في ذلك وصف دوره، وأي تدخل بشري، والقرارات/التوصيات/التنبؤات التي يستخدم من أجلها (وعواقبها)؛
- هوية مزود نظام الذكاء الاصطناعي وتدابير الحوكمة المعتمدة؛
- فئات البيانات الشخصية المستخدمة؛ و
- التدابير المتخذة لضمان الأمن وعدم التمييز والموثوقية.
ب. الحق في التفسير
يحق للأشخاص المتضررين الحصول على شرح للقرارات والتوصيات والتوقعات التي تصدرها أنظمة الذكاء الاصطناعي. ويمكن أن يشمل ذلك المعلومات التالية:
- الأساس المنطقي للنظام، وأهمية هذا القرار وعواقبه المتوقعة على الشخص المتضرر؛
- درجة مساهمة نظام الذكاء الاصطناعي في عملية صنع القرار؛
- البيانات التي تمت معالجتها، ومصدرها، وعملية صنع القرار نفسها؛
- خيارات وآليات للطعن في جميع القرارات التي يتخذها نظام الذكاء الاصطناعي هذا؛
- إمكانية طلب تدخل بشري أو مراجعة.
ج. الحق في الاعتراض
يحق للأفراد المتضررين الطعن في أي قرارات أو توصيات أو تنبؤات تصدرها أنظمة الذكاء الاصطناعي، لا سيما إذا كانت هذه القرارات أو التوصيات أو التنبؤات تُنتج آثارًا قانونية ذات صلة أو تؤثر بشكل كبير على مصالح الفرد، بما في ذلك من خلال إنشاء ملفات تعريفية واستخلاص استنتاجات. يجب أن يتلقى الأفراد معلومات واضحة وكافية بشأن الجوانب التالية:
- الطابع الآلي للتفاعل واتخاذ القرارات في العمليات أو المنتجات التي تؤثر على الشخص؛
- الوصف العام للنظام، وأنواع القرارات والتوصيات أو التنبؤات التي يهدف إلى تقديمها، وعواقب استخدامه على الشخص؛
- تحديد مشغلي نظام الذكاء الاصطناعي والتدابير الإدارية المتخذة في تطوير النظام واستخدامه من قبل المنظمة؛
- دور نظام الذكاء الاصطناعي والبشر المشاركين في عمليات صنع القرار أو التنبؤ أو التوصية؛
- فئات البيانات الشخصية المستخدمة في سياق تشغيل نظام الذكاء الاصطناعي؛
- التدابير الأمنية، وعدم التمييز، والموثوقية المتخذة، بما في ذلك الدقة والضبط والتغطية.
د. الحق في التدخل البشري
يحق للأشخاص المتضررين طلب تدخل بشري ومشاركة بشرية في قرارات أنظمة الذكاء الاصطناعي لضمان مراعاة السياق والتطور التكنولوجي. ويشمل ذلك ما يلي:
- الحق في تصحيح البيانات غير الكاملة أو غير الدقيقة أو القديمة التي تستخدمها أنظمة الذكاء الاصطناعي؛
- الحق في طلب إخفاء الهوية، والحجب، وحذف البيانات غير الضرورية والمفرطة، وكذلك البيانات التي تتم معالجتها بما لا يتوافق مع القوانين واللوائح الأخرى ذات الصلة؛
- الحق في الطعن في جميع القرارات التي تتخذها أنظمة الذكاء الاصطناعي والتي هي:
- استناداً إلى بيانات غير مناسبة أو مفرطة للمعالجة؛
- استناداً إلى أساليب غير دقيقة أو غير موثوقة إحصائياً؛
- عدم الامتثال لحق الأفراد في الخصوصية.
هـ. الحق في عدم التمييز
يحق للأشخاص المتضررين عدم التمييز وتصحيح أي تحيزات تمييزية مباشرة أو غير مباشرة أو غير قانونية أو تعسفية في أنظمة الذكاء الاصطناعي. ويشمل ذلك حظر تطبيق واستخدام أنظمة الذكاء الاصطناعي التي قد تتسبب في تمييز مباشر أو غير مباشر أو غير قانوني أو تعسفي، بما في ذلك:
- استخدام البيانات الشخصية الحساسة أو التأثيرات غير المتناسبة بسبب السمات الشخصية مثل الأصل الجغرافي أو العرق أو اللون أو الأصل العرقي أو الجنس أو التوجه الجنسي أو الطبقة الاجتماعية والاقتصادية أو العمر أو الإعاقة أو الدين أو الآراء السياسية؛
- فرض الحرمان على الأشخاص المنتمين إلى فئة معينة.
و- الحق في الخصوصية
يتمتع الأشخاص المتضررون بالحق في الخصوصية وحماية البيانات الشخصية، كما هو مكفول بموجب قانون حماية البيانات العامة البرازيلي (LGPD) .
يجب على أنظمة الذكاء الاصطناعي إبلاغ جميع الأفراد بهذه الحقوق وكيفية ممارستها بشكل مناسب. ويحق للأفراد ممارسة هذه الحقوق أمام جميع السلطات والمحاكم المختصة دفاعاً عن مصالحهم.
7. الهيئة التنظيمية
ستقوم السلطة التنفيذية بتعيين الجهة المختصة المسؤولة عن تنفيذ القانون المقترح. وبمجرد تعيينها، ستكون هذه الجهة مسؤولة عما يلي:
- ضمان حماية الحقوق الأساسية والحقوق الأخرى المتأثرة باستخدام أنظمة الذكاء الاصطناعي؛
- تعزيز صياغة وتحديث وتنفيذ الاستراتيجية البرازيلية للذكاء الاصطناعي بالتعاون مع الهيئات ذات الصلاحيات ذات الصلة؛
- الترويج وإعداد الدراسات المتعلقة بأفضل الممارسات في تطوير واستخدام أنظمة الذكاء الاصطناعي؛
- تشجيع تبني الممارسات الجيدة، بما في ذلك مدونات قواعد السلوك، في تطوير واستخدام أنظمة الذكاء الاصطناعي؛
- تعزيز الجهود التعاونية مع السلطات الدولية المماثلة مع المساعدة أيضاً في تطوير أنظمة الذكاء الاصطناعي في البلدان الأخرى؛
- إصدار أدلة حول كيفية ممارسة الهيئات التنظيمية الأخرى ذات الصلة في البلاد لصلاحياتها في قطاعات محددة من الأنشطة الاقتصادية والحكومية الخاضعة لهذا النظام؛
- فحص سياسات الإفصاح الخاصة بالمنظمات الأخرى وفقًا لمتطلبات القانون المقترح؛
- التحقيق وتطبيق العقوبات في حال تبين عدم امتثال المنظمات لالتزاماتها التنظيمية وفقًا للقانون المقترح؛
- طلب معلومات إضافية تتعلق بأنشطة معالجة البيانات من هيئات حكومية أخرى؛
- الدخول في تعهد مع منظمات تتعهد بالقضاء على المخالفات التي تم تحديدها؛
- إعداد تقرير سنوي عن أنشطتها؛
- إصدار أدلة إرشادية حول كيفية تأثر اللوائح البرازيلية الأخرى بالقانون المقترح، بما في ذلك:
- الإجراءات المتعلقة بالحقوق والالتزامات بموجب القانون المقترح؛
- الإجراءات والاعتبارات عند تصميم تقييمات الأثر الخوارزمي؛
- المتطلبات المتعلقة بالمعلومات التي يجب إتاحتها للجمهور حول أنظمة الذكاء الاصطناعي المستخدمة؛
- الإجراءات المتعلقة باعتماد تطوير واستخدام الأنظمة عالية المخاطر.
سيكون للسلطة المختصة الحق والمسؤولية في تحديد الشروط والمتطلبات وقنوات الاتصال والإفصاح المتباينة لمقدمي ومشغلي أنظمة الذكاء الاصطناعي من قبل الشركات الكبيرة بموجب أحكام القانون التكميلي رقم 123 الصادر في 14 ديسمبر 2006، وكذلك الشركات الناشئة بموجب أحكام القانون التكميلي رقم 182 الصادر في 1 يونيو 2021.
كما يتعين على السلطة المختصة ضمان التواصل المستمر مع الوكالات والكيانات التابعة للإدارة العامة المسؤولة عن تنظيم قطاعات اقتصادية محددة وقطاعات النشاط الحكومي لضمان التعاون في المسائل المتعلقة بوظائفها التنظيمية والإشرافية والتنفيذية.
يتعين على الهيئات والكيانات العامة التي تجرّب أنظمة الذكاء الاصطناعي الخاصة بها في البيئة التجريبية التنظيمية إبلاغ السلطة المختصة بشكل مناسب وطلب رأيها بشأن امتثالها للالتزامات التنظيمية وفقًا للقانون المقترح.
وأخيراً، لن يتم إقرار جميع القواعد واللوائح الصادرة عن السلطة المختصة إلا بعد فترة من المشاورات العامة وجلسات الاستماع الصارمة بالإضافة إلى تقييمات الأثر وفقاً للقانون رقم 13.848 الصادر في 25 يونيو 2019.
ثامناً: عقوبات عدم الامتثال
ستخضع المنظمات التي يتبين عدم امتثالها لأحكام القانون المقترح للعقوبات الإدارية التالية التي ستطبقها السلطة المختصة:
- إشعار يوضح تفاصيل المخالفة التي ارتكبوها؛
- غرامة مالية تصل إلى 50,000,000 ريال برازيلي (حوالي 10 ملايين دولار) لكل مخالفة أو ما يصل إلى 2٪ من إجمالي إيراداتها السنوية للسنة المالية السابقة في حالة الكيانات القانونية الخاصة؛
- نشر الجريمة بمجرد توجيه الاتهام من قبل السلطات؛
- تقييد المشاركة في نظام البيئة التجريبية التنظيمية وفقًا للقانون المقترح لمدة تصل إلى خمس سنوات؛
- تعليق جزئي أو كامل لتطوير وتوريد وتشغيل نظام الذكاء الاصطناعي الخاص بهم؛
- حظر معالجة قواعد بيانات معينة.
قبل اتخاذ الخطوات المذكورة أعلاه ضد أي جهة مخالفة، يجوز للسلطات التنظيمية اعتماد سلسلة من التدابير الوقائية، مثل الغرامات القسرية، في الحالات التي يكون لدى السلطة فيها أسباب معقولة للاعتقاد بأن الطرف المخالف المحتمل قد:
- التسبب في ضرر لا يمكن إصلاحه؛
- التسبب في وضع قد تكون فيه نتيجة الإجراءات غير فعالة.
يجوز للسلطات المختصة المضي قدماً في الإجراءات الإدارية ضد الطرف المخالف بناءً على الظروف المحددة وبعد دراسة متأنية للمعايير التالية:
- خطورة وطبيعة الانتهاكات والانتهاك النهائي للحقوق؛
- حسن نية الطرف المخالف؛
- أي مزايا مكتسبة أو مقصودة من قبل الطرف المخالف؛
- الوضع الاقتصادي للطرف المخالف؛
- مدى الضرر الذي تسبب فيه الطرف المخالف؛
- سلوك الطرف المخالف التعاوني؛
- استعداد الطرف المخالف لتبني ممارسات جيدة ونظام حوكمة صارم؛
- التناسب بين خطورة الجريمة والعقوبة؛
- تم تطبيق عقوبات إدارية أخرى على نفس المخالفة؛
- اعتماد آليات وعمليات داخلية تقلل من المخاطر، مثل تقييمات الأثر والتنفيذ الفعال لمدونة الأخلاقيات.
9. كيف Securiti يمكن المساعدة
تنضم البرازيل إلى قائمة متنامية من الدول التي إما في طور تبني أو تبنت بالفعل شكلاً من أشكال تنظيم الذكاء الاصطناعي . وهذا يُبرز أهمية وجود إطار AI governance بالنسبة للمؤسسات، ويُقدم نظرة ثاقبة على تحديات الامتثال التي تواجه المؤسسات ذات العمليات العالمية.
تتشابه هذه اللوائح إلى حد كبير، لكنها تختلف أيضاً في جوانب عديدة. بالنسبة للمؤسسات التي يُتوقع منها الالتزام بتفاصيل كل منها، فإن محاولة القيام بذلك يدوياً ستكون مضيعة للوقت والجهد.
Securiti هو رائد في Data Command Center منصة مركزية تُمكّن من الاستخدام الآمن للبيانات والذكاء الاصطناعي العام. توفر هذه المنصة ذكاءً موحدًا للبيانات، وضوابط، وتنسيقًا عبر بيئات سحابية هجينة متعددة. وتعتمد عليها كبرى الشركات العالمية. Securiti 's Data Command Center لأغراض أمن البيانات والخصوصية والحوكمة والامتثال.
مع Data Command Center ستتمكن المؤسسات من الوصول إلى العديد من الوحدات والحلول الفردية المصممة لتكون سهلة الاستخدام مع كونها فعالة وشاملة في وظائفها.
تشمل هذه الخدمات data mapping ، data lineage ، وتصنيفها، وفهرستها ، وصولاً إلى تقييم متطلبات الوصول الرقمي data catalog الوصول، وغيرها الكثير. وسيكون لكل منها دور حيوي في مساعدة المؤسسات على تحقيق الامتثال للوائح التنظيمية.
والأهم من ذلك، نظراً للأهمية الكبيرة التي يوليها القانون الجديد لتقييمات الأثر العام، فمن الضروري وجود حل لا يساعد مؤسستك فقط على إجراء هذه التقييمات في الموعد المحدد، بل يوفر أيضاً رؤى في الوقت الفعلي تتعلق بنتائج هذه التقييمات للسماح بإجراء تعديلات فورية لتحسين الامتثال.
اطلب عرضًا تجريبيًا اليوم وتعرف على المزيد حول كيفية Securiti يمكننا مساعدتك في الامتثال لالتزاماتك بموجب قانون الذكاء الاصطناعي المقترح في البرازيل، بالإضافة إلى اللوائح الرئيسية الأخرى المتعلقة بالبيانات والذكاء الاصطناعي على مستوى العالم.