لقد ساهم ظهور الذكاء الاصطناعي، وتحديداً الذكاء الاصطناعي التوليدي، في الارتقاء بالتكنولوجيا إلى مستويات غير مسبوقة، حيث تجاوزت حدود الخيال لتصبح واقعاً ملموساً. فمن تشغيل المساعدين الافتراضيين والسيارات ذاتية القيادة إلى تحسين التشخيص الطبي، يُساعد الذكاء الاصطناعي مختلف القطاعات على تخطي الحدود واستكشاف آفاق جديدة.
مع استمرار الذكاء الاصطناعي في دعم الصناعات، يجب على الشركات أن تتعلم كيف تستغل إمكاناته مع التنقل بأمان في متاهة لوائح الذكاء الاصطناعي المعقدة.
يسعى قادة العالم جاهدين على مستوى العالم إلى سنّ قوانين خاصة بالذكاء الاصطناعي لضبط هذه التقنية المتطورة باستمرار وضمان استخدامها الآمن. ونتيجة لذلك، يجب على الشركات فهم هذه القوانين فهماً دقيقاً لتجنب العقوبات القانونية الباهظة، والأضرار التي تلحق بسمعتها، وضياع الفرص.
تابع القراءة لمعرفة المزيد حول أهمية الامتثال للوائح الذكاء الاصطناعي العالمية وما تحتاج الشركات إلى معرفته حول القوانين المقترحة أو التي تم سنها حتى الآن.
أهمية الامتثال التنظيمي للذكاء الاصطناعي بالنسبة للشركات
يُعدّ الذكاء الاصطناعي أروع إنجاز تكنولوجي شهدناه خلال العقود الماضية. ومع ذلك، وفي خضمّ هذا التطور، لا ينبغي للشركات أن تتجاهل الجانب الأكثر أهمية: الامتثال للوائح التنظيمية المتعلقة بالذكاء الاصطناعي. ولا تقتصر أهمية هذا الامتثال على تجنّب الغرامات فحسب، بل تتجاوز ذلك بكثير.
تجنب الغرامات والعقوبات التنظيمية
إلى جانب الفرص والابتكارات اللامحدودة، أثارت تقنيات الذكاء الاصطناعي العديد من المخاوف الأمنية والخصوصية والأخلاقية. فعلى سبيل المثال، قد ينتج الذكاء الاصطناعي محتوى متحيزًا نتيجةً لنقص بيانات التدريب. ومع اعتماد الموظفين على الذكاء الاصطناعي في مهامهم اليومية، أصبح تبادل البيانات الحساسة أو بيانات الملكية الفكرية مع أنظمة الذكاء الاصطناعي مصدر قلق بالغ. وقد دفعت هذه المشكلات قادة العالم إلى اقتراح لوائح وأطر عمل قوية للذكاء الاصطناعي لتنظيم استخدامه.
تُفرض عقوبات على المخالفات أو عدم الامتثال للسياسات التنظيمية، مما قد يُعرّض الشركات لخسائر مالية وتشويه لسمعتها. لذا، يجب على الشركات الالتزام باللوائح المعمول بها لتجنب العقوبات والتبعات.
تحسين ثقة العملاء
الممارسات الجيدة تعزز الثقة، والثقة بدورها أساس نجاح الأعمال. وقد ساهمت التطورات التقنية في زيادة وعي العملاء بمحيطهم أكثر من أي وقت مضى. وبينما يدرك العملاء مدى فائدة الاستفادة من الذكاء الاصطناعي، فإنهم يعلمون أيضاً أن استخدامه غير الخاضع للإشراف أو غير السليم قد يؤدي إلى مخاطر عديدة، مثل التحيز، وتسريب البيانات ، أو كشف بيانات الملكية الفكرية.
يُعدّ الامتثال للوائح التنظيمية الطريقة الأمثل لإظهار مدى اهتمام شركتك بأمن البيانات وسلامتها وخصوصيتها. كما أنه يعكس التزامك بالاستخدام الأخلاقي للذكاء الاصطناعي والتقنيات ذات الصلة، والأهم من ذلك، الشفافية.
الوصول إلى الأسواق الدولية
تحتاج الشركات الناجحة إلى الوصول إلى الأسواق الدولية لتنمو وتصبح مؤسسات متعددة الجنسيات. ومع ذلك، لتحقيق ذلك، يجب على الشركات أولاً تلبية المتطلبات التنظيمية في تلك الأسواق. وبشكل عام، لا تقتصر اللوائح على مناطق محددة. في الواقع، لكل دولة قوانينها التنظيمية التي يجب على الشركات الالتزام بها لممارسة عملياتها، وخاصة قواعد نقل البيانات عبر الحدود . يمكن لاستراتيجية تنظيمية قوية للذكاء الاصطناعي أن تساعد الشركات على تبسيط عملياتها المتعلقة بالخصوصية، لا سيما فيما يتعلق بـ data mapping ونقل البيانات عبر الحدود، للوصول إلى الأسواق العالمية.
قيادة الابتكارات بأمان
لا تُعيق اللوائح الابتكارات أو تُعرقلها. بل على العكس، صُممت قوانين مثل لوائح الذكاء الاصطناعي لتعزيز الابتكار بمسؤولية وأمان وأخلاقية. تُساعد اللوائح الشركات على وضع حدود لحماية خصوصية العملاء وحقوقهم، وشفافية ممارساتها التجارية، وتعزيز إجراءات أمن البيانات، على سبيل المثال لا الحصر. من خلال إثبات الامتثال، يُمكن للشركات العمل على استكشاف مجالات وابتكارات وفرص جديدة دون القلق بشأن المخاطر المرتبطة بالامتثال.
اللوائح العالمية المتعلقة بالذكاء الاصطناعي في عام 2023 وما بعده
مع ظهور تقنيات الذكاء الاصطناعي من الجيل الأول مثل ChatGPT شهدت السنوات الأخيرة ارتفاعاً ملحوظاً في تطوير تطبيقات الذكاء الاصطناعي الجديدة، فضلاً عن القوانين المتعلقة به. لذا، يتعين على الشركات أن تكون استباقية في فهم العناصر الأساسية لهذه القوانين، وأن تبدأ بالاستعداد لمواكبة التطورات.
فيما يلي لمحة موجزة عن بعض التطورات الأخيرة في المشهد التنظيمي للذكاء الاصطناعي:
القانون البرازيلي رقم 2338
في مايو 2023، قدّم مجلس الشيوخ البرازيلي مشروع القانون رقم 2338/2023 . ولا يزال هذا المشروع قيد الدراسة من قبل المجلس التشريعي، ويقترح وضع ضوابط لحماية إمكانية الوصول إلى الذكاء الاصطناعي وحقوق خصوصية المستخدمين. وبمجرد إقراره، سيسري هذا القانون على الأفراد والكيانات التي توظف أو تستخدم أنظمة الذكاء الاصطناعي أو تزودها، ويُشار إليها مجتمعةً باسم "وكلاء الذكاء الاصطناعي". وفيما يلي بعض أبرز ملامح القانون المقترح:
حقوق الأفراد المتأثرين بأنظمة الذكاء الاصطناعي
أولاً، يمنح مشروع القانون المستخدمين المتأثرين بأنظمة الذكاء الاصطناعي صلاحيات أوسع. data privacy حقوق، مثل:
- الحق في الحصول على المعلومات السابقة المتعلقة بتفاعل المستخدمين مع الذكاء الاصطناعي.
- الحق في الحصول على تفسير لأي نوع من القرارات أو الاقتراحات التي يوصي بها الذكاء الاصطناعي.
- الحق في الطعن في هذه القرارات أو التوصيات.
- الحق في التدخل البشري أو تحديد القرارات المتعلقة بالذكاء الاصطناعي.
- الحق في الخصوصية وحماية البيانات الشخصية.
كما يُمنح الأفراد الحق في الحصول، قبل التعاقد أو استخدام النظام، على معلومات واضحة حول مستخدم نظام الذكاء الاصطناعي، ووصفه، ومشغل الذكاء الاصطناعي المرتبط به، وفئات البيانات الشخصية المستخدمة لتدريب الذكاء الاصطناعي، وأمن أو موثوقية نظام الذكاء الاصطناعي.
تقييم تصنيف المخاطر
يتعين على موردي أنظمة وتطبيقات الذكاء الاصطناعي إجراء تقييم أولي شامل للمخاطر قبل طرح النظام في السوق أو تشغيله. وبناءً على هذا التقييم، يُصنف نظام الذكاء الاصطناعي إما كنظام ذي مخاطر عالية أو نظام ذي مخاطر مفرطة.
مخاطرة مفرطة
تشمل فئة المخاطر المفرطة أنظمة الذكاء الاصطناعي التي تستخدم تقنيات لا شعورية تؤثر على الأفراد بطريقة ضارة بصحتهم أو سلامتهم، أو الأنظمة التي تستغل أي نقاط ضعف لدى مجموعة معينة من الأفراد، مثل الصحة العقلية، وما إلى ذلك.
خطر مرتفع
تشمل فئة المخاطر العالية أنظمة الذكاء الاصطناعي التي تستخدم لأغراض مثل أجهزة السلامة للبنى التحتية الحيوية، والتعرف البيومتري، والتحقيق الجنائي، والتدريب التعليمي أو المهني، والتوظيف، والمركبات ذاتية القيادة، على سبيل المثال لا الحصر.
AI Governance إرشادات
يشترط النظام على وكلاء الذكاء الاصطناعي (الموردين والمشغلين) وضع إطار حوكمة مع التأكد من أنه يتضمن سياسات وإجراءات لضمان ما يلي:
- شفافية تفاعل نظام الذكاء الاصطناعي مع الأفراد.
- الشفافية فيما يتعلق بتدابير الحوكمة المرتبطة بتطوير واستخدام أنظمة الذكاء الاصطناعي.
- معالجة البيانات بما يتوافق مع القوانين واللوائح المعمول بها.
- اعتماد تدابير أمنية .
- تدابير إضافية مناسبة تتعلق بأنظمة الذكاء الاصطناعي عالية المخاطر.
تقييم الأثر الخوارزمي
يجب على وكلاء الذكاء الاصطناعي إجراء تقييم لأثر الخوارزميات على أنظمة الذكاء الاصطناعي عالية المخاطر. ويجب أن يُجرى هذا التقييم بواسطة فريق من المختصين ذوي المعرفة القانونية والتقنية، وذلك لدراسة وتسجيل المخاطر المعروفة والمتوقعة لنظام الذكاء الاصطناعي، بالإضافة إلى تحديد تدابير التخفيف المناسبة.
المسؤوليات المدنية
تتحمل أنظمة الذكاء الاصطناعي مسؤولية إصلاح أي أضرار ناجمة عن أنظمة الذكاء الاصطناعي عالية الخطورة. أما بالنسبة لأنظمة الذكاء الاصطناعي غير عالية الخطورة، فيُعتبر النظام المتسبب بالضرر مُذنباً، ويقع عبء الإثبات على عاتق الضحية.
قانون الذكاء الاصطناعي للاتحاد الأوروبي
لا يتوانى الاتحاد الأوروبي أبدًا عن حماية حقوق مواطنيه وخصوصيتهم. فقد اقترحت المفوضية الأوروبية قانون الذكاء الاصطناعي في أبريل 2021، بهدف ضمان تطوير واستخدام تقنيات الذكاء الاصطناعي بشكل منظم وآمن. وعلى عكس اللائحة العامة لحماية البيانات (GDPR)، يتبنى قانون الذكاء الاصطناعي نهجًا قائمًا على تقييم المخاطر لتنظيم تطوير ونشر الذكاء الاصطناعي، حيث تتفاوت شدة الأحكام والعقوبات المترتبة على المخالفات تبعًا لفئة المخاطر.
مخاطرة غير مقبولة
تشمل هذه الفئة من المخاطر أنظمة الذكاء الاصطناعي التي تُعتبر تهديدًا للأفراد أو سبل عيشهم أو خصوصيتهم. ولذلك، يحظر قانون الذكاء الاصطناعي تمامًا هذه الأنظمة التي تندرج ضمن فئة المخاطر غير المقبولة. وتشمل هذه الأنظمة ما يلي:
- تؤثر على السلوك الإدراكي للأفراد، مثل الألعاب التي تعمل بالصوت، وما إلى ذلك.
- قم بتصنيف الأفراد وفقًا لخصائصهم الشخصية أو السلوكية.
- توفير التعرف البيومتري في الوقت الفعلي.
عالي الخطورة
تُصنّف أدوات أو تطبيقات الذكاء الاصطناعي التي تؤثر سلبًا على حقوق الأفراد أو سلامتهم ضمن الأنظمة عالية المخاطر. وتنقسم هذه الفئة من المخاطر إلى فئتين فرعيتين:
- أنظمة الذكاء الاصطناعي المستخدمة كمكونات أمان في المنتجات الخاضعة لتقييم المطابقة المسبق من قبل طرف ثالث.
- أنظمة الذكاء الاصطناعي التي تندرج تحت ثمانية مجالات محددة مدرجة في الملحق الثالث لقانون الذكاء الاصطناعي، مثل تحديد الهوية البيومترية، وإدارة البنية التحتية الحيوية، والتدريب التعليمي، والتوظيف، وما إلى ذلك.
مخاطر منخفضة أو ضئيلة
تشمل هذه الفئة أنظمة الذكاء الاصطناعي التي لا تشكل مخاطر تُذكر على سلامة مستخدميها، مثل ألعاب الفيديو المدعومة بالذكاء الاصطناعي أو برامج تصفية البريد العشوائي. وتخضع هذه الأنظمة لمتطلبات الشفافية فقط.
تختلف شدة الأحكام والعقوبات باختلاف نوع فئة المخاطر. ومع ذلك، ينص قانون الذكاء الاصطناعي بوضوح على أن من يثبت انتهاكه للقانون سيواجه غرامات تصل إلى 30 مليون يورو أو 6% من الأرباح العالمية.
قانون الذكاء الاصطناعي في ولاية كونيتيكت
في 7 يونيو 2023، وقّع حاكم ولاية كونيتيكت، نيد لامونت، على مشروع قانون مجلس الشيوخ رقم 1103 - قانون يتعلق بالذكاء الاصطناعي، واتخاذ القرارات الآلية، والشخصية Data Privacy (القانون). ينشئ القانون فريق عمل معني بالذكاء الاصطناعي ومكتبًا للذكاء الاصطناعي لاقتراح مشروع قانون لحقوق الذكاء الاصطناعي.
ينص القانون أيضاً على إلزام إدارة الخدمات الإدارية بإنشاء قائمة بجميع أنظمة الذكاء الاصطناعي المستخدمة من قبل أي وكالة حكومية. يجب أن تتضمن القائمة المعلومات التالية:
- اسم البائع ونظام الذكاء الاصطناعي.
- معلومات تتعلق بقدراتها العامة.
- الوضع المتعلق بأي تقييم للأثر تم إجراؤه على النظام.
كما يكلف مشروع القانون إدارة الخدمات الإدارية بإجراء تقييمات مستمرة لأثر الأنظمة التي تستخدم الذكاء الاصطناعي لضمان عدم تسبب النظام في أي تمييز غير قانوني أو تأثير غير متناسب غير قانوني على الأفراد.
قانون إلينوي للمقابلات المصورة بالذكاء الاصطناعي
في يناير 2020، أصدرت ولاية إلينوي الأمريكية قانون المقابلات المرئية باستخدام الذكاء الاصطناعي . وهو قانون موجز يتعلق بالذكاء الاصطناعي ويستهدف تحديداً أصحاب العمل الذين يستخدمون أنظمة الذكاء الاصطناعي لإجراء وتحليل المقابلات المرئية للمرشحين.
يلزم هذا النظام أصحاب العمل في ولاية إلينوي بإخطار المتقدمين للوظائف قبل المقابلة باستخدام الذكاء الاصطناعي في المقابلات المرئية. كما يجب إبلاغ المتقدمين بكيفية عمل الذكاء الاصطناعي وكيفية مساعدته في تقييم المقابلة. والأهم من ذلك، لا يجوز لأصحاب العمل إجراء المقابلة المرئية باستخدام الذكاء الاصطناعي دون موافقة صريحة من المتقدم.
يقيّد قانون المقابلات المرئية المدعومة بالذكاء الاصطناعي أصحاب العمل من مشاركة تسجيلات المقابلات المرئية مع أي شخص إلا إذا كان خبيرًا في تقييم المقابلات. وفي حال طلب المتقدم للوظيفة حذف التسجيل، يجب على أصحاب العمل الاستجابة للطلب وحذف الفيديو خلال 30 يومًا من تاريخ استلامه.
الإدارة الصينية للتوليف العميق الآلي
لا تملك جمهورية الصين الشعبية تنظيماً خاصاً بالذكاء الاصطناعي. مع ذلك، قد تتضمن إدارة خدمات المعلومات القائمة على الإنترنت، والتي تعتمد على التوليف العميق، أحكاماً تتعلق باستخدام خدمات التوليف العميق، بما في ذلك أمثلة مثل التزييف العميق والمحتوى المماثل الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي.
يمكن تصنيف الأحكام المتعلقة بتوظيف أو استخدام خدمات الذكاء الاصطناعي التركيبي العميق إلى ثلاثة مكونات:
أحكام عامة
يحظر النظام استخدام خدمات التركيب العميق للذكاء الاصطناعي التي تُنتج أي محتوى محظور بموجب قوانين جمهورية الصين الشعبية أو يُهدد الأمن القومي أو الاقتصاد. ويُحظر على هذه الخدمات إنتاج أي أخبار كاذبة، ويجب إدارتها بمسؤولية.
إدارة البيانات والتكنولوجيا
يجب على مقدمي هذه الخدمات تعزيز إدارة بيانات التدريب المستخدمة في التركيب العميق، ويجب عليهم الالتزام بقوانين حماية البيانات ذات الصلة إذا كانت بيانات التدريب تتضمن معلومات شخصية.
المسؤولية القانونية
في حال مخالفة أي بند من بنود القانون، تفرض أجهزة الأمن العام العقوبات أو الجزاءات المناسبة. وفي حال وقوع أي نشاط إجرامي، تُجرى تحقيقات متعلقة بالجريمة.
لوائح شنغهاي
يتعين على جميع الشركات التي تستخدم تقنيات الذكاء الاصطناعي في عملياتها التجارية بمنطقة شنغهاي الالتزام بلوائح الذكاء الاصطناعي في شنغهاي. وتشمل هذه اللوائح نطاقاً واسعاً من الأنشطة، بما في ذلك على سبيل المثال لا الحصر، الحوكمة والتطوير الصناعي، والابتكارات في مجال علوم وتكنولوجيا الذكاء الاصطناعي.
تُعدّ إدارات الاقتصاد والمعلومات في البلديات المحلية الجهات الرئيسية المسؤولة عن تخطيط وتنفيذ اللوائح والتطورات في صناعة الذكاء الاصطناعي. ويهدف نظام شنغهاي للذكاء الاصطناعي إلى تعزيز الجيل الجديد من موارد العلوم والتكنولوجيا في مجال الذكاء الاصطناعي، وتشجيع التكامل الدقيق لتقنيات الذكاء الاصطناعي.
لوائح الذكاء الاصطناعي في شنتشن
يركز تنظيم الذكاء الاصطناعي في شنتشن على تعزيز تطوير الصناعات القائمة على الذكاء الاصطناعي في المنطقة، وخاصة في منطقة شنتشن الاقتصادية الخاصة. وكما هو الحال في قانون الذكاء الاصطناعي للاتحاد الأوروبي ، يتبنى تنظيم الذكاء الاصطناعي في شنتشن نهجًا قائمًا على المخاطر لإدارة استخدام الذكاء الاصطناعي. فعلى سبيل المثال، تتطلب أنظمة الذكاء الاصطناعي عالية المخاطر إجراء تقييمات لتحديد المخاطر في المراحل المبكرة من تشغيل النظام. أما فئتا المخاطر المتوسطة والمنخفضة فتشملان أنظمة الذكاء الاصطناعي التي يجب أن تلتزم بأحكام الإفصاح المسبق والتتبع اللاحق. علاوة على ذلك، يُسمح لأنظمة الذكاء الاصطناعي المصنفة ضمن فئة المخاطر المنخفضة بإجراء تجارب واختبارات دون التقيد بالمعايير المحلية إذا كانت متوافقة مع المعايير الدولية.
قُدِّم مشروع قانون حماية البيانات والمعلومات الرقمية (رقم 2) في المملكة المتحدة (مشروع القانون) في مارس 2023، واجتاز جلسته الثانية في أبريل 2023. يقترح مشروع القانون تعديلات على اللائحة العامة لحماية البيانات في المملكة المتحدة (GDPR)، مع تضمين أحكام تتعلق بالذكاء الاصطناعي واتخاذ القرارات الآلية. ومن بين الاعتبارات والاقتراحات الرئيسية الأخرى، يوصي مشروع القانون أيضًا بأحكام لمعالجة المخاطر المرتبطة باتخاذ القرارات الآلية المدعومة بالذكاء الاصطناعي، وتحديد ضوابط حماية البيانات المطلوبة.
قانون الذكاء الاصطناعي والبيانات الكندي (AIDA)
في يونيو 2022، اقترحت الحكومة الكندية قانون الذكاء الاصطناعي والبيانات (AIDA) كجزء من مشروع القانون C-27. ويهدف قانون الذكاء الاصطناعي والبيانات إلى وضع تدابير جديدة لتنظيم التجارة الدولية وبين المقاطعات في أنظمة الذكاء الاصطناعي، ووضع متطلبات مشتركة لتصميم وتطوير واستخدام أنظمة الذكاء الاصطناعي.
في حال إقرار القانون، سيُطبّق على الجهات التي تُصمّم أو تُطوّر أو تُتيح استخدام أنظمة الذكاء الاصطناعي. ويهدف هذا النظام بالدرجة الأولى إلى تنظيم أنظمة الذكاء الاصطناعي ذات التأثير الكبير، وينص على عدد من التزامات الامتثال للجهات المشمولة، مع التركيز على تحديد أي مخاطر محتملة قد تُلحق الضرر بالمستهلكين، والتخفيف من حدّتها، والإبلاغ عنها. وتشمل بعض الالتزامات الرئيسية للجهات المشمولة متطلبات الإفصاح، وإخفاء هوية البيانات، وتقييم المخاطر، ومتطلبات الإبلاغ عن أي ضرر مادي تُسبّبه أنظمة الذكاء الاصطناعي.
كيف Securiti يمكن المساعدة
مع تزايد تطبيقات وتقنيات الذكاء الاصطناعي، ستزداد المخاوف الأمنية ومخاوف الخصوصية. لذا، من المنطقي الاعتقاد بأن الشركات ستشهد المزيد من القوانين واللوائح المتعلقة بالذكاء الاصطناعي في السنوات القادمة.
مبني على Data Command Center إطار عمل (UDC)، Securiti 's Data Command Center تم تصميمها لمساعدة المؤسسات على تمكين الاستخدام المسؤول للذكاء الاصطناعي من خلال رؤى البيانات السياقية وضوابط البيانات الموحدة.
من خلال مركز قيادة البيانات الواحد، يمكن للمؤسسات الحصول على رؤى سياقية أعمق حول البيانات الحساسة، وتمكين تصنيف البيانات بدقة عالية، وإنشاء ضوابط دقيقة حول الوصول إلى البيانات الحساسة، وتعزيز مشاركة البيانات الآمنة مع الخصوصية التفاضلية، وتبسيط أتمتة الامتثال مع معلومات تنظيمية متكاملة.
الأسئلة الشائعة (FAQs)
بعض الأسئلة الأكثر شيوعاً هي كالتالي: