الإعلان عن Agent Commander - أول حل متكامل من Veeam + Securiti .ai تمكين توسيع نطاق وكلاء الذكاء الاصطناعي الآمنين

منظر

نظرة عامة على اللوائح العالمية الناشئة المتعلقة بالذكاء الاصطناعي

المساهمون

أنس بيج

مدير تسويق المنتجات في Securiti

عادل حسن

السيد. Data Privacy محلل في Securiti

CIPM، CIPP/كندا

نُشر في 10 يوليو 2023 / تم التحديث في 2 مارس 2024

مقدمة

الكتابة، والفن، وهندسة البرمجيات، والتسويق، والتحليل القانوني، والتخطيط السياسي - الذكاء الاصطناعي قادر على فعل كل ذلك. شهد الذكاء الاصطناعي خلال الأشهر القليلة الماضية قفزات هائلة في قدراته التشغيلية. يعتبر العديد من خبراء الصناعة الآن هذه بداية الثورة الصناعية الرابعة، حيث أشارت دراسة أجراها معهد ماساتشوستس للتكنولوجيا إلى أن استخدام الذكاء الاصطناعي بشكل محدود للغاية يمكن أن يرفع إنتاجية العامل بنسبة تصل إلى 14%. ورغم أن هذا يبشر بفوائد جمة، إلا أنه لا يخلو من بعض السلبيات.

شهد العام الماضي ارتفاعاً حاداً في حوادث إساءة استخدام الذكاء الاصطناعي لأغراض أخلاقية. وقد أثارت بعض هذه الحوادث غضباً دولياً، مثل فيديو التزييف العميق الذي يُظهر استسلام الرئيس الأوكراني فولوديمير زيلينسكي. في عصرٍ باتت فيه الأخبار الكاذبة والدعاية تُعتبران تهديداً وجودياً للنسيج الاجتماعي، يُصبح من السهل إدراك كيف أن إدخال مثل هذه القدرات للذكاء الاصطناعي يُنذر بكارثة.

إحدى طرق تجنب حالات إساءة استخدام الذكاء الاصطناعي هي وضع قوانين محكمة تحمي حقوق الأفراد. ويتفق المشرعون والجهات التشريعية في جميع أنحاء العالم على هذا الرأي، كما يتضح من مؤشر الذكاء الاصطناعي الصادر عن جامعة ستانفورد عام 2023 ، والذي يشير إلى إقرار 37 مشروع قانون مختلفًا متعلقًا بالذكاء الاصطناعي في عام 2022 وحده. ولا تقتصر معظم هذه القوانين على الدعوة إلى تحليل وفهم أفضل للذكاء الاصطناعي ومخاطره المحتملة فحسب، بل تدعو أيضًا إلى محاسبة مطوري أدوات الذكاء الاصطناعي على نتائج ابتكاراتهم.

اعتبارات الذكاء الاصطناعي في القرن الحادي والعشرين

لا يزال الذكاء الاصطناعي غامضاً في جوانب عديدة. ولا تزال الأبحاث المتعلقة بتفسير الذكاء الاصطناعي وموثوقيته وقابليته للتشغيل في مراحلها الأولى نسبياً فيما يتعلق بفهمنا الشامل لإمكانياته غير المحدودة.

يجب إدارة الذكاء الاصطناعي وتوجيهه بشكل مناسب لضمان عدم انتهاكه لحقوق المستخدمين أو إحداثه اضطرابًا فوضويًا في الأعمال. ولتحقيق ذلك، ينبغي أن تكون لوائح الذكاء الاصطناعي فعّالة ومرنة وقابلة للتطوير بما يكفي لتغطية أي تطورات غير متوقعة في قدرات الذكاء الاصطناعي قد تظهر على المدى القريب والبعيد.

تزداد الحاجة إلى أن تكون هذه اللوائح مرنة وقابلة للتطوير في المستقبل أهميةً بمجرد أخذ عدم إمكانية "تفسير" حسابات الذكاء الاصطناعي في الاعتبار.

إضافةً إلى ذلك، ثمة العديد من المشكلات الأخرى التي يجب أخذها في الاعتبار. فعلى سبيل المثال، ينص قانون الذكاء الاصطناعي للاتحاد الأوروبي على أن تكون جميع "مجموعات بيانات التدريب والتحقق والاختبار ذات صلة وممثلة وخالية من الأخطاء وكاملة". ورغم أن هذا يبدو نظرياً التزاماً مناسباً على المؤسسات، إلا أن حجم البيانات المطلوبة لتدريب خوارزمية التعلم الآلي بشكل صحيح، مع اشتراط أن تكون "خالية من الأخطاء وكاملة"، يضع معياراً عالياً للغاية قد لا تجده العديد من المؤسسات قابلاً للتطبيق.

من الأمثلة على ذلك Amazon ، التي اضطرت إلى إلغاء أداة التوظيف بالذكاء الاصطناعي الخاصة بها بالكامل. كانت المشكلة تكمن في رغبتها بتوظيف المزيد من المرشحات، إلا أن الأداة استمرت في ترشيح مرشحين ذكور. والسبب في ذلك هو أن مجموعات التدريب المتاحة كانت متحيزة بشكل كبير. وبما أنه لم تكن هناك مجموعات تدريب أخرى متاحة، وكان إنشاء مجموعة جديدة سيكلف مبالغ طائلة، Amazon تم إلغاء المشروع بأكمله بالكامل.

Amazon كان بإمكاني تحمل تكلفة ذلك لأنه Amazon . قد لا تتمتع الشركات الناشئة أو الشركات الصغيرة والمتوسطة في وضع مماثل بمثل هذه الخيارات المتاحة.

وقد دعا المشرعون في الاتحاد الأوروبي بالفعل إلى عقد اجتماع عالمي للقادة لمعالجة التهديدات التي يشكلها الذكاء الاصطناعي "القوي للغاية" على حقوق الإنسان والإنسانية نفسها.

الدول التي تحظى بالاهتمام

تبنت عدة دول نهجاً استباقياً تجاه تنظيم الذكاء الاصطناعي. ففي ظل غياب تشريعات شاملة، نشرت الحكومات أطراً توجيهية وخططاً استراتيجية توضح مستقبل تنظيم الذكاء الاصطناعي في هذه الدول، وتساعد المؤسسات على إدارة استخدامها للذكاء الاصطناعي وأدواته بمسؤولية.

جارٍ تحميل البيانات

علم أسترالياأستراليا

تشريع

فيدرالي

لا تملك أستراليا حتى الآن تنظيماً خاصاً بالذكاء الاصطناعي. وتأتي معظم إجراءاتها التنظيمية المتعلقة بالذكاء الاصطناعي إما من خلال القوانين القائمة أو من خلال وثائق السياسات الحكومية الدورية التي توجه مختلف الهيئات التنظيمية بشأن كيفية التعامل مع التحديات المختلفة التي يطرحها الذكاء الاصطناعي.

ولاية

وضعت حكومة نيو ساوث ويلز (NSW) أول استراتيجية للذكاء الاصطناعي، مدركة التحديات التي تصاحب استخدام الذكاء الاصطناعي ورسمت مسارًا لاستخدام الذكاء الاصطناعي بأمان في جميع أنحاء الحكومة مع وجود الضمانات المناسبة.

لهذا الغرض، نشرت حكومة ولاية نيو ساوث ويلز إطار عمل ضمان الذكاء الاصطناعي لمساعدة الجهات الحكومية في تصميم وبناء واستخدام المنتجات والحلول المدعومة بالذكاء الاصطناعي. ويُعدّ هذا الإطار إلزاميًا لجميع المشاريع التي تتضمن مكونًا من مكونات الذكاء الاصطناعي أو تستخدم أدوات تعتمد عليه. ويشمل ذلك استخدام نماذج اللغة الضخمة والذكاء الاصطناعي التوليدي، والتي تندرج صراحةً ضمن نطاق تطبيق الإطار. ويهدف هذا الإطار إلى أن يُستخدم من قِبل:

  • فرق المشاريع التي تستخدم أنظمة الذكاء الاصطناعي في حلولها،
  • الفرق التشغيلية التي تدير أنظمة الذكاء الاصطناعي،
  • كبار المسؤولين الذين يتحملون مسؤولية تصميم واستخدام أنظمة الذكاء الاصطناعي،
  • يقوم المقيمون الداخليون بإجراء تقييمات ذاتية للوكالة، و
  • هيئة مراجعة الذكاء الاصطناعي (سيتم تحديدها لاحقاً).

ومع ذلك، لا يُتوقع من أي مشروع استخدام هذا الإطار إذا استوفى المعايير التالية:

  • يستخدم نظام الذكاء الاصطناعي وهو تطبيق تجاري متاح على نطاق واسع.
  • لم يتم تخصيص الحل أو استخدامه بأي شكل من الأشكال بخلاف الغرض المقصود منه.

دخل إطار ضمان الذكاء الاصطناعي حيز التنفيذ في مارس 2022. كما أنشأت حكومة الولاية لجنة مراجعة الذكاء الاصطناعي في نيو ساوث ويلز لتقديم التوجيه والإشراف المتخصصين بشأن استخدام الذكاء الاصطناعي داخل الحكومة. وباعتبارها الأولى من نوعها في أستراليا، تضطلع هذه اللجنة بدور حيوي في تعزيز ثقة المجتمع وضمان الشفافية في مبادراتنا المتعلقة بالذكاء الاصطناعي.

مصادر إضافية

في مارس 2022، أصدرت الحكومة دعوة لتقديم أوراق بحثية حول تنظيم الذكاء الاصطناعي، داعية مختلف أصحاب المصلحة إلى كيفية تعامل الحكومة مع تنظيم الذكاء الاصطناعي بطريقة تمكن من إنشاء إطار تشريعي متناغم دون تعريض استخدام الذكاء الاصطناعي لأقصى إمكاناته للخطر.

أشارت الحكومة في ورقتها البحثية إلى العديد من تقاريرها وأدلتها كأمثلة على نوع الأفكار التي تأمل في تلقيها. وتشمل هذه ما يلي:

اتخذت هيئات تنظيمية أخرى في أستراليا خطواتٍ مستقلة لتعزيز الاستخدام المسؤول للذكاء الاصطناعي ضمن نطاق اختصاصها. فعلى سبيل المثال، منذ دخول قانون السلامة الإلكترونية لعام 2021 حيز التنفيذ، يُلزم المفوض الوطني للسلامة الإلكترونية جميع المؤسسات بإبلاغ مستخدميها بشكلٍ مناسب عن استخدام أنظمة التوصيات الآلية.

وبالمثل، أطلقت منظمة الكومنولث للبحوث العلمية والصناعية (CSIRO) شبكتها المستقلة الخاصة بالذكاء الاصطناعي المسؤول لتعزيز التعاون بين مختلف الشركات الأسترالية وإنشاء تقنيات الذكاء الاصطناعي الآمنة والمجدية أخلاقياً.

في حين أن الحكومة لم تكشف حتى الآن عن أي من الردود التي تلقتها استجابة لدعوتها لتقديم الأوراق في مارس 2022 باستثناء تلك التي أرسلتها شركة KPMG ومجلس القانون الأسترالي ، إلا أن هناك إجماعًا متزايدًا على أن معظم الأوراق المقدمة تحتوي على توصيات مماثلة مثل إنشاء هيئة تنظيمية مخصصة للذكاء الاصطناعي ووضع دليل إرشادي اتحادي بشأن الاستخدام المسؤول للذكاء الاصطناعي، سواء على الصعيد التجاري أو الفردي.

علم البرازيلالبرازيل

تشريع

فيدرالي

حتى الآن، لا يوجد تشريع اتحادي شامل ينظم استخدام الذكاء الاصطناعي في البرازيل.

إلا أنه في مايو/أيار 2023، قُدِّم مشروع القانون رقم 2338/2023 ، الذي ينص على استخدام الذكاء الاصطناعي في البرازيل، إلى مجلس الشيوخ الاتحادي البرازيلي. ويحل هذا القانون محل ثلاثة مشاريع قوانين أخرى، هي: مشروع القانون رقم 5051/2019 ، ومشروع القانون رقم 21/2020 ، ومشروع القانون رقم 872/2021 ، والتي كانت معروضة على المجلس التشريعي خلال السنوات الأربع الماضية.

إلى جانب فرض التزامات متنوعة على الشركات التي تستخدم أنظمة الذكاء الاصطناعي، يمنح القانون المستهلكين الحقوق التالية:

  • الحق في الحصول على معلومات مسبقة بشأن تفاعلاتهم مع أنظمة الذكاء الاصطناعي.
  • الحق في الحصول على تفسير للقرار أو التوصية أو التنبؤ الذي تقوم به أنظمة الذكاء الاصطناعي.
  • الحق في الطعن في قرارات أو تنبؤات أنظمة الذكاء الاصطناعي التي تنتج آثاراً قانونية أو تؤثر بشكل كبير على مصالح الطرف المتضرر.
  • الحق في تقرير المصير والمشاركة البشرية في قرارات أنظمة الذكاء الاصطناعي، مع مراعاة السياق وأحدث التطورات التكنولوجية.
  • الحق في عدم التمييز وتصحيح التحيزات التمييزية المباشرة وغير المباشرة وغير القانونية أو التعسفية.
  • الحق في الخصوصية وحماية البيانات الشخصية، وفقًا للتشريعات ذات الصلة.
ولاية

حتى الآن، لا توجد تشريعات شاملة على مستوى الولايات تنظم استخدام الذكاء الاصطناعي.

علم الولايات المتحدةالولايات المتحدة

تشريع

فيدرالي

حتى الآن، لا يوجد تشريع اتحادي شامل ينظم استخدام الذكاء الاصطناعي في الولايات المتحدة.

ومع ذلك، في 20 يونيو 2023، قدم المشرعون الأمريكيون مشروع قانون، وهو قانون اللجنة الوطنية للذكاء الاصطناعي ، لإنشاء لجنة رفيعة المستوى ستراجع النهج الحالي للولايات المتحدة في تنظيم الذكاء الاصطناعي، وتقدم توصيات بشأن أي مكتب جديد أو هيكل حكومي قد يكون ضروريًا، وتضع إطارًا شاملاً لتنظيم الذكاء الاصطناعي.

ولاية

فيما يلي بعض لوائح الذكاء الاصطناعي السارية على مستوى الولايات في الولايات المتحدة:

  • ينظم قانون الذكاء الاصطناعي في ولاية كونيتيكت استخدام الولاية للذكاء الاصطناعي، وقد أنشأ فريق عمل لوضع ميثاق حقوق خاص بالذكاء الاصطناعي وتقديم توصيات لاعتماد تشريعات أخرى متعلقة به. وإلى جانب إنشاء مكتب الذكاء الاصطناعي والمجلس الاستشاري للذكاء الاصطناعي في كونيتيكت، ينص القانون أيضاً على إنشاء فريق عمل لـ: (أ) دراسة الذكاء الاصطناعي، و(ب) وضع ميثاق حقوق خاص بالذكاء الاصطناعي.
  • ينص قانون المقابلات المرئية بالذكاء الاصطناعي في ولاية إلينوي على إلزام جميع أصحاب العمل الذين يستخدمون تقنيات الذكاء الاصطناعي لتحليل المرشحين الذين يجرون مقابلات لشغل وظائف، بإبلاغ جميع المتقدمين بشكل مناسب والحصول على موافقتهم قبل إخضاعهم لهذه المعالجة الآلية.
  • يحظر قانون مدينة نيويورك بشأن أدوات اتخاذ قرارات التوظيف الآلية صراحةً على أصحاب العمل استخدام هذه الأدوات لاتخاذ قرارات التوظيف ما لم تخضع الأداة لتدقيق سنوي للتأكد من خلوها من التحيز، وينشر صاحب العمل ملخصًا عامًا لنتائج التدقيق، ويُقدّم إشعارات محددة للمتقدمين للوظائف والموظفين الخاضعين للفحص بواسطة الأداة. وبموجب اعتماد اللوائح التنفيذية النهائية في 5 أبريل 2023، يبدأ تطبيق القانون اعتبارًا من 5 يوليو 2023.

إرشادات

في عام 2020، أصدر البيت الأبيض توجيهات تنظيم تطبيقات الذكاء الاصطناعي ، وكان الغرض منها هو وضع إطار عمل مناسب لجميع الوكالات الفيدرالية ذات الصلة التي قد تضطر إلى تنظيم مختلف تقنيات الذكاء الاصطناعي الناشئة، بالإضافة إلى القضايا الأخلاقية والقانونية التي قد تنشأ بالتوازي.

ساعدت الإرشادات المذكورة آنفاً العديد من الوكالات الأمريكية على صياغة مبادئ توجيهية وتوصيات وخطط مختلفة خاصة بها من حين لآخر. وتشمل هذه المبادئ والتوصيات والخطط ما يلي:

في أكتوبر 2022، أصدر البيت الأبيض، بناءً على توجيهات مباشرة من الرئيس الأمريكي آنذاك جو بايدن، خطةً لحماية حقوق الذكاء الاصطناعي، حددت الضمانات الأساسية التي يجب أن يتمتع بها جميع المواطنين الأمريكيين مع استمرار توسع قدرات ووظائف الذكاء الاصطناعي. وتشمل هذه الضمانات ما يلي:

  • Data privacy : يجب حماية المستهلك من ممارسات البيانات المسيئة من خلال وسائل الحماية المدمجة، ويجب أن يكون للمستهلك سلطة على كيفية استخدام البيانات المتعلقة به.
  • ملاحظة وتوضيح: يجب على المستهلك أن يعلم أنه يتم استخدام نظام آلي وأن يفهم كيف ولماذا يساهم في النتائج التي تؤثر على المستهلك.
  • الحماية من التمييز الخوارزمي: لا ينبغي أن يواجه المستهلك تمييزًا من قبل الخوارزميات، وينبغي استخدام الأنظمة وتصميمها بطريقة عادلة.
  • أنظمة آمنة وفعالة: يجب حماية المستهلك من الأنظمة غير الآمنة وغير الفعالة.
  • البدائل البشرية، والاعتبارات، وخيارات الطوارئ: ينبغي أن يكون المستهلك قادراً على الانسحاب، عند الاقتضاء، وأن يكون لديه إمكانية الوصول إلى شخص يمكنه بسرعة النظر في المشاكل التي يواجهها المستهلك ومعالجتها.

في يناير 2023، أصدر المعهد الوطني للمعايير والتكنولوجيا إطار إدارة مخاطر الذكاء الاصطناعي (AI RMF)، الذي يهدف إلى توفير مرجع للمؤسسات التي تصمم أو تطور أو تنشر أو تستخدم أنظمة الذكاء الاصطناعي، وذلك للمساعدة في إدارة المخاطر المتعددة للذكاء الاصطناعي وتعزيز تطوير واستخدام أنظمة الذكاء الاصطناعي بشكل موثوق ومسؤول. ويُفترض أن يكون إطار إدارة مخاطر الذكاء الاصطناعي طوعيًا، ويحافظ على الحقوق، وغير مخصص لقطاع معين، ولا يقتصر على حالات استخدام محددة.

في مايو 2023، نشرت دائرة أبحاث الكونغرس الأمريكي تقريرها "الذكاء الاصطناعي التوليدي Data Privacy : مدخل تمهيدي"، الذي يركز على قضايا الخصوصية والاعتبارات السياسية للكونغرس الأمريكي. ويسلط التقرير الضوء على جمع البيانات واستخدامها من قبل مطوري الذكاء الاصطناعي ودورها في حماية البيانات. data privacy يمكن للتشريعات أن تساهم في تنظيم هذا الاستخدام. يقترح التقرير المتطلبات/الآليات الثلاثة التالية التي يمكن أخذها في الاعتبار في لوائح الخصوصية لتنظيم استخدام البيانات من قبل مطوري الذكاء الاصطناعي:

  • متطلبات الإخطار والإفصاح : قد يُطلب من الشركات التي تقوم بتطوير أو نشر الذكاء الاصطناعي الحصول على موافقة الأفراد قبل جمع بياناتهم أو استخدامها أو إخطارهم بأنه سيتم جمع بياناتهم واستخدامها لأغراض معينة.
  • متطلبات الانسحاب : قد يُطلب من الشركات التي تقوم بتطوير أو نشر الذكاء الاصطناعي أن توفر لأصحاب البيانات خيار الانسحاب من جمع البيانات.
  • متطلبات الحذف والتقليل : قد يُطلب من الشركات التي تقوم بتطوير أو نشر الذكاء الاصطناعي توفير آليات لأصحاب البيانات لحذف بياناتهم من مجموعات البيانات الموجودة.

علم الصينالصين

تشريع

فيدرالي

لا تملك الصين تنظيماً شاملاً ومحدداً للذكاء الاصطناعي على المستوى الاتحادي. ومع ذلك، تتضمن إدارة خدمات المعلومات عبر الإنترنت أحكاماً تُعاقب بشدة تقنيات التوليف العميق، مثل التزييف العميق وغيره من أشكال الوسائط المُولّدة بالذكاء الاصطناعي.

كما اشترطت اللوائح الجديدة وضع علامات مناسبة على جميع المحتويات التي يتم إنشاؤها بواسطة الذكاء الاصطناعي.

تُقدّم اللوائح إرشادات تفصيلية لتطبيق تقنية التركيب العميق في تقديم خدمات المعلومات عبر الإنترنت داخل الصين. وتُحدّد مسؤوليات الإدارات الوطنية والمحلية، مُسلّطةً الضوء على أهمية أمن المعلومات، وأنظمة الإدارة القوية، والتحقق من هوية المستخدم، ومراقبة المحتوى، والتدابير الفعّالة لمكافحة انتشار الشائعات.

علاوة على ذلك، تتناول اللوائح إدارة بيانات وتقنيات التركيب العميق، مع التركيز على أمن البيانات، والتقييم الدوري للخوارزميات، ووضع علامات واضحة على المحتوى المُولّد. ويُعدّ الالتزام بهذه اللوائح ضروريًا لمنع إساءة الاستخدام، والحفاظ على الشفافية، وضمان الاستخدام المسؤول لتقنية التركيب العميق.

علاوة على ذلك، فإن إدارة معلومات الشبكة الوطنية مسؤولة عن تنسيق الحوكمة والإشراف والإدارة ذات الصلة بخدمات التجميع المتعمقة الوطنية.

تتضمن هذه اللوائح أيضًا قسمًا للأسئلة الشائعة. توضح هذه الأسئلة الشائعة أن مزودي خدمات التركيب العميق يتحملون مسؤوليات مثل إنشاء أنظمة إدارة لتسجيل المستخدمين، ومراجعة الخوارزميات، وأمن البيانات، وحماية المعلومات الشخصية.

الولاية/المقاطعة

وقد كانت اللوائح على مستوى المقاطعات استباقية بالمثل، حيث فرضت لوائح شنغهاي بشأن تعزيز تطوير صناعة الذكاء الاصطناعي ولوائح شنتشن الخاصة بتعزيز صناعة الذكاء الاصطناعي التزامات متميزة على المنظمات المعنية.

لوائح شنغهاي

تُطبَّق لوائح شنغهاي على أنشطة مثل ابتكار علوم وتكنولوجيا الذكاء الاصطناعي، والتطوير الصناعي، وتمكين التطبيقات، والحوكمة الصناعية ضمن النطاق الإداري لشنغهاي. وتسري هذه اللوائح على جميع المؤسسات العاملة في مجال الذكاء الاصطناعي في شنغهاي. وتتولى إدارات الاقتصاد والمعلومات المحلية في المدينة مسؤولية تنظيم هذا القطاع، وهي المسؤولة عن تخطيط وتنفيذ وتنسيق وتعزيز تطويره.

تُصاغ لوائح شنغهاي وفقًا للقوانين واللوائح الإدارية ذات الصلة، واستنادًا إلى الواقع الفعلي لمنطقة شنغهاي، بهدف تعزيز التنمية عالية الجودة لصناعة الذكاء الاصطناعي. إضافةً إلى ذلك، تهدف هذه اللوائح إلى تعزيز وظائف مصادر الابتكار العلمي والتقني للجيل الجديد من الذكاء الاصطناعي، وتشجيع التكامل العميق للذكاء الاصطناعي مع الاقتصاد والحياة اليومية والحوكمة الحضرية وغيرها من المجالات، وإنشاء مجمع صناعي عالمي المستوى للذكاء الاصطناعي.

يتمثل أحد الأهداف الرئيسية للوائح الذكاء الاصطناعي في شنغهاي في تسهيل التطوير المسؤول والمستدام لتكنولوجيا الذكاء الاصطناعي. وتُقدم هذه اللوائح نظام إدارة التصنيف والإشراف على "بيئة الاختبار"، مما يتيح للشركات فرصًا لاستكشاف واختبار تقنياتها في بيئة منظمة. ويشجع هذا النهج الابتكار مع ضمان الالتزام بالمعايير والإرشادات.

لوائح شنتشن

وُضعت لوائح الذكاء الاصطناعي في شنتشن لتعزيز التنمية عالية الجودة لقطاع الذكاء الاصطناعي في منطقة شنتشن الاقتصادية الخاصة، وتشجيع دمج الذكاء الاصطناعي في الاقتصاد والمجتمع، وضمان نمو منظم ومعياري للقطاع بما يتوافق مع القوانين ذات الصلة وظروف منطقة شنتشن. وبموجب هذه اللوائح، ستُنشئ الحكومة المحلية آلية عمل لتنسيق وتعزيز تنمية قطاع الذكاء الاصطناعي في المدينة.

ويشمل ذلك ضمان أمن الصناعة، وتعزيز نموها الصحي والمنظم، وتسخير إمكانات الذكاء الاصطناعي من أجل التنمية المستدامة في الاقتصاد والمجتمع والبيئة.

الهيئة التنظيمية بموجب لوائح الذكاء الاصطناعي في شنتشن هي إدارة تكنولوجيا المعلومات والصناعة البلدية التي ستعمل كسلطة مختصة مسؤولة عن تنفيذ وتنسيق والإشراف على تطويرها ضمن نطاق اختصاص المدينة.

تُصنّف لوائح الذكاء الاصطناعي في شنتشن الأنشطة والتطبيقات على ثلاثة مستويات. تتطلب تطبيقات الذكاء الاصطناعي عالية المخاطر تقييمًا مسبقًا وإنذارًا مبكرًا بالمخاطر، بينما تحتاج التطبيقات متوسطة ومنخفضة المخاطر إلى إفصاح مسبق وتتبع لاحق. ستعمل حكومة منطقة شنتشن على وضع تدابير منفصلة لتصنيف تطبيقات الذكاء الاصطناعي والإشراف عليها.

بالإضافة إلى ذلك، يمكن لخدمات ومنتجات الذكاء الاصطناعي التي تتخذ من شنتشن مقراً لها، والتي تُعتبر "منخفضة المخاطر"، الخضوع للاختبارات والتجارب، حتى في غياب المعايير المحلية والوطنية. ومع ذلك، يُعدّ الالتزام بالمعايير الدولية شرطاً أساسياً لإجراء هذه الاختبارات والتجارب.

إرشادات وموارد إضافية

يمكن القول إن الصين كانت الدولة الأكثر استباقية فيما يتعلق بتنظيم تقنيات الذكاء الاصطناعي وإشراك مختلف أصحاب المصلحة لضمان اعتماد أفضل المعايير الأخلاقية.

في عام 2017، نشر مجلس الدولة لجمهورية الصين الشعبية "خطة تطوير الجيل القادم من الذكاء الاصطناعي" . وتضمن الدليل خارطة طريق مفصلة حول كيفية مساهمة مختلف المؤسسات الحكومية والخاصة في تطوير ونشر ومراقبة تقنيات الذكاء الاصطناعي بطريقة مسؤولة.

ثم، في عام 2021، أصدرت اللجنة الوطنية الخاصة بالذكاء الاصطناعي من الجيل الجديد، وهي هيئة أنشئت بموجب الدليل المذكور آنفًا، مدونة أخلاقيات للذكاء الاصطناعي من الجيل الجديد لضمان توافق أي تطوير مستقبلي لتقنيات الذكاء الاصطناعي مع المعايير الأخلاقية والمتطلبات التنظيمية المناسبة. كما وضعت اللجنة ستة معايير أخلاقية أساسية يجب مراعاتها عند تطوير هذه التقنيات، وهي:

  • تحسين رفاهية الإنسان،
  • تعزيز الإنصاف والعدالة،
  • حماية الخصوصية والأمان،
  • ضمان إمكانية التحكم والمصداقية،
  • تعزيز المسؤولية،
  • تحسين الوعي الأخلاقي.

في العام التالي في مارس 2022، دخلت أحكام إدارة التوصيات الخوارزمية لخدمة معلومات الإنترنت حيز التنفيذ، والتي تطلبت من جميع المنظمات التي تقوم بتطوير وترويج وتسهيل تطوير التوصيات الشخصية القائمة على الذكاء الاصطناعي على الأجهزة المحمولة السماح للمستخدمين بحذف أي علامات تتعلق بخصائصهم الشخصية التي قد يكون نموذج التوصية الداخلي القائم على الذكاء الاصطناعي قد طورها بناءً على أنماط تصفحهم.

كما تطلب الأمر من المنظمات السماح للمستخدمين بتعطيل هذه التوصيات على أجهزتهم.

في نوفمبر، أصدرت وزارة الأمن العام، وإدارة الفضاء الإلكتروني الصينية، ووزارة الصناعة وتكنولوجيا المعلومات مجموعة جديدة من اللوائح.

أصدرت هيئة الاتصالات الكندية مؤخراً مجموعة من مسودة التدابير لإدارة خدمات الذكاء الاصطناعي التوليدي. وتشمل هذه التدابير إلزام جميع المؤسسات التي تستخدم هذه الخدمات بالخضوع لتقييم أمني مستقل قبل السماح بنشر هذه الأدوات تجارياً.

علم المملكة المتحدةالمملكة المتحدة

تشريع

في مارس 2023، أعلنت وزارة العلوم والابتكار والتكنولوجيا عن تقديم مشروع قانون حماية البيانات والمعلومات الرقمية (رقم 2) ("مشروع القانون"). ويهدف مشروع القانون، من بين أهداف أخرى، إلى معالجة المخاطر المرتبطة باتخاذ القرارات الآلية المدعومة بالذكاء الاصطناعي، وتحديد ضوابط حماية البيانات اللازمة لمثل هذه العمليات.

ومن المتوقع أن يوفر مشروع القانون توضيحًا بشأن كيفية استدعاء وممارسة الحق في عدم الخضوع لاتخاذ القرارات الآلية، كما هو منصوص عليه في المادة 22 من اللائحة العامة لحماية البيانات في المملكة المتحدة.

إرشادات

مكتب مفوض المعلومات في المملكة المتحدة، الهيئة المسؤولة بشكل أساسي عن الإشراف على جميع data privacy أصدرت هيئة حماية البيانات في المملكة المتحدة، المعنية بشؤون حماية البيانات، إرشاداتٍ حول كيفية شرح المؤسسات استخدام الذكاء الاصطناعي لموظفيها وعملائها بشكلٍ مسؤول، تحت عنوان "إرشادات حول الذكاء الاصطناعي وحماية البيانات" و"مجموعة أدوات إدارة مخاطر الذكاء الاصطناعي وحماية البيانات". كما حذّرت الهيئة مؤخراً المؤسسات من استخدام تقنيات تحليل المشاعر بشكلٍ غير مسؤول.

يُقدّم هذا الدليل خارطة طريق للامتثال لقوانين حماية البيانات لمطوري ومستخدمي الذكاء الاصطناعي التوليدي. وتُمكّن مجموعة أدوات إدارة المخاطر المؤسسات من تحديد مخاطر حماية البيانات والتخفيف من حدّتها، وتتضمن ثمانية أسئلة مهمة ينبغي على المؤسسات التي تُطوّر أو تستخدم الذكاء الاصطناعي التوليدي أخذها في الاعتبار.

علاوة على ذلك، أصدرت جهات حكومية مختلفة في المملكة المتحدة توجيهات أخرى تتعلق باستخدام الذكاء الاصطناعي، وتشمل ما يلي:

مصادر إضافية

أصدرت الحكومة البريطانية ورقة بيضاء في مارس 2023 بعنوان " نهج داعم للابتكار في تنظيم الذكاء الاصطناعي ". وسلطت الحكومة البريطانية في هذه الورقة الضوء على دور إطارها القانوني الحالي في تنظيم استخدام الذكاء الاصطناعي، وأكدت على "سمعتها المتميزة في مجال الهيئات التنظيمية عالية الكفاءة، ونهجها القوي في تطبيق سيادة القانون، المدعوم بتشريعاتها ولوائحها المحايدة تكنولوجيًا. وتتناول القوانين والهيئات التنظيمية والمحاكم البريطانية بالفعل بعض المخاطر الناشئة التي تشكلها تقنيات الذكاء الاصطناعي".

وذكرت الورقة البيضاء كذلك أن "هذا الأساس القانوني القوي يشجع الاستثمار في التقنيات الجديدة، مما يتيح ازدهار ابتكار الذكاء الاصطناعي ونمو الوظائف عالية الجودة".

بالإضافة إلى ذلك، حددت الورقة البيضاء خمسة مبادئ أساسية يجب على جميع الهيئات التنظيمية مراعاتها عند تقييم استخدام الذكاء الاصطناعي ضمن نطاق اختصاصها. وتشمل هذه المبادئ ما يلي:

  • السلامة والأمان والمتانة؛
  • الشفافية وقابلية التفسير؛
  • الإنصاف؛
  • المساءلة والحوكمة؛
  • إمكانية الطعن والانتصاف.

في نفس الورقة البيضاء الصادرة عام 2023، وضعت الحكومة البريطانية خطتها الخاصة بشأن كيفية تنظيم وتطوير تقنيات الذكاء الاصطناعي على الصعيد الوطني. واستلهامًا جزئيًا من استراتيجيتها الوطنية للذكاء الاصطناعي لعشر سنوات لعام 2021، استبعدت الحكومة البريطانية بشكل قاطع إنشاء هيئة تنظيمية أو لجنة جديدة للإشراف على التنظيم المتعلق بالذكاء الاصطناعي.

بدلاً من ذلك، ستقوم الهيئات التنظيمية القائمة مثل الهيئة التنفيذية للصحة والسلامة، ولجنة المساواة وحقوق الإنسان، وهيئة المنافسة والأسواق بتوسيع صلاحياتها واختصاصاتها لضمان الإشراف الفعال على التقنيات المتعلقة بالذكاء الاصطناعي في قطاعاتها.

في مارس 2023، أصدرت وزارة التعليم البريطانية ورقة بيضاء أخرى بعنوان " الذكاء الاصطناعي التوليدي في التعليم " استجابةً للنمو المقلق في استخدام ChatGPT من قبل الطلاب على مستوى البلاد.

علم سنغافورةسنغافورة

تشريع

تُعدّ سنغافورة من الدول القليلة في العالم التي تمتلك هيئة حكومية متخصصة تُعنى بإدارة مسيرة التحول الرقمي في البلاد. وتهدف إلى تنمية اقتصاد رقمي مزدهر مدفوع بالابتكار التكنولوجي. وقد أُنشئ المجلس الاستشاري المعني بالاستخدام الأخلاقي للذكاء الاصطناعي والبيانات عام ٢٠١٨ لمساعدة سنغافورة في تحديد ومعالجة جميع المسائل والمعضلات الأخلاقية التي قد تنشأ. وتتمثل المسؤولية الرئيسية للمجلس في تقديم المشورة للحكومة بشأن القضايا الأخلاقية والسياسية والحوكمة المتعلقة باستخدام تقنيات الذكاء الاصطناعي.

ونتيجة لتوصية الهيئة، تم نشر أول استراتيجية وطنية للذكاء الاصطناعي في البلاد في عام 2019. ولم تقتصر هذه الاستراتيجية على تحديد المجالات الاستراتيجية التي تحتاج إلى نشر الموارد فيها بشكل عاجل فحسب، بل تناولت أيضًا المخاطر الناشئة المتمثلة في توسع الذكاء الاصطناعي بشكل خارج عن السيطرة.

بالإضافة إلى ذلك، تم تعديل العديد من اللوائح القائمة لتشمل أنظمة وتقنيات الذكاء الاصطناعي، مثل:

إرشادات

حددت هيئة تطوير الإعلام والاتصالات (IMDA) أربع تقنيات " أساسية " متميزة لدفع مسيرة التحول الرقمي في سنغافورة. وتشمل هذه التقنيات ما يلي:

  • الأمن السيبراني؛
  • الوسائط التفاعلية الغامرة؛
  • إنترنت الأشياء؛
  • الذكاء الاصطناعي.

لكل ركن برنامج تطوير مخصص خاص به، مع قسم الذكاء الاصطناعي الذي تقوده مبادرة الذكاء الاصطناعي في سنغافورة ، والذي تم إطلاقه لبناء وتنمية النظام البيئي للذكاء الاصطناعي في سنغافورة، بما في ذلك المؤسسات البحثية والشركات الناشئة والتكنولوجيا.

تم إنشاء برنامجين متميزين للذكاء الاصطناعي ، هما البرنامج الوطني للذكاء الاصطناعي في القطاع الحكومي والبرنامج الوطني للذكاء الاصطناعي في القطاع المالي، لتوجيه مختلف الهيئات التنظيمية من خلال التوجيهات ووثائق السياسات. بالإضافة إلى ذلك، أصدرت هيئات حكومية أخرى أدلة إرشادية متنوعة تتعلق باستخدام الذكاء الاصطناعي في قطاعاتها، ومنها ما يلي:

علم الياباناليابان

تشريع

حتى الآن، لا تملك اليابان تشريعات خاصة بالذكاء الاصطناعي. مع ذلك، تُعدّ الحكومة اليابانية من أكثر الحكومات استباقية في نشر توجيهات دورية لتحسين استخدام الذكاء الاصطناعي في المجالات المهنية والاجتماعية، وضمان اتساقه.

عدّلت الحكومة اليابانية العديد من تشريعاتها الحالية لتضمين القدرات والوظائف المتطورة بسرعة لأنظمة الذكاء الاصطناعي. ومن الأمثلة على ذلك:

إرشادات

في عام 2019، نشرت الحكومة اليابانية المبادئ الاجتماعية للذكاء الاصطناعي المتمحور حول الإنسان ، والتي وضعت مبادئ محددة من شأنها مساعدة الأفراد والشركات على تطبيق أنظمة الذكاء الاصطناعي في المجتمع. وتشمل هذه المبادئ ما يلي:

  • المنافسة العادلة؛
  • المساءلة؛
  • ابتكار؛
  • مبدأ الإلمام بالقراءة والكتابة؛
  • مبدأ يتمحور حول الإنسان؛
  • الشفافية؛
  • حماية الخصوصية.

منذ ذلك الحين، أدت المبادئ الاجتماعية للذكاء الاصطناعي المتمحور حول الإنسان إلى توجيهات إضافية ركزت استراتيجياً على تطبيقات الذكاء الاصطناعي في مختلف قطاعات الحكومة والتعليم والدفاع وحوكمة الشركات. ومن بين هذه التوجيهات:

علم كنداكندا

تشريع

فيدرالي

حتى الآن، لا يوجد تشريع اتحادي شامل ينظم استخدام الذكاء الاصطناعي في كندا.

ومع ذلك، في يونيو 2022، قدمت حكومة كندا قانون الذكاء الاصطناعي والبيانات التاريخي (AIDA) كجزء من مشروع القانون الشامل C-27 ، قانون تنفيذ الميثاق الرقمي لعام 2022. ويهدف قانون الذكاء الاصطناعي والبيانات إلى وضع تدابير جديدة لتنظيم التجارة الدولية وبين المقاطعات في أنظمة الذكاء الاصطناعي، ووضع متطلبات مشتركة لتصميم وتطوير واستخدام أنظمة الذكاء الاصطناعي.

يحدد القانون متطلبات مشتركة لتصميم وتطوير واستخدام أنظمة الذكاء الاصطناعي، كما يحظر ممارسات محددة تتعلق بالبيانات وأنظمة الذكاء الاصطناعي والتي قد تؤدي إلى ضرر جسيم للأفراد أو مصالحهم.

في مارس 2023، أصدرت حكومة كندا وثيقة "الوثيقة المرافقة لقانون الذكاء الاصطناعي" (AIDA) بهدف تسليط الضوء على نهج كندا في تنظيم الذكاء الاصطناعي، وكيف سيساهم قانون الذكاء الاصطناعي في هذا النهج عند إقراره. كما حددت الوثيقة المرافقة عددًا من الأطر القائمة لحماية المستهلك وحقوق الإنسان والقانون الجنائي التي تنطبق على استخدام الذكاء الاصطناعي، بما في ذلك ما يلي:

  • قانون سلامة المنتجات الاستهلاكية الكندي؛
  • قانون الغذاء والدواء؛
  • قانون سلامة المركبات الآلية؛
  • قانون البنوك؛
  • قانون حقوق الإنسان الكندي وقوانين حقوق الإنسان الإقليمية؛ و
  • القانون الجنائي.

وفقًا للجدول الزمني للاستشارة الوارد في الوثيقة المصاحبة، لن يدخل قانون AIDA حيز التنفيذ قبل عام 2025.

ريفي

حتى الآن، لم تسنّ أي مقاطعة في كندا تشريعاً شاملاً ينظم استخدام الذكاء الاصطناعي. ومع ذلك، فإن قوانين حقوق الإنسان في المقاطعات تنطبق على استخدام الذكاء الاصطناعي وتوفر بعض الحماية للمستهلكين.

إرشادات

في نوفمبر 2020، أصدر مكتب مفوض الخصوصية في كندا (OPC) إطارًا تنظيميًا للذكاء الاصطناعي: توصيات لإصلاح قانون حماية المعلومات الشخصية والوثائق الإلكترونية (PIPEDA)، متضمنًا التوصيات النهائية للمكتب بعد المشاورة العامة حول مقترحات ضمان التنظيم المناسب للذكاء الاصطناعي في هذا القانون. وشملت التوصيات، من بين أمور أخرى، الاعتراف بالخصوصية كحق من حقوق الإنسان، وأحكامًا محددة بشأن اتخاذ القرارات الآلية، ومساءلة قطاع الأعمال بشكل واضح.

في مايو 2021، نشرت حكومة أونتاريو تقريرها حول المشاورة: إطار عمل أونتاريو للذكاء الاصطناعي الجدير بالثقة . وقدّم التقرير لمحة عامة عن الإجراءات المحتملة التي يمكن للحكومة اتخاذها لضمان الاستخدام المسؤول والآمن للذكاء الاصطناعي، بالإضافة إلى آراء المستهلكين حول هذه الإجراءات.

في أبريل 2023، أصدرت حكومة كندا تقريرًا حول الاستخدام المسؤول للذكاء الاصطناعي ، يوضح كيفية ضمان الحكومة لاستخدام الذكاء الاصطناعي من قبل وزاراتها وهيئاتها بشكل مسؤول وخاضع للمساءلة. ومن بين أمور أخرى، يحدد التقرير الإجراءات التالية التي يجب اتخاذها ومراقبتها لضمان استخدام الحكومات للذكاء الاصطناعي بشكل مسؤول:

  • فهم وقياس تأثير استخدام الذكاء الاصطناعي من خلال تطوير ومشاركة الأدوات والأساليب.
  • كن شفافاً بشأن كيفية ووقت استخدامنا للذكاء الاصطناعي، بدءاً من حاجة المستخدم الواضحة والفائدة العامة.
  • تقديم تفسيرات ذات مغزى حول عملية صنع القرار في الذكاء الاصطناعي، مع توفير فرص لمراجعة النتائج والطعن في هذه القرارات.
  • كن منفتحًا قدر الإمكان من خلال مشاركة شفرة المصدر وبيانات التدريب وغيرها من المعلومات ذات الصلة، مع حماية المعلومات الشخصية وتكامل النظام والأمن القومي والدفاع.
  • توفير التدريب الكافي لكي يمتلك موظفو الحكومة الذين يطورون ويستخدمون حلول الذكاء الاصطناعي مهارات التصميم والتشغيل والتنفيذ المسؤولة اللازمة لتحسين الخدمات العامة القائمة على الذكاء الاصطناعي.

يمكن ملاحظة أحد الآثار العملية لهذا النهج في إطلاق التوجيه بشأن اتخاذ القرارات الآلية - وهو توجيه سياسي من قبل الحكومة الفيدرالية الكندية حول كيفية دمج اتخاذ القرارات بالذكاء الاصطناعي بشكل مسؤول في المجال العام.

علم إسرائيلإسرائيل

تشريع

لا يوجد حاليًا أي تشريع شامل رئيسي متعلق بالذكاء الاصطناعي ساري المفعول في إسرائيل.

ومع ذلك، وبالنظر إلى كيفية تمكن إسرائيل من ترسيخ سمعة رائعة لنفسها كمركز محتمل للابتكار في مجال الذكاء الاصطناعي، فقد تم سن مسودة سياسة تهدف إلى أن تكون بمثابة الأساس للاعتبارات التنظيمية المستقبلية وتصميمات الأطر الأخلاقية المتعلقة بالذكاء الاصطناعي.

وقد دارت مناقشات داخل الأوساط التشريعية في البلاد حول نوع الإطار التنظيمي الأمثل لإسرائيل لضمان قدرتها على ضمان حماية الحقوق الرقمية لمواطنيها دون خنق الابتكار والإبداع في هذا القطاع.

بدلاً من اتباع نهج تنظيمي خطي، من المرجح أن تعتمد إسرائيل على تعديلات على لوائحها الحالية ووضع توجيهات سياسية تسمح بالتنظيم الذاتي الفعال والتوحيد القياسي.

أصدرت حكومة إسرائيل الموارد التالية لتكون بمثابة توجيهات سياسية رسمية متعلقة بالذكاء الاصطناعي. ومن المرجح أن تتبع التوجيهات المستقبلية نمطاً مماثلاً.

  • ورقة بيضاء حول تنظيم وسياسات الذكاء الاصطناعي في إسرائيل: نظرة أولية
  • تسخير الابتكار: وجهات نظر إسرائيلية حول أخلاقيات الذكاء الاصطناعي وحوكمته

مصادر إضافية

كما ذكرنا سابقاً، في غياب تنظيم مخصص للذكاء الاصطناعي في إسرائيل، فإن القوانين واللوائح المختلفة القائمة توفر التوجيه اللازم حول كيفية استخدام بيانات المستخدمين ومعلوماتهم فيما يتعلق بحقوقهم الرقمية.

يحمي قانون حقوق التأليف والنشر الإسرائيلي جميع حقوق الملكية الفكرية، بما فيها حقوق التأليف والنشر، المتعلقة بالأعمال الإبداعية كالأعمال الأدبية والفنية والموسيقية. وفي مثل هذه الحالات، لجأت المنظمات والأفراد إلى هذا القانون في المسائل المتعلقة بالمحتوى المُنشأ بواسطة الذكاء الاصطناعي وحقوق الملكية الفكرية.

علاوة على ذلك، قد يُنظّم القانون الأساسي الإسرائيلي، قانون كرامة الإنسان وحريته، جميع المسائل المتعلقة بحقوق المستهلك في سياق التطوير الشامل لأطر AI governance في إسرائيل. ويُلزم القانون بمراعاة الحقوق العالمية والدستورية للمواطنين الإسرائيليين. ويمكن الطعن بموجب القانون الأساسي في أي ممارسة أو سياسة تتعلق بالذكاء الاصطناعي قد تتعارض مع هذه الحقوق.

علم دولة الإمارات العربية المتحدةالإمارات العربية المتحدة

تشريع

لا يوجد في الإمارات العربية المتحدة حالياً تنظيم مخصص للذكاء الاصطناعي ساري المفعول.

ومع ذلك، فهي واحدة من الدول القليلة التي تتصدر المشهد في تبني الذكاء الاصطناعي وفي وضع السياسات التي تعزز العلاقة التعاونية بين قدرات الذكاء الاصطناعي والاستخدام المسؤول.

كانت الإمارات العربية المتحدة أول دولة تنشئ وزارة للذكاء الاصطناعي لضمان حصول أي شخص مسؤول عن الإشراف على هذا القطاع المزدهر على الموارد والمعرفة المناسبة لاتخاذ قرارات مستنيرة.

كما تم إنشاء مجلس الذكاء الاصطناعي وتقنية البلوك تشين، وهو هيئة حكومية متخصصة، تحت إشراف الوزارة للإشراف على جميع الاعتبارات السياسية الرئيسية المتعلقة بالاستخدام الأكثر أهمية لأدوات وآليات الذكاء الاصطناعي داخل البنى التحتية الحكومية.

اتخذت الهيئة نهجاً استباقياً جذرياً نحو لعب دور استشاري أكبر من خلال إصدار مجموعات أدوات وبيانات منتظمة لمساعدة الهيئات العامة والخاصة على اتخاذ قرارات مسؤولة تتعلق باستخدام الذكاء الاصطناعي، وخاصة عندما يتعلق الأمر ببيانات سكان الإمارات العربية المتحدة.

مصادر إضافية

فيما يلي أهم الأدلة والأدوات والحوافز التي تقدمها حكومة الإمارات العربية المتحدة بهدف تنظيم تطوير ونشر قدرات وأنظمة الذكاء الاصطناعي داخل الدولة.

  • الاستراتيجية الوطنية للذكاء الاصطناعي 2031 : تهدف هذه الوثيقة إلى إنشاء إطار عمل موحد ومتجانس لتبني الذكاء الاصطناعي على نطاق واسع في مختلف القطاعات الاقتصادية. ويتضمن البرنامج تفاصيل شاملة تتعلق بالسياسات والمبادرات والاستثمارات التي تقوم بها الحكومة لضمان الاستفادة القصوى من الذكاء الاصطناعي في الخدمات الحكومية مثل الرعاية الصحية والتعليم والنقل؛
  • مبادئ وتوجيهات أخلاقيات الذكاء الاصطناعي : مجموعة من التوجيهات والمبادئ التي تُشكل المعايير الأساسية التي يجب على المؤسسات اتباعها عند تطوير ونشر تقنيات الذكاء الاصطناعي. وتهدف هذه التوجيهات بشكل أساسي إلى ضمان أن جميع الأدوات والأنظمة المطورة تراعي الاعتبارات المناسبة للإنصاف والشفافية والمساءلة والخصوصية والأمان؛
  • رخصة برمجة الذكاء الاصطناعي : رخصة برمجة الذكاء الاصطناعي هي رخصة خاصة للمبرمجين الراغبين في تطوير أدوات وبرامج ذكاء اصطناعي متنوعة للمؤسسات التي تتخذ من دولة الإمارات العربية المتحدة مقراً لها. وقد أطلقها مركز دبي المالي العالمي بالتنسيق مع مكتب الذكاء الاصطناعي في دولة الإمارات العربية المتحدة، وتهدف إلى جعل دولة الإمارات مركزاً إقليمياً وعالمياً للابتكار في مجال الذكاء الاصطناعي.
  • أداة التقييم الذاتي لأخلاقيات أنظمة الذكاء الاصطناعي : استنادًا إلى مبادئ وتوجيهات أخلاقيات الذكاء الاصطناعي المذكورة أعلاه، توفر أداة التقييم الذاتي لحكومة الإمارات العربية المتحدة لأخلاقيات أنظمة الذكاء الاصطناعي للمؤسسات تقييمًا شاملاً لما إذا كانت خدماتها أو أنظمتها تتبع إرشادات الذكاء الاصطناعي الرسمية أم لا.

علم كوريا الجنوبيةكوريا الجنوبية

تشريع

لا يوجد في كوريا الجنوبية حالياً أي تنظيم مخصص للذكاء الاصطناعي.

ومع ذلك، فإن الدولة بصدد سن تشريع شامل بعنوان "قانون الذكاء الاصطناعي"، والذي من شأنه أن يُدخل درجة من الكفاءة في العملية المتعلقة بتطوير تكنولوجيا الذكاء الاصطناعي .

ستتمكن الشركات والمنظمات الخاصة من تطوير ونشر تقنيات وأنظمة الذكاء الاصطناعي الجديدة دون الحاجة إلى إشراف حكومي صارم، وذلك بفضل مجموعة صارمة من المعايير التي تسمح للمنظمات بتبني نهج استباقي تجاه تصميم كل نظام ذكاء اصطناعي جديد بطريقة متوافقة مع اللوائح التنظيمية.

سيحتوي مشروع القانون الجديد أيضاً على أحكام تفصيلية تتعلق بحقوق النشر وحقوق الملكية الفكرية التي قد يمتلكها المستخدمون على أي محتوى يتم إنشاؤه بواسطة الذكاء الاصطناعي.

مصادر إضافية

على مر السنين، أصدرت حكومة كوريا الجنوبية العديد من الأدوات والاستراتيجيات والتوجيهات لتزويد الشركات الخاصة بخطة عمل لتحديد أفضل السبل لتركيز مواردها على تعظيم إمكانات الذكاء الاصطناعي. وتشمل هذه الموارد ما يلي:

  • الصفقة الكورية الجديدة : صدرت الصفقة الكورية الجديدة في أعقاب جائحة كوفيد-19 مباشرةً كوسيلة لتعزيز الاقتصاد المحلي وتقديم رؤية لتسريع النمو. ومن بين المجالات السياسية الرئيسية التي غطتها الاستراتيجية الجديدة أبحاث الذكاء الاصطناعي المستدامة لخلق فرص عمل مستدامة للأجيال القادمة.
  • مركز ابتكار الذكاء الاصطناعي : صممت وزارة العلوم وتكنولوجيا المعلومات والاتصالات هذه المبادرة خصيصاً لتوفير البنية التحتية والمعدات والبرمجيات والبيانات اللازمة لتطوير تكنولوجيا الذكاء الاصطناعي للشركات الصغيرة والمتوسطة. ونتيجة لذلك، يمكن للشركات المحلية الاستفادة من قوة الحوسبة عالية الأداء دون الحاجة إلى المساس بمتانة النظام المصمم أو أمانه أو سلامته بشكل عام؛
  • خطة تعزيز الاقتصاد القائم على البيانات والذكاء الاصطناعي : تم وضع وتنفيذ خطة تعزيز الاقتصاد القائم على البيانات والذكاء الاصطناعي لمدة خمس سنوات في عام 2019 بهدف إعداد السوق الكورية الجنوبية المحلية لسلسلة قيمة البيانات من خلال تعزيز نظام بيئي عالمي المستوى للابتكار في مجال الذكاء الاصطناعي؛
  • استراتيجية البحث والتطوير في مجال الذكاء الاصطناعي : تهدف هذه الاستراتيجية إلى إنشاء بيئة ابتكارية واستباقية للذكاء الاصطناعي من خلال تحليل شامل للوضع الراهن لتكنولوجيا الذكاء الاصطناعي، والموارد البشرية، والبنية التحتية. ويمكن الاستفادة من هذه الرؤى لضمان توزيع الموارد وتخصيصها للمشاريع التي تعد بتحقيق أفضل النتائج.

علم المملكة العربية السعوديةالمملكة العربية السعودية

تشريع

لا يوجد في المملكة العربية السعودية حالياً تنظيم شامل للذكاء الاصطناعي.

ومع ذلك، وعلى غرار العديد من الدول الأخرى التي تتصدر مجال الذكاء الاصطناعي، تخطط الدولة لاتباع نهج أكثر مرونة تجاه تنظيم هذه الصناعة الناشئة كوسيلة لتعزيز الاستثمار والتعاون الدوليين.

تُبرز الاستراتيجية الوطنية للبيانات والذكاء الاصطناعي طموح المملكة في الانتقال من قطاعاتها الاقتصادية التقليدية إلى التقنيات الناشئة، وتحديداً البيانات والذكاء الاصطناعي. ومع وجود مشاريع مثل نيوم التي تُعدّ مثالية لدعم تطوير تقنيات الذكاء الاصطناعي، فمن المرجح أن يجذب الإطار التنظيمي المرن للمملكة العربية السعودية تجاه الذكاء الاصطناعي، بالإضافة إلى العديد من برامج التحفيز، شركات الذكاء الاصطناعي والمستثمرين على حد سواء بشكل كبير.

ثانيًا، تهدف رؤية السعودية 2030 ، التي تمثل رؤية المملكة لمستقبل مزدهر للمجتمع والاقتصاد والوطن، إلى توظيف الذكاء الاصطناعي لتلبية الاحتياجات المتعددة لمواطنيها. وتوضح خارطة الطريق كيفية نشر قدرات الذكاء الاصطناعي في قطاعات متعددة، بدءًا من تطوير بنية تحتية أكثر أمانًا وفعالية، وصولًا إلى إدارة المرافق، والرصد البيئي، وإدارة حركة المرور، والأمن السيبراني.

مصادر إضافية

بالإضافة إلى الاستراتيجية الوطنية للبيانات والذكاء الاصطناعي ورؤية 2030 الشاملة، ستوفر الموارد التالية مساعدة كبيرة في فهم الموقف التنظيمي للمملكة العربية السعودية تجاه الذكاء الاصطناعي:

  • سياسة البيانات المفتوحة : تهدف سياسة البيانات المفتوحة في المملكة العربية السعودية إلى وضع إطار عمل صارم يتعلق باستخدام البيانات، حيث تنص على أنه لا يجوز استخدام أي بيانات يتم جمعها لأي غرض تجاري لأغراض سياسية، أو لدعم أنشطة غير قانونية أو إجرامية، أو في التعبير عن آراء عنصرية أو تمييزية. وينطبق هذا على أي شكل من أشكال مجموعات البيانات المستخدمة لتدريب أنظمة وآليات الذكاء الاصطناعي.
  • قانون حماية البيانات الشخصية : يُعد قانون حماية البيانات الشخصية القانون الرئيسي في المملكة العربية السعودية data privacy اللائحة التي تنظم كيفية استخدام أي بيانات شخصية يتم جمعها. تتطلب بعض الأحكام الواردة في هذه اللائحة الحصول على إذن وموافقة صريحة من المستخدمين قبل استخدامها في تدريب الذكاء الاصطناعي.

علم نيوزيلندانيوزيلندا

تشريع

لا يوجد في نيوزيلندا تنظيم شامل للذكاء الاصطناعي.

والأهم من ذلك، أنه لا توجد خطط فورية لدى الهيئات التشريعية في البلاد لصياغة مثل هذا النظام أيضاً. بدلاً من ذلك، يمكن للوكالات الحكومية والمنظمات الخاصة الاستفادة من ميثاق الخوارزميات للحصول على رؤى وتوجيهات.

ميثاق الخوارزمية أداة مصممة لتكون بمثابة مصفوفة مخاطر، تتيح تقييمًا فوريًا لجميع المخاطر ذات الصلة بنظام أو أداة الذكاء الاصطناعي. علاوة على ذلك، يوفر اعتماد هذه المصفوفة مجموعة أساسية من الاعتبارات التي ينبغي على أي مؤسسة تُطوّر أدوات الذكاء الاصطناعي أخذها في الحسبان، ويُفسح المجال واسعًا للابتكار والإبداع المستمر في هذا المجال دون قيود تنظيمية.

مصادر إضافية

تتضمن بعض الموارد والاعتبارات الهامة الأخرى التي يجب أخذها في الاعتبار عند النظر في تطورات الذكاء الاصطناعي في نيوزيلندا ما يلي:

  • مبادئ سيادة البيانات لدى الماوري : تشير سيادة البيانات لدى الماوري إلى الحقوق والمصالح الأصيلة التي يتمتع بها الماوري فيما يتعلق بجمع بياناتهم وامتلاكها وتطبيقها. وتمتد هذه الحقوق والمصالح أيضًا إلى أي نماذج ذكاء اصطناعي تأمل في الاستفادة من مجموعات البيانات التي قد تؤدي إلى تطوير مبادئ وهياكل وآليات للمساءلة وأدوات قانونية وسياسات تؤثر على شعب الماوري؛
  • ركائز الذكاء الاصطناعي : من المرجح أن تشكل ركائز الذكاء الاصطناعي، التي أصدرتها الحكومة الوطنية، الأساسَ الشامل لاستراتيجية الذكاء الاصطناعي الوطنية على المدى البعيد. تهدف هذه الوثيقة إلى بناء منظومة ذكاء اصطناعي مزدهرة تتمحور حول الإنسان في نيوزيلندا، على أساس متين من الثقة والإنصاف وسهولة الوصول، مما يوفر خارطة طريق للمجالات ذات الأولوية الرئيسية والإجراءات والجداول الزمنية اللازمة لوضع استراتيجية وطنية.

علم الاتحاد الأوروبيالاتحاد الأوروبي

كما هو الحال مع data privacy من خلال اللوائح التي تتخذ شكل اللائحة العامة لحماية البيانات، يبدو أن الاتحاد الأوروبي (EU) سيقدم لبقية العالم مخططًا مناسبًا حول كيفية المضي قدمًا في تنظيم الذكاء الاصطناعي.

تشريع

قانون الذكاء الاصطناعي

يُقدّم قانون الذكاء الاصطناعي المقترح تعريفًا موحدًا لما يُعتبر نظام ذكاء اصطناعي، ويتضمن أحكامًا تحمي حقوق الأفراد فيما يتعلق باستخدام أنظمة الذكاء الاصطناعي. ومن أبرز ملامح القانون تصنيفه لأنظمة الذكاء الاصطناعي إلى أربع فئات متميزة بناءً على أربعة مستويات من المخاطر التي تواجهها هذه الأنظمة.

وتشمل هذه:

  • أنظمة الذكاء الاصطناعي ذات المخاطر غير المقبولة : أنظمة الذكاء الاصطناعي التي تشكل تهديدًا واضحًا لسلامة الناس وسبل عيشهم وحقوقهم الأساسية، يُحظر استخدام أنظمة الذكاء الاصطناعي هذه.
  • أنظمة الذكاء الاصطناعي عالية المخاطر : أنظمة الذكاء الاصطناعي التي تشكل خطراً كبيراً على صحة وسلامة أو الحقوق الأساسية للأشخاص الطبيعيين، يُسمح باستخدام أنظمة الذكاء الاصطناعي هذه بشرط الامتثال لمتطلبات معينة، بما في ذلك تقييم المطابقة المسبق.
  • أنظمة الذكاء الاصطناعي ذات المخاطر المحدودة : أنظمة الذكاء الاصطناعي ذات التزامات محددة بالشفافية.
  • أنظمة الذكاء الاصطناعي ذات المخاطر الدنيا : أنظمة الذكاء الاصطناعي التي تمثل الحد الأدنى من المخاطر أو لا تمثل أي مخاطر على سلامة المواطنين، مثل ألعاب الفيديو التي تعمل بالذكاء الاصطناعي أو مرشحات البريد العشوائي.

تختلف الأحكام القانونية والالتزامات والعقوبات المطبقة على تقنيات الذكاء الاصطناعي باختلاف تصنيفها. فعلى سبيل المثال، أي خدمة أو تقنية آلية قادرة على تغيير سلوك الإنسان تُعتبر نظام ذكاء اصطناعي عالي الخطورة، مما قد يؤدي إلى ضرر جسدي أو نفسي محتمل أو فعلي، يُعاقب عليه بغرامات تصل إلى 30 مليون يورو عن كل مخالفة أو 6% من إجمالي إيرادات الشركة السنوية للسنة المالية السابقة، أيهما أعلى.

يشرح القانون بالتفصيل كيفية تصنيف التقنيات المختلفة.

يُعتبر نظام الذكاء الاصطناعي ذا مخاطر غير مقبولة إذا كان يُعرّض سلامة الناس وسبل عيشهم وحقوقهم الأساسية للخطر بشكل واضح. ويُحظر استخدام أنظمة الذكاء الاصطناعي هذه بشكل كامل.

بما أن الآلية التي سيتم استخدامها لتصنيف الأنظمة على أنها عالية المخاطر أو منخفضة المخاطر لا تزال قيد المناقشة، فمن المرجح أن يتم تعديل المعايير المذكورة أعلاه في المستقبل.

من المتوقع اعتماد قانون الذكاء الاصطناعي بحلول نهاية عام 2023 بعد دراسة ومناقشة وتعديلات ضرورية بسبب التطورات الديناميكية في مجال الذكاء الاصطناعي.

مصادر إضافية

في يونيو 2023، نشر اتحاد منظمات حماية البيانات الأوروبية (CEDPO) دليلاً إرشادياً حول الذكاء الاصطناعي والبيانات الشخصية لمسؤولي حماية البيانات. وقد أجاب الاتحاد في هذا الدليل على بعض الأسئلة الأساسية التي تثار فيما يتعلق بتقاطع الإطار التشريعي لحماية البيانات واستخدام الذكاء الاصطناعي والتعلم الآلي.

تتناول هذه الإرشادات مسائلَ مثل الحاجة إلى قانون الذكاء الاصطناعي، وما إذا كان النظام الأوروبي العام لحماية البيانات (GDPR) يُنظّم الذكاء الاصطناعي والتعلم الآلي، وما هي مبادئ حماية البيانات الأساسية التي تنطبق عليهما، ودور مسؤولي حماية البيانات في المشهد الرقمي والتكنولوجي المتطور باستمرار. كما أصدرت المفوضية الأوروبية إرشاداتٍ حول الاستخدام الأخلاقي للذكاء الاصطناعي في البيئات التعليمية.

الإجراءات التنظيمية

تصدرت دول الاتحاد الأوروبي عناوين الأخبار بسبب إجراءاتها التنظيمية ضد تقنيات الذكاء الاصطناعي الناشئة. وأصبحت إيطاليا أول دولة أوروبية تحظر مؤقتًا استخدام ChatGPT بعد أن أثارت هيئة حماية البيانات التابعة لها، غارانتي ، شكوكًا جدية بشأن ChatGPT جمع واستخدام وصيانة البيانات الشخصية للمستخدمين. وقد دفع هذا الحظر هيئات تنظيمية أخرى في دول الاتحاد الأوروبي، مثل فرنسا وإسبانيا ، إلى مراجعة استخدام برنامج الدردشة الآلي الشهير في نطاق اختصاصها.

كما أصدرت هيئة حماية البيانات الإيطالية قيودًا مؤقتة على معالجة البيانات من قبل Replika - وهو برنامج دردشة آلي بواجهة كتابية وصوتية تعتمد على الذكاء الاصطناعي يقوم بإنشاء "صديق افتراضي" - مما يسلط الضوء على انتهاكات اللائحة العامة لحماية البيانات.

فرضت هيئة حماية البيانات الفرنسية مؤخراً غرامة قدرها 20 مليون يورو على شركة Clearview AI لمعالجة البيانات البيومترية دون أساس قانوني مناسب، ولعدم ممارسة حقوق أصحاب البيانات وطلباتهم بحذف بياناتهم. كما قضت هيئة حماية البيانات النمساوية أيضاً بعدم جواز معالجة Clearview AI للبيانات البيومترية، وإلزامها بحذف البيانات الشخصية الموجودة لدى المُشتكين.

حذرت هيئة حماية البيانات الفنلندية مقدمي الرعاية الصحية من أن القرارات الآلية للكشف عن احتياجات المرضى الصحية قد تفشل في تلبية متطلبات حماية البيانات.

وأخيرًا، في أبريل 2023، أنشأ المجلس الأوروبي لحماية البيانات فريق عمل مُخصصًا للتعاون وتبادل المعلومات حول الإجراءات التنفيذية المحتملة التي قد تتخذها مختلف هيئات حماية البيانات في جميع أنحاء الاتحاد الأوروبي. كما أصدر المدعي العام للاتحاد الأوروبي رأيًا بشأن مشروعية معالجة البيانات واتخاذ القرارات الآلية بموجب اللائحة العامة لحماية البيانات (GDPR)، وأشار إلى ضرورة وجود أساس قانوني مناسب لمعالجة البيانات لأنظمة الذكاء الاصطناعي لضمان الامتثال لمتطلبات اللائحة العامة لحماية البيانات.

الالتزامات الرئيسية لحماية البيانات فيما يتعلق باستخدام الذكاء الاصطناعي

دعونا نستعرض بعض الالتزامات الرئيسية لحماية البيانات وأفضل الممارسات المتعلقة باستخدام الذكاء الاصطناعي، والتي برزت نتيجةً للوائح الذكاء الاصطناعي القادمة في جميع أنحاء العالم. يمكن لهذه الالتزامات وأفضل الممارسات أن توفر لأنظمة الذكاء الاصطناعي نقطة انطلاق للامتثال لمبادئ حماية البيانات.

  • يجب وضع أساس قانوني مناسب لمعالجة البيانات الشخصية بواسطة أنظمة الذكاء الاصطناعي، والذي يجب أن يتماشى مع قوانين الخصوصية المعمول بها، وعندما يكون الحصول على الموافقة مطلوبًا أو يتم استخدامها كأساس قانوني، يجب ضمان أن يتم منحها بحرية، وأن تكون مستنيرة ومحددة وغير غامضة وفقًا لمعظم قوانين الخصوصية وموثقة.
  • يجب ضمان الشفافية للمستخدم. يجب إبلاغ المستخدمين إذا كانوا يتفاعلون مع نظام ذكاء اصطناعي - إلا إذا كان ذلك واضحًا من سياق وظروف الاستخدام - ويجب إبلاغهم إذا كان سيتم استخدام بياناتهم الشخصية من قبل نظام الذكاء الاصطناعي.
  • في حال استخدام نظام الذكاء الاصطناعي للبيانات الشخصية للمستخدم في اتخاذ أي قرار، يجب إبلاغ المستخدم بالمنطق الذي يستند إليه هذا القرار. كما يجب السماح للمستخدم بالاستعانة بتدخل بشري، وحقه في رفض معالجة البيانات لأغراض اتخاذ القرارات الآلية أو الاعتراض عليها.
  • يجب إجراء تقييمات لمخاطر الخصوصية قبل تطبيق أنظمة الذكاء الاصطناعي.
  • يجب اعتماد تدابير أمن البيانات بناءً على المخاطر التي قد يتعرض لها الأفراد بسبب نظام الذكاء الاصطناعي.
  • يجب ضمان تطبيق مبادئ حماية البيانات المتعلقة بتقليل البيانات وتحديد الغرض منها.
  • يجب الحفاظ على دقة البيانات.
  • لا يُسمح لبعض أنظمة الذكاء الاصطناعي بمعالجة البيانات الشخصية للأفراد وإنتاج نتائج نظرًا لما تشكله من مخاطر جسيمة على الأفراد ومخاوف تتعلق بالخصوصية. ويشمل ذلك أنظمة الذكاء الاصطناعي التي تؤدي إلى استغلال فئات معينة من الأشخاص (مثل الأطفال وذوي الإعاقة الذهنية)، وأنظمة الذكاء الاصطناعي التي تُسبب مخاطر جسيمة على صحة وسلامة الأفراد أو حقوقهم الأساسية.
  • يجب توخي الحذر عند استخدام أنظمة التعريف البيومترية في الوقت الفعلي، وكذلك عند استخدام البيانات الشخصية الحساسة الأخرى، بما يتوافق مع متطلبات حماية البيانات المعمول بها. وفي أنظمة الذكاء الاصطناعي التوليدية، يجب ضمان عدم إنتاج هذه الأنظمة نتائج تتضمن بيانات شخصية أو بيانات شخصية حساسة للأفراد استجابةً للاستفسارات.

كيف Securiti يمكن المساعدة

Securiti هي شركة رائدة عالمياً في تقديم خدمات المؤسسات data privacy حلول الأمن والامتثال والحوكمة .

بالنسبة للمؤسسات التي تدرك مدى أهمية الامتثال للوائح الحالية والمستقبلية المتعلقة بالذكاء الاصطناعي، Securiti يوفر طريقة استباقية للقيام بذلك.

Securiti يُعد مركز قيادة البيانات™ حلاً مؤسسياً قائماً على إطار عمل Data Command Center ، والذي يسمح للمؤسسات بتحسين إشرافها والتزامها بالالتزامات التنظيمية المختلفة المتعلقة بالبيانات.

وبالمثل، تتيح العديد من الوحدات الأخرى، مثل data mapping وتتبعها ، تتبع جميع البيانات المتداولة في الوقت الفعلي عبر نماذج أو أنظمة الذكاء الاصطناعي المختلفة. ويساعد ذلك في فهم تحول البيانات بمرور الوقت بشفافية تامة.

اطلب عرضًا تجريبيًا اليوم وتعرف على المزيد حول كيفية Securiti يمكننا مساعدتك في مساعدة مؤسستك على الامتثال لأي لوائح خاصة بالذكاء الاصطناعي قد تخضع لها.


أهم النقاط الرئيسية:

  1. التطورات السريعة في مجال الذكاء الاصطناعي: حقق الذكاء الاصطناعي قفزات نوعية في القدرات التشغيلية، مما يُبشّر ببداية الثورة الصناعية الرابعة. وتشير دراسات معهد ماساتشوستس للتكنولوجيا إلى أن الاستخدام المحدود للذكاء الاصطناعي يُمكن أن يزيد إنتاجية العامل بنسبة تصل إلى 14%.
  2. المخاوف الأخلاقية وسوء الاستخدام: لقد كان هناك ارتفاع في سوء الاستخدام الأخلاقي للذكاء الاصطناعي، بما في ذلك تقنيات التزييف العميق، مما أثار مخاوف بشأن قدرته على تفاقم مشاكل الأخبار الكاذبة والدعاية.
  3. الاستجابة التشريعية العالمية: استجابةً للتحديات الأخلاقية للذكاء الاصطناعي، كان هناك تحرك تشريعي في جميع أنحاء العالم، حيث تم تمرير 37 مشروع قانون متعلق بالذكاء الاصطناعي في عام 2022 وحده، بهدف تنظيم استخدام الذكاء الاصطناعي ومحاسبة المطورين.
  4. الذكاء الاصطناعي كـ "صندوق أسود": على الرغم من إمكاناته، إلا أن عمليات الذكاء الاصطناعي لا تزال غير مفسرة إلى حد كبير، مما يطرح تحديات في ضمان المصداقية وقابلية التفسير.
  5. الحاجة إلى تنظيم مرن ومستقبلي: يتطلب التنظيم الفعال للذكاء الاصطناعي المرونة للتكيف مع التطورات المستقبلية وأن يكون شاملاً بما يكفي لمعالجة النطاق الواسع لقدرات الذكاء الاصطناعي.
  6. مخاوف تتعلق Data Privacy والتحيز: تؤكد اللوائح مثل قانون الذكاء الاصطناعي للاتحاد الأوروبي على الحاجة إلى مجموعات بيانات تدريبية خالية من الأخطاء وتمثيلية، مما يسلط الضوء على التحديات التي تواجهها المنظمات في تلبية هذه المعايير.
  7. المشهد التنظيمي العالمي للذكاء الاصطناعي: تقوم دول مختلفة، بما في ذلك أستراليا والبرازيل والولايات المتحدة والصين والمملكة المتحدة وسنغافورة واليابان وكندا وإسرائيل والإمارات العربية المتحدة وكوريا الجنوبية والمملكة العربية السعودية ونيوزيلندا والاتحاد الأوروبي، بتطوير أطر عمل ومبادئ توجيهية وتشريعات لتنظيم استخدام الذكاء الاصطناعي بشكل مسؤول.
  8. المواضيع الرئيسية لتنظيم الذكاء الاصطناعي:
    - أهمية ضمان سلامة وأمن واستخدام أنظمة الذكاء الاصطناعي بشكل أخلاقي.
    - الحاجة إلى الشفافية في عمليات وقرارات الذكاء الاصطناعي.
    - التحدي المتمثل في معالجة التحيز وضمان العدالة في أنظمة الذكاء الاصطناعي.
    - دور التعاون الدولي في تنسيق لوائح الذكاء الاصطناعي.
  9. دور شركة Securiti في الامتثال لقوانين الذكاء الاصطناعي: Securiti تقدم حلولاً مثل مركز قيادة البيانات™ لمساعدة المؤسسات على الامتثال للوائح الذكاء الاصطناعي، مع التركيز على data privacy الأمن والحوكمة. أدوات لـ data mapping وتوفر عملية تتبع النسب الشفافية في تحويل البيانات، وهو أمر ضروري للامتثال للوائح الخاصة بالذكاء الاصطناعي.

الأسئلة الشائعة (FAQs)

بعض الأسئلة الأكثر شيوعاً هي كالتالي:

غالباً ما تعمل أنظمة الذكاء الاصطناعي على مستوى العالم، لذا فإن عدم تلبية المتطلبات في منطقة ما قد يؤدي إلى غرامات أو قيود على الوصول أو الإضرار بالسمعة في مناطق أخرى. كما تشترك العديد من اللوائح في مبادئ مشتركة مثل الضوابط القائمة على المخاطر والشفافية والإشراف البشري.

"تشمل المتطلبات الشائعة في معظم المناطق ما يلي:
- تقييم مخاطر الذكاء الاصطناعي والتخفيف من حدتها
- توفير شفافية واضحة حول كيفية عمل الذكاء الاصطناعي
- ضمان الإشراف البشري على الاستخدامات عالية الخطورة
- منع النتائج غير العادلة أو التمييزية
- الحفاظ على حوكمة بيانات قوية، وحماية الخصوصية، وقابلية التدقيق"

جداً. الدول في مراحل مختلفة، وتختلف تعريفات "الذكاء الاصطناعي عالي المخاطر"، وتختلف أساليب الإنفاذ، ولا يزال التوافق العالمي قيد التطوير.

قم بتحليل هذه المقالة باستخدام الذكاء الاصطناعي

تظهر المطالبات في أدوات الذكاء الاصطناعي التابعة لجهات خارجية.
انضم إلى قائمتنا البريدية

احصل على أحدث المعلومات والتحديثات القانونية والمزيد مباشرةً في بريدك الإلكتروني



قصص أخرى قد تهمك
مقاطع فيديو
عرض المزيد
ريحان جليل، من شركة Veeam، يتحدث عن Agent Commander: theCUBE + NYSE Wired: قادة الأمن السيبراني
بعد استحواذ شركة Veeam على Securiti يمثل إطلاق برنامج Agent Commander خطوة هامة نحو مساعدة المؤسسات على تبني وكلاء الذكاء الاصطناعي بثقة أكبر. في...
عرض المزيد
تخفيف مخاطر قائمة OWASP لأهم 10 مخاطر لتطبيقات ماجستير القانون 2025
أحدث الذكاء الاصطناعي التوليدي (GenAI) تحولاً جذرياً في طريقة عمل الشركات وتوسعها ونموها. يوجد تطبيق للذكاء الاصطناعي لكل غرض، بدءاً من زيادة إنتاجية الموظفين وصولاً إلى تبسيط العمليات...
عرض المزيد
أفضل 6 DSPM حالات الاستخدام
مع ظهور الذكاء الاصطناعي التوليدي (GenAI)، أصبحت البيانات أكثر ديناميكية. يتم توليد بيانات جديدة بوتيرة أسرع من أي وقت مضى، ونقلها إلى أنظمة وتطبيقات متنوعة...
عرض المزيد
قانون الخصوصية في كولورادو (CPA)
ما هو قانون خصوصية كولورادو؟ قانون خصوصية كولورادو هو قانون شامل لحماية الخصوصية، تم توقيعه في 7 يوليو 2021. وقد وضع معايير جديدة لحماية البيانات الشخصية...
عرض المزيد
Securiti لمساعد الطيار في البرمجيات كخدمة (SaaS)
تسريع اعتماد Copilot بأمان وثقة: تتطلع المؤسسات إلى اعتماد Microsoft 365 Copilot لزيادة الإنتاجية والكفاءة. ومع ذلك، تظل المخاوف الأمنية، مثل حماية البيانات...
عرض المزيد
أهم عشرة اعتبارات لاستخدام البيانات غير المهيكلة بأمان مع الذكاء الاصطناعي العام
نسبة مذهلة تصل إلى 90% من بيانات المؤسسات غير منظمة. وتُستخدم هذه البيانات بسرعة لتغذية تطبيقات الذكاء الاصطناعي من الجيل الجديد، مثل روبوتات الدردشة والبحث المدعوم بالذكاء الاصطناعي.
عرض المزيد
جينكور للذكاء الاصطناعي: بناء أنظمة ذكاء اصطناعي آمنة وعالية الجودة للمؤسسات في دقائق
مع تبني المؤسسات للذكاء الاصطناعي التوليدي، تواجه فرق البيانات والذكاء الاصطناعي العديد من العقبات: ربط مصادر البيانات غير المهيكلة والمهيكلة بشكل آمن، والحفاظ على الضوابط والحوكمة المناسبة،...
عرض المزيد
كيفية التعامل مع قانون حماية خصوصية المستهلك في كاليفورنيا: رؤى أساسية للشركات
ما هو قانون حقوق الخصوصية في كاليفورنيا (CPRA)؟ هو تشريع ولاية كاليفورنيا الذي يهدف إلى حماية خصوصية سكانها الرقمية. وقد دخل حيز التنفيذ في يناير...
عرض المزيد
التكيف مع التحول: الانتقال إلى معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS) الإصدار 4.0
ما هو معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS)؟ هو مجموعة من معايير الأمان لضمان المعالجة والتخزين الآمنين للبيانات، و...
عرض المزيد
تأمين البيانات والذكاء الاصطناعي: دليل إدارة الثقة والمخاطر والأمن (TRiSM)
أثارت المخاطر الأمنية المتزايدة للذكاء الاصطناعي قلق 48% من مسؤولي أمن المعلومات حول العالم. انضموا إلى هذه الجلسة الرئيسية للتعرف على دليل عملي لتمكين الثقة في الذكاء الاصطناعي، وإدارة المخاطر،...

جلسات حوارية مميزة

تسليط الضوء
الاستعداد للمستقبل لمحترفي الخصوصية
شاهد الآن منظر
تسليط الضوء 50:52
من البيانات إلى النشر: حماية الذكاء الاصطناعي المؤسسي من خلال الأمن والحوكمة
شاهد الآن منظر
تسليط الضوء 11:29
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
شاهد الآن منظر
تسليط الضوء 11:18
إعادة هيكلة تمويل العقارات - كيف تُجري شركة ووكر آند دنلوب تحديثًا لمحفظتها الاستثمارية البالغة 135 مليار دولار أمريكي بالاعتماد على البيانات أولاً
شاهد الآن منظر
تسليط الضوء 13:38
تسريع المعجزات - كيف تُدمج شركة سانوفي الذكاء الاصطناعي لتقليص مدة تطوير الأدوية بشكل كبير
صورة مصغرة لشركة سانوفي
شاهد الآن منظر
تسليط الضوء 10:35
حدث تحول جوهري في مركز ثقل البيانات
شاهد الآن منظر
تسليط الضوء 14:21
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
شاهد الآن منظر
تسليط الضوء 12:!3
لا يمكنك بناء خطوط الأنابيب أو المستودعات أو منصات الذكاء الاصطناعي بدون معرفة تجارية
شاهد الآن منظر
تسليط الضوء 47:42
الأمن السيبراني – حيث يقوم القادة بالشراء والبناء والشراكة
ريحان جليل
شاهد الآن منظر
تسليط الضوء 27:29
بناء ذكاء اصطناعي آمن باستخدام Databricks و Gencore
ريحان جليل
شاهد الآن منظر
أحدث
عرض المزيد
بناء ذكاء اصطناعي سيادي باستخدام HPE Private Cloud AI و Veeam Securiti Gencore AI
كيف تُساهم تقنيات الذكاء الاصطناعي في السحابة الخاصة من HPE، وتسريع NVIDIA، وVeeam؟ Securiti يدعم نظام Gencore AI الذكاء الاصطناعي الآمن والمُدار للمؤسسات مع تطبيق السياسات عبر سير العمل RAG والمساعدين والوكلاء.
عرض المزيد
Securiti أعلنت شركة .ai عن اختيار شركة أكسنتشر كشريك العام لعام 2025
في إطار الاحتفال المستمر بالتعاون المؤثر في DataAI Security ، Securiti منحت شركة .ai، التابعة لشركة Veeam، شركة Accenture لقب شريك العام لعام 2025....
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ قانون حماية خصوصية المستهلك في كاليفورنيا؟ عرض المزيد
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ القانون؟
يمكن للشركات أن تستفيد من بعض الدروس الحيوية من أكبر إجراء إنفاذي تم اتخاذه مؤخراً في تاريخ قانون خصوصية المستهلك في كاليفورنيا (CCPA). Securiti مدونة 's تغطي جميع التفاصيل المهمة التي يجب معرفتها.
عرض المزيد
الذكاء الاصطناعي وقانون HIPAA: ما يعنيه وكيفية أتمتة الامتثال
تعرّف على كيفية تطبيق قانون قابلية نقل التأمين الصحي والمساءلة (HIPAA) على الذكاء الاصطناعي في تأمين المعلومات الصحية المحمية. تعلّم كيف...
عرض المزيد
قلل من المعلومات التي تكشفها: ضوابط الخصوصية للذكاء الاصطناعي Agents and Copilots
تقليل انكشاف البيانات في الذكاء الاصطناعي agents and copilots قم بتطبيق ضوابط حماية الخصوصية مثل تقليل البيانات، وضوابط الوصول، وإخفاء البيانات، وإنفاذ السياسات لمنع التسريب و...
عرض المزيد
من وضوح البيانات إلى سرعة الذكاء الاصطناعي
اطلع على الورقة البيضاء واكتشف كيف يتم توحيد DataAI security يحوّل إدارة البيانات إلى عامل تمكين للأعمال، ويعزز ابتكار الذكاء الاصطناعي من خلال الشفافية والامتثال وإدارة المخاطر...
عرض المزيد
قائد العملاء: ملخص الحل
تعرّف على كيفية قيام Agent Commander باكتشاف وكلاء الذكاء الاصطناعي، وحماية بيانات المؤسسة من خلال ضوابط التشغيل، وتصحيح أخطاء الذكاء الاصطناعي - مما يتيح اعتماد الذكاء الاصطناعي بشكل آمن ومتوافق مع المعايير في...
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti عرض المزيد
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti
التزم بتعديلات قانون خصوصية المستهلك في كاليفورنيا لعام 2026 باستخدام Securiti وتشمل هذه المتطلبات تحديث متطلبات الموافقة، وتوسيع تعريفات البيانات الحساسة، وتعزيز حقوق المستهلك، وتقييمات الجاهزية.
عرض المزيد
تخلص من مخاطر البيانات في الذكاء الاصطناعي
تعرف على كيفية إعداد بيانات المؤسسة لاعتماد Gemini Enterprise بشكل آمن من خلال الحوكمة الأولية، واكتشاف البيانات الحساسة، وضوابط سياسة ما قبل الفهرسة.
عرض المزيد
دليل الحصول على شهادة HITRUST
Securiti يُعد الكتاب الإلكتروني دليلاً عملياً للحصول على شهادة HITRUST، ويغطي كل شيء بدءاً من اختيار i1 مقابل r2 ونطاق الأنظمة وصولاً إلى إدارة خطط العمل والتخطيط...
ما هو
جديد