مقدمة
أظهر الذكاء الاصطناعي إمكانات هائلة في تغيير أساليب عمل الشركات والصناعات التقليدية، وذلك بفضل قدراته الهائلة وقابليته للتوسع، لا سيما منذ ظهور الذكاء الاصطناعي التوليدي (GenAI) وكيفية توظيفه في مهام متنوعة. مع ذلك، من الضروري إدراك المخاطر المحتملة المرتبطة بهذه التقنية الرائدة في حال عدم تنظيمها بشكل صحيح.
لذا، أصدر الرئيس الأمريكي أمرًا تنفيذيًا تاريخيًا بشأن AI governance وتنظيمه، بهدف الحد من المخاطر المحتملة المرتبطة به. ويهدف هذا الأمر التنفيذي الأخير إلى رسم ملامح مستقبل الذكاء الاصطناعي والتقنيات المرتبطة به في الولايات المتحدة. ويتجاوز الأمر مجرد تحديد أحكام حوكمة هذه التقنية، ليشمل ضمان سلامة وأمن المصالح الوطنية والاقتصاد ورفاهية المقيمين والعاملين في الولايات المتحدة، وذلك في سياق تطوير واستخدام تقنيات الذكاء الاصطناعي من قبل الشركات الأمريكية.
أهمية الأمر التنفيذي بشأن الذكاء الاصطناعي
صدر الأمر التنفيذي في 30 أكتوبر 2023، ويقدم توجيهات شاملة تحدد مسار جهود الحكومة الفيدرالية لتنظيم تطوير واستخدام الذكاء الاصطناعي في الولايات المتحدة.
يُقدّم الأمر التنفيذي مجموعة واسعة من التوجيهات الهامة التي تهدف إلى حماية خصوصية وأمن وسلامة تقنيات الذكاء الاصطناعي. وقد وصف نائب رئيس أركان البيت الأبيض، بروس ريد، الأمر التنفيذي بأنه "أقوى مجموعة من الإجراءات التي اتخذتها أي حكومة في العالم على الإطلاق بشأن سلامة وأمن وموثوقية الذكاء الاصطناعي". كما أكد نائب الرئيس على أهمية الأمر التنفيذي كأداة مصممة لتغطية الجوانب الأمنية والخصوصية والسلامة والأخلاقية للذكاء الاصطناعي من جميع جوانبها، ولتحقيق أقصى استفادة من إمكاناته مع الحد من المخاطر.
وتعكس هذه الخطوة المبادرات التي اتخذها قادة عالميون آخرون، مثل الصين والاتحاد الأوروبي ، على جبهة الذكاء الاصطناعي، حيث وضعوا مبادئ توجيهية لتنظيم الذكاء الاصطناعي.
من هم الأشخاص الذين ينطبق عليهم الأمر التنفيذي الجديد بشأن الذكاء الاصطناعي؟
أنظمة الذكاء الاصطناعي
يُعرّف المرسوم الأوروبي الذكاء الاصطناعي بشكل عام بأنه أي "نظام قائم على الآلة يمكنه، لمجموعة معينة من الأهداف التي يحددها الإنسان، تقديم تنبؤات أو توصيات أو قرارات تؤثر على البيئات الحقيقية أو الافتراضية".
الوكالات والإدارات الفيدرالية
ينطبق الأمر التنفيذي بشكل أساسي على الوكالات والإدارات الحكومية الفيدرالية. ومع ذلك، فإنه يتضمن أيضاً متطلبات تمتد لتشمل المتعاقدين مع الحكومة الأمريكية الذين يعملون مع هذه الوكالات والإدارات.
تغطية الجهات الفاعلة الخاصة
والجدير بالذكر أن الأمر التنفيذي، باستخدام قانون الإنتاج الدفاعي، يوسع نطاق التغطية ليشمل ما يلي:
(1) يُسمح لمطوري نماذج الذكاء الاصطناعي ذات الاستخدام المزدوج (نماذج الذكاء الاصطناعي المدربة على بيانات واسعة النطاق والقابلة للتطبيق في سياقات متنوعة) بمشاركة نتائج اختبارات السلامة وغيرها من المعلومات المهمة مع حكومة الولايات المتحدة. إلى حين إعداد اللوائح الفنية وإصدارها من قبل وزارة التجارة، ستُعتبر أنظمة الذكاء الاصطناعي التالية مشمولة بهذا التعريف وفقًا للأمر التنفيذي:
- أي نموذج تم تدريبه باستخدام كمية من قوة الحوسبة أكبر من 1026 عملية حسابية للأعداد الصحيحة أو العشرية، أو باستخدام بيانات تسلسل بيولوجية في المقام الأول وباستخدام كمية من قوة الحوسبة أكبر من 1023 عملية حسابية للأعداد الصحيحة أو العشرية؛ و
- أي مجموعة حوسبة تحتوي على مجموعة من الأجهزة الموجودة فعليًا في مركز بيانات واحد، ومتصلة بشكل غير مباشر بشبكة مركز البيانات بسرعة تزيد عن 100 جيجابت/ثانية، ولديها قدرة حوسبة قصوى نظرية تبلغ 1020 عملية حسابية صحيحة أو عشرية في الثانية لتدريب الذكاء الاصطناعي.
(2) مزودو خدمات البنية التحتية كخدمة (IaaS) في الولايات المتحدة الذين يدربون نموذج ذكاء اصطناعي ضخمًا بقدرات محتملة يمكن استخدامها في أنشطة إلكترونية خبيثة (عملية "تدريب"). إلى حين صدور لوائح تنظيمية إضافية:
- يُعتبر النموذج ذا قدرات محتملة يمكن استخدامها في أنشطة خبيثة عبر الإنترنت إذا تطلب كمية من قوة الحوسبة أكبر من 1026 عدد صحيح أو
- عمليات الفاصلة العائمة ويتم تدريبها على مجموعة حوسبة تحتوي على مجموعة من الأجهزة الموجودة فعليًا في مركز بيانات واحد، ومتصلة بشكل غير مباشر بشبكة مركز البيانات بسرعة تزيد عن 100 جيجابت/ثانية، ولديها قدرة حسابية قصوى نظرية تبلغ 1020 عملية عدد صحيح أو فاصلة عائمة في الثانية لتدريب الذكاء الاصطناعي.
كما يتعين على المؤسسات التي تقوم بتطوير نماذج الذكاء الاصطناعي التي يمكن أن تشكل مخاطر كبيرة على قطاعات البنية التحتية الحيوية الامتثال للوائح الفيدرالية الصادرة عن الوكالة الفيدرالية أو الجهة التنظيمية المختصة.
كما يوجه الأمر التنفيذي العديد من الجهات التنظيمية الفيدرالية لإعداد مبادئ توجيهية أو قواعد أو لوائح لدعم السلامة والأمن، data privacy ، والحقوق المدنية، والإنصاف في استخدام الذكاء الاصطناعي في قطاعاتهم المحددة - وكل ذلك سيؤثر بلا شك على العديد من الشركات الخاصة التي تقوم بتطوير أو استخدام تقنيات الذكاء الاصطناعي في الولايات المتحدة.
خاتمة
بشكل عام، يتطلب تحديد مدى تأثير الأمر التنفيذي والقواعد والإرشادات واللوائح الناتجة عنه على المنظمة إجراء تقييم دقيق لما يلي:
- نوع تقنية الذكاء الاصطناعي التي تقوم بتطويرها أو استخدامها أو توريدها؛
- القدرة الحاسوبية/سعة تقنية الذكاء الاصطناعي الخاصة بها؛
- لمن يتم توفير تكنولوجيا الذكاء الاصطناعي، ولأي غرض (أي استخدام تكنولوجيا الذكاء الاصطناعي لأي عمل ناشئ عن العقود الفيدرالية)؛
- الصناعة التي تعمل فيها أو تستخدم أو تطور فيها تقنية الذكاء الاصطناعي؛ و
- المخاطر (الخصوصية، والأمن السيبراني، والإنصاف، وغيرها) التي تشكلها تقنية الذكاء الاصطناعي.
تفويضات حاسمة بموجب الأمر التنفيذي الجديد للذكاء الاصطناعي
دعونا نلقي نظرة فاحصة على المجالات الرئيسية المثيرة للقلق التي نوقشت في الأمر التنفيذي.
1. تعزيز سلامة وأمن الذكاء الاصطناعي
يوجه الأمر التنفيذي الإجراءات التالية لحماية الأفراد من المخاطر المحتملة لأنظمة الذكاء الاصطناعي.
(أ) وضع المبادئ التوجيهية والمعايير وأفضل الممارسات لسلامة الذكاء الاصطناعي
يركز الأمر التنفيذي على تطوير المبادئ التوجيهية والمعايير وأفضل الممارسات لسلامة وأمن أنظمة الذكاء الاصطناعي.
- بالإضافة إلى ذلك، سيتم إطلاق مبادرة لتوفير التوجيه والمعايير لتقييم قدرات الذكاء الاصطناعي في مجالات مثل الأمن السيبراني والأمن البيولوجي.
- علاوة على ذلك، سيتم وضع إرشادات وإجراءات لاختبارات فرق الاختراق الخاصة بالذكاء الاصطناعي لتسهيل نشر أنظمة ذكاء اصطناعي آمنة. ويتضمن ذلك تنسيق الجهود المتعلقة بتقييم سلامة وأمن نماذج الأساس ذات الاستخدام المزدوج، والعمل مع وزير الطاقة ومدير المؤسسة الوطنية للعلوم لإنشاء بيئات اختبار.
- علاوة على ذلك، يلزم الأمر التنفيذي وزير الطاقة بوضع خطة لأدوات تقييم نماذج الذكاء الاصطناعي ومنصات الاختبار لتقييم الاستقراءات قصيرة المدى لقدرات الذكاء الاصطناعي، لا سيما في المجالات الحساسة أمنياً مثل الأمن النووي والبيولوجي وأمن الطاقة، في غضون 270 يوماً.
(ب) ضمان الذكاء الاصطناعي الآمن والموثوق
يستخدم الأمر التنفيذي، لضمان استمرار توفر الذكاء الاصطناعي الآمن والموثوق، الصلاحيات الممنوحة للحكومة الفيدرالية بموجب قانون الإنتاج الدفاعي، لتوجيه وزير التجارة لوضع متطلبات (في غضون 90 يومًا) لـ "الشركات التي تقوم بتطوير أو تُظهر نية تطوير نماذج أساسية محتملة ذات استخدام مزدوج" لتقديم معلومات أو تقارير أو سجلات مستمرة إلى الحكومة الفيدرالية بشأن:
- الأنشطة المتعلقة بتدريب أو تطوير أو إنتاج نماذج أساسية ذات استخدام مزدوج (بما في ذلك الحماية المادية والأمن السيبراني المتخذة لضمان سلامة عملية التدريب هذه ضد التهديدات المعقدة)؛
- ملكية وحيازة أوزان النماذج (والتدابير المادية والأمنية الإلكترونية المتخذة لحماية تلك الأوزان)؛ و
- نتائج أداء نماذج الأساس ذات الاستخدام المزدوج في اختبارات فريق الهجوم الأحمر للذكاء الاصطناعي ووصف لأي تدابير ذات صلة اتخذتها الشركة لتحقيق أهداف السلامة، مثل إجراءات التخفيف لتحسين الأداء في اختبارات فريق الهجوم الأحمر هذه وتعزيز أمن النموذج بشكل عام كما طورته NIST وفقًا لتوجيهات هذا الأمر التنفيذي (قبل وضع إرشادات بشأن معايير اختبار فريق الهجوم الأحمر من قبل NIST - يجب أن يتضمن هذا الوصف نتائج أي اختبار فريق هجوم أحمر أجرته الشركة يتعلق بخفض حاجز الدخول لتطوير واقتناء واستخدام الأسلحة البيولوجية من قبل جهات فاعلة غير حكومية؛ واكتشاف نقاط الضعف في البرامج وتطوير الاستغلالات المرتبطة بها؛ واستخدام البرامج أو الأدوات للتأثير على الأحداث الحقيقية أو الافتراضية؛ وإمكانية التكرار الذاتي أو الانتشار؛ والتدابير المرتبطة لتحقيق أهداف السلامة)؛
- أي عملية استحواذ أو تطوير أو امتلاك لمجموعات حوسبة واسعة النطاق، بما في ذلك وجود هذه المجموعات وموقعها ومقدار إجمالي قوة الحوسبة المتاحة في كل مجموعة.
ستُلزم هذه اللوائح أيضًا مزودي خدمات البنية التحتية كخدمة (IaaS) المقيمين في الولايات المتحدة بالإبلاغ عن المعاملات التي يقوم فيها أفراد أجانب بتدريب نماذج ذكاء اصطناعي ضخمة لاستخدامها المحتمل في أنشطة إلكترونية خبيثة. كما سيُلزم الموزعون الأجانب لمزودي خدمات البنية التحتية كخدمة (IaaS) الأمريكيين بالإبلاغ عن ضمان التحقق من هوية الأفراد الأجانب الذين يحصلون على حسابات IaaS. وتشمل متطلبات الإبلاغ قيام مزودي خدمات البنية التحتية كخدمة (IaaS) المقيمين في الولايات المتحدة (وموزعيهم الأجانب) بجمع المعلومات التالية، والاحتفاظ بها، وتقديمها إلى الحكومة الفيدرالية الأمريكية كحد أدنى، عندما يُجري شخص أجنبي معاملة مع مزود خدمات البنية التحتية كخدمة (IaaS) الأمريكي لتدريب نموذج ذكاء اصطناعي ضخم ذي قدرات محتملة يُمكن استخدامها في أنشطة إلكترونية خبيثة (عملية "تدريب").
- هوية هذا الشخص الأجنبي، بما في ذلك الاسم والعنوان؛
- وسيلة ومصدر الدفع (بما في ذلك أي مؤسسة مالية مرتبطة بها ومعرفات أخرى مثل رقم بطاقة الائتمان أو رقم الحساب أو معرف العميل أو معرفات المعاملات أو محفظة العملات الافتراضية أو معرف عنوان المحفظة)؛
- عنوان البريد الإلكتروني ومعلومات الاتصال الهاتفية المستخدمة للتحقق من هوية الشخص الأجنبي؛ و
- عناوين بروتوكول الإنترنت المستخدمة للوصول أو الإدارة وتاريخ ووقت كل عملية وصول أو إجراء إداري يتعلق بالتحقق المستمر من ملكية هذا الشخص الأجنبي لهذا الحساب.
علاوة على ذلك، يوجه الأمر التنفيذي وزير التجارة إلى وضع الشروط الفنية ومتطلبات الإبلاغ لنماذج الذكاء الاصطناعي التي تستخدم مجموعات الحوسبة واسعة النطاق، وفيما يتعلق بنماذج الأساس ذات الاستخدام المزدوج مع أوزان النماذج المتاحة على نطاق واسع (مثل نماذج اللغة الكبيرة مفتوحة المصدر)، وذلك من خلال طلب مدخلات من القطاع الخاص والأوساط الأكاديمية والمجتمع المدني وأصحاب المصلحة الآخرين من خلال عملية تشاور عامة حول المخاطر والفوائد والآثار المحتملة الأخرى في غضون 270 يومًا؛ وبناءً على المشاورات، تقديم تقرير إلى الرئيس حول الفوائد والمخاطر والآثار المحتملة، بالإضافة إلى التوصيات المتعلقة بالسياسات واللوائح التنظيمية المتعلقة بهذه النماذج.
(ج) المشتريات الفيدرالية لأنظمة الذكاء الاصطناعي
يُلزم الأمر التنفيذي مكتب الإدارة والميزانية بتشكيل مجلس مشترك بين الوكالات معنيّ باستخدام الذكاء الاصطناعي في عمليات الحكومة الفيدرالية (باستثناء أنظمة الأمن القومي). ويتعين على مدير المكتب إصدار توجيهات للوكالات، في غضون 150 يومًا، لتعزيز الاستخدام الفعال والمناسب للذكاء الاصطناعي، ودفع عجلة الابتكار فيه، وإدارة المخاطر الناجمة عنه في الحكومة الفيدرالية. إضافةً إلى أحكام أخرى، يجب أن تتضمن هذه التوجيهات (جزئيًا):
- يتطلب تعيين مسؤول رئيسي للذكاء الاصطناعي في كل وكالة؛
- في بعض الوكالات، يتم إنشاء مجلس إدارة داخلي للذكاء الاصطناعي؛
- ممارسات إدارة المخاطر لاستخدام الحكومة للذكاء الاصطناعي الذي يؤثر على "حقوق الناس أو سلامتهم" (باستخدام إطار إدارة مخاطر الذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتكنولوجيا، حسب الاقتضاء)؛
- توصيات بشأن اختبار الذكاء الاصطناعي، وتصنيف مخرجات الذكاء الاصطناعي، و"التقييم المستقل لمزاعم البائعين فيما يتعلق بفعالية عروض الذكاء الاصطناعي الخاصة بهم وتخفيف المخاطر".
علاوة على ذلك، تم تكليف مكتب الإدارة والميزانية (OMB) بإنشاء أنظمة لضمان امتثال الوكالات للتوجيهات المتعلقة بتقنيات الذكاء الاصطناعي، بما في ذلك ضمان توافق عقود الوكالات لشراء أنظمة الذكاء الاصطناعي مع جميع المتطلبات القانونية والتنظيمية، وفهرسة حالات استخدام الذكاء الاصطناعي للوكالات سنويًا.
(د) إدارة الذكاء الاصطناعي في البنية التحتية الحيوية والأمن السيبراني
ولحماية البنية التحتية الحيوية وتعزيز الأمن السيبراني، يتطلب الأمر التنفيذي ما يلي:
- يتعين على السلطات التنظيمية ووكالات إدارة المخاطر القطاعية تقييم المخاطر المتعلقة بالذكاء الاصطناعي في البنية التحتية الحيوية في غضون 90 يومًا.
- سيصدر وزير الخزانة أفضل الممارسات في مجال الأمن السيبراني للمؤسسات المالية في غضون 150 يومًا.
- يقوم وزير الأمن الداخلي، بالتنسيق مع الجهات المعنية، بدمج إطار عمل إدارة مخاطر الذكاء الاصطناعي في إرشادات السلامة للبنية التحتية الحيوية في غضون 180 يومًا.
- سيقوم وزير الأمن الداخلي بإنشاء مجلس سلامة وأمن الذكاء الاصطناعي ، لتقديم المشورة بشأن أمن الذكاء الاصطناعي في البنية التحتية الحيوية.
إضافةً إلى ذلك، ولتعزيز الأمن السيبراني، يوجه الأمر التنفيذي وزير الدفاع ووزير الأمن الداخلي، في غضون 180 يومًا، إلى وضع خطط وتنفيذ مشاريع تجريبية لاستخدام قدرات الذكاء الاصطناعي في تحديد ومعالجة الثغرات الأمنية في أنظمة الحكومة الأمريكية. ويُلزم الأمر بتقديم تقارير عن النتائج والدروس المستفادة إلى رئيس الولايات المتحدة في غضون 270 يومًا.
(هـ) الحد من المخاطر عند تقاطع الذكاء الاصطناعي والتهديدات الكيميائية والبيولوجية والإشعاعية والنووية
يتناول الأمر التنفيذي مخاطر الذكاء الاصطناعي في التهديدات الكيميائية والبيولوجية والإشعاعية والنووية، ولا سيما الأسلحة البيولوجية. وفي غضون 180 يومًا، يُلزم وزير الأمن الداخلي، بالتعاون مع وزير الطاقة ومدير مكتب سياسات العلوم والتكنولوجيا، بتقييم مخاطر إساءة استخدام الذكاء الاصطناعي من خلال استشارة الخبراء وتقديم تقرير إلى الرئيس يتضمن توصيات تنظيمية.
وفي الوقت نفسه، وفي غضون 120 يومًا، تلتزم وزارة الدفاع، بالتشاور مع الكيانات ذات الصلة، بالتعاقد مع الأكاديميات الوطنية لإجراء دراسة حول مخاطر وتوصيات الأمن البيولوجي للذكاء الاصطناعي.
يُلزم الأمر التنفيذي مكتب سياسات العلوم والتكنولوجيا (OSTP) بوضع آليات فحص خلال 180 يومًا للحد من مخاطر الأحماض النووية الاصطناعية. ويتعين على مدير المكتب وضع إطار عمل لآليات فحص فعّالة خلال 180 يومًا، ويشمل ذلك ما يلي:
- معايير تحديد التسلسلات التي تشكل مخاطر على الأمن القومي.
- منهجيات موحدة للفحص والإبلاغ.
بالإضافة إلى ذلك، يُلزم الأمر التنفيذي وزير التجارة والمعهد الوطني للمعايير والتكنولوجيا (NIST) بالتواصل مع قطاع الصناعة والجهات المعنية لوضع مواصفات وأفضل الممارسات لفحص مشتريات تصنيع الأحماض النووية، استنادًا إلى الإطار العام. وينص الأمر التنفيذي على ما يلي:
- تلتزم جميع الوكالات التي تمول أبحاث علوم الحياة في غضون 180 يومًا من إنشاء الإطار، بالإطار الخاص بشراء الأحماض النووية الاصطناعية.
- يُكلف وزير الأمن الداخلي بوضع إطار عمل لتقييم واختبار فحص عمليات شراء الأحماض النووية وتقديم تقرير سنوي عن النتائج والتوصيات لتعزيز إجراءات الفحص.
(و) الحد من مخاطر المحتوى الاصطناعي
يحدد الأمر التنفيذي تدابير للحد من المخاطر المرتبطة بالمحتوى الاصطناعي، ويوجه بما يلي:
- في غضون 240 يومًا، يُطلب من وزير التجارة تقديم تقرير يحدد المعايير والأدوات والممارسات المدعومة علميًا للتحقق من صحة المحتوى وتتبعه ووضع العلامات عليه والكشف عن المحتوى الاصطناعي (على سبيل المثال من خلال وضع العلامات المائية)، مما يمنع الذكاء الاصطناعي التوليدي من إنتاج مواد الاعتداء الجنسي على الأطفال أو إنتاج صور حميمة غير توافقية لأفراد حقيقيين.
- بعد صدور التقرير، وفي غضون 180 يومًا، يتعين على وزير التجارة، بالتعاون مع مدير مكتب الإدارة والميزانية، وضع إرشادات حول أدوات التحقق من صحة المحتوى الرقمي والكشف عن المحتوى الاصطناعي.
- بعد ذلك، وفي غضون 180 يومًا من وضع التوجيهات، يتعين على مكتب الإدارة والميزانية إصدار توجيهات للوكالات المعنية بتصنيف المحتوى الرقمي الرسمي للحكومة الأمريكية والتحقق من صحته. ويتعين على مجلس تنظيم المشتريات الفيدرالي تعديل لائحة المشتريات الفيدرالية بما يتوافق مع هذه التوجيهات.
(ز) إعداد مذكرة الأمن القومي لـ AI Governance
بهدف إرساء نهج موحد لإدارة المخاطر الأمنية المتعلقة بالذكاء الاصطناعي في السلطة التنفيذية، يوجه الأمر التنفيذي إلى إعداد مذكرة الأمن القومي التي تحدد إجراءات إضافية بشأن الذكاء الاصطناعي والأمن. وستتضمن المذكرة ما يلي:
- توجيه وزارة الدفاع والوكالات ذات الصلة ومجتمع الاستخبارات؛
- تشجيع تبني الذكاء الاصطناعي لتعزيز مهام الأمن القومي الأمريكي؛
- ممارسات ضمان الجودة وإدارة المخاطر للذكاء الاصطناعي المباشر؛ و
- النظر في الآثار المترتبة على حقوق وسلامة الأفراد الأمريكيين، وعند الاقتضاء، الأفراد غير الأمريكيين.
بالإضافة إلى ذلك، ستوجه المذكرة الإجراءات لمواجهة التهديدات المحتملة من الخصوم والجهات الفاعلة الأجنبية التي تستخدم أنظمة الذكاء الاصطناعي التي قد تعرض أمن الولايات المتحدة للخطر.
يركز الأمر التنفيذي أيضًا على تعزيز الابتكار والمنافسة في مجال الذكاء الاصطناعي. ويهدف إلى استقطاب الكفاءات المتخصصة في هذا المجال إلى الولايات المتحدة، بما في ذلك تبسيط إجراءات الحصول على التأشيرات وتطوير مسارات الهجرة لخبراء الذكاء الاصطناعي. علاوة على ذلك، يؤكد على تطوير الابتكار من خلال الشراكات ومبادرات البحث. ويشمل ذلك ما يلي:
- إطلاق برنامج تجريبي وطني لموارد أبحاث الذكاء الاصطناعي (NAIRR)؛
- إنشاء محركات الابتكار الإقليمية التابعة للمؤسسة الوطنية للعلوم؛ و
- توسيع نطاق المعاهد الوطنية لأبحاث الذكاء الاصطناعي.
علاوة على ذلك، تشمل هذه المبادرة جهودًا لتعزيز برامج التدريب في مجال الحوسبة عالية الأداء، وتوفير إرشادات بشأن الملكية الفكرية وبراءات الاختراع للاختراعات المتعلقة بالذكاء الاصطناعي، والحد من مخاطر الملكية الفكرية المرتبطة بالذكاء الاصطناعي. كما تُعطي الأولوية للابتكار المسؤول في مجال الذكاء الاصطناعي في الرعاية الصحية، وتستضيف مسابقات "سباق التكنولوجيا في الذكاء الاصطناعي" لرعاية صحة المحاربين القدامى، وتستكشف دور الذكاء الاصطناعي في تعزيز القدرة على التكيف مع تغير المناخ، وتُلزم بإعداد تقرير حول الدور المحتمل للذكاء الاصطناعي في البحث العلمي.
بالإضافة إلى ذلك، يتناول الأمر التنفيذي أهمية ضمان المنافسة العادلة في أسواق الذكاء الاصطناعي. ويُكلَّف رؤساء الوكالات باستخدام سلطتهم لتعزيز المنافسة ومنع الممارسات المنافية لها.
يوفر الأمر التنفيذي إرشادات إضافية بشأن تعزيز المنافسة بين شركات تكنولوجيا الذكاء الاصطناعي من خلال:
- توجيه إدارة الأعمال الصغيرة (SBA) لتخصيص تمويل لتشجيع الشركات الصغيرة على تسويق إنجازات الذكاء الاصطناعي؛ و
- توجيه جميع الوكالات الفيدرالية للعمل على تجنب تركيز المدخلات الرئيسية من قبل عدد قليل من الجهات الفاعلة، والعمل على كسر التواطؤ غير القانوني بين الجهات الفاعلة المهيمنة في السوق؛
- توفير منصة للباحثين والطلاب للوصول إلى موارد الذكاء الاصطناعي، وتعزيز فرص العمل للمتخصصين المهرة في مجال الذكاء الاصطناعي، وتبسيط إجراءات طلبات التأشيرة للطلاب والباحثين الراغبين في العمل في مجال الذكاء الاصطناعي؛
- توجيه لجنة التجارة الفيدرالية (FTC) لاستخدام سلطتها في وضع القواعد لضمان العدالة في سوق الذكاء الاصطناعي والعمل على حماية المستهلكين والعمال من الأضرار المحتملة؛
- توجيه وزارة التجارة لاتخاذ تدابير لتعزيز المنافسة في صناعة أشباه الموصلات (وهي أجهزة أساسية في تطوير تكنولوجيا الذكاء الاصطناعي).
3. دعم العمال
إدراكًا للمخاطر التي يُشكّلها تبنّي الذكاء الاصطناعي على مستقبل العمل، يُركّز الأمر التنفيذي أيضًا على دعم العمال في سياق تطبيق الذكاء الاصطناعي. وللحدّ من مخاطر الذكاء الاصطناعي على العمال، يُوجّه الرئيس باتخاذ الإجراءات التالية:
- يُطلب من رئيس مجلس المستشارين الاقتصاديين تقديم تقرير في غضون 180 يومًا يوضح بالتفصيل آثار الذكاء الاصطناعي على سوق العمل.
- يُكلف وزير العمل بتقديم تقرير إلى الرئيس في نفس الإطار الزمني، لتقييم قدرات الوكالات الفيدرالية على دعم العمال الذين يواجهون اضطرابات بسبب الذكاء الاصطناعي.
- سيصدر وزير العمل توجيهات لضمان حصول الموظفين الذين تتم مراقبتهم أو تعزيزهم بواسطة الذكاء الاصطناعي على تعويض مناسب عن وقت عملهم، بما يتوافق مع معايير العمل.
بالإضافة إلى ذلك، يؤكد الأمر التنفيذي على إعطاء الأولوية للموارد المخصصة للتعليم المتعلق بالذكاء الاصطناعي وتطوير القوى العاملة من خلال البرامج الحالية والتعاون مع الوكالات لبناء قوة عاملة متنوعة جاهزة للذكاء الاصطناعي.
4. دعم حماية خصوصية الأفراد
في معرض معالجة مخاطر الخصوصية المحتملة الناجمة عن الانتشار الواسع لتكنولوجيا الذكاء الاصطناعي، يوجه الأمر التنفيذي مدير مكتب الإدارة والميزانية بما يلي:
- تقييم وتحديد المعلومات المتاحة تجارياً (CAI) التي تحصل عليها الوكالات، وخاصة المعلومات المتاحة تجارياً التي تحتوي على معلومات تعريف شخصية (PII).
- من الضروري فحص معايير وإجراءات الوكالة المرتبطة بالمعلومات الشخصية التي تحتوي على معلومات حساسة لإرشاد التوجيهات المحتملة بشأن تخفيف مخاطر الخصوصية والسرية.
- في غضون 180 يومًا، يتم إصدار طلب معلومات بالتشاور مع أصحاب المصلحة الرئيسيين لتحسين التوجيه بشأن تنفيذ أحكام الخصوصية في قانون الحكومة الإلكترونية، مع طلب التعليقات حول تعزيز تقييمات تأثير الخصوصية ، وخاصة في سياق الذكاء الاصطناعي.
- اتخاذ الخطوات اللازمة لدعم الإجراءات قصيرة المدى والاستراتيجية طويلة المدى التي تم تحديدها من خلال عملية طلب المعلومات، بما في ذلك إصدار توجيهات محدثة أو التشاور مع الكيانات ذات الصلة.
بالإضافة إلى ذلك، في غضون 365 يومًا، يتم تكليف وزير التجارة، من خلال مدير المعهد الوطني للمعايير والتكنولوجيا، بوضع مبادئ توجيهية للوكالات لتقييم فعالية حماية ضمانات الخصوصية التفاضلية، بما في ذلك تلك المتعلقة بالذكاء الاصطناعي.
علاوة على ذلك، ولتعزيز أبحاث الخصوصية وتطوير تقنيات تعزيز الخصوصية، يتطلب الأمر التنفيذي ما يلي:
- سيتعاون مدير المؤسسة الوطنية للعلوم (NSF) مع وزير الطاقة لتمويل إنشاء شبكة تنسيق البحوث (RCN) المخصصة للنهوض بأبحاث الخصوصية.
- سيتواصل مدير مؤسسة العلوم الوطنية مع الوكالات لتحديد فرص دمج تقنيات التصوير المقطعي بالإصدار البوزيتروني في عملياتها وإعطاء الأولوية للبحوث التي تشجع على تبني حلول التصوير المقطعي بالإصدار البوزيتروني المتطورة.
- ستساهم نتائج تحدي جائزة PETs بين الولايات المتحدة والمملكة المتحدة في تحديد المناهج والفرص المتاحة لأبحاث PETs واعتمادها.
5. حماية النتائج العادلة والحقوق المدنية
يركز الأمر التنفيذي على تعزيز المساواة والحقوق المدنية في سياق تطبيقات الذكاء الاصطناعي. ويحدد تدابير لمعالجة التمييز والانتهاكات في نظام العدالة الجنائية. ويوجه الأمر التنفيذي ما يلي:
- يتولى المدعي العام التنسيق مع الوكالات لإنفاذ القوانين المتعلقة بانتهاكات الحقوق المدنية المرتبطة بالذكاء الاصطناعي، وتقديم تقرير عن تأثير الذكاء الاصطناعي على إنفاذ القانون.
- الوكالات المعنية بمنع التمييز القائم على الذكاء الاصطناعي في البرامج والمزايا الفيدرالية:
- سيضمن وزير الصحة والخدمات الإنسانية العدالة في المنافع العامة؛
- سيصدر وزير الزراعة توجيهات بشأن استخدام الذكاء الاصطناعي من قبل المسؤولين الذين يخصصون المنافع العامة؛
- ستنشر وزارة العمل الأمريكية إرشادات للمقاولين الفيدراليين بشأن عدم التمييز في التوظيف؛
- هيئة الإسكان الفيدرالية ومكتب الحماية المالية للمستهلك (CFPB) لمنع التحيز في أسواق الإسكان والتمويل الاستهلاكي، بما في ذلك في مجالات الاكتتاب والتقييم، وبالتعاون مع وزارة الإسكان والتنمية الحضرية (HUD) لمنع التحيز في سوق الإسكان الإيجاري عند استخدام أنظمة الذكاء الاصطناعي لفحص المستأجرين وما إلى ذلك.
- يُطلب من مجلس الامتثال للحواجز المعمارية والنقلية ضمان عدم تعرض الأشخاص ذوي الإعاقة لمعاملة غير متساوية من قبل أنظمة الذكاء الاصطناعي التي تستخدم البيانات البيومترية .
- لمعالجة التمييز الخوارزمي من خلال التدريب والمساعدة التقنية والتنسيق بين وزارة العدل ومكاتب الحقوق المدنية الفيدرالية بشأن أفضل الممارسات للتحقيق في انتهاكات الحقوق المدنية المتعلقة بالذكاء الاصطناعي ومقاضاة مرتكبيها.
- تطوير أفضل الممارسات بشأن استخدام الذكاء الاصطناعي في إصدار الأحكام، والإفراج المشروط، والمراقبة، والإفراج قبل المحاكمة، والاحتجاز، وتقييم المخاطر، والمراقبة، والتنبؤ بالجريمة، والعمل الشرطي التنبؤي، والتحليل الجنائي لضمان العدالة في جميع أنحاء نظام العدالة الجنائية.
6. حماية الذكاء الاصطناعي الخاصة بقطاعات محددة
يؤكد الأمر التنفيذي على دور الهيئات التنظيمية المستقلة في حماية المستهلكين من المخاطر المحتملة المرتبطة بالذكاء الاصطناعي، مثل الاحتيال وانتهاكات الخصوصية. ويشجع هذه الهيئات على المشاركة في وضع القواعد وتوضيح اللوائح القائمة. ويوجه الأمر التنفيذي ما يلي:
(أ) النشر الآمن للذكاء الاصطناعي في مجال الرعاية الصحية
- الاستخدام المسؤول للذكاء الاصطناعي وتطوير أدوية ميسورة التكلفة ومنقذة للحياة
- إنشاء فريق عمل الذكاء الاصطناعي التابع لوزارة الصحة والخدمات الإنسانية للتخطيط الاستراتيجي في مجال الرعاية الصحية في غضون 90 يومًا.
- تعزيز الامتثال لقوانين عدم التمييز المتعلقة بالذكاء الاصطناعي وإنشاء برامج سلامة الذكاء الاصطناعي لتتبع الأخطاء السريرية وتحليل البيانات ونشر التوصيات.
(ب) الذكاء الاصطناعي الآمن والمسؤول في مجال النقل
- في مجال النقل، يُطلب من وزير النقل تقييم الاحتياجات المتعلقة بالذكاء الاصطناعي، بينما تقدم اللجان الاستشارية إرشادات حول الاستخدام الآمن للذكاء الاصطناعي.
(ج) الذكاء الاصطناعي المسؤول في التعليم
- في غضون 365 يوماً، سيقوم وزير التعليم بتطوير الموارد والسياسات والإرشادات اللازمة للاستخدام الآمن وغير التمييزي للذكاء الاصطناعي في التعليم. ويشمل ذلك "مجموعة أدوات الذكاء الاصطناعي" لقادة التعليم.
(د) إجراءات لجنة الاتصالات الفيدرالية (FFC)
- يتم تشجيع لجنة الاتصالات الفيدرالية على معالجة تأثير الذكاء الاصطناعي على شبكات الاتصالات والمستهلكين، بما في ذلك تحسين إدارة الطيف، وأمن الشبكة، ومكافحة المكالمات الآلية والرسائل النصية الآلية غير المرغوب فيها التي يسهلها الذكاء الاصطناعي.
7. تعزيز استخدام الحكومة الفيدرالية للذكاء الاصطناعي
لضمان نشر الحكومة للذكاء الاصطناعي بشكل مسؤول وتحديث البنية التحتية الفيدرالية للذكاء الاصطناعي، يتم توجيه الإجراءات التالية:
- التركيز على زيادة الكفاءات في مجال الذكاء الاصطناعي في الحكومة، ويشمل ذلك تحديد المجالات ذات الأولوية، وإنشاء فريق عمل متخصص في الكفاءات التقنية والذكاء الاصطناعي، والتنسيق بين مختلف الوكالات لتسريع عملية التوظيف. ويُشجع على استحداث صلاحيات خاصة لتوظيف الكفاءات في مجال الذكاء الاصطناعي والاحتفاظ بها، وستُبذل الجهود لمعالجة النقص في الكفاءات في هذا المجال لقطاع الدفاع الوطني.
- سيتم إطلاق برامج تدريبية في مجال الذكاء الاصطناعي للقوى العاملة الفيدرالية.
- كما تم تثبيط أي حظر شامل من قبل الوكالات الحكومية على استخدام الذكاء الاصطناعي التوليدي. ويشجع الأمر التنفيذي الوكالات والإدارات الفيدرالية على وضع ضوابط لاستخدام الذكاء الاصطناعي التوليدي "على الأقل لأغراض التجريب والمهام الروتينية التي تنطوي على مخاطر منخفضة للتأثير على حقوق الأمريكيين".
8. تعزيز الريادة الأمريكية في مجال الذكاء الاصطناعي في الخارج
يركز الأمر التنفيذي على تعزيز ريادة الولايات المتحدة في مجال الذكاء الاصطناعي على مستوى العالم. ويشمل ذلك ما يلي:
- سيتولى وزير الخارجية قيادة الجهود الرامية إلى التواصل مع الحلفاء الدوليين ووضع إطار عمل لإدارة مخاطر وفوائد الذكاء الاصطناعي.
- يتولى وزير التجارة تنسيق مبادرة عالمية لمعايير الذكاء الاصطناعي ووضع خطة للمشاركة العالمية في غضون 270 يومًا.
- لتعزيز التنمية المسؤولة للذكاء الاصطناعي في الخارج، تم توجيه وزير الخارجية ومدير الوكالة الأمريكية للتنمية الدولية، بالتعاون مع وزير التجارة، لإنشاء "دليل عمل الذكاء الاصطناعي في التنمية العالمية" و"أجندة بحثية عالمية للذكاء الاصطناعي" ضمن السياقات الدولية.
- ولمعالجة مخاطر الذكاء الاصطناعي على البنية التحتية الحيوية على مستوى العالم، سيقود وزير الأمن الداخلي الجهود الرامية إلى تعزيز التعاون الدولي ووضع خطة مشاركة متعددة الأطراف في غضون 270 يومًا، مع تقديم تقرير عن الإجراءات ذات الأولوية في غضون 180 يومًا.
الخاتمة
من المؤكد أن الأمر التنفيذي الصادر عن إدارة بايدن يُعد بالفعل أحد أكثر التوجيهات شمولاً التي تم إصدارها على الإطلاق لـ AI governance ، والتطوير، والتنظيم من قبل أي حكومة في العالم.
في غياب تشريع اتحادي من قبل الكونجرس بشأن تطوير واستخدام الذكاء الاصطناعي، يحاول الأمر التنفيذي لبايدن سد الفجوة بأكثر الطرق شمولاً الممكنة مع دعوة الكونجرس أيضاً للقيام بدوره وإقرار تشريع من الحزبين بشأن الخصوصية وتكنولوجيا الذكاء الاصطناعي.