لمحة عامة
في 17 يناير 2024، نشرت وزارة الصناعة والعلوم والموارد (DISR) في 17 يناير 2024، رد الحكومة الأسترالية المؤقت على استشارة وزارة الصناعة والعلوم والموارد (DISR) بشأن ورقة المناقشة الخاصة بها بعنوان "دعم الذكاء الاصطناعي المسؤول في أستراليا". سعت ورقة المناقشة الصادرة في 1 يونيو 2023 إلى الحصول على آراء حول كيفية قيام الحكومة الأسترالية بالتخفيف من أي مخاطر محتملة للذكاء الاصطناعي ودعم ممارسات الذكاء الاصطناعي الآمنة والمسؤولة. يوجز الرد على وجه الخصوص التعليقات الواردة من أصحاب المصلحة ويناقش استراتيجية الحكومة لضمان التطوير الآمن للذكاء الاصطناعي.
الرد المؤقت للحكومة الأسترالية
في الفترة من 1 يونيو إلى 4 أغسطس 2023، انخرطت الحكومة في مشاورات مكثفة، ساعيةً إلى الحصول على مدخلات من مختلف أصحاب المصلحة مثل الجمهور ومجموعات المناصرة والأوساط الأكاديمية والصناعية والشركات القانونية والوكالات الحكومية. في حين أعربت المذكرات المقدمة للمشاورات ("المذكرات") عن الحماس للفوائد المحتملة للذكاء الاصطناعي في مجالات مثل الرعاية الصحية والتعليم والإنتاجية، فقد أثيرت مخاوف بشأن الأضرار المحتملة طوال دورة حياته.
ومن الأمثلة على ذلك انتهاكات قوانين الملكية الفكرية أثناء جمع البيانات، والتحيزات التي تؤثر على مخرجات النماذج، والتأثيرات البيئية أثناء التدريب، وقضايا المنافسة التي تؤثر على المستهلكين. والجدير بالذكر أن هذه الطلبات المقدمة أكدت على عدم كفاية الأطر التنظيمية الحالية في معالجة مخاطر الذكاء الاصطناعي، مما أدى إلى توافق في الآراء حول ضرورة وجود حواجز وقائية تنظيمية، خاصةً لتطبيقات الذكاء الاصطناعي عالية المخاطر.
النقاط الرئيسية المستخلصة من الاستجابة المؤقتة
تلتزم الحكومة، بعد أن بدأت حوارًا مع المجتمع الأسترالي من خلال ورقة مناقشة، بمواصلة هذا الحوار حول الاستفادة الفعالة من فرص الذكاء الاصطناعي مع معالجة المخاطر المرتبطة به. وقد أبرز التحليل الأولي، الذي شمل التقارير المقدمة والمناقشات العالمية مثل قمة سلامة الذكاء الاصطناعي، الرؤى الرئيسية التالية:
- الاعتراف بالتأثير الإيجابي للذكاء الاصطناعي على خلق فرص العمل ونمو الصناعة.
- وإدراكًا منها أن تطبيقات الذكاء الاصطناعي لا تستلزم جميعها استجابات تنظيمية، تؤكد الحكومة على ضرورة ضمان الاستخدام غير المعوق للذكاء الاصطناعي منخفض المخاطر. وفي الوقت نفسه، تقر الحكومة بأن الإطار التنظيمي الحالي لا يفي بالغرض، لا سيما في معالجة المخاطر التي تشكلها تطبيقات الذكاء الاصطناعي عالية المخاطر في البيئات المشروعة والنماذج الحدودية.
- وتُعتبر القوانين الحالية غير كافية لمنع الأضرار الناجمة عن الذكاء الاصطناعي قبل حدوثها، مما يستلزم تعزيز الاستجابة للأضرار اللاحقة لوقوعها. يمكن أن تؤدي السرعة والحجم الفريدين لأنظمة الذكاء الاصطناعي إلى تفاقم الأضرار، مما يجعلها في بعض الأحيان غير قابلة للعلاج. ويدفع هذا الوضع إلى النظر في استجابة مصممة خصيصًا للذكاء الاصطناعي.
- تفكر الحكومة في فرض التزامات إلزامية على أولئك الذين يطورون أو يستخدمون أنظمة الذكاء الاصطناعي عالية الخطورة لضمان السلامة، وتؤكد على التعاون الدولي لوضع معايير السلامة، مع الاعتراف بتكامل النماذج المطورة في الخارج في أستراليا.
تهدف الحكومة الأسترالية إلى التطوير الآمن للذكاء الاصطناعي في البيئات عالية الخطورة وتشجع استخدام الذكاء الاصطناعي في البيئات منخفضة الخطورة. يشمل التركيز الفوري على تقييم الضمانات الإلزامية، والنظر في التنفيذ من خلال القوانين الحالية أو النهج المبتكرة، والالتزام بالتشاور الوثيق مع الصناعة والأوساط الأكاديمية والمجتمع.
المبادئ الموجهة لاستجابة الحكومة المؤقتة لدعم الذكاء الاصطناعي الآمن والمسؤول
التزمت الحكومة الأسترالية بخمسة مبادئ عند توجيه استجابتها المؤقتة:
- النهج القائم على المخاطر: اعتماد إطار عمل قائم على المخاطر لتيسير الاستخدام الآمن للذكاء الاصطناعي، وتكييف الالتزامات المفروضة على المطورين والناشرين بناءً على مستوى المخاطر المقدرة المرتبطة باستخدام الذكاء الاصطناعي أو نشره أو تطويره.
- متوازن ومتناسب: تجنب الأعباء غير الضرورية أو غير المتناسبة على الشركات والمجتمع والمنظمين. ستوازن الحكومة بين الحاجة إلى الابتكار والمنافسة والحاجة إلى حماية مصالح المجتمع، بما في ذلك الخصوصية والأمن والسلامة العامة والسلامة على الإنترنت.
- التعاون والشفافية: تأكيداً على الانفتاح، ستشارك الحكومة بنشاط مع الخبراء على الصعيد الوطني لصياغة نهجها في الاستخدام الآمن والمسؤول للذكاء الاصطناعي. كما سيتم السعي إلى مشاركة الجمهور والخبرة التقنية، بما يضمن اتخاذ إجراءات حكومية واضحة تمكّن مطوري الذكاء الاصطناعي ومنفذيه ومستخدميه من معرفة حقوقهم والحماية التي يتمتعون بها.
- شريك دولي موثوق به: الاتساق مع إعلان بلتشلي والاستفادة من أسسها القوية وقدراتها المحلية لدعم العمل العالمي للتصدي لمخاطر الذكاء الاصطناعي
- المجتمع أولاً: من خلال وضع الناس والمجتمعات المحلية في الصميم، ستعطي الحكومة الأولوية لتطوير وتنفيذ مناهج تنظيمية تتماشى مع احتياجات جميع الأفراد وقدراتهم وسياقهم الاجتماعي.
الخطوات التالية للحكومة الأسترالية في مجال الذكاء الاصطناعي
وتماشيًا مع الهدف العام للحكومة الأسترالية المتمثل في تعظيم الفرص التي يوفرها الذكاء الاصطناعي لاقتصادنا ومجتمعنا، تتعلق الخطوات التالية المقترحة بما يلي:
a. منع الأضرار
واستجابةً للمخاوف، تهدف الحكومة إلى مواصلة استكشاف المزيد من الحواجز التنظيمية التي تركز على الاختبار والشفافية والمساءلة لمنع الأضرار المرتبطة بالذكاء الاصطناعي. ويشمل ذلك:
- الاختبار: الاختبار الداخلي والخارجي، وتبادل أفضل ممارسات السلامة، والتدقيق المستمر، وتدابير الأمن السيبراني.
- الشفافية: وعي المستخدم باستخدام نظام الذكاء الاصطناعي، والإبلاغ العام عن القيود والقدرات، والكشف عن تفاصيل معالجة البيانات.
- المساءلة: تعيين أدوار محددة لسلامة الذكاء الاصطناعي والتدريب الإلزامي للمطورين، لا سيما في البيئات عالية الخطورة.
ويشمل ذلك تعريف "المخاطر العالية" والمواءمة مع المبادرات الحكومية الحالية. واستكمالاً للاعتبارات التنظيمية المستقبلية، تشمل الخطوات الفورية ما يلي:
- معيار سلامة الذكاء الاصطناعي: سوف يتعاون المركز الوطني للذكاء الاصطناعي مع قطاع الصناعة لتطوير معيار طوعي لسلامة الذكاء الاصطناعي، مما يبسّط اعتماد الذكاء الاصطناعي المسؤول للشركات.
- النظر في وضع العلامات المائية: ستعمل وزارة الصناعة مع أصحاب المصلحة في الصناعة لتقييم الفوائد المحتملة للعلامات المائية الطوعية أو آليات إثبات مصدر البيانات المماثلة، لا سيما في بيئات الذكاء الاصطناعي عالية المخاطر.
- فريق الخبراء الاستشاري: إدراكًا للحاجة إلى مدخلات الخبراء، ستقوم مجموعة استشارية مؤقتة بدعم الحكومة في وضع خيارات لحواجز الحماية من الذكاء الاصطناعي. وقد تشمل الاعتبارات المستقبلية هيئة استشارية دائمة.
بعد ذلك، تشمل الخطوات التالية التشاور بشأن حواجز الحماية الإلزامية الجديدة، ووضع معيار سلامة طوعي للذكاء الاصطناعي، واستكشاف وضع العلامات الطوعية للمحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي.
b. توضيح القوانين وتعزيزها
ولمعالجة المخاوف التي أثيرت خلال المشاورات، تُبذل جهود كبيرة على مستوى الحكومة لتوضيح القوانين وتحصينها، بما يضمن حماية المواطنين. وتشمل المبادرات الرئيسية ما يلي:
- وضع قوانين جديدة تمكّن هيئة الاتصالات والإعلام الأسترالية من مكافحة المعلومات المضللة والتضليل عبر الإنترنت.
- المراجعة القانونية لقانون السلامة على الإنترنت لعام 2021 للتكيف مع الأضرار المتطورة على الإنترنت.
- التعاون مع حكومات الولايات والأقاليم، والصناعة، والمجتمع البحثي لوضع إطار تنظيمي للمركبات الآلية في أستراليا، يتضمن قوانين الصحة والسلامة في العمل.
- إجراء البحوث والمشاورات لمعالجة آثار الذكاء الاصطناعي على حقوق النشر وقانون الملكية الفكرية الأوسع نطاقاً.
- تنفيذ إصلاحات قانون الخصوصية لتعزيز الحماية في سياق تطبيقات الذكاء الاصطناعي.
- تعزيز قوانين المنافسة والمستهلكين في أستراليا لمعالجة القضايا الناشئة عن المنصات الرقمية.
- إنشاء إطار عمل أسترالي للذكاء الاصطناعي التوليدي في المدارس مع وزراء التعليم لتوجيه الاستخدام المسؤول والأخلاقي لأدوات الذكاء الاصطناعي التوليدي مع ضمان الخصوصية والأمن والسلامة.
- ضمان أمن أدوات الذكاء الاصطناعي من خلال مبادئ مثل الأمن حسب التصميم، في إطار استراتيجية الأمن السيبراني.
c. التعاون الدولي
تراقب أستراليا عن كثب كيفية استجابة البلدان الأخرى لتحديات الذكاء الاصطناعي، بما في ذلك الجهود الأولية في الاتحاد الأوروبي والولايات المتحدة وكندا. واستنادًا إلى مشاركتها في قمة سلامة الذكاء الاصطناعي في المملكة المتحدة في نوفمبر/تشرين الثاني، ستواصل الحكومة العمل مع البلدان الأخرى لتشكيل الجهود الدولية في هذا المجال. يشير الرد المؤقت إلى أن أي قوانين جديدة يجب أن تكون مصممة خصيصاً لأستراليا. ستتخذ الحكومة الأسترالية الإجراءات التالية:
- وتماشياً مع إعلان بلتشلي، تلتزم الحكومة الأسترالية بدعم تطوير تقرير حالة العلوم.
- تهدف المشاركة الدولية المستمرة إلى تشكيل AI governance العالمية AI governance وتعزيز النشر الآمن والمسؤول للذكاء الاصطناعي.
- يجري حاليًا بذل جهود لتعزيز المشاركة الأسترالية في المنتديات الدولية الرئيسية التي تضع معايير الذكاء الاصطناعي.
- إن الحوار المستمر مع الشركاء الدوليين يضمن المواءمة والتشغيل المتبادل مع استجابات أستراليا المحلية لمخاطر الذكاء الاصطناعي.
d. تعظيم فوائد الذكاء الاصطناعي
في ميزانية 2023-24، خصصت الحكومة الأسترالية 75.7 مليون دولار أمريكي لمبادرات الذكاء الاصطناعي، مع التركيز على المجالات الرئيسية التالية:
- برنامج تبني الذكاء الاصطناعي (17 مليون دولار): إنشاء مراكز لمساعدة الشركات الصغيرة والمتوسطة في اتخاذ قرارات مستنيرة بشأن الاستفادة من الذكاء الاصطناعي لتحسين الأعمال.
- توسيع المركز الوطني للذكاء الاصطناعي (21.6 مليون دولار): توسيع نطاق المركز للبحوث الحيوية والريادة في مجال الذكاء الاصطناعي.
- برامج خريجي الجيل القادم من خريجي الذكاء الاصطناعي (34.5 مليون دولار): استمرار التمويل لجذب وتدريب الموجة التالية من المتخصصين في الذكاء الاصطناعي الجاهزين للعمل.
تكمل هذه المبادرات الاستثمارات الخاصة الكبيرة في قطاع التكنولوجيا في أستراليا، لا سيما في مجال الذكاء الاصطناعي، والتي بلغت 1.9 مليار دولار في عام 2022. وتلتزم الحكومة باستكشاف المزيد من الفرص لتبني الذكاء الاصطناعي وتطويره، بما في ذلك على الأرجح وضع خطة استثمار في الذكاء الاصطناعي، بما يتماشى مع الجهود المبذولة لإرساء الاستخدام المسؤول للذكاء الاصطناعي وبناء الثقة العامة.
الخاتمة
تُظهر استجابة الحكومة الأسترالية المؤقتة التزامها بتعزيز فوائد الذكاء الاصطناعي مع معالجة المخاطر المرتبطة به. وتهدف من خلال نهج قائم على المبادئ، إلى ضمان تطوير الذكاء الاصطناعي بشكل آمن ومسؤول وموجه للمجتمع، مما يساهم في النمو الاقتصادي والتقدم التكنولوجي في أستراليا. ستشكل المشاورات والتعاون المستمران إطاراً تنظيمياً شاملاً وفعالاً لمشهد الذكاء الاصطناعي المتطور.