مقدمة
عقد المنتدى الاقتصادي العالمي اجتماعه السنوي الرابع والخمسين في دافوس-كلوسترز في الفترة من 15 إلى 19 يناير 2024. وتضمن جدول الأعمال العديد من البنود الهامة مثل التأهب الطبي، والنمو الاقتصادي المستدام العالمي، وبالطبع الذكاء الاصطناعي.
أسفر الاجتماع، الذي حضره رواد أعمال وصحفيون وخبراء في مجالاتهم ومئات من ممثلي الحكومات الوطنية والشركات، عن كم هائل من الأفكار القيّمة. وفي خضم كل هذا، AI Governance قدم التحالف (AIGA) إطار عمل Presidio AI .
استنادًا إلى توصيات بريسيديو من قمة القيادة المسؤولة للذكاء الاصطناعي في أبريل 2023، قامت AIGA بتطوير سلسلة من أوراق الإحاطة التي تعرض الأفكار والرؤى والتوصيات من مختلف أصحاب المصلحة المشاركين في تطوير الذكاء الاصطناعي المسؤول.
يمثل إطار عمل بريسيديو للذكاء الاصطناعي تتويجًا لجهود مسار الأنظمة الآمنة والتكنولوجيا بالتعاون مع شركة آي بي إم للاستشارات. ويؤكد هذا الإطار على ضرورة وجود منهجية موحدة لإدارة دورة حياة نماذج الذكاء الاصطناعي التوليدي، مع تسليط الضوء أيضًا على أهمية الحوكمة متعددة الأطراف والتواصل الشفاف.
والأهم من ذلك، أن إطار عمل بريسيديو للذكاء الاصطناعي مصمم ليكون دليلاً شاملاً للشركات التي تسعى إلى الاستفادة من قدرات الذكاء الاصطناعي في عملياتها الحالية. ويوفر هذا الإطار خارطة طريق تزود المؤسسات بالأدوات والفلسفات اللازمة للتغلب على التحديات الأخلاقية والتنظيمية والأمنية التي يفرضها الذكاء الاصطناعي.
وبعبارة أخرى، لا يقدم الإطار استراتيجية فحسب، بل يقدم رؤية يمكن أن تساعد المؤسسات على الاستعداد لعالم مدفوع بالذكاء الاصطناعي قائم على مبادئ وقيم أخلاقية مشتركة.
المبادئ الأساسية لإطار عمل بريسيديو للذكاء الاصطناعي
فيما يلي المبادئ الثلاثة الأساسية لإطار عمل بريسيديو للذكاء الاصطناعي:
دورة حياة الذكاء الاصطناعي الموسعة
يقترح إطار عمل بريسيديو دورة حياة الذكاء الاصطناعي الموسعة، التي تتضمن نهجًا جديدًا جذريًا لتطوير الذكاء الاصطناعي يتجاوز المراحل التقليدية للتصميم والبناء والنشر. ووفقًا لهذه التوصية، ستغطي دورة الحياة الموسعة نطاقًا أوسع من الأنشطة، بما في ذلك التقييم الأولي للمفهوم، وتقييمات الأثر الأخلاقي، وتقييم أصحاب المصلحة وإشراكهم، بالإضافة إلى المراقبة الدقيقة بعد النشر وجمع الملاحظات.
بالنسبة للمنظمات المشاركة في تطوير نماذج وأنظمة الذكاء الاصطناعي، فإن اعتماد نهج دورة الحياة المذكور أعلاه سيتطلب مزيجًا من التخطيط الشامل والاستشراف الرؤيوي.
المفهوم والتصميم
تتطلب المراحل الأولية تقييماً شاملاً للأثر المباشر وغير المباشر لنماذج وأنظمة الذكاء الاصطناعي قيد التطوير، بالإضافة إلى أثرها المباشر على مختلف الجهات المعنية. وهذا من شأنه أن يساعد في التقييم المناسب لمدى توافق هذه التطورات مع المبادئ التوجيهية الأخلاقية والمتطلبات التنظيمية والتطلعات التشغيلية لجميع الجهات المعنية.
جمع البيانات وتنسيقها
ينبغي فحص جميع البيانات التي تُجمع لتدريب نماذج وأنظمة الذكاء الاصطناعي في مرحلة التطوير من خلال عملية شاملة لضمان جودتها وتنوعها وملاءمتها من حيث التمثيل. وبذلك، تتجنب المؤسسة التعامل مع مشكلات مثل التحيز والنتائج غير العادلة الناجمة عن أوجه القصور في عملية جمع البيانات.
الاختبار والتحقق
بمجرد بدء عملية التطوير، ستحتاج المؤسسات إلى تطوير وتنفيذ آليات تُمكّن من إجراء تقييم مستمر للمخاطر واتخاذ الإجراءات المناسبة للتخفيف منها . علاوة على ذلك، يجب تطوير هذه الآليات مع ضمان ممارسات حوكمة بيانات قوية تحافظ على خصوصية وجودة البيانات المستخدمة لتدريب نماذج الذكاء الاصطناعي.
تطوير النماذج والتدريب
لكي تتبنى المؤسسات نهج دورة الحياة الموسعة بشكل كامل، والأهم من ذلك، لكي تستفيد منه استفادة حقيقية، سيكون الاستثمار الجاد في التدريب والموارد والعمليات المناسبة أمراً بالغ الأهمية. ويتضمن ذلك تبني تقنيات ملائمة تُضفي مزيداً من الوضوح على كيفية توليد نماذج وأنظمة الذكاء الاصطناعي لمخرجات محددة.
من المهم الإشارة إلى أن هذا النهج، في معظم الحالات، سيؤدي إلى ارتفاع التكاليف التشغيلية وزيادة تعقيد مشاريع الذكاء الاصطناعي. مع ذلك، سيُحقق هذا النهج فوائد طويلة الأجل، منها تعزيز ثقة العملاء، والحد من مخاطر عدم الامتثال للوائح وما يترتب عليها من مخالفات، بالإضافة إلى مواءمة جهود تطوير الذكاء الاصطناعي في المؤسسة مع القيم المجتمعية.
النشر والمراقبة
تُعدّ مرحلة ما بعد النشر بالغة الأهمية، إذ تتطلب آلية صارمة مماثلة قادرة على رصد نماذج وأنظمة الذكاء الاصطناعي المطوّرة بشكل استباقي، ورصد أي تحيّزات قد تظهر. يوصي الإطار بوجود قناة اتصال مفتوحة بين المستخدمين وجميع الجهات المعنية الرئيسية في هذه المرحلة، لضمان تلقّي ملاحظات في الوقت المناسب، مما يُسهّل التدخلات الاستباقية والتخفيف الفوري من حدّة المشكلات المُحدّدة.
والأهم من ذلك، أن المنظمات التي تتبنى بنجاح هذا النهج الموسع لدورة حياة الذكاء الاصطناعي ستعزز مكانتها كجهة رائدة في تطوير الذكاء الاصطناعي بشكل مسؤول. ونتيجة لذلك، ستتمكن هذه المنظمات من اكتساب ميزة تنافسية في سوق يزداد اهتمامه بالآثار الأخلاقية المتعددة لتطوير الذكاء الاصطناعي.
يشجع إطار عمل بريسيديو للذكاء الاصطناعي المؤسسات على تبني عملية تطوير ذكاء اصطناعي أكثر أخلاقية وشفافية ومساءلة، تركز على المشاركة الفعّالة مع مختلف الجهات المعنية في سياق الاعتبارات الاجتماعية والأخلاقية. ولا تقتصر فوائد تبني هذا التحول على تخفيف المخاطر المرتبطة به وزيادة احتمالية الامتثال للوائح التنظيمية، بل تتعداها إلى فرصة الريادة في تطوير وتطبيق الذكاء الاصطناعي المسؤول.
ضوابط شاملة لإدارة المخاطر
يهدف إطار عمل بريسيديو، من خلال ضوابط المخاطر الشاملة، إلى ضمان تصميم جميع نماذج وأنظمة الذكاء الاصطناعي لتكون آمنة وأخلاقية ومتوافقة تمامًا مع القيم المجتمعية من خلال غرس هذه الجوانب في مرحلة التطوير.
ويتحقق ذلك من خلال تعزيز إنشاء آليات فعّالة وقوية لتحديد وتقييم وتخفيف جميع المخاطر ذات الصلة بشكل مناسب، مع مراعاة اعتبارات رئيسية مثل الخصوصية والأمن والشفافية. وتعمل هذه الآليات كضوابط تُمكّن من تبني نهج شامل لإدارة المخاطر، فضلاً عن دمجه بفعالية عبر مختلف مراحل دورة حياة الذكاء الاصطناعي الموسعة المذكورة آنفاً.
يمكن أن تشمل هذه الحواجز الواقية الشاملة، على سبيل المثال لا الحصر، ما يلي:
- الضمانات التقنية : سيتم تطبيق هذه الضمانات لضمان أمن وسلامة جميع نماذج وأنظمة الذكاء الاصطناعي قيد التطوير. وتشمل هذه الضمانات، على سبيل المثال لا الحصر، استخدام التدريب المُضاد، الذي يمكّن النماذج من إحباط محاولات التلاعب ومقاومتها، بالإضافة إلى زيادة البيانات، التي تُنوّع بيانات التدريب لتقديم مخرجات تعميم أفضل للنموذج.
- الكشف عن التحيز الخوارزمي والتخفيف من حدته : سيركز هذا على قيام المؤسسات بتطبيق إجراءات مناسبة لتحديد أي تحيزات موجودة في نماذج وأنظمة الذكاء الاصطناعي المطورة والتخفيف من حدتها. قد تشمل هذه الإجراءات، على سبيل المثال لا الحصر، استخدام مقاييس العدالة المختلفة وأدوات وتقنيات الكشف عن التحيز، والتي يمكن الاستفادة منها وفقًا لاحتياجات المؤسسة.
- آليات الرقابة والتحكم البشري : يتضمن ذلك قيام المؤسسات بتبني شكل من أشكال منهجية التدخل البشري، مما يضمن عدم عمل نماذج وأنظمة الذكاء الاصطناعي المطورة بشكل مستقل تمامًا، ويسمح بالتدخل البشري، لا سيما في الحالات التي تنطوي على عمليات صنع قرار حاسمة. ويمكن اتخاذ خطوات إضافية لتحديد الأدوار والمسؤوليات المتعلقة بمراقبة عمليات الذكاء الاصطناعي وإدارتها والتدخل فيها بشكل واضح.
- الشفافية وقابلية التفسير : تُعدّ هذه فلسفة تنظيمية تُوجّه الثقافة الداخلية للمؤسسة أكثر من كونها مجموعة محددة من الإجراءات والضمانات. والهدف منها هو ضمان أن تكون نماذج وأنظمة الذكاء الاصطناعي المطوّرة قابلة للفهم بشكل كافٍ من قِبل البشر. ولذلك، يمكن الاستفادة من آليات وإجراءات متنوعة تُتيح شرحًا وافيًا لكيفية عمل نماذج وأنظمة الذكاء الاصطناعي المستخدمة داخل المؤسسات. وتُعدّ هذه الآليات والإجراءات حيوية للمؤسسات من حيث بناء الثقة، وتعزيز ثقافة المساءلة، وتسهيل تفسير مخرجات الذكاء الاصطناعي بدقة.
بطبيعة الحال، سيتعين على الضوابط نفسها أن تتجاوز الضمانات التقليدية التي تستخدمها المؤسسات. وإذا تم تطبيقها بشكل صحيح، فإنها ستمكن المؤسسات من التنبؤ بفعالية ودقة بالمخاطر والمشكلات المحتملة، سواء كانت فنية أو غير فنية، في مرحلة التطوير.
علاوة على ذلك، يرمز اعتماد ضوابط شاملة لإدارة المخاطر إلى التزام أوسع نطاقاً بتطوير الذكاء الاصطناعي بشكل مسؤول. ويتطلب ذلك الاستثمار في الأدوات والقدرات والموارد البشرية والبنية التحتية المناسبة التي تُسهّل اعتماد هذه الضوابط، لضمان رصدها بدقة من أجل تخفيف المخاطر وإدارتها بكفاءة.
بالإضافة إلى ذلك، يجب تطوير آليات إبلاغ شفافة في الوقت نفسه لتمكين إظهار التزام المنظمة بالتوقعات الأخلاقية والمتطلبات التنظيمية في الوقت المناسب، مع غرس هيكل مساءلة موثوق به داخل المنظمة.
منهجية التحول إلى اليسار
تمثل منهجية Shift-Left ضمن إطار عمل Presidio AI نهجًا استباقيًا لتطوير الذكاء الاصطناعي، مع التركيز على التكامل المبكر للاعتبارات الأخلاقية والسلامة والامتثال.
انطلاقًا من هندسة البرمجيات، يشير مصطلح "التحول إلى اليسار" إلى ممارسة دمج الاختبارات وضمان الجودة في المراحل المبكرة من دورة التطوير لتحديد المشكلات ومعالجتها فورًا، مما يوفر الوقت والموارد. تتطلب هذه المنهجية تغييرًا جذريًا في كيفية تطوير الذكاء الاصطناعي تقليديًا، إذ تدعو إلى استراتيجية استباقية لإدارة المخاطر بدلًا من استراتيجية رد الفعل. كما تشجع على التعاون المبكر والوثيق بين المطورين والمختبرين وفرق العمليات، وتتطلب إشراك مجموعة متنوعة من أصحاب المصلحة، بمن فيهم خبراء الأخلاقيات والامتثال، في تخطيط مشاريع الذكاء الاصطناعي.
يتطلب تبني منهجية التحول نحو اليسار تغييرات جوهرية في التخطيط والتنفيذ، بهدف تطوير حلول ذكاء اصطناعي متطورة تقنيًا ومسؤولة اجتماعيًا. والأهم من ذلك، أنها تلبي الحاجة المتزايدة للامتثال التنظيمي في ظل تشديد لوائح الذكاء الاصطناعي عالميًا، مما يمكّن المؤسسات من الحد من مخاطر عدم الامتثال، ومواكبة التغييرات التنظيمية، وتعزيز ثقة الجمهور في عمليات تطوير الذكاء الاصطناعي لديها.
الاتجاهات المستقبلية وقابلية الإطار للتكيف
إنّ الطريق نحو تطوير الذكاء الاصطناعي المسؤول واعتماده على نطاق واسع سيكون رحلة طويلة وشاقة، تتطلب جهوداً تعاونية شاملة عبر قطاعات وتخصصات متعددة. وستكتسب هذه الحاجة إلى مزيد من التعاون أهمية بالغة مع استمرار تطور تقنيات وقدرات الذكاء الاصطناعي بوتيرة متسارعة.
إلى جانب سرعة هذا التطور، يبرز بشكل متزايد ضرورة دمج الذكاء الاصطناعي في المهام اليومية والبنية التحتية الحيوية على حد سواء. وهذا يُسلط الضوء أكثر على الحاجة المُلحة إلى إطار عمل قوي وأخلاقي وموثوق يُساعد المؤسسات على تبني التقنيات الناشئة مع مراعاة تأثيرها على المجتمع.
في ضوء ذلك، يُمكّن إطار عمل بريسيديو للذكاء الاصطناعي، بتركيزه على التبني المبكر وتطبيق ضوابط إدارة المخاطر، واتباع نهج شامل لدورة حياة الذكاء الاصطناعي، المؤسسات من توقع التهديدات المحتملة والتخفيف من آثارها قبل أن تُشكّل مخاطر جسيمة عليها. والأهم من ذلك، يُرسي هذا الإطار سابقة واضحة داخل المؤسسات لاتباع نهج استباقي في AI governance بدلاً من النهج التفاعلي.
علاوة على ذلك، ونظرًا لتعقيد نماذج وأنظمة الذكاء الاصطناعي قيد التطوير، يتعين على المؤسسات البحث عن مناهج أكثر دقة وشمولية تتيح منصة أوسع وأشمل لمختلف الجهات المعنية، مثل قادة الصناعة وصناع السياسات والجهات التنظيمية. ويؤكد هذا النهج أهمية إطار عمل بريسيديو كنموذج للمسؤولية المشتركة يأخذ في الاعتبار وجهات النظر والخبرات المتنوعة، مما يجعله أكثر قابلية للتكيف مع تعقيدات تقنيات الذكاء الاصطناعي الناشئة وآثارها الاجتماعية.
كيف Securiti يمكن المساعدة
Securiti هو رائد في Data Command Center منصة مركزية تُمكّن من الاستخدام الآمن للبيانات والذكاء الاصطناعي. توفر هذه المنصة ذكاءً موحدًا للبيانات ، وضوابط، وتنسيقًا عبر بيئات سحابية هجينة متعددة. وتعتمد عليها كبرى الشركات العالمية. Securiti 's Data Command Center AI governance ، وأمن البيانات، والخصوصية، وحوكمة البيانات، والامتثال.
يمكّن حل AI Security & Governance المؤسسات من اكتشاف الذكاء الاصطناعي الخفي ووضع ضوابط للخصوصية والأمن والحوكمة لدفع التبني الآمن للذكاء الاصطناعي.
اطلب عرضًا تجريبيًا اليوم وتعرف على المزيد حول كيفية Securiti بإمكانها تمكين مؤسستك من الانتقال من القلق بشأن الذكاء الاصطناعي إلى تبنيه بشكل منهجي وآمن.