مقدمة
انعقد المنتدى الاقتصادي العالمي (WEF) في اجتماعه السنوي الرابع والخمسين في دافوس-كلوسترز في الفترة من 15 إلى 19 يناير 2024. تضمن جدول الأعمال العديد من البنود الهامة مثل التأهب الطبي، والنمو الاقتصادي العالمي المستدام، وبالطبع الذكاء الاصطناعي (AI).
وقد أسفر الاجتماع، الذي حضره رواد أعمال وصحفيون وخبراء في المجال ومئات من ممثلي الحكومات والشركات الوطنية، عن عدد كبير من الأفكار. وفي خضم كل هذا، قدم تحالف AI Governance (AIGA) إطار عمل بريسيديو للذكاء الاصطناعي.
تم تطويرها استناداً إلى التوصيات الرئاسية الصادرة عن قمة القيادة المسؤولة للذكاء الاصطناعي في أبريل 2023، حيث طورت الرابطة سلسلة من الأوراق الموجزة التي تقدم الأفكار والرؤى والتوصيات من مختلف أصحاب المصلحة المعنيين بتطوير الذكاء الاصطناعي المسؤول.
يعد إطار عمل بريسيديو للذكاء الاصطناعي تتويجاً لمسار الأنظمة الآمنة والتكنولوجيا الذي يعمل جنباً إلى جنب مع شركة آي بي إم للاستشارات. يؤكد إطار العمل على الحاجة إلى منهجية قياسية توحّد إدارة دورة حياة نماذج الذكاء الاصطناعي التوليدي مع تسليط الضوء على الحاجة إلى حوكمة أصحاب المصلحة المتعددين والتواصل الشفاف.
والأهم من ذلك، يهدف إطار عمل بريسيديو للذكاء الاصطناعي إلى أن يكون دليلاً شاملاً للشركات التي تهدف إلى الاستفادة من قدرات الذكاء الاصطناعي في عملياتها الحالية. تزود خارطة الطريق التي يقدمها هذا الإطار المؤسسات بالأدوات والفلسفات اللازمة لتجاوز التحديات الأخلاقية والتنظيمية وتحديات السلامة التي يفرضها الذكاء الاصطناعي.
وبعبارة أخرى، لا يقدم الإطار استراتيجية فحسب، بل رؤية يمكن أن تساعد المؤسسات على الاستعداد لعالم يعتمد على الذكاء الاصطناعي ويرتكز على المبادئ والقيم الأخلاقية المشتركة.
المبادئ الأساسية لإطار عمل الذكاء الاصطناعي الرئاسي
فيما يلي المبادئ الثلاثة الأساسية لإطار عمل بريسيديو للذكاء الاصطناعي:
دورة حياة الذكاء الاصطناعي الموسعة
توصي دورة الحياة الموسعة للذكاء الاصطناعي التي اقترحها إطار عمل بريسيديو بنهج جديد جذري لتطوير الذكاء الاصطناعي يتجاوز المراحل التقليدية للتصميم والبناء والنشر. وفقًا لهذه التوصية، ستغطي دورة الحياة الموسعة الجديدة مجموعة أوسع من الأنشطة، بما في ذلك تقييم المفهوم الأولي، وتقييم الأثر الأخلاقي، وتقييم أصحاب المصلحة، والمشاركة، بالإضافة إلى المراقبة الصارمة بعد النشر والتغذية الراجعة.
بالنسبة للمؤسسات المشاركة في تطوير نماذج وأنظمة الذكاء الاصطناعي، يتطلب اعتماد نهج دورة الحياة المذكور أعلاه مزيجًا من التخطيط الشامل والاستشراف المستقبلي.
المفهوم والتصميم
ستتطلب المراحل الأولية إجراء تقييم شامل للتأثير المباشر وغير المباشر لنماذج وأنظمة الذكاء الاصطناعي التي يتم تطويرها، بالإضافة إلى تأثيرها المباشر على مختلف أصحاب المصلحة المعنيين. يمكن أن يساعد ذلك في إجراء تقييم مناسب لما إذا كانت هذه التطورات تتماشى مع المبادئ التوجيهية الأخلاقية والمتطلبات التنظيمية والتطلعات التشغيلية لجميع أصحاب المصلحة.
جمع البيانات وتنظيمها
يجب فحص أي وجميع البيانات التي يتم جمعها لتدريب نماذج وأنظمة الذكاء الاصطناعي في مرحلة التطوير من خلال عملية شاملة لضمان جودتها وتنوعها وملاءمتها من حيث التمثيل. من خلال القيام بذلك، يمكن للمؤسسة أن تتجنب الاضطرار إلى التعامل مع قضايا مثل التحيز والنتائج غير العادلة التي تنبع من عدم الكفاءة في عملية جمع البيانات.
الاختبار والتحقق من الصحة
وبمجرد أن تبدأ عملية التطوير، ستحتاج المؤسسات إلى تطوير وتنفيذ آليات تتيح دورة من التقييم المستمر للمخاطر والتخفيف من حدتها بشكل مناسب. علاوة على ذلك، يجب تطوير هذه الآليات مع ضمان ممارسات حوكمة البيانات القوية التي تستمر في الحفاظ على خصوصية وجودة البيانات المستخدمة لتدريب نماذج الذكاء الاصطناعي.
تطوير النماذج والتدريب
لكي تتبنى المؤسسات نهج دورة الحياة الموسعة، والأهم من ذلك، لكي تستفيد حقًا من نهج دورة الحياة الموسعة، سيكون الاستثمار الحازم في التدريب والموارد والعمليات المناسبة أمرًا بالغ الأهمية. يتضمن ذلك اعتماد التقنيات المناسبة التي تضفي مزيدًا من التوضيح لكيفية توليد نماذج وأنظمة ذكاء اصطناعي معينة لمخرجات محددة.
من المهم ملاحظة أن هذا سيؤدي في معظم الحالات إلى ارتفاع التكاليف التشغيلية مع زيادة التعقيد الكلي لمشاريع الذكاء الاصطناعي. ومع ذلك، فإن مثل هذا النهج سيحقق فوائد كبيرة على المدى الطويل. تشمل بعض هذه الفوائد تعزيز ثقة العملاء، والحد من مخاطر عدم الامتثال التنظيمي والمخالفات التنظيمية اللاحقة، بالإضافة إلى مواءمة أفضل لجهود تطوير الذكاء الاصطناعي للمؤسسة مع القيم المجتمعية.
النشر والمراقبة
كما أن مرحلة ما بعد النشر لا تقل أهمية لأنها تتطلب وجود آلية صارمة مماثلة يمكنها مراقبة نماذج وأنظمة الذكاء الاصطناعي المطورة بشكل استباقي لأي تحيزات قد تظهر. ويوصي إطار العمل بقناة اتصال مفتوحة بين المستخدمين وجميع أصحاب المصلحة الرئيسيين المعنيين في هذه المرحلة لضمان الحصول على التغذية الراجعة في الوقت المناسب مما يسهل التدخلات الاستباقية والتخفيف الفوري من المشاكل التي تم تحديدها.
والأهم من ذلك، فإن المؤسسات التي تتبنى بنجاح هذا النهج الموسع لدورة الحياة ستعزز وترسخ مطالبها كرائدة في مجال تطوير الذكاء الاصطناعي المسؤول. ونتيجة لذلك، يمكن لهذه المؤسسات أن تكتسب ميزة تنافسية في سوق يتزايد فيه القلق بشأن الآثار الأخلاقية المختلفة لتطوير الذكاء الاصطناعي.
يشجع إطار عمل بريزيديو للذكاء الاصطناعي المؤسسات على التحرك نحو عملية تطوير ذكاء اصطناعي أكثر أخلاقية وشفافية ومساءلة تركز على المشاركة الاستباقية مع أصحاب المصلحة المتعددين في سياق الاعتبارات الاجتماعية والأخلاقية. لا يمكن للمؤسسات التي تتبنى مثل هذا التحول أن تتوقع التخفيف من المخاطر المرتبطة به وزيادة احتمالية الامتثال التنظيمي فحسب، بل أيضًا فرصة لتكون رائدة في تطوير الذكاء الاصطناعي المسؤول وتنفيذه.
درء المخاطر الشامل للمخاطر الشاملة
يهدف إطار عمل بريزيديو، من خلال حواجز الحماية الشاملة للمخاطر، إلى ضمان أن تكون جميع نماذج وأنظمة الذكاء الاصطناعي مصممة لتكون آمنة وأخلاقية ومتوافقة تمامًا مع القيم المجتمعية من خلال غرس هذه الجوانب في مرحلة التطوير.
وهي تقوم بذلك من خلال تعزيز إنشاء آليات فعالة وقوية تحدد جميع المخاطر ذات الصلة وتقيّمها وتخفف من حدتها بشكل مناسب عبر الاعتبارات الرئيسية مثل الخصوصية والأمن والشفافية. تعمل هذه الآليات بمثابة حواجز حماية تمكّن من اعتماد نهج نظامي لإدارة المخاطر بالإضافة إلى تكاملها الفعال عبر مختلف مراحل دورة حياة الذكاء الاصطناعي الموسعة المذكورة أعلاه.
يمكن أن تشمل هذه الحواجز الوقائية الشاملة على سبيل المثال لا الحصر ما يلي:
- الضمانات التقنية: سيتم نشرها لضمان الأمن والسلامة المناسبين لجميع نماذج وأنظمة الذكاء الاصطناعي التي يتم تطويرها. يمكن أن تشمل هذه الضمانات على سبيل المثال لا الحصر استخدام التدريب العدائي، الذي يمكّن النماذج من إحباط محاولات التلاعب ومقاومتها، بالإضافة إلى زيادة البيانات، التي تعمل على تنويع بيانات التدريب لتقديم مخرجات تعميم أفضل للنماذج.
- الكشف عن التحيزات الخوارزمية والتخفيف من حدتها: سيركز هذا الأمر على قيام المؤسسات بنشر تدابير لتحديد أي تحيزات محددة داخل نماذج وأنظمة الذكاء الاصطناعي المطورة والتخفيف من حدتها بشكل مناسب. يمكن أن تشمل التدابير الدقيقة على سبيل المثال لا الحصر استخدام مقاييس الإنصاف المختلفة وأدوات وتقنيات الكشف عن التحيزات التي يمكن الاستفادة منها حسب الاحتياجات التنظيمية.
- آليات الإشراف والتحكم البشرية: قد ينطوي ذلك على استفادة المؤسسات من شكل ما من أشكال منهجية "الإنسان في الحلقة" (HITL)، والتي تضمن أن أي نماذج وأنظمة ذكاء اصطناعي مطورة لا تعمل باستقلالية مطلقة وتسمح بالتدخل البشري، خاصة في الحالات التي تنطوي على عمليات اتخاذ القرارات الحاسمة. يمكن اتخاذ المزيد من الخطوات لتحديد الأدوار والمسؤوليات المتعلقة بالمراقبة والإدارة والتدخل في عمليات الذكاء الاصطناعي بوضوح.
- الشفافية والوضوح: هذه هي فلسفة تنظيمية تقود الثقافة الداخلية للمؤسسة أكثر من كونها مجموعة دقيقة من التدابير والضمانات. والغرض من ذلك هو ضمان أن تكون أي نماذج وأنظمة ذكاء اصطناعي مطورة مفهومة بشكل كافٍ للبشر. ومن ثم، يمكن الاستفادة من الآليات والتدابير المختلفة التي تسمح بشرح مناسب لكيفية عمل نماذج وأنظمة الذكاء الاصطناعي المستخدمة داخل المؤسسات. هذه الآليات والتدابير حيوية للمؤسسات من حيث بناء الثقة، وتعزيز ثقافة المساءلة، وتسهيل تفسير مخرجات الذكاء الاصطناعي بدقة.
بطبيعة الحال، يجب أن تتخطى الحواجز الوقائية نفسها الضمانات التقليدية التي تستخدمها المؤسسات. إذا تم تنفيذ ذلك بشكل صحيح، يمكن أن يمكّن المؤسسات من توقع المخاطر والمشاكل المحتملة بشكل فعال ودقيق، سواء كانت تقنية أو غير تقنية، في مرحلة التطوير.
وعلاوة على ذلك، فإن اعتماد حواجز حماية شاملة للمخاطر يرمز إلى التزام أكبر تجاه تطوير الذكاء الاصطناعي المسؤول. وسيتعين الاستثمار في الأدوات والقدرات والموارد البشرية والبنية التحتية المناسبة التي يمكن أن تسهل اعتماد مثل هذه الحواجز الوقائية لضمان مراقبتها الصارمة من أجل تخفيف المخاطر وإدارتها بكفاءة.
بالإضافة إلى ذلك، يجب تطوير آليات إبلاغ شفافة في الوقت نفسه لتمكين إظهار التزام المنظمة بالتوقعات الأخلاقية والمتطلبات التنظيمية في الوقت المناسب، مع ترسيخ هيكل مساءلة موثوق به داخل المنظمة.
منهجية التحول إلى اليسار
تمثل منهجية التحول إلى اليسار في إطار عمل بريسيديو للذكاء الاصطناعي نهجاً استباقياً لتطوير الذكاء الاصطناعي، مع التركيز على الدمج المبكر للاعتبارات الأخلاقية والسلامة والامتثال.
يشير مصطلح "التحول إلى اليسار"، الذي نشأ من هندسة البرمجيات، إلى ممارسة دمج الاختبارات وضمان الجودة (QA) في وقت مبكر من دورة التطوير لتحديد المشكلات وإصلاحها على الفور، وبالتالي توفير الوقت والموارد. تستلزم هذه المنهجية تغييرًا جوهريًا في كيفية إجراء تطوير الذكاء الاصطناعي تقليديًا، وتدعو إلى استراتيجية استباقية بدلاً من استراتيجية إدارة المخاطر القائمة على رد الفعل. وهي تشجع على التعاون المبكر والوثيق بين المطورين والمختبرين وفرق العمليات وتتطلب إشراك مجموعة متنوعة من أصحاب المصلحة، بما في ذلك خبراء الأخلاقيات والامتثال، في تخطيط مشاريع الذكاء الاصطناعي.
يستلزم اعتماد منهجية التحول إلى اليسار تغييرات كبيرة في التخطيط والتنفيذ، بهدف تطوير حلول الذكاء الاصطناعي المتقدمة تقنيًا والمسؤولة اجتماعيًا في الوقت نفسه. والأهم من ذلك، فهي تعالج الحاجة المتزايدة للامتثال التنظيمي في مواجهة لوائح الذكاء الاصطناعي الأكثر صرامة في جميع أنحاء العالم، مما يمكّن المؤسسات من التخفيف من مخاطر عدم الامتثال، والبقاء في طليعة التغييرات التنظيمية، وتعزيز ثقة الجمهور في عمليات تطوير الذكاء الاصطناعي الخاصة بهم.
الاتجاهات المستقبلية وقدرة الإطار على التكيف
سيكون الطريق نحو تطوير الذكاء الاصطناعي المسؤول واعتماده على نطاق واسع رحلة طويلة وشاقة. وسيتطلب ذلك جهدًا شاملًا وتعاونيًا عبر قطاعات وتخصصات متعددة. وستكتسب هذه الحاجة إلى مزيد من التعاون أهمية كبيرة مع استمرار تطور تقنيات وقدرات الذكاء الاصطناعي بوتيرة متسارعة في الوقت الحالي.
وبالإضافة إلى سرعة هذا التطور، فإن التكامل الواضح والضروري المتزايد للذكاء الاصطناعي في كل من المهام اليومية والبنية التحتية الحيوية. وهذا يسلط مزيدًا من الضوء على الضرورة الملحة لوجود إطار عمل قوي وأخلاقي وموثوق يمكن أن يساعد المؤسسات على تكييف التقنيات الناشئة مع مراعاة واضحة لتأثيرها على المجتمع.
في مواجهة ذلك، فإن تركيز إطار عمل بريسيديو للذكاء الاصطناعي على التبني المبكر وتنفيذ إجراءات الحماية من المخاطر ونهج دورة حياة الذكاء الاصطناعي الشامل يمكّن المؤسسات من توقع التهديدات المحتملة والتخفيف من حدتها بشكل مناسب قبل أن تشكل مخاطر كبيرة على المؤسسات. والأهم من ذلك أن إطار العمل يرسي سابقة واضحة داخل المؤسسات لاتباع نهج استباقي في AI governance بدلاً من نهج رد الفعل.
علاوة على ذلك، وبسبب تعقيد نماذج وأنظمة الذكاء الاصطناعي التي يجري تطويرها، يجب على المؤسسات أن تتطلع إلى نهج أكثر دقة يتيح منصة أكبر وأكثر اتساعًا لمختلف أصحاب المصلحة مثل قادة الصناعة وصناع السياسات والمنظمين. يؤكد هذا النهج على أهمية إطار عمل بريسيديو كنموذج للمسؤولية المشتركة يأخذ وجهات النظر والخبرات المتنوعة في الاعتبار، مما يجعله أكثر قابلية للتكيف مع تعقيدات تقنيات الذكاء الاصطناعي الناشئة وكذلك آثارها الاجتماعية,
كيف يمكن ل Securiti المساعدة
Securiti هي الشركة الرائدة في Data Command Centerات، وهي منصة مركزية تتيح الاستخدام الآمن للبيانات والذكاء الاصطناعي. يوفر ذكاءً موحدًا للبيانات وعناصر تحكم وتنسيق موحد للبيانات عبر البيئات الهجينة متعددة السحابة. تعتمد الشركات العالمية الكبيرة على Data Command Center من Securiti من أجل AI governanceوأمن البيانات والخصوصية وحوكمة البيانات والامتثال.
إن AI Security & Governance يُمكِّن المؤسسات من اكتشاف الذكاء الاصطناعي الخفي ووضع حواجز حماية للخصوصية والأمان والحوكمة لتعزيز الاعتماد الآمن للذكاء الاصطناعي.
اطلب عرضًا توضيحيًا اليوم وتعرف على المزيد حول كيفية تمكين Securiti لمؤسستك من الانتقال من القلق من الذكاء الاصطناعي إلى اعتماده بشكل منهجي وآمن.