في مختلف القطاعات، لم تعد أنظمة الذكاء الاصطناعي مجرد أدوات تستجيب لتوجيهات المستخدم. يشهد مجال الذكاء الاصطناعي تطورًا سريعًا، وتكتسب أنظمة الذكاء الاصطناعي مزيدًا من الاستقلالية . يمكن لمساعدك الافتراضي إعادة جدولة اجتماع بسهولة بناءً على عاداتك السابقة. أو يمكن لروبوت خدمة العملاء أن يقدم لك استردادًا للمبلغ دون الحاجة إلى تصعيد الأمر. هذه أنظمة ذكاء اصطناعي قادرة على التكيف مع المعلومات الجديدة واتخاذ القرارات بشكل مستقل.
مع تسارع هذا التحول نحو الأنظمة المستقلة، تواجه المؤسسات إعادة نظر جادة في كيفية تعاملها مع AI governance . فبينما هيمنت حوكمة النماذج سابقًا ولا تزال فعالة للعديد من تطبيقات الذكاء الاصطناعي ذات النطاق المحدود أو الأقل تعقيدًا، فإن حوكمة النماذج الفعالة حقًا AI governance يحتاج الأمر بشكل متزايد إلى نهج أكثر شمولية يأخذ في الاعتبار كيفية تصرف هذه الأنظمة وتفاعلها وتأثيرها على العالم من حولها، خاصة مع تزايد التعقيد.
من النماذج إلى الأنظمة: لماذا يجب أن تتطور الحوكمة
الموجة الأولى من AI governance التركيز على النماذج الفردية - نماذجهم data quality وتخفيف التحيز، وتحسين الأداء. على سبيل المثال، إذا كان نظام الذكاء الاصطناعي لديك يتكون من نموذج واحد ذي مهمة محددة جيدًا ومنخفضة المخاطر (مثل تصفية البريد العشوائي أو تحليل المشاعر)، فقد تكون ضوابط ومراقبة قوية على مستوى النموذج كافية. لكن أنظمة الذكاء الاصطناعي المؤسسية اليوم تتمحور حول نماذج مترابطة، ووكلاء ذكاء اصطناعي، ومصادر بيانات متنوعة، وآليات تطبيق السياسات، وضوابط الوصول، وفلاتر الإخراج.
أظهر استطلاع أجرته مجموعة بوسطن الاستشارية عام 2024 أن 74% من الشركات تواجه صعوبة في تحقيق قيمة الذكاء الاصطناعي وتوسيع نطاقها . ومع تطور الذكاء الاصطناعي ليدخل في بيئة أنظمة المؤسسات المعقدة، بات من الضروري اتباع نهج إداري مختلف جذرياً لتحقيق القيمة المرجوة، بدلاً من الاكتفاء بإدارة نماذج معزولة.
مراقبة أنظمة الذكاء الاصطناعي: إدارة السلوكيات الناشئة
يُؤدي الاعتماد على نموذج واحد فقط في إدارة الأنظمة إلى ثغرات كبيرة في العديد من المجالات الرئيسية. فعندما تتفاعل نماذج الذكاء الاصطناعي المتعددة (نماذج لغوية كبيرة، ونماذج لغوية صغيرة، ونماذج تضمين واستدلال، ونماذج استدلال)، قد تُنتج سلوكيات ناشئة لا يُمكن التنبؤ بها بفحص كل نموذج على حدة. لنفترض نظامًا مؤسسيًا يستخدم وكيلين مختلفين للذكاء الاصطناعي، أحدهما لتحديد أولويات رسائل البريد الإلكتروني الواردة، والآخر لجدولة الاجتماعات. يتعلم وكيل تحديد أولويات البريد الإلكتروني تأخير الرسائل الأقل إلحاحًا، بينما يتعلم وكيل الجدولة استخدام رسائل البريد الإلكتروني لتحديد الاجتماعات الحاسمة.
يعمل كل من النظامين بشكل فردي تمامًا كما هو مُخطط له. مع ذلك، قد يصبح سلوكهما مُعقدًا عند عملهما معًا. قد يفترض نظام الجدولة أن رسالة بريد إلكتروني ذات أولوية منخفضة تعني أن الاجتماع المُخطط له ليس عاجلًا. بناءً على هذا الافتراض، قد يُؤجل النظام بعض الاجتماعات المهمة. تُعد هذه النتائج غير المقصودة مثالًا كلاسيكيًا على السلوك الناشئ، الذي قد يُؤدي إلى فوائد غير متوقعة وإخفاقات مُعطلة. يُدرس السلوك الناشئ حاليًا على نطاق واسع، حيث يُمكن أن يتصرف النظام بأكمله بشكل مُختلف تمامًا عند تفاعل أجزائه.
توفر مراقبة أنظمة الذكاء الاصطناعي أدواتٍ لرصد هذه التفاعلات في الوقت الفعلي، مما يساعدك على اكتشاف هذه السلوكيات ومعالجتها قبل أن تؤثر على عملياتك التجارية. على سبيل المثال، يمكن لشركة خدمات مالية تحديد النماذج المتضاربة التي تتسبب في تأخيرات في الموافقة على القروض بسرعة، وتحسين وقت الإنجاز.