ما هو AI Governance ؟
في جوهرها، AI Governance يشير إلى مجموعة محددة من السياسات والممارسات والمبادئ التوجيهية والعمليات والقواعد التي تضعها المنظمة لتنظيم استخدامها الداخلي وتطويرها ونشرها وإدارتها لأدوات وقدرات الذكاء الاصطناعي.
بفضل إطار الحوكمة هذا، يتم تمكين المنظمات من تحقيق الهدف التالي:
يُمكّن إطار AI governance القوي المؤسسات من:
- تعزيز الشفافية والنزاهة والمساءلة وحماية data privacy في استخدام الذكاء الاصطناعي
- التأكيد على الإشراف البشري في نقاط اتخاذ القرارات الحاسمة المتعلقة بالذكاء الاصطناعي
- مواءمة استخدام وتطوير الذكاء الاصطناعي مع المعايير واللوائح الأخلاقية المعمول بها.
يمكن للمنظمة الاستفادة من AI governance إطار عمل لضمان استخدام وتطوير أدوات وآليات الذكاء الاصطناعي بطرق تدفع الكفاءة والابتكار والإنتاجية مع الالتزام بالواجبات المتعلقة بالأخلاقيات والامتثال.
أهمية AI Governance
من الأهمية بمكان بالنسبة للمنظمات أن تفهم لماذا AI governance الأمور مهمة. إليك بعض المجالات الحيوية التي AI governance يمكن أن يكون ذا فائدة هائلة للمنظمة:
أ. الشفافية
لا تزال الشفافية تشكل تحدياً بالغ الأهمية في صناعة الذكاء الاصطناعي. ويكتسب هذا الأمر أهمية خاصة عند الأخذ في الاعتبار أن نماذج الذكاء الاصطناعي نفسها تُعتبر "صندوقاً أسود"، أي أنه يمكن توليد المخرجات من خلال إدخال البيانات، ولكن لا توجد عملياً أي طريقة لمعرفة وفهم المنطق الذي أنتج هذه المخرجات.
AI governance يضمن ذلك حصول المؤسسات على رؤى كاملة وواضحة حول المدخلات التي تُغذّي نماذج الذكاء الاصطناعي. وستساعد الرقابة الدقيقة على هذه المدخلات المؤسسة على تحديد التحيزات والأخطاء وأوجه القصور المحتملة في المخرجات المُولّدة بشكل استباقي.
ويمكن بعد ذلك استخدام هذه المعلومات لاتخاذ إجراءات تصحيحية في الوقت المناسب.
ب. الامتثال القانوني
بالنسبة للمؤسسات، سيكون الامتثال القانوني هو الجانب الأكثر تعقيدًا AI Governance تزداد اللوائح تحديداً فيما يتعلق بالالتزامات المتعلقة باستخدام الذكاء الاصطناعي ونشره. ومع ذلك، فإن مجرد فهم المتطلبات التنظيمية لا يكفي. يكمن التحدي الحقيقي في تطبيق الممارسات والآليات المتوافقة مع هذه المتطلبات على مستوى المؤسسة.
قوي AI governance يُمكّن هذا الإطار المؤسسة من العمل ضمن الحدود القانونية والتنظيمية. وتزداد أهمية ذلك مع تسارع تبني الذكاء الاصطناعي في مختلف القطاعات. وتتزايد مخاطر عدم الامتثال التنظيمي مع تعمق دمج الذكاء الاصطناعي في وظائف الشركات.
تُلزم لوائح البيانات الحالية، مثل اللائحة العامة لحماية البيانات (GDPR) وقانون حماية خصوصية المستهلك في كاليفورنيا (CPRA)، المؤسسات بالامتثال فيما يتعلق بجمع البيانات ومعالجتها وتخزينها. ومن المرجح أن تحدد اللوائح العالمية الخاصة بالذكاء الاصطناعي التزامات مماثلة لتجنب العقوبات. AI governance يساعد هذا الإطار على ضمان توافق جميع الأنشطة التنظيمية وأدوات الذكاء الاصطناعي مع القوانين ذات الصلة. AI governance يوفر هذا البرنامج الممارسات والعمليات اللازمة لترسيخ الامتثال في جميع العمليات.
ج. المساءلة
في عام 2019، تعرضت سيارة تسلا موديل إس لحادث أدى إلى وفاة شخصين. وقد دفع هذا الحادث جامعة نيويورك إلى نشر ورقة بحثية تناقش المسؤولية النهائية عن نتائج الذكاء الاصطناعي.
تستفيد المنظمات في مختلف الصناعات من الذكاء الاصطناعي لأغراض متنوعة.
لذا، ينطوي استخدامها على درجات متفاوتة من المخاطر التي تهدد عامة الناس. دراسة شاملة AI governance يُعد الإطار أمراً حيوياً في مثل هذا السياق لأنه يحدد خطاً واضحاً للمساءلة عن النتائج التي تنتجها أنظمة الذكاء الاصطناعي.
ستمتد هذه المساءلة لتشمل جميع مراحل دورة حياة الذكاء الاصطناعي، من التطوير إلى النشر.
بأخلاقية AI governance من خلال هذا الإطار، يمكن للمنظمات إعطاء الأولوية للاعتبارات الأخلاقية وضمان وجود عملية صارمة على مدار الساعة طوال أيام الأسبوع تعمل على تحسين وظائف الذكاء الاصطناعي وتضمن العدالة والدقة والنتائج التي تتوافق مع مهمتها وقيمها.
د. تخفيف المخاطر
مع AI governance يمكن للمنظمة أن تتبنى تركيزاً قوياً واستباقياً على تحديد وتخفيف العديد من المخاطر المرتبطة بنشر واستخدام الذكاء الاصطناعي.
من تسميم الذكاء الاصطناعي وهجمات تسريب البيانات إلى عمليات الحقن التلقائي وقضايا ملكية البيانات، سيُشكّل استخدام الذكاء الاصطناعي مجموعةً متنوعةً من التحديات للمؤسسات. ويمكن للمؤسسات استخدام أساليب وآليات مختلفة لإدارة بعض هذه المخاطر.
من المرجح أن تتطلب هذه الأساليب من المؤسسات إجراء تقييمات شاملة للمخاطر لتحديد المجالات المحتملة التي تثير القلق، وتنفيذ الاستراتيجيات ذات الصلة كجزء من استراتيجيتها الشاملة. AI governance نطاق.
ونتيجة لذلك، فإن النظام قوي وفعال AI governance يعمل هذا الإطار كحماية قوية ضد المخاطر المحتملة لاستخدام الذكاء الاصطناعي ونشره.
أمثلة على AI Governance
ضع في اعتبارك السيناريوهات التالية.
السيناريو 1
يطبق أحد المستشفيات أداة تشخيصية تعتمد على الذكاء الاصطناعي، تُزوّد الأطباء بمعلومات معمقة حول الحالات الطبية بناءً على الفحوصات الطبية الروتينية. كما تُقدّم هذه الأداة نفسها توصيات بخيارات علاجية ليأخذها الأطباء بعين الاعتبار عند وصف الأدوية.
في أحد الأيام، اقترحت أداة الذكاء الاصطناعي خيارًا علاجيًا غير تقليدي وغير مألوف لم يقنع الطبيب تمامًا. فاستشار زملاءه وشاركهم توصيات أداة الذكاء الاصطناعي. وقد حققت الأداة سجلًا تشغيليًا ممتازًا، ولذلك تردد الأطباء في تجاهل توصياتها.
يُعربون عن مخاوفهم للمدير الطبي للمستشفى وكبير مسؤولي الخصوصية. وفقًا لـ AI governance بعد تطبيق نظام الذكاء الاصطناعي في مستشفاهم، قرروا إجراء تقييم شامل للأداة. وكشف هذا التقييم، بالإضافة إلى التأكد من التحكم السليم في جميع بيانات الإدخال والتدريب وإدارتها، أن أداة الذكاء الاصطناعي قدّمت التوصية بناءً على بيانات غير مكتملة أو قديمة تلقتها عن المريض المعني.
لو لم يكن لدى المستشفى AI governance في حال وجود إطار عمل ينص على أن إحدى الممارسات الموصى بها هي تدقيق أدوات الذكاء الاصطناعي بحثًا عن أخطاء في مجموعات البيانات بانتظام، فقد يكون الطبيب قد مضى قدمًا في توصية العلاج غير الصحيحة، مما يعرض حياة المريض وسلامته للخطر.
السيناريو الثاني
تستخدم مدينة ملاهي شهيرة مساعدين افتراضيين مدعومين بالذكاء الاصطناعي لتحسين تجربة الزوار. ولتحقيق هذه الغاية، يمكن للزوار استخدام المساعدين الافتراضيين للحصول على معلومات فورية حول طول طوابير الانتظار، والمساعدة في التنقل، وخطط رحلات مخصصة.
تسير الأمور على ما يرام لبضعة أشهر، إلى أن يبدأ الزوار، خلال موسم الذروة، بالشكوى من التأخير وعدم دقة الردود من المساعدين الافتراضيين. وبعد التحقيق، تبيّن أن نظام المساعدين الافتراضيين كان بحاجة إلى تعديل ليتناسب مع الطلب المتزايد.
يوصي النظام بتطبيق إجراءات جديدة وميزات خلفية متطورة، مثل تخطيط السعة واختبار التحميل والمراقبة المستمرة، لضمان تحسين أداء المساعدين الافتراضيين للتعامل مع عبء العمل المتزايد دون المساس بدقة استجاباتهم. مع ذلك، تُسبب هذه الخطوات سلسلة غير متوقعة من النفقات التي لم يكن المنتزه الترفيهي مستعدًا لها بشكل كافٍ.
يمثل الموقفان المذكوران آنفاً قطاعين مختلفين تماماً. ومع ذلك، فإن احتمالية تبني الذكاء الاصطناعي متساوية في كليهما. وعلى الرغم من أن استخدام قدرات الذكاء الاصطناعي فيهما قد يكون لأغراض مختلفة، AI governance سيكون الأمر بنفس القدر من الأهمية في كلتا الحالتين. والأهم من ذلك، أن الفشل في فهم هذه التحديات بشكل صحيح قد يؤدي إلى ظهور مشاكل جديدة في المستقبل لا تستطيع المنظمة معالجتها بشكل مناسب.
أي منظمة، في أي قطاع، تعمل على أي نطاق، وتستخدم أدوات وآليات الذكاء الاصطناعي، ستحتاج إلى نظام مناسب بنفس القدر AI governance تم وضع إطار عمل لضمان استمرارها في الاستفادة من الذكاء الاصطناعي بشكل مسؤول.
إن عدم القيام بذلك سيؤدي إلى عدم الكفاءة وعدم القدرة بشكل عام على الاستفادة الكاملة من إمكانات الذكاء الاصطناعي.
AI Governance ضرورة عملية
ضع في اعتبارك السيناريوهات التالية.
السيناريو 1
يطبق أحد المستشفيات أداة تشخيصية تعتمد على الذكاء الاصطناعي، تُزوّد الأطباء بمعلومات معمقة حول الحالات الطبية بناءً على الفحوصات الطبية الروتينية. كما تُقدّم هذه الأداة نفسها توصيات بخيارات علاجية ليأخذها الأطباء بعين الاعتبار عند وصف الأدوية.
في أحد الأيام، اقترحت أداة الذكاء الاصطناعي خيارًا علاجيًا غير تقليدي وغير مألوف لم يقنع الطبيب تمامًا. فاستشار زملاءه وشاركهم توصيات أداة الذكاء الاصطناعي. وقد حققت الأداة سجلًا تشغيليًا ممتازًا، ولذلك تردد الأطباء في تجاهل توصياتها.
يُعربون عن مخاوفهم للمدير الطبي للمستشفى وكبير مسؤولي الخصوصية. وفقًا لـ AI governance بعد تطبيق نظام الذكاء الاصطناعي في مستشفاهم، قرروا إجراء تقييم شامل للأداة. وكشف هذا التقييم، بالإضافة إلى التأكد من التحكم السليم في جميع بيانات الإدخال والتدريب وإدارتها، أن أداة الذكاء الاصطناعي قدّمت التوصية بناءً على بيانات غير مكتملة أو قديمة تلقتها عن المريض المعني.
لو لم يكن لدى المستشفى AI governance في حال وجود إطار عمل ينص على أن إحدى الممارسات الموصى بها هي تدقيق أدوات الذكاء الاصطناعي بحثًا عن أخطاء في مجموعات البيانات بانتظام، فقد يكون الطبيب قد مضى قدمًا في توصية العلاج غير الصحيحة، مما يعرض حياة المريض وسلامته للخطر.
السيناريو الثاني
تستخدم مدينة ملاهي شهيرة مساعدين افتراضيين مدعومين بالذكاء الاصطناعي لتحسين تجربة الزوار. ولتحقيق هذه الغاية، يمكن للزوار استخدام المساعدين الافتراضيين للحصول على معلومات فورية حول طول طوابير الانتظار، والمساعدة في التنقل، وخطط رحلات مخصصة.
تسير الأمور على ما يرام لبضعة أشهر، إلى أن يبدأ الزوار، خلال موسم الذروة، بالشكوى من التأخير وعدم دقة الردود من المساعدين الافتراضيين. وبعد التحقيق، تبيّن أن نظام المساعدين الافتراضيين كان بحاجة إلى تعديل ليتناسب مع الطلب المتزايد.
يوصي النظام بتطبيق إجراءات جديدة وميزات خلفية متطورة، مثل تخطيط السعة واختبار التحميل والمراقبة المستمرة، لضمان تحسين أداء المساعدين الافتراضيين للتعامل مع عبء العمل المتزايد دون المساس بدقة استجاباتهم. مع ذلك، تُسبب هذه الخطوات سلسلة غير متوقعة من النفقات التي لم يكن المنتزه الترفيهي مستعدًا لها بشكل كافٍ.
يمثل الموقفان المذكوران آنفاً قطاعين مختلفين تماماً. ومع ذلك، فإن احتمالية تبني الذكاء الاصطناعي متساوية في كليهما. وعلى الرغم من أن استخدام قدرات الذكاء الاصطناعي فيهما قد يكون لأغراض مختلفة، AI governance سيكون الأمر بنفس القدر من الأهمية في كلتا الحالتين. والأهم من ذلك، أن الفشل في فهم هذه التحديات بشكل صحيح قد يؤدي إلى ظهور مشاكل جديدة في المستقبل لا تستطيع المنظمة معالجتها بشكل مناسب.
أي منظمة، في أي قطاع، تعمل على أي نطاق، وتستخدم أدوات وآليات الذكاء الاصطناعي، ستحتاج إلى نظام مناسب بنفس القدر AI governance تم وضع إطار عمل لضمان استمرارها في الاستفادة من الذكاء الاصطناعي بشكل مسؤول.
إن عدم القيام بذلك سيؤدي إلى عدم الكفاءة وعدم القدرة بشكل عام على الاستفادة الكاملة من إمكانات الذكاء الاصطناعي.
تخفيف المخاطر وإدارة الامتثال
إليك بعض الطرق الشاملة والفعالة AI governance يمكن أن يساعد هذا الإطار في التخفيف من المخاطر والتحديات المختلفة المرتبطة بالاستفادة من قدرات الذكاء الاصطناعي:
أ. توثيق شامل للسياسات والإجراءات
كما سبق شرحه، AI governance هي مجموعة من القواعد والإجراءات والسياسات التي تحدد كيفية استخدام المؤسسة لأنظمة الذكاء الاصطناعي. ومن الطرق الفعالة لتعظيم فوائد هذه السياسات والإجراءات، رسم خرائط شاملة وتوثيق جميع هذه الموارد والأصول.
يجب أن تتضمن هذه الوثائق مخططات تفصيلية لجميع المعايير الأخلاقية والمتطلبات القانونية وإرشادات استخدام البيانات وعمليات صنع القرار وبروتوكولات إدارة المخاطر التي تعتزم المنظمة تنفيذها.
إن القيام بذلك يمكّن المؤسسة من ضمان توافق اختيار أدوات وأنظمة الذكاء الاصطناعي الخاصة بها بشكل كافٍ مع قيمها وسياساتها.
ب. التدريب المنتظم للموظفين
لطالما اعتُبر تنظيم دورات تدريبية وندوات للموظفين بشكل منتظم استراتيجية حاسمة ومثبتة لضمان تجهيز الموظفين بشكل جيد للتعامل مع التهديدات الداخلية.
وينطبق الأمر نفسه عندما يتعلق الأمر بـ AI governance يجب على المنظمات أن تكون استباقية في تنظيم دورات تدريبية منتظمة وجلسات لإطلاع الموظفين على أخلاقيات الذكاء الاصطناعي وممارساته وقواعد النظافة الرقمية التي يجب عليهم اتباعها أثناء استخدام أدوات الذكاء الاصطناعي لضمان توافق استخدامها بشكل صارم مع الاعتبارات الأخلاقية والبروتوكولات التنظيمية المطلوبة.
لا يساعد هذا الموظفين على اتخاذ قرارات مستنيرة عند استخدام أنظمة وأدوات الذكاء الاصطناعي المختلفة فحسب، بل يشجع أيضًا على السلوك المتوافق مع الأخلاقيات في جميع أنحاء المؤسسة.
ج. المساءلة والملكية الواضحتان
يُعدّ تحديد الأدوار والمسؤوليات بوضوح لجميع القرارات المتعلقة بالذكاء الاصطناعي أمرًا بالغ الأهمية لإنشاء سلسلة واضحة للمساءلة والملكية. ويضمن ذلك إمكانية طرح جميع القضايا والمخاوف المتعلقة بالذكاء الاصطناعي على الجهات المعنية والموظفين، مع توفير إرشادات واضحة لربط الأفراد والفرق بالنتائج المتعلقة بالذكاء الاصطناعي.
يؤدي وجود هيكل واضح للمساءلة والملكية إلى زيادة التركيز على الاعتبارات الأخلاقية مع تعزيز امتثال المنظمة للمبادئ التوجيهية الأخلاقية المعمول بها.
د. وضع المبادئ التوجيهية الأخلاقية
كما ذكرنا سابقاً، تختلف متطلبات كل منظمة واستخداماتها لأدوات وقدرات الذكاء الاصطناعي. لذا، ينبغي أن تعكس المبادئ التوجيهية الأخلاقية ذلك.
اعتمادًا على مدى تقلب وحساسية المعلومات التي يمكن لأنظمة الذكاء الاصطناعي الوصول إليها، قد تحتاج المؤسسات إلى وضع مبادئ توجيهية لتطوير واستخدام الذكاء الاصطناعي تحكم كلاً من الموظفين والأنظمة نفسها.
هـ. Data Privacy وآليات الأمن
بصرف النظر عن الذكاء الاصطناعي، data privacy وقد شكّل الأمن أحد المجالات الحيوية الأخرى التي استثمرت فيها المؤسسات موارد كبيرة خلال السنوات القليلة الماضية. ومع تحوّل أنظمة الذكاء الاصطناعي إلى عامل آخر يجب مراعاته في إدارة البيانات، يجب على المؤسسات ضمان امتلاكها لأنظمة قوية وفعّالة. data privacy وآليات أمنية معمول بها لحماية المعلومات التي يمكن الوصول إليها بواسطة أنظمة الذكاء الاصطناعي بشكل كافٍ.
ومع ذلك، لا يزال هذا المجال غير واضح المعالم إلى حد كبير. ستوضح اللوائح القادمة المتعلقة بالذكاء الاصطناعي الالتزامات التشغيلية التي يجب على المؤسسات الوفاء بها عند تحقيق التوازن بين... data privacy باستخدام الذكاء الاصطناعي.
و. إدارة الوصول
إن تطبيق مزيج صارم من ضوابط الوصول ومبدأ أقل الامتيازات (PoLP) ضروري لضمان منح الموظفين الأكثر صلة ونماذج الذكاء الاصطناعي فقط إمكانية الوصول إلى المعلومات الحساسة.
يمكن مراقبة هذا النوع من الوصول في الوقت الفعلي للحماية من أنماط السلوك غير المعتادة التي قد تشير إلى تهديدات داخلية خبيثة أو حالات وصول غير مصرح به. علاوة على ذلك، يمكن مراجعة جميع صلاحيات الوصول على فترات منتظمة تتناسب مع سياق الوصول. يتيح ذلك إجراء تغييرات ديناميكية على صلاحيات الوصول دون تعقيدات إدارية مفرطة.
ز. التحقق من صحة مجموعة البيانات
مهما بلغت فعالية وكفاءة أنظمة الذكاء الاصطناعي، فإن جودتها تعتمد كلياً على جودة مجموعات البيانات التي تُدرَّب عليها. لذا، فإن أدنى مشكلة تتعلق بجودة وسلامة بيانات التدريب قد يكون لها تأثير مدمر على أداء الذكاء الاصطناعي.
لذا، يتعين على المؤسسات تبني عمليات تحقق دقيقة وفي الوقت المناسب من البيانات، حيث يمكن معالجة أي تحيزات أو أخطاء أو شذوذات يتم تحديدها على الفور. ويضمن ذلك جودة مجموعة البيانات، مما يسهم بشكل كبير في دقة المخرجات التي تولدها أنظمة الذكاء الاصطناعي.
ح. سياسة الأتمتة
مع استمرار توسع قدرات ووظائف الذكاء الاصطناعي بوتيرة متسارعة، من المرجح أن تقوم المؤسسات بدراسة وتقييم مدى إمكانية أتمتة عملياتها بشكل مستمر. ويبدو أن الأمر مسألة وقت فقط قبل أن يتم الاستفادة من هذه القدرات في دعم اتخاذ القرارات، حيث تتطلب أنظمة الذكاء الاصطناعي حينها وصولاً واسع النطاق إلى بيانات المؤسسة.
مع ذلك، فإن مجرد تقييد وصول أنظمة الذكاء الاصطناعي إلى البيانات الحساسة يُعدّ إجراءً جزئياً واضحاً. وكما هو الحال مع إدارة الوصول إلى أصول البيانات الحساسة فيما يتعلق بالموظفين داخل المؤسسات، يجب وضع إطار عمل شامل لتحديد أدوات الذكاء الاصطناعي التي ينبغي أن تتمتع بإمكانية الوصول إلى أي بيانات، بالإضافة إلى صلاحياتها المتعلقة باستخدام هذه البيانات.
أولاً: عملية التحقق من صحة البيانات بمشاركة العنصر البشري
على المدى القريب والمتوسط، يجب أن يستمر دور البشر في الإشراف على جميع عمليات صنع القرار في الذكاء الاصطناعي. وهذا أمر بالغ الأهمية، لا سيما بالنسبة للقرارات التي تؤثر على البشر بشكل مباشر، كما ورد في مثال أداة تشخيص الذكاء الاصطناعي الذي سبق ذكره.
ستتيح عملية التحقق التي تتضمن تدخل الإنسان للمنظمة مواصلة أتمتة العمليات ولكن مع إشراف بشري لمراجعة وتجاوز التوصيات والمخرجات التي تم إنشاؤها عندما يتعارض حكمهم مع حكم الذكاء الاصطناعي.
إلى جانب أهميتها الوظيفية، فإنها ستسهل على المؤسسات معالجة بعض المخاوف الأخلاقية المتعلقة باستخدامات الذكاء الاصطناعي، ولا سيما مسألة من يتحمل المسؤولية في حالة حدوث خطأ في الحكم من جانب الذكاء الاصطناعي له عواقب سلبية في الحياة الواقعية.
مستقبل AI Governance
سيستمر تأثير الذكاء الاصطناعي في النمو. وتدرك المنظمات في مختلف القطاعات والصناعات هذا الأمر، وقد استثمرت وقتاً وموارد كبيرة في البحث عن كيفية الاستفادة من هذه القدرات إلى أقصى حد ممكن.
مع ذلك، فإلى جانب تأثير الذكاء الاصطناعي، تتزايد التساؤلات والمخاوف بشأن استخدامه الأخلاقي والمسؤول. وتتفاقم هذه المشكلات نظرًا لأن دخول قوانين تنظيم الذكاء الاصطناعي حيز التنفيذ مسألة وقت، مما يُلقي بمسؤوليات إضافية على عاتق المؤسسات التي تستخدمه.
وبالتالي، الصوت AI governance تزداد أهمية السياسات والأطر التنظيمية. فهي تضمن قدرة المؤسسات على مواصلة الاستفادة القصوى من أدوات وقدرات الذكاء الاصطناعي في الوقت الراهن، والاستعداد التام للامتثال لأي لوائح مستقبلية متعلقة بالذكاء الاصطناعي.
ولهذا الغرض، فإن استكشاف كيفية وضع اللوائح المقترحة الحالية للأسس اللازمة لنشر الذكاء الاصطناعي الأخلاقي وإجراء مقارنات مع القفزات التكنولوجية السابقة، مثل الإنترنت، يمكن أن يساعد المؤسسات على رسم مسار واضح لمواجهة التحديات والفرص.
اللوائح تمهد الطريق
تتزايد قوانين الذكاء الاصطناعي في جميع أنحاء العالم. وكما هو موضح في هذا التقرير، فإن عدداً متزايداً من الدول لديها مشاريع قوانين أو هي بصدد سن تشريعات مماثلة.
يمثل قانون الذكاء الاصطناعي للاتحاد الأوروبي، وقانون الذكاء الاصطناعي والبيانات الكندي (AIDA)، والاستراتيجية الوطنية للذكاء الاصطناعي في الولايات المتحدة أمثلة على الجهود التنظيمية العالمية لوضع مبادئ توجيهية لتطوير الذكاء الاصطناعي واستخدامه وإدارته ونشره بشكل أخلاقي.
من المرجح أن تكون الشفافية وقابلية التفسير مبدأً أساسياً في جميع هذه اللوائح، مما يوفر للمؤسسات خارطة طريق حول كيفية تطوير وتطبيق التدابير المناسبة لتلبية متطلبات تنظيمية معينة من شأنها أن تعزز الثقة بين المستخدمين وأصحاب المصلحة والجمهور.
بالإضافة إلى ذلك، من المرجح أن تتعامل المؤسسات التي تستخدم قدرات الذكاء الاصطناعي مع كميات هائلة من البيانات، مما يعني أنها ستخضع أيضاً للعديد من اللوائح العالمية المتعلقة بالبيانات. وفي هذه الحالة، يكون الإطار التنظيمي أكثر رسوخاً نسبياً، مما يمنح المؤسسات فكرة أوضح بكثير عن كيفية التصرف لضمان استخدام البيانات بما يتوافق مع اللوائح.
دروس من الماضي
AI governance هذا أمر مهم. المنظمات تدرك ذلك. التحدي الحقيقي هو كيفية إنشاء AI governance إطار عمل فعال وأخلاقي على المدى القريب والبعيد. وكما ذكرنا سابقاً، ستدخل اللوائح المتعلقة بالذكاء الاصطناعي حيز التنفيذ قريباً.
مع ذلك، لا يمكن للمؤسسات أن تتبنى نهج "الانتظار والترقب". فمعظم المؤسسات تستفيد الآن من أدوات وقدرات الذكاء الاصطناعي، مما يعني أن جهودها لإنشاء وتبني AI governance يجب أن يبدأ وضع الإطار الآن أيضاً.
في مثل هذا السيناريو، قد يكون استخلاص الدروس من الماضي مفيدًا للغاية. فالتأمل في الصعود الصاروخي للإنترنت يمنح المؤسسات منظورًا فريدًا لفهم كيف ستتطور ثورة الذكاء الاصطناعي الحالية في نهاية المطاف.
في نهاية المطاف، وكما هو الحال مع الذكاء الاصطناعي، عندما دخل الإنترنت إلى هذا المجال، لم تكن هناك أي لوائح شاملة، مما أدى إلى وقوع العديد من المنظمات ضحية للجرائم الإلكترونية، ونقاط الضعف في البيانات، وانتهاكات الخصوصية أثناء خوضها في المناطق الرقمية المجهولة.
غالباً ما كانت لهذه التحديات عواقب وخيمة على المؤسسات، حيث تكبدت خسائر مالية وتشويهاً لسمعتها. ومع ذلك، أدركت المؤسسات مع مرور الوقت أهمية وجود فرق متخصصة من الخبراء لدراسة المخاطر المحتملة التي تواجهها بنيتها الرقمية دراسة شاملة، وتحديد المشكلات الأكثر إلحاحاً، ومعالجتها.
كان هذا قبل الأخذ في الاعتبار اللوائح المختلفة المتعلقة بالإنترنت التي دخلت حيز التنفيذ، مثل قانون حماية خصوصية الأطفال على الإنترنت ( COPPA )، وقانون قابلية نقل التأمين الصحي والمساءلة ( HIPAA )، وقانون غرام-ليتش-بليلي ( GLBA )، على سبيل المثال لا الحصر.
تناولت كل واحدة من هذه القضايا صناعة محددة، حيث كان لدى المنظمات المعنية قائمة واضحة بالالتزامات التنظيمية التي من شأنها أن تضمن ليس فقط وجود أفضل الممارسات والآليات والأدوات لضمان الامتثال، ولكن أيضًا تؤدي إلى رؤية موحدة داخل الصناعة حول أفضل السبل لإدارة عملياتها اليومية أثناء استخدام الإنترنت.
فيما يتعلق بالذكاء الاصطناعي، لا داعي لتغيير السيناريو كثيرًا. توضح العديد من أفضل الممارسات المذكورة سابقًا كيف يمكن للمؤسسة أن تتبنى نهجًا استباقيًا لتطوير نظام داخلي. AI governance الإطار. عندما تدخل اللوائح الملموسة حيز التنفيذ، فإنها ستوفر مزيدًا من الوضوح، ويمكن للمنظمات تكييف ممارساتها وفقًا للإرشادات التنظيمية.
كيف Securiti هل يمكن المساعدة؟
لقد برز الاستخدام المسؤول لقدرات الذكاء الاصطناعي كهدف استراتيجي حيوي للمنظمات التي بدأت في استخدام هذه القدرات في عملياتها.
ومع ذلك، ونظرًا للكم الهائل من البيانات، بدأت المنظمات تدرك أن الطريقة الأكثر فعالية وكفاءة لإنشاء بيانات موثوقة هي AI governance يتم ذلك من خلال الاستفادة من الأتمتة.
هذا هو المكان Securiti يمكن أن يكون ذلك مفيدًا للغاية.
Securiti هو رائد في Data Command Center هي منصة مركزية توفر معلومات سياقية وضوابط وتنسيقًا للاستخدام الآمن للبيانات والذكاء الاصطناعي. وتعتمد عليها المؤسسات العاملة في مختلف الصناعات والقطاعات وعلى نطاقات متفاوتة. Securiti لتوفير ضوابط موحدة لأمن البيانات والخصوصية والحوكمة والامتثال عبر بيئات السحابة المتعددة الهجينة.
ال Securiti مركز قيادة البيانات هو حل مؤسسي قائم على Data Command Center إطار عمل. يسمح هذا الإطار للمؤسسات بتحسين عمليات الرقابة والامتثال لجميع المعايير العالمية الرئيسية data privacy واللوائح المتعلقة بالذكاء الاصطناعي.
تتيح وحدة التحكم في البيانات للمؤسسات الوصول إلى وحدات ومنتجات حيوية تساعد على ضمان الامتثال لمختلف الالتزامات التنظيمية. على سبيل المثال، تمكّن وحدة إشعار الخصوصية المؤسسات من امتلاك نظام ديناميكي privacy policy وهذا يعكس أحدث ممارساتهم في جمع البيانات ومعالجتها. بالإضافة إلى ذلك، توفر وحدة DSR automation رؤى شاملة ومتعمقة مرتبطة بجميع طلبات بيانات المستخدم لضمان تلبية هذه الطلبات وفقًا للمتطلبات التنظيمية.
اطلب عرضًا تجريبيًا اليوم وتعرف على المزيد حول كيفية Securiti يمكن أن تساعد مؤسستك في نشر الحلول المناسبة والضرورية لتحقيق فعالية AI governance نطاق.
الأسئلة الشائعة (FAQs)
فيما يلي بعض الأسئلة والاستفسارات الأكثر شيوعًا التي قد تكون لديكم بخصوص AI governance :