الإعلان عن Agent Commander - أول حل متكامل من Veeam + Securiti .ai تمكين توسيع نطاق وكلاء الذكاء الاصطناعي الآمنين

منظر

فهم AI Governance نهج استراتيجي للشركات

تشغيل الفيديو
المساهمون

أنس بيج

مدير تسويق المنتجات في Securiti

عمر عمران مالك

Data Privacy مدير الشؤون القانونية، Securiti

FIP، CIPT، CIPM، CIPP/US

نُشر في 14 نوفمبر 2023 / تم التحديث في 4 ديسمبر 2024

ما هو AI Governance ؟

في جوهرها، AI Governance يشير إلى مجموعة محددة من السياسات والممارسات والمبادئ التوجيهية والعمليات والقواعد التي تضعها المنظمة لتنظيم استخدامها الداخلي وتطويرها ونشرها وإدارتها لأدوات وقدرات الذكاء الاصطناعي.

بفضل إطار الحوكمة هذا، يتم تمكين المنظمات من تحقيق الهدف التالي:

يُمكّن إطار AI governance القوي المؤسسات من:

  • تعزيز الشفافية والنزاهة والمساءلة وحماية data privacy في استخدام الذكاء الاصطناعي
  • التأكيد على الإشراف البشري في نقاط اتخاذ القرارات الحاسمة المتعلقة بالذكاء الاصطناعي
  • مواءمة استخدام وتطوير الذكاء الاصطناعي مع المعايير واللوائح الأخلاقية المعمول بها.

يمكن للمنظمة الاستفادة من AI governance إطار عمل لضمان استخدام وتطوير أدوات وآليات الذكاء الاصطناعي بطرق تدفع الكفاءة والابتكار والإنتاجية مع الالتزام بالواجبات المتعلقة بالأخلاقيات والامتثال.

أهمية AI Governance

من الأهمية بمكان بالنسبة للمنظمات أن تفهم لماذا AI governance الأمور مهمة. إليك بعض المجالات الحيوية التي AI governance يمكن أن يكون ذا فائدة هائلة للمنظمة:

أ. الشفافية

لا تزال الشفافية تشكل تحدياً بالغ الأهمية في صناعة الذكاء الاصطناعي. ويكتسب هذا الأمر أهمية خاصة عند الأخذ في الاعتبار أن نماذج الذكاء الاصطناعي نفسها تُعتبر "صندوقاً أسود"، أي أنه يمكن توليد المخرجات من خلال إدخال البيانات، ولكن لا توجد عملياً أي طريقة لمعرفة وفهم المنطق الذي أنتج هذه المخرجات.

AI governance يضمن ذلك حصول المؤسسات على رؤى كاملة وواضحة حول المدخلات التي تُغذّي نماذج الذكاء الاصطناعي. وستساعد الرقابة الدقيقة على هذه المدخلات المؤسسة على تحديد التحيزات والأخطاء وأوجه القصور المحتملة في المخرجات المُولّدة بشكل استباقي.

ويمكن بعد ذلك استخدام هذه المعلومات لاتخاذ إجراءات تصحيحية في الوقت المناسب.

بالنسبة للمؤسسات، سيكون الامتثال القانوني هو الجانب الأكثر تعقيدًا AI Governance تزداد اللوائح تحديداً فيما يتعلق بالالتزامات المتعلقة باستخدام الذكاء الاصطناعي ونشره. ومع ذلك، فإن مجرد فهم المتطلبات التنظيمية لا يكفي. يكمن التحدي الحقيقي في تطبيق الممارسات والآليات المتوافقة مع هذه المتطلبات على مستوى المؤسسة.

قوي AI governance يُمكّن هذا الإطار المؤسسة من العمل ضمن الحدود القانونية والتنظيمية. وتزداد أهمية ذلك مع تسارع تبني الذكاء الاصطناعي في مختلف القطاعات. وتتزايد مخاطر عدم الامتثال التنظيمي مع تعمق دمج الذكاء الاصطناعي في وظائف الشركات.

تُلزم لوائح البيانات الحالية، مثل اللائحة العامة لحماية البيانات (GDPR) وقانون حماية خصوصية المستهلك في كاليفورنيا (CPRA)، المؤسسات بالامتثال فيما يتعلق بجمع البيانات ومعالجتها وتخزينها. ومن المرجح أن تحدد اللوائح العالمية الخاصة بالذكاء الاصطناعي التزامات مماثلة لتجنب العقوبات. AI governance يساعد هذا الإطار على ضمان توافق جميع الأنشطة التنظيمية وأدوات الذكاء الاصطناعي مع القوانين ذات الصلة. AI governance يوفر هذا البرنامج الممارسات والعمليات اللازمة لترسيخ الامتثال في جميع العمليات.

 ج. المساءلة

في عام 2019، تعرضت سيارة تسلا موديل إس لحادث أدى إلى وفاة شخصين. وقد دفع هذا الحادث جامعة نيويورك إلى نشر ورقة بحثية تناقش المسؤولية النهائية عن نتائج الذكاء الاصطناعي.

تستفيد المنظمات في مختلف الصناعات من الذكاء الاصطناعي لأغراض متنوعة.

لذا، ينطوي استخدامها على درجات متفاوتة من المخاطر التي تهدد عامة الناس. دراسة شاملة AI governance يُعد الإطار أمراً حيوياً في مثل هذا السياق لأنه يحدد خطاً واضحاً للمساءلة عن النتائج التي تنتجها أنظمة الذكاء الاصطناعي.

ستمتد هذه المساءلة لتشمل جميع مراحل دورة حياة الذكاء الاصطناعي، من التطوير إلى النشر.

بأخلاقية AI governance من خلال هذا الإطار، يمكن للمنظمات إعطاء الأولوية للاعتبارات الأخلاقية وضمان وجود عملية صارمة على مدار الساعة طوال أيام الأسبوع تعمل على تحسين وظائف الذكاء الاصطناعي وتضمن العدالة والدقة والنتائج التي تتوافق مع مهمتها وقيمها.

د. تخفيف المخاطر

مع AI governance يمكن للمنظمة أن تتبنى تركيزاً قوياً واستباقياً على تحديد وتخفيف العديد من المخاطر المرتبطة بنشر واستخدام الذكاء الاصطناعي.

من تسميم الذكاء الاصطناعي وهجمات تسريب البيانات إلى عمليات الحقن التلقائي وقضايا ملكية البيانات، سيُشكّل استخدام الذكاء الاصطناعي مجموعةً متنوعةً من التحديات للمؤسسات. ويمكن للمؤسسات استخدام أساليب وآليات مختلفة لإدارة بعض هذه المخاطر.

من المرجح أن تتطلب هذه الأساليب من المؤسسات إجراء تقييمات شاملة للمخاطر لتحديد المجالات المحتملة التي تثير القلق، وتنفيذ الاستراتيجيات ذات الصلة كجزء من استراتيجيتها الشاملة. AI governance نطاق.

ونتيجة لذلك، فإن النظام قوي وفعال AI governance يعمل هذا الإطار كحماية قوية ضد المخاطر المحتملة لاستخدام الذكاء الاصطناعي ونشره.

أمثلة على AI Governance

ضع في اعتبارك السيناريوهات التالية.

السيناريو 1

يطبق أحد المستشفيات أداة تشخيصية تعتمد على الذكاء الاصطناعي، تُزوّد ​​الأطباء بمعلومات معمقة حول الحالات الطبية بناءً على الفحوصات الطبية الروتينية. كما تُقدّم هذه الأداة نفسها توصيات بخيارات علاجية ليأخذها الأطباء بعين الاعتبار عند وصف الأدوية.

في أحد الأيام، اقترحت أداة الذكاء الاصطناعي خيارًا علاجيًا غير تقليدي وغير مألوف لم يقنع الطبيب تمامًا. فاستشار زملاءه وشاركهم توصيات أداة الذكاء الاصطناعي. وقد حققت الأداة سجلًا تشغيليًا ممتازًا، ولذلك تردد الأطباء في تجاهل توصياتها.

يُعربون عن مخاوفهم للمدير الطبي للمستشفى وكبير مسؤولي الخصوصية. وفقًا لـ AI governance بعد تطبيق نظام الذكاء الاصطناعي في مستشفاهم، قرروا إجراء تقييم شامل للأداة. وكشف هذا التقييم، بالإضافة إلى التأكد من التحكم السليم في جميع بيانات الإدخال والتدريب وإدارتها، أن أداة الذكاء الاصطناعي قدّمت التوصية بناءً على بيانات غير مكتملة أو قديمة تلقتها عن المريض المعني.

لو لم يكن لدى المستشفى AI governance في حال وجود إطار عمل ينص على أن إحدى الممارسات الموصى بها هي تدقيق أدوات الذكاء الاصطناعي بحثًا عن أخطاء في مجموعات البيانات بانتظام، فقد يكون الطبيب قد مضى قدمًا في توصية العلاج غير الصحيحة، مما يعرض حياة المريض وسلامته للخطر.

السيناريو الثاني

تستخدم مدينة ملاهي شهيرة مساعدين افتراضيين مدعومين بالذكاء الاصطناعي لتحسين تجربة الزوار. ولتحقيق هذه الغاية، يمكن للزوار استخدام المساعدين الافتراضيين للحصول على معلومات فورية حول طول طوابير الانتظار، والمساعدة في التنقل، وخطط رحلات مخصصة.

تسير الأمور على ما يرام لبضعة أشهر، إلى أن يبدأ الزوار، خلال موسم الذروة، بالشكوى من التأخير وعدم دقة الردود من المساعدين الافتراضيين. وبعد التحقيق، تبيّن أن نظام المساعدين الافتراضيين كان بحاجة إلى تعديل ليتناسب مع الطلب المتزايد.

يوصي النظام بتطبيق إجراءات جديدة وميزات خلفية متطورة، مثل تخطيط السعة واختبار التحميل والمراقبة المستمرة، لضمان تحسين أداء المساعدين الافتراضيين للتعامل مع عبء العمل المتزايد دون المساس بدقة استجاباتهم. مع ذلك، تُسبب هذه الخطوات سلسلة غير متوقعة من النفقات التي لم يكن المنتزه الترفيهي مستعدًا لها بشكل كافٍ.

يمثل الموقفان المذكوران آنفاً قطاعين مختلفين تماماً. ومع ذلك، فإن احتمالية تبني الذكاء الاصطناعي متساوية في كليهما. وعلى الرغم من أن استخدام قدرات الذكاء الاصطناعي فيهما قد يكون لأغراض مختلفة، AI governance سيكون الأمر بنفس القدر من الأهمية في كلتا الحالتين. والأهم من ذلك، أن الفشل في فهم هذه التحديات بشكل صحيح قد يؤدي إلى ظهور مشاكل جديدة في المستقبل لا تستطيع المنظمة معالجتها بشكل مناسب.

أي منظمة، في أي قطاع، تعمل على أي نطاق، وتستخدم أدوات وآليات الذكاء الاصطناعي، ستحتاج إلى نظام مناسب بنفس القدر AI governance تم وضع إطار عمل لضمان استمرارها في الاستفادة من الذكاء الاصطناعي بشكل مسؤول.

إن عدم القيام بذلك سيؤدي إلى عدم الكفاءة وعدم القدرة بشكل عام على الاستفادة الكاملة من إمكانات الذكاء الاصطناعي.

AI Governance ضرورة عملية

ضع في اعتبارك السيناريوهات التالية.

السيناريو 1

يطبق أحد المستشفيات أداة تشخيصية تعتمد على الذكاء الاصطناعي، تُزوّد ​​الأطباء بمعلومات معمقة حول الحالات الطبية بناءً على الفحوصات الطبية الروتينية. كما تُقدّم هذه الأداة نفسها توصيات بخيارات علاجية ليأخذها الأطباء بعين الاعتبار عند وصف الأدوية.

في أحد الأيام، اقترحت أداة الذكاء الاصطناعي خيارًا علاجيًا غير تقليدي وغير مألوف لم يقنع الطبيب تمامًا. فاستشار زملاءه وشاركهم توصيات أداة الذكاء الاصطناعي. وقد حققت الأداة سجلًا تشغيليًا ممتازًا، ولذلك تردد الأطباء في تجاهل توصياتها.

يُعربون عن مخاوفهم للمدير الطبي للمستشفى وكبير مسؤولي الخصوصية. وفقًا لـ AI governance بعد تطبيق نظام الذكاء الاصطناعي في مستشفاهم، قرروا إجراء تقييم شامل للأداة. وكشف هذا التقييم، بالإضافة إلى التأكد من التحكم السليم في جميع بيانات الإدخال والتدريب وإدارتها، أن أداة الذكاء الاصطناعي قدّمت التوصية بناءً على بيانات غير مكتملة أو قديمة تلقتها عن المريض المعني.

لو لم يكن لدى المستشفى AI governance في حال وجود إطار عمل ينص على أن إحدى الممارسات الموصى بها هي تدقيق أدوات الذكاء الاصطناعي بحثًا عن أخطاء في مجموعات البيانات بانتظام، فقد يكون الطبيب قد مضى قدمًا في توصية العلاج غير الصحيحة، مما يعرض حياة المريض وسلامته للخطر.

السيناريو الثاني

تستخدم مدينة ملاهي شهيرة مساعدين افتراضيين مدعومين بالذكاء الاصطناعي لتحسين تجربة الزوار. ولتحقيق هذه الغاية، يمكن للزوار استخدام المساعدين الافتراضيين للحصول على معلومات فورية حول طول طوابير الانتظار، والمساعدة في التنقل، وخطط رحلات مخصصة.

تسير الأمور على ما يرام لبضعة أشهر، إلى أن يبدأ الزوار، خلال موسم الذروة، بالشكوى من التأخير وعدم دقة الردود من المساعدين الافتراضيين. وبعد التحقيق، تبيّن أن نظام المساعدين الافتراضيين كان بحاجة إلى تعديل ليتناسب مع الطلب المتزايد.

يوصي النظام بتطبيق إجراءات جديدة وميزات خلفية متطورة، مثل تخطيط السعة واختبار التحميل والمراقبة المستمرة، لضمان تحسين أداء المساعدين الافتراضيين للتعامل مع عبء العمل المتزايد دون المساس بدقة استجاباتهم. مع ذلك، تُسبب هذه الخطوات سلسلة غير متوقعة من النفقات التي لم يكن المنتزه الترفيهي مستعدًا لها بشكل كافٍ.

يمثل الموقفان المذكوران آنفاً قطاعين مختلفين تماماً. ومع ذلك، فإن احتمالية تبني الذكاء الاصطناعي متساوية في كليهما. وعلى الرغم من أن استخدام قدرات الذكاء الاصطناعي فيهما قد يكون لأغراض مختلفة، AI governance سيكون الأمر بنفس القدر من الأهمية في كلتا الحالتين. والأهم من ذلك، أن الفشل في فهم هذه التحديات بشكل صحيح قد يؤدي إلى ظهور مشاكل جديدة في المستقبل لا تستطيع المنظمة معالجتها بشكل مناسب.

أي منظمة، في أي قطاع، تعمل على أي نطاق، وتستخدم أدوات وآليات الذكاء الاصطناعي، ستحتاج إلى نظام مناسب بنفس القدر AI governance تم وضع إطار عمل لضمان استمرارها في الاستفادة من الذكاء الاصطناعي بشكل مسؤول.

إن عدم القيام بذلك سيؤدي إلى عدم الكفاءة وعدم القدرة بشكل عام على الاستفادة الكاملة من إمكانات الذكاء الاصطناعي.

تخفيف المخاطر وإدارة الامتثال

إليك بعض الطرق الشاملة والفعالة AI governance يمكن أن يساعد هذا الإطار في التخفيف من المخاطر والتحديات المختلفة المرتبطة بالاستفادة من قدرات الذكاء الاصطناعي:

أ. توثيق شامل للسياسات والإجراءات

كما سبق شرحه، AI governance هي مجموعة من القواعد والإجراءات والسياسات التي تحدد كيفية استخدام المؤسسة لأنظمة الذكاء الاصطناعي. ومن الطرق الفعالة لتعظيم فوائد هذه السياسات والإجراءات، رسم خرائط شاملة وتوثيق جميع هذه الموارد والأصول.

يجب أن تتضمن هذه الوثائق مخططات تفصيلية لجميع المعايير الأخلاقية والمتطلبات القانونية وإرشادات استخدام البيانات وعمليات صنع القرار وبروتوكولات إدارة المخاطر التي تعتزم المنظمة تنفيذها.

إن القيام بذلك يمكّن المؤسسة من ضمان توافق اختيار أدوات وأنظمة الذكاء الاصطناعي الخاصة بها بشكل كافٍ مع قيمها وسياساتها.

ب. التدريب المنتظم للموظفين

لطالما اعتُبر تنظيم دورات تدريبية وندوات للموظفين بشكل منتظم استراتيجية حاسمة ومثبتة لضمان تجهيز الموظفين بشكل جيد للتعامل مع التهديدات الداخلية.

وينطبق الأمر نفسه عندما يتعلق الأمر بـ AI governance يجب على المنظمات أن تكون استباقية في تنظيم دورات تدريبية منتظمة وجلسات لإطلاع الموظفين على أخلاقيات الذكاء الاصطناعي وممارساته وقواعد النظافة الرقمية التي يجب عليهم اتباعها أثناء استخدام أدوات الذكاء الاصطناعي لضمان توافق استخدامها بشكل صارم مع الاعتبارات الأخلاقية والبروتوكولات التنظيمية المطلوبة.

لا يساعد هذا الموظفين على اتخاذ قرارات مستنيرة عند استخدام أنظمة وأدوات الذكاء الاصطناعي المختلفة فحسب، بل يشجع أيضًا على السلوك المتوافق مع الأخلاقيات في جميع أنحاء المؤسسة.

ج. المساءلة والملكية الواضحتان

يُعدّ تحديد الأدوار والمسؤوليات بوضوح لجميع القرارات المتعلقة بالذكاء الاصطناعي أمرًا بالغ الأهمية لإنشاء سلسلة واضحة للمساءلة والملكية. ويضمن ذلك إمكانية طرح جميع القضايا والمخاوف المتعلقة بالذكاء الاصطناعي على الجهات المعنية والموظفين، مع توفير إرشادات واضحة لربط الأفراد والفرق بالنتائج المتعلقة بالذكاء الاصطناعي.

يؤدي وجود هيكل واضح للمساءلة والملكية إلى زيادة التركيز على الاعتبارات الأخلاقية مع تعزيز امتثال المنظمة للمبادئ التوجيهية الأخلاقية المعمول بها.

د. وضع المبادئ التوجيهية الأخلاقية

كما ذكرنا سابقاً، تختلف متطلبات كل منظمة واستخداماتها لأدوات وقدرات الذكاء الاصطناعي. لذا، ينبغي أن تعكس المبادئ التوجيهية الأخلاقية ذلك.

اعتمادًا على مدى تقلب وحساسية المعلومات التي يمكن لأنظمة الذكاء الاصطناعي الوصول إليها، قد تحتاج المؤسسات إلى وضع مبادئ توجيهية لتطوير واستخدام الذكاء الاصطناعي تحكم كلاً من الموظفين والأنظمة نفسها.

هـ. Data Privacy وآليات الأمن

بصرف النظر عن الذكاء الاصطناعي، data privacy وقد شكّل الأمن أحد المجالات الحيوية الأخرى التي استثمرت فيها المؤسسات موارد كبيرة خلال السنوات القليلة الماضية. ومع تحوّل أنظمة الذكاء الاصطناعي إلى عامل آخر يجب مراعاته في إدارة البيانات، يجب على المؤسسات ضمان امتلاكها لأنظمة قوية وفعّالة. data privacy وآليات أمنية معمول بها لحماية المعلومات التي يمكن الوصول إليها بواسطة أنظمة الذكاء الاصطناعي بشكل كافٍ.

ومع ذلك، لا يزال هذا المجال غير واضح المعالم إلى حد كبير. ستوضح اللوائح القادمة المتعلقة بالذكاء الاصطناعي الالتزامات التشغيلية التي يجب على المؤسسات الوفاء بها عند تحقيق التوازن بين... data privacy باستخدام الذكاء الاصطناعي.

و. إدارة الوصول

إن تطبيق مزيج صارم من ضوابط الوصول ومبدأ أقل الامتيازات (PoLP) ضروري لضمان منح الموظفين الأكثر صلة ونماذج الذكاء الاصطناعي فقط إمكانية الوصول إلى المعلومات الحساسة.

يمكن مراقبة هذا النوع من الوصول في الوقت الفعلي للحماية من أنماط السلوك غير المعتادة التي قد تشير إلى تهديدات داخلية خبيثة أو حالات وصول غير مصرح به. علاوة على ذلك، يمكن مراجعة جميع صلاحيات الوصول على فترات منتظمة تتناسب مع سياق الوصول. يتيح ذلك إجراء تغييرات ديناميكية على صلاحيات الوصول دون تعقيدات إدارية مفرطة.

ز. التحقق من صحة مجموعة البيانات

مهما بلغت فعالية وكفاءة أنظمة الذكاء الاصطناعي، فإن جودتها تعتمد كلياً على جودة مجموعات البيانات التي تُدرَّب عليها. لذا، فإن أدنى مشكلة تتعلق بجودة وسلامة بيانات التدريب قد يكون لها تأثير مدمر على أداء الذكاء الاصطناعي.

لذا، يتعين على المؤسسات تبني عمليات تحقق دقيقة وفي الوقت المناسب من البيانات، حيث يمكن معالجة أي تحيزات أو أخطاء أو شذوذات يتم تحديدها على الفور. ويضمن ذلك جودة مجموعة البيانات، مما يسهم بشكل كبير في دقة المخرجات التي تولدها أنظمة الذكاء الاصطناعي.

ح. سياسة الأتمتة

مع استمرار توسع قدرات ووظائف الذكاء الاصطناعي بوتيرة متسارعة، من المرجح أن تقوم المؤسسات بدراسة وتقييم مدى إمكانية أتمتة عملياتها بشكل مستمر. ويبدو أن الأمر مسألة وقت فقط قبل أن يتم الاستفادة من هذه القدرات في دعم اتخاذ القرارات، حيث تتطلب أنظمة الذكاء الاصطناعي حينها وصولاً واسع النطاق إلى بيانات المؤسسة.

مع ذلك، فإن مجرد تقييد وصول أنظمة الذكاء الاصطناعي إلى البيانات الحساسة يُعدّ إجراءً جزئياً واضحاً. وكما هو الحال مع إدارة الوصول إلى أصول البيانات الحساسة فيما يتعلق بالموظفين داخل المؤسسات، يجب وضع إطار عمل شامل لتحديد أدوات الذكاء الاصطناعي التي ينبغي أن تتمتع بإمكانية الوصول إلى أي بيانات، بالإضافة إلى صلاحياتها المتعلقة باستخدام هذه البيانات.

أولاً: عملية التحقق من صحة البيانات بمشاركة العنصر البشري

على المدى القريب والمتوسط، يجب أن يستمر دور البشر في الإشراف على جميع عمليات صنع القرار في الذكاء الاصطناعي. وهذا أمر بالغ الأهمية، لا سيما بالنسبة للقرارات التي تؤثر على البشر بشكل مباشر، كما ورد في مثال أداة تشخيص الذكاء الاصطناعي الذي سبق ذكره.

ستتيح عملية التحقق التي تتضمن تدخل الإنسان للمنظمة مواصلة أتمتة العمليات ولكن مع إشراف بشري لمراجعة وتجاوز التوصيات والمخرجات التي تم إنشاؤها عندما يتعارض حكمهم مع حكم الذكاء الاصطناعي.

إلى جانب أهميتها الوظيفية، فإنها ستسهل على المؤسسات معالجة بعض المخاوف الأخلاقية المتعلقة باستخدامات الذكاء الاصطناعي، ولا سيما مسألة من يتحمل المسؤولية في حالة حدوث خطأ في الحكم من جانب الذكاء الاصطناعي له عواقب سلبية في الحياة الواقعية.

مستقبل AI Governance

سيستمر تأثير الذكاء الاصطناعي في النمو. وتدرك المنظمات في مختلف القطاعات والصناعات هذا الأمر، وقد استثمرت وقتاً وموارد كبيرة في البحث عن كيفية الاستفادة من هذه القدرات إلى أقصى حد ممكن.

مع ذلك، فإلى جانب تأثير الذكاء الاصطناعي، تتزايد التساؤلات والمخاوف بشأن استخدامه الأخلاقي والمسؤول. وتتفاقم هذه المشكلات نظرًا لأن دخول قوانين تنظيم الذكاء الاصطناعي حيز التنفيذ مسألة وقت، مما يُلقي بمسؤوليات إضافية على عاتق المؤسسات التي تستخدمه.

وبالتالي، الصوت AI governance تزداد أهمية السياسات والأطر التنظيمية. فهي تضمن قدرة المؤسسات على مواصلة الاستفادة القصوى من أدوات وقدرات الذكاء الاصطناعي في الوقت الراهن، والاستعداد التام للامتثال لأي لوائح مستقبلية متعلقة بالذكاء الاصطناعي.

ولهذا الغرض، فإن استكشاف كيفية وضع اللوائح المقترحة الحالية للأسس اللازمة لنشر الذكاء الاصطناعي الأخلاقي وإجراء مقارنات مع القفزات التكنولوجية السابقة، مثل الإنترنت، يمكن أن يساعد المؤسسات على رسم مسار واضح لمواجهة التحديات والفرص.

اللوائح تمهد الطريق

تتزايد قوانين الذكاء الاصطناعي في جميع أنحاء العالم. وكما هو موضح في هذا التقرير، فإن عدداً متزايداً من الدول لديها مشاريع قوانين أو هي بصدد سن تشريعات مماثلة.

يمثل قانون الذكاء الاصطناعي للاتحاد الأوروبي، وقانون الذكاء الاصطناعي والبيانات الكندي (AIDA)، والاستراتيجية الوطنية للذكاء الاصطناعي في الولايات المتحدة أمثلة على الجهود التنظيمية العالمية لوضع مبادئ توجيهية لتطوير الذكاء الاصطناعي واستخدامه وإدارته ونشره بشكل أخلاقي.

من المرجح أن تكون الشفافية وقابلية التفسير مبدأً أساسياً في جميع هذه اللوائح، مما يوفر للمؤسسات خارطة طريق حول كيفية تطوير وتطبيق التدابير المناسبة لتلبية متطلبات تنظيمية معينة من شأنها أن تعزز الثقة بين المستخدمين وأصحاب المصلحة والجمهور.

بالإضافة إلى ذلك، من المرجح أن تتعامل المؤسسات التي تستخدم قدرات الذكاء الاصطناعي مع كميات هائلة من البيانات، مما يعني أنها ستخضع أيضاً للعديد من اللوائح العالمية المتعلقة بالبيانات. وفي هذه الحالة، يكون الإطار التنظيمي أكثر رسوخاً نسبياً، مما يمنح المؤسسات فكرة أوضح بكثير عن كيفية التصرف لضمان استخدام البيانات بما يتوافق مع اللوائح.

دروس من الماضي

AI governance هذا أمر مهم. المنظمات تدرك ذلك. التحدي الحقيقي هو كيفية إنشاء AI governance إطار عمل فعال وأخلاقي على المدى القريب والبعيد. وكما ذكرنا سابقاً، ستدخل اللوائح المتعلقة بالذكاء الاصطناعي حيز التنفيذ قريباً.

مع ذلك، لا يمكن للمؤسسات أن تتبنى نهج "الانتظار والترقب". فمعظم المؤسسات تستفيد الآن من أدوات وقدرات الذكاء الاصطناعي، مما يعني أن جهودها لإنشاء وتبني AI governance يجب أن يبدأ وضع الإطار الآن أيضاً.

في مثل هذا السيناريو، قد يكون استخلاص الدروس من الماضي مفيدًا للغاية. فالتأمل في الصعود الصاروخي للإنترنت يمنح المؤسسات منظورًا فريدًا لفهم كيف ستتطور ثورة الذكاء الاصطناعي الحالية في نهاية المطاف.

في نهاية المطاف، وكما هو الحال مع الذكاء الاصطناعي، عندما دخل الإنترنت إلى هذا المجال، لم تكن هناك أي لوائح شاملة، مما أدى إلى وقوع العديد من المنظمات ضحية للجرائم الإلكترونية، ونقاط الضعف في البيانات، وانتهاكات الخصوصية أثناء خوضها في المناطق الرقمية المجهولة.

غالباً ما كانت لهذه التحديات عواقب وخيمة على المؤسسات، حيث تكبدت خسائر مالية وتشويهاً لسمعتها. ومع ذلك، أدركت المؤسسات مع مرور الوقت أهمية وجود فرق متخصصة من الخبراء لدراسة المخاطر المحتملة التي تواجهها بنيتها الرقمية دراسة شاملة، وتحديد المشكلات الأكثر إلحاحاً، ومعالجتها.

كان هذا قبل الأخذ في الاعتبار اللوائح المختلفة المتعلقة بالإنترنت التي دخلت حيز التنفيذ، مثل قانون حماية خصوصية الأطفال على الإنترنت ( COPPA )، وقانون قابلية نقل التأمين الصحي والمساءلة ( HIPAA )، وقانون غرام-ليتش-بليلي ( GLBA )، على سبيل المثال لا الحصر.

تناولت كل واحدة من هذه القضايا صناعة محددة، حيث كان لدى المنظمات المعنية قائمة واضحة بالالتزامات التنظيمية التي من شأنها أن تضمن ليس فقط وجود أفضل الممارسات والآليات والأدوات لضمان الامتثال، ولكن أيضًا تؤدي إلى رؤية موحدة داخل الصناعة حول أفضل السبل لإدارة عملياتها اليومية أثناء استخدام الإنترنت.

فيما يتعلق بالذكاء الاصطناعي، لا داعي لتغيير السيناريو كثيرًا. توضح العديد من أفضل الممارسات المذكورة سابقًا كيف يمكن للمؤسسة أن تتبنى نهجًا استباقيًا لتطوير نظام داخلي. AI governance الإطار. عندما تدخل اللوائح الملموسة حيز التنفيذ، فإنها ستوفر مزيدًا من الوضوح، ويمكن للمنظمات تكييف ممارساتها وفقًا للإرشادات التنظيمية.

كيف Securiti هل يمكن المساعدة؟

لقد برز الاستخدام المسؤول لقدرات الذكاء الاصطناعي كهدف استراتيجي حيوي للمنظمات التي بدأت في استخدام هذه القدرات في عملياتها.

ومع ذلك، ونظرًا للكم الهائل من البيانات، بدأت المنظمات تدرك أن الطريقة الأكثر فعالية وكفاءة لإنشاء بيانات موثوقة هي AI governance يتم ذلك من خلال الاستفادة من الأتمتة.

هذا هو المكان Securiti يمكن أن يكون ذلك مفيدًا للغاية.

Securiti هو رائد في Data Command Center هي منصة مركزية توفر معلومات سياقية وضوابط وتنسيقًا للاستخدام الآمن للبيانات والذكاء الاصطناعي. وتعتمد عليها المؤسسات العاملة في مختلف الصناعات والقطاعات وعلى نطاقات متفاوتة. Securiti لتوفير ضوابط موحدة لأمن البيانات والخصوصية والحوكمة والامتثال عبر بيئات السحابة المتعددة الهجينة.

ال Securiti مركز قيادة البيانات هو حل مؤسسي قائم على Data Command Center إطار عمل. يسمح هذا الإطار للمؤسسات بتحسين عمليات الرقابة والامتثال لجميع المعايير العالمية الرئيسية data privacy واللوائح المتعلقة بالذكاء الاصطناعي.

تتيح وحدة التحكم في البيانات للمؤسسات الوصول إلى وحدات ومنتجات حيوية تساعد على ضمان الامتثال لمختلف الالتزامات التنظيمية. على سبيل المثال، تمكّن وحدة إشعار الخصوصية المؤسسات من امتلاك نظام ديناميكي privacy policy وهذا يعكس أحدث ممارساتهم في جمع البيانات ومعالجتها. بالإضافة إلى ذلك، توفر وحدة DSR automation رؤى شاملة ومتعمقة مرتبطة بجميع طلبات بيانات المستخدم لضمان تلبية هذه الطلبات وفقًا للمتطلبات التنظيمية.

اطلب عرضًا تجريبيًا اليوم وتعرف على المزيد حول كيفية Securiti يمكن أن تساعد مؤسستك في نشر الحلول المناسبة والضرورية لتحقيق فعالية AI governance نطاق.

الأسئلة الشائعة (FAQs)

فيما يلي بعض الأسئلة والاستفسارات الأكثر شيوعًا التي قد تكون لديكم بخصوص AI governance :

AI governance ستزداد أهميتها بالتوازي مع انتشار استخدامها التجاري الواسع. ستحتاج المنظمات إلى إنشاء وصيانة وتحديث ومتابعة AI governance إطار عمل يملي ويحدد مدى جدوى استخدامهم لقدرات الذكاء الاصطناعي من الناحية الأخلاقية والعملية.

والأهم من ذلك، كما ذُكر سابقاً، أن استخدام الذكاء الاصطناعي ينطوي على العديد من التحديات الحاسمة. AI governance يمثل هذا الإطار أفضل الممارسات التشغيلية لضمان تحقيق المؤسسات توازناً حاسماً بين المخاطر والفوائد المتوقعة من استخدام الذكاء الاصطناعي.

ستحتاج مختلف القطاعات التي قد تستفيد من الذكاء الاصطناعي إلى مراجعة وتكييف نفسها AI governance يعتمد ذلك على اعتبارات متعددة. ومن أهم هذه الاعتبارات مدى تأثير استخدام قدرات الذكاء الاصطناعي على البشر. فعلى سبيل المثال، يُستخدم الذكاء الاصطناعي في قطاع الرعاية الصحية لتحديد أفضل مسار للعلاج، وتُناقش حاليًا علاجات المرضى كأحد تطبيقاته في هذا المجال.

في الوقت نفسه، مقارنةً باستخدامه في الرعاية الصحية، قد لا يُمثّل الذكاء الاصطناعي تحديًا كبيرًا عند استخدامه في مدن الملاهي كوسيلة للأفراد أو العائلات لتحديد أفضل جدول زمني لاستغلال وقتهم على النحو الأمثل. والأهم من ذلك، سيتضح تأثيره بشكل أكبر ويصبح أقل غموضًا بمجرد أن تبدأ مختلف القطاعات في الاستفادة من قدرات الذكاء الاصطناعي.

تتعدد مسارات تطور الذكاء الاصطناعي، ويُعتبر توظيف قدراته في عمليات صنع القرار في الشركات والحكومات مسألة وقت. وعندها، سيُفترض وجود مجموعة متكاملة من المبادئ التوجيهية والعمليات والآليات، بالإضافة إلى آليات وقائية متعددة، لضمان الاستفادة القصوى من جميع قدرات الذكاء الاصطناعي ضمن إطار محدد. AI governance عند هذه النقطة، سيصبح الأمر بمثابة نظام راسخ، ومن المرجح أن يتم فرضه من خلال الالتزامات التنظيمية.

تتضمن حوكمة نماذج الذكاء الاصطناعي التنسيق بين السياسات والأطر والعمليات لضمان استمرار المؤسسة في استخدامها المسؤول للذكاء الاصطناعي داخليًا، مع إدارة جميع المخاطر المرتبطة به، مثل التحيز وانتهاكات الخصوصية والمخاوف الأخلاقية. تفرض بعض اللوائح متطلبات محددة لأنواع معينة من نماذج الذكاء الاصطناعي، لذا فإن حوكمة نماذج الذكاء الاصطناعي تُعدّ مفيدة للمؤسسات في الالتزام بهذه المتطلبات مع الحفاظ على المساءلة والشفافية والموثوقية في تطبيقات الذكاء الاصطناعي لديها.

يُعدّ الذكاء الاصطناعي مجالاً ديناميكياً إلى حد كبير، حيث تؤدي التطورات المستمرة إلى تغييرات مستمرة في كل من قدرات الذكاء الاصطناعي ومخاطره المحتملة. ومع ذلك، فإن جميع المجالات الرئيسية تقريباً data privacy تتضمن اللوائح العالمية، مثل اللائحة العامة لحماية البيانات (GDPR) وقانون حماية خصوصية المستهلك في كاليفورنيا (CPRA) وقانون الخصوصية لعام 1988 وقانون حماية المعلومات الشخصية والوثائق الإلكترونية (PIPEDA)، متطلبات تتعلق باستخدام الذكاء الاصطناعي في سياق أنشطة معالجة البيانات. علاوة على ذلك، تعمل معظم الدول على تطوير لوائح خاصة بالذكاء الاصطناعي، مثل قانون الذكاء الاصطناعي للاتحاد الأوروبي، والذي يُلزم المؤسسات بوضع أطر إدارة مخصصة للذكاء الاصطناعي لضمان توافق استخدامه مع المعايير والقيم الاجتماعية والأخلاقية.

بينما قد تنظر معظم المنظمات AI governance على الرغم من كونها مجرد متطلب تنظيمي، إلا أنها قد تكون بالغة الأهمية إذا نُظر إليها كأداة حيوية كغيرها. فوجود مجموعة واضحة من السياسات التي تُنظم تطوير ونشر ومراقبة أنظمة الذكاء الاصطناعي بشكل مستمر، يضمن هيكل حوكمة موثوقًا، حيث يكون كل فرد على دراية تامة بدوره ومسؤولياته. علاوة على ذلك، تضمن عمليات التدقيق والتقييم المنتظمة الامتثال للمتطلبات التنظيمية، مع مراعاة احتياجات وتوقعات ومساهمات جميع الجهات المعنية الرئيسية، مثل الخبراء القانونيين والفنيين والأخلاقيين.

قم بتحليل هذه المقالة باستخدام الذكاء الاصطناعي

تظهر المطالبات في أدوات الذكاء الاصطناعي التابعة لجهات خارجية.
انضم إلى قائمتنا البريدية

احصل على أحدث المعلومات والتحديثات القانونية والمزيد مباشرةً في بريدك الإلكتروني



قصص أخرى قد تهمك
مقاطع فيديو
عرض المزيد
ريحان جليل، من شركة Veeam، يتحدث عن Agent Commander: theCUBE + NYSE Wired: قادة الأمن السيبراني
بعد استحواذ شركة Veeam على Securiti يمثل إطلاق برنامج Agent Commander خطوة هامة نحو مساعدة المؤسسات على تبني وكلاء الذكاء الاصطناعي بثقة أكبر. في...
عرض المزيد
تخفيف مخاطر قائمة OWASP لأهم 10 مخاطر لتطبيقات ماجستير القانون 2025
أحدث الذكاء الاصطناعي التوليدي (GenAI) تحولاً جذرياً في طريقة عمل الشركات وتوسعها ونموها. يوجد تطبيق للذكاء الاصطناعي لكل غرض، بدءاً من زيادة إنتاجية الموظفين وصولاً إلى تبسيط العمليات...
عرض المزيد
أفضل 6 DSPM حالات الاستخدام
مع ظهور الذكاء الاصطناعي التوليدي (GenAI)، أصبحت البيانات أكثر ديناميكية. يتم توليد بيانات جديدة بوتيرة أسرع من أي وقت مضى، ونقلها إلى أنظمة وتطبيقات متنوعة...
عرض المزيد
قانون الخصوصية في كولورادو (CPA)
ما هو قانون خصوصية كولورادو؟ قانون خصوصية كولورادو هو قانون شامل لحماية الخصوصية، تم توقيعه في 7 يوليو 2021. وقد وضع معايير جديدة لحماية البيانات الشخصية...
عرض المزيد
Securiti لمساعد الطيار في البرمجيات كخدمة (SaaS)
تسريع اعتماد Copilot بأمان وثقة: تتطلع المؤسسات إلى اعتماد Microsoft 365 Copilot لزيادة الإنتاجية والكفاءة. ومع ذلك، تظل المخاوف الأمنية، مثل حماية البيانات...
عرض المزيد
أهم عشرة اعتبارات لاستخدام البيانات غير المهيكلة بأمان مع الذكاء الاصطناعي العام
نسبة مذهلة تصل إلى 90% من بيانات المؤسسات غير منظمة. وتُستخدم هذه البيانات بسرعة لتغذية تطبيقات الذكاء الاصطناعي من الجيل الجديد، مثل روبوتات الدردشة والبحث المدعوم بالذكاء الاصطناعي.
عرض المزيد
جينكور للذكاء الاصطناعي: بناء أنظمة ذكاء اصطناعي آمنة وعالية الجودة للمؤسسات في دقائق
مع تبني المؤسسات للذكاء الاصطناعي التوليدي، تواجه فرق البيانات والذكاء الاصطناعي العديد من العقبات: ربط مصادر البيانات غير المهيكلة والمهيكلة بشكل آمن، والحفاظ على الضوابط والحوكمة المناسبة،...
عرض المزيد
كيفية التعامل مع قانون حماية خصوصية المستهلك في كاليفورنيا: رؤى أساسية للشركات
ما هو قانون حقوق الخصوصية في كاليفورنيا (CPRA)؟ هو تشريع ولاية كاليفورنيا الذي يهدف إلى حماية خصوصية سكانها الرقمية. وقد دخل حيز التنفيذ في يناير...
عرض المزيد
التكيف مع التحول: الانتقال إلى معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS) الإصدار 4.0
ما هو معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS)؟ هو مجموعة من معايير الأمان لضمان المعالجة والتخزين الآمنين للبيانات، و...
عرض المزيد
تأمين البيانات والذكاء الاصطناعي: دليل إدارة الثقة والمخاطر والأمن (TRiSM)
أثارت المخاطر الأمنية المتزايدة للذكاء الاصطناعي قلق 48% من مسؤولي أمن المعلومات حول العالم. انضموا إلى هذه الجلسة الرئيسية للتعرف على دليل عملي لتمكين الثقة في الذكاء الاصطناعي، وإدارة المخاطر،...

جلسات حوارية مميزة

تسليط الضوء
الاستعداد للمستقبل لمحترفي الخصوصية
شاهد الآن منظر
تسليط الضوء 50:52
من البيانات إلى النشر: حماية الذكاء الاصطناعي المؤسسي من خلال الأمن والحوكمة
شاهد الآن منظر
تسليط الضوء 11:29
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
شاهد الآن منظر
تسليط الضوء 11:18
إعادة هيكلة تمويل العقارات - كيف تُجري شركة ووكر آند دنلوب تحديثًا لمحفظتها الاستثمارية البالغة 135 مليار دولار أمريكي بالاعتماد على البيانات أولاً
شاهد الآن منظر
تسليط الضوء 13:38
تسريع المعجزات - كيف تُدمج شركة سانوفي الذكاء الاصطناعي لتقليص مدة تطوير الأدوية بشكل كبير
صورة مصغرة لشركة سانوفي
شاهد الآن منظر
تسليط الضوء 10:35
حدث تحول جوهري في مركز ثقل البيانات
شاهد الآن منظر
تسليط الضوء 14:21
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
شاهد الآن منظر
تسليط الضوء 12:!3
لا يمكنك بناء خطوط الأنابيب أو المستودعات أو منصات الذكاء الاصطناعي بدون معرفة تجارية
شاهد الآن منظر
تسليط الضوء 47:42
الأمن السيبراني – حيث يقوم القادة بالشراء والبناء والشراكة
ريحان جليل
شاهد الآن منظر
تسليط الضوء 27:29
بناء ذكاء اصطناعي آمن باستخدام Databricks و Gencore
ريحان جليل
شاهد الآن منظر
أحدث
عرض المزيد
بناء ذكاء اصطناعي سيادي باستخدام HPE Private Cloud AI و Veeam Securiti Gencore AI
كيف تُساهم تقنيات الذكاء الاصطناعي في السحابة الخاصة من HPE، وتسريع NVIDIA، وVeeam؟ Securiti يدعم نظام Gencore AI الذكاء الاصطناعي الآمن والمُدار للمؤسسات مع تطبيق السياسات عبر سير العمل RAG والمساعدين والوكلاء.
عرض المزيد
Securiti أعلنت شركة .ai عن اختيار شركة أكسنتشر كشريك العام لعام 2025
في إطار الاحتفال المستمر بالتعاون المؤثر في DataAI Security ، Securiti منحت شركة .ai، التابعة لشركة Veeam، شركة Accenture لقب شريك العام لعام 2025....
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ قانون حماية خصوصية المستهلك في كاليفورنيا؟ عرض المزيد
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ القانون؟
يمكن للشركات أن تستفيد من بعض الدروس الحيوية من أكبر إجراء إنفاذي تم اتخاذه مؤخراً في تاريخ قانون خصوصية المستهلك في كاليفورنيا (CCPA). Securiti مدونة 's تغطي جميع التفاصيل المهمة التي يجب معرفتها.
عرض المزيد
الذكاء الاصطناعي وقانون HIPAA: ما يعنيه وكيفية أتمتة الامتثال
تعرّف على كيفية تطبيق قانون قابلية نقل التأمين الصحي والمساءلة (HIPAA) على الذكاء الاصطناعي في تأمين المعلومات الصحية المحمية. تعلّم كيف...
عرض المزيد
قلل من المعلومات التي تكشفها: ضوابط الخصوصية للذكاء الاصطناعي Agents and Copilots
تقليل انكشاف البيانات في الذكاء الاصطناعي agents and copilots قم بتطبيق ضوابط حماية الخصوصية مثل تقليل البيانات، وضوابط الوصول، وإخفاء البيانات، وإنفاذ السياسات لمنع التسريب و...
عرض المزيد
من وضوح البيانات إلى سرعة الذكاء الاصطناعي
اطلع على الورقة البيضاء واكتشف كيف يتم توحيد DataAI security يحوّل إدارة البيانات إلى عامل تمكين للأعمال، ويعزز ابتكار الذكاء الاصطناعي من خلال الشفافية والامتثال وإدارة المخاطر...
عرض المزيد
قائد العملاء: ملخص الحل
تعرّف على كيفية قيام Agent Commander باكتشاف وكلاء الذكاء الاصطناعي، وحماية بيانات المؤسسة من خلال ضوابط التشغيل، وتصحيح أخطاء الذكاء الاصطناعي - مما يتيح اعتماد الذكاء الاصطناعي بشكل آمن ومتوافق مع المعايير في...
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti عرض المزيد
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti
التزم بتعديلات قانون خصوصية المستهلك في كاليفورنيا لعام 2026 باستخدام Securiti وتشمل هذه المتطلبات تحديث متطلبات الموافقة، وتوسيع تعريفات البيانات الحساسة، وتعزيز حقوق المستهلك، وتقييمات الجاهزية.
عرض المزيد
تخلص من مخاطر البيانات في الذكاء الاصطناعي
تعرف على كيفية إعداد بيانات المؤسسة لاعتماد Gemini Enterprise بشكل آمن من خلال الحوكمة الأولية، واكتشاف البيانات الحساسة، وضوابط سياسة ما قبل الفهرسة.
عرض المزيد
دليل الحصول على شهادة HITRUST
Securiti يُعد الكتاب الإلكتروني دليلاً عملياً للحصول على شهادة HITRUST، ويغطي كل شيء بدءاً من اختيار i1 مقابل r2 ونطاق الأنظمة وصولاً إلى إدارة خطط العمل والتخطيط...
ما هو
جديد