سواء أعجبك ذلك أم لا، فإن الذكاء الاصطناعي موجود في كل مكان، وهو باقٍ لا محالة. خدمة العملاء، والمالية، والموارد البشرية، وتصميم المنتجات، والتسويق، وحتى الاستراتيجية، كلها مجالات تحتل الذكاء الاصطناعي مكانة مركزية في عملية صنع القرار الحاسمة داخل المؤسسات في جميع الأقسام الرئيسية. وهو مُدمج في سير العمل التنظيمي، ويستمر في التوسع رغم وجود مشكلات مثل " الذكاء الاصطناعي الخفي ".
مع ذلك، لا يمكن للمؤسسات أن تتكتم على استخدامها للذكاء الاصطناعي أمام مستخدميها أو شركائها أو الجهات التنظيمية. إذ يُفضّل 85% من العملاء المؤسسات التي تتسم بالشفافية فيما يتعلق بأنظمة الذكاء الاصطناعي لديها، مما يجعل نشر أنظمة ذكاء اصطناعي موثوقة جزءًا أساسيًا من عملية تبني الذكاء الاصطناعي برمتها.
يُبرز هذا أهمية الثقة في نظر المستخدمين عند تحديد مدى شعورهم بالاطمئنان والأمان تجاه نظام الذكاء الاصطناعي الخاص بالمؤسسة. هذه الثقة هي الأساس الذي سيعتمد عليه التوسع المستقبلي في تبني هذا النظام وزيادة قيمته التجارية.
لم يعد الذكاء الاصطناعي الجدير بالثقة، أي الذكاء الاصطناعي الموثوق والشفاف والعادل والآمن والمتوافق، خيارًا، بل أصبح مسؤولية تقع على عاتق المؤسسات التي ترغب في توسيع نطاق هذه القدرات بشكل مستدام.
كشفت دراسة "تدرجات الجنس" الرائدة للدكتورة جوي بولامويني كيف أن معظم أنظمة التعرف على الوجوه التجارية، التي تستفيد من أحدث تقنيات الذكاء الاصطناعي، تُصنّف النساء ذوات البشرة الداكنة بشكل خاطئ بنسبة تصل إلى 34-47%، مقارنةً بنسبة تقل عن 1% للنساء ذوات البشرة الفاتحة. ويعود هذا التفاوت إلى التحيز المتأصل في مجموعات بيانات التدريب لهذه الأنظمة، مما يُفاقم هذا التحيز عند استخدامها. هذه مجرد واحدة من أمثلة عديدة تُؤكد حقيقة أنه بدون ضوابط حوكمة مناسبة، حتى أبسط استخدامات الذكاء الاصطناعي قد تُؤدي إلى مخاطر قانونية وسمعية.
أكدت دراسة حديثة أجرتها شركة KPMG على أهمية الثقة في الذكاء الاصطناعي، إذ كشفت أن 66% من الناس يستخدمون الذكاء الاصطناعي بانتظام، ومن بينهم 83% يُقرّون بفوائده، بينما 46% فقط يثقون فعلياً بأنظمة الذكاء الاصطناعي، وهو ما يُمثّل أيضاً أكبر عائق أمام استخدامهم له. ويُشير هذا إلى أنه على الرغم من نجاح المؤسسات في حثّ المستخدمين على استخدام أنظمة الذكاء الاصطناعي الخاصة بها، إلا أن ذلك لا يُترجم بالضرورة إلى ثقة حقيقية في هذه الأنظمة.
تابع القراءة لمعرفة المزيد حول سبب وجوب أن يكون الذكاء الاصطناعي الجدير بالثقة أولوية قصوى للمؤسسات، ومبادئه الأساسية، والتحديات الرئيسية التي قد تواجهها عند تطوير ونشر هذا النوع من الذكاء الاصطناعي.
المبادئ الأساسية للذكاء الاصطناعي الجدير بالثقة
الشفافية وقابلية التفسير
يهدف مبدأ الشفافية وقابلية التفسير إلى تمكين أصحاب المصلحة الرئيسيين، بمن فيهم الجهات التنظيمية والعملاء والموظفون الداخليون، من فهم كيفية عمل أنظمة الذكاء الاصطناعي ووظائفها وقراراتها. ويُعدّ هذا جانبًا بالغ الأهمية في كيفية اكتساب مُشغّلي أنظمة الذكاء الاصطناعي للثقة . في المؤسسات، يتطلب ذلك توثيق مصادر البيانات المستخدمة في عملية التدريب، وتصميم النموذج، والتحقق من صحته، بالإضافة إلى منطق اتخاذ القرار الذي يمكن تفسيره بطرق تقنية وغير تقنية. يختبر مُزوّدو النماذج الرائدة نماذجهم وفقًا لمعايير الصناعة ويُتيحون هذه المعلومات للجمهور. ويمكن عرض أدوات مثل بطاقات النماذج ولوحات معلومات قابلية التفسير بشكل مرئي. وقد فرضت بعض اللوائح استخدام بطاقات النماذج لمساعدة المؤسسات على إيصال التفاصيل الحيوية حول قدرات الذكاء الاصطناعي لديها دون المساس بالملكية الفكرية الحساسة.
يُعدّ ضمان مبادئ الشفافية والوضوح أمرًا بالغ الأهمية لتحقيق الجاهزية التقنية لإدارة المخاطر والامتثال لقانون الذكاء الاصطناعي. في حال وقوع الأسوأ، يجب أن تمتلك المؤسسة الآليات والإجراءات المناسبة لتحديد الخطأ بدقة، والأهم من ذلك، إيجاد الوسائل الأكثر فعالية وكفاءة لحل تلك المشكلات.
وأخيراً، يجب أن تمتلك المنظمات الأدوات اللازمة لإثبات فعالية الآليات والعمليات المذكورة أعلاه للأفراد العاديين كوسيلة لإثبات عدالة الأنظمة ومسؤوليتها.
المساءلة والحوكمة
بغض النظر عن مدى كفاءة أو قدرة نموذج الذكاء الاصطناعي، لا يمكن محاسبته. في الوقت الراهن، تبقى المسؤولية محصورة في المجال البشري، مما يستلزم وجود هياكل AI governance تتضمن أدوارًا ومسؤوليات واضحة، وبروتوكولات تصعيد فعّالة. ويتطلب ذلك جهودًا تعاونية مكثفة بين الفرق القانونية وفرق علوم البيانات وفرق الأمن السيبراني لوضع بروتوكولات تراقب أداء النموذج ومعاييره الأخلاقية.
يتضمن ذلك أيضاً تطبيق سجلات التدقيق وإعداد تقارير الامتثال ذات الصلة. ويمكن للمؤسسات الاستفادة من أطر عمل مثل إطار إدارة مخاطر الذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتكنولوجيا (NIST AI RMF) أو معيار ISO/IEC 42001 لتوحيد ممارسات الحوكمة الخاصة بها عبر مسارات سير العمل لمختلف الإدارات في مختلف المناطق.
العدالة والمساواة
يُعدّ الإنصاف والعدالة أساس الثقة. يجب على أي منظمة ترغب في كسب ثقة المستخدمين في أنظمة الذكاء الاصطناعي الخاصة بها أن تضمن خضوع هذه النماذج للمبادئ المذكورة آنفًا. فقبل أي عامل آخر، تُبنى إدراك المستخدمين وثقتهم الشاملة في أي نظام على عدة عوامل. وتتحدد ثقتهم بناءً على مدى شفافية نظام الذكاء الاصطناعي، وقابليته للتفسير، ومساءلته، وعدالته، بالإضافة إلى كيفية استخدام النموذج للبيانات التي جمعوها، ومدى تحكمهم في مختلف جوانب نموذج الذكاء الاصطناعي.
يجب على المؤسسات السعي لضمان أن تعكس أنظمة الذكاء الاصطناعي لديها خصائص العدالة والإنصاف. ولأن نماذج الذكاء الاصطناعي ترث وتُضمّن أي تحيزات موجودة في مجموعات بيانات التدريب الخاصة بها، فإن الطريقة الأكثر فعالية لتحقيق ذلك هي من خلال مقاييس تقيّم تحيز النموذج في عملية تقييم النموذج، وكذلك في عملية اختبار التطبيق.
الخصوصية وحماية البيانات
تعتمد أنظمة الذكاء الاصطناعي على كميات هائلة من البيانات، بما في ذلك بيانات العملاء والمعاملات وغيرها من البيانات التي قد تكون حساسة . تُعدّ هذه البيانات بالغة الأهمية لأنظمة الذكاء الاصطناعي لاستخلاص الرؤى وتحسين كفاءة العمليات، إلا أنها تُثير في الوقت نفسه قضايا تتعلق بالخصوصية وحماية البيانات ، وعلى رأسها تسريب البيانات الحساسة. يجب على المؤسسات اتخاذ التدابير المناسبة لضمان تعامل نماذج الذكاء الاصطناعي الخاصة بها مع البيانات المحمية بموجب لوائح مثل اللائحة العامة لحماية البيانات (GDPR) وقانون حماية خصوصية المستهلك في كاليفورنيا (CPRA) وقانون الذكاء الاصطناعي للاتحاد الأوروبي . تُسهم أدوات وتقنيات مثل التعلم الموحد والخصوصية التفاضلية وإخفاء هوية البيانات في الحد من مخاطر الكشف غير الضروري عن البيانات.
بالإضافة إلى ذلك، يمكن للمؤسسات دمج مبدأ الخصوصية في تصميم عمليات تطوير الذكاء الاصطناعي لديها لتقليل احتمالية اختراق البيانات بشكل كبير، مع تعزيز وضعها التنظيمي في الوقت نفسه. غالباً ما يكون هذا عاملاً حاسماً للعملاء عند اختيار الموردين والشركاء، لا سيما في القطاعات التي تخضع لتدقيق تنظيمي مكثف.
الرقابة البشرية والتحكم
يمكن أن تشكل الرقابة البشرية مصدراً هائلاً لتعزيز الثقة في أنظمة الذكاء الاصطناعي. علاوة على ذلك، فهي تضمن بقاء هذه الأنظمة أدوات داعمة وليست بديلاً عن الحكم البشري. لذا، يجب على المؤسسات النظر في تطبيق نقاط تفتيش تتيح للبشر مراجعة القرارات التي يتخذها الذكاء الاصطناعي والتحقق منها، وتجاوزها عند الضرورة، لا سيما في المواقف بالغة الأهمية كالإقراض والرعاية الصحية وإنفاذ القانون.
يعتمد هذا المبدأ على ثقة الموظفين والعملاء من خلال الحفاظ على نهج وجود عنصر بشري في العملية، حيث تمتلك المؤسسات آليات للتدخل إذا تصرف نموذج الذكاء الاصطناعي بشكل غير متوقع، مع ضمان مرونته لتسهيل ثقافة المساءلة المستقبلية مع نماذج الذكاء الاصطناعي.
تحديات تحقيق الذكاء الاصطناعي الجدير بالثقة
تعقيد وغموض أنظمة الذكاء الاصطناعي
تتميز أنظمة الذكاء الاصطناعي الحديثة بقوتها الهائلة، إذ بُنيت على طبقات من قدرات "التعلم العميق" التي تستطيع استخلاص رؤى قيّمة من البيانات دون الحاجة إلى برمجة صريحة. ورغم كفاءتها العالية، تُوصف هذه الأنظمة غالبًا بأنها "صناديق سوداء" لصعوبة فهم آليات عملها الداخلية وعمليات اتخاذ القرار فيها. ويُشكل هذا التعقيد عائقًا أمام المؤسسات في شرح نتائجها للجهات التنظيمية والعملاء والموظفين. وقد يكون هذا الأمر إشكاليًا بشكل خاص في الحالات التي تتطلب اتخاذ قرارات مصيرية، مثل تقييم الجدارة الائتمانية أو التشخيص الطبي، مما يُبرز كيف يُمكن أن يُؤدي عدم الفهم الكامل لمخرجات النموذج إلى تقويض الثقة العامة والقدرة على التكيف.
ولحل هذه المشكلة، يجب على الشركات التفكير في الاستثمار في الأدوات والأساليب التي تُحسّن من سهولة فهم البيانات دون المساس بالأداء. قد يتطلب تطبيق هذه الحلول على نطاق واسع موارد كبيرة، وكفاءات متخصصة، وتعاونًا مستمرًا بين مختلف الأقسام والوظائف.
تحديد التحيز والحد منه
قد يتسلل التحيز إلى نظام الذكاء الاصطناعي في مراحل مختلفة، بدءًا من جمع البيانات الأولية وصولًا إلى النشر الخوارزمي النهائي. علاوة على ذلك، لا يُكتشف هذا التحيز إلا بعد نشر النموذج ووقوع الضرر بالفعل. بل إن أنظمة الذكاء الاصطناعي نفسها قد تعزز التحيز، مما يؤدي إلى حلقة مفرغة.
يُعدّ اكتشاف التحيز والحدّ منه تحديًا كبيرًا بحد ذاته، إذ يتطلب من المؤسسات معالجة العديد من القضايا الدقيقة والمتغيرة بحسب السياق في آنٍ واحد. ولتحقيق ذلك، تحتاج المؤسسات إلى تدقيق دوري للتحيز في نماذجها وأنظمتها. مع ذلك، ولضمان تحقيق هذه الممارسة للنتائج المرجوة، يُعدّ الصبر عنصرًا أساسيًا، وهو أمر يصعب على معظم المؤسسات تحمّله في بيئات العمل السريعة التي يهيمن عليها عامل سرعة الوصول إلى السوق.
الموازنة بين الشفافية والملكية الفكرية
تُعدّ الشفافية جوهر الذكاء الاصطناعي الجدير بالثقة. مع ذلك، يجب على الشركات مراعاة المخاطر المحتملة للإفصاح الكامل. غالبًا ما تُفضّل المؤسسات توثيقًا غامضًا لمعالجة هذا الوضع، مما يؤدي إلى تفسيرات غير مكتملة أو سطحية لعملياتها، لا ترقى إلى مستوى توقعات أصحاب المصلحة ولا إلى المتطلبات التنظيمية.
لضمان التوازن الأمثل، يُفضّل أن تتبنى المؤسسات نهجًا متدرجًا للشفافية. تُتاح الشروحات التقنية الشاملة فقط للجهات التنظيمية التي تلتزم بدورها بمتطلبات السرية، بينما تُقدّم إفصاحات سهلة الاستخدام للعملاء والشركاء. مع ذلك، يتطلب تصميم نماذج واستراتيجيات تواصل متدرجة كهذه جهدًا مؤسسيًا.
ضمان المساءلة المتسقة
غالباً ما تنشأ فجوات المساءلة نتيجةً لتوزع تطوير ونشر الذكاء الاصطناعي على فرق وموردين وجهات قضائية متعددة، حيث تفتقر النتائج في كثير من الأحيان إلى المساءلة . في مثل هذه الحالات، يصعب تحديد المسؤوليات في حال لم تسر الأمور كما هو مخطط لها. ويتفاقم هذا التحدي عندما تستخدم المؤسسات حلول ذكاء اصطناعي من جهات خارجية أو تعمل ضمن منظومة واسعة من الموردين والشركاء.
لضمان مستوى ثابت من المساءلة، يجب أن تمتلك الشركات هياكل حوكمة رسمية تحدد دور كل موظف بشكل شامل. ولا يزال مواءمة أصحاب المصلحة ودمج آليات المساءلة في عملياتها التجارية الحالية يمثل عائقًا كبيرًا، نظرًا لأن هذه العمليات نادرًا ما تكون مباشرة، لا سيما في الحالات التي لا تزال فيها المؤسسات غير ناضجة في قدراتها التشغيلية للذكاء الاصطناعي.
أفضل الممارسات لبناء ذكاء اصطناعي جدير بالثقة
تطبيق المبادئ التوجيهية الأخلاقية للذكاء الاصطناعي
يُعدّ وضع مبادئ توجيهية أخلاقية للذكاء الاصطناعي أمرًا بالغ الأهمية لبناء أُطر عمل أساسية موثوقة لاتخاذ القرارات. فالمؤسسة التي لا تُطوّر وتتبنى هذه المبادئ لا تُعتبر مُقصّرة في التعامل مع المخاطر المُحتملة للذكاء الاصطناعي فحسب، بل ستكون أيضًا غير مُستعدة في حال وقوع أي حادث. تُعدّ هذه المبادئ التوجيهية المُوثّقة مُفيدة للغاية للموظفين الداخليين لفهم عزم المؤسسة على الاستخدام الأمثل للذكاء الاصطناعي بطريقة مسؤولة. علاوة على ذلك، يجب ألا تُعامل هذه الوثائق على أنها مُجرّد وثائق تُستخدم لمرة واحدة، بل كموارد أساسية تُوجّه الفرق المعنية طوال دورة حياة الذكاء الاصطناعي.
ينشر معظم رواد السوق في مجال الذكاء الاصطناعي بانتظام مواثيق ومبادئ أخلاقيات الذكاء الاصطناعي الداخلية كوسيلة لتوجيه فرق تطوير منتجاتهم مع ضمان قدرتهم على استخلاص قيمة حوكمة قوية من خلال مواءمة هذه المبادئ التوجيهية مع الأطر العالمية الراسخة مثل مبادئ الذكاء الاصطناعي لمنظمة التعاون الاقتصادي والتنمية.
اختبار ومراجعة أنظمة الذكاء الاصطناعي بانتظام
يُعدّ الاختبار الدقيق والتدقيق المنتظم ضروريين لضمان دقة أنظمة الذكاء الاصطناعي ونزاهتها وأمانها والتزامها بالمعايير بعد نشرها. ومن الأفضل أن تتبنى جميع المؤسسات نهج "المراقبة التلقائية" حيث تُدمج أدوات تتبع الأداء، وكشف التحيز، واختبارات الخصوم، ورصد انحراف النموذج مباشرةً في سير العمل الإنتاجي.
قد تختار المؤسسات أيضًا إجراء عمليات تدقيق من جهات خارجية بالإضافة إلى الاختبارات الداخلية، وذلك من خلال سجلات التدقيق، وتقييمات الأثر، والمراجعات الدورية، لإثبات امتثالها للسياسات الداخلية واللوائح الخارجية. وتُعدّ الأطر المقبولة عالميًا والمعتمدة، مثل إطار إدارة مخاطر الذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتكنولوجيا (NIST AI RMF)، وقائمة OWASP لأهم عشرة مخاطر أمنية ، وغيرها من أفضل الممارسات، ذات قيمة كبيرة في هذا الصدد.
تُعدّ الاختبارات الدورية لنماذج وتطبيقات الذكاء الاصطناعي بالغة الأهمية، وكذلك الضوابط المُصممة لإدارة هذه الاختبارات. ولا تقتصر أهمية موثوقية هذه الضوابط على تعزيز الثقة العامة في جدارة نموذج الذكاء الاصطناعي بالثقة فحسب، بل تضمن أيضاً وجود الأدوات المناسبة لمواصلة الاستفادة من قدرات النموذج بطريقة مسؤولة.
تعزيز التواصل الشفاف
لا ينبغي التعامل مع الشفافية كمجرد متطلب تقني، بل إن قيمتها الاستراتيجية في بناء الثقة طويلة الأمد تُعدّ ركيزة أساسية للمؤسسات. يجب عليها ضمان التواصل بوضوح تام بشأن كيفية عمل أنظمة الذكاء الاصطناعي لديها، ومصادر البيانات التي تعتمد عليها، وما يمكن للمستخدمين توقعه من مخرجات النموذج. ينطبق هذا على جميع أصحاب المصلحة، مثل العملاء والجهات التنظيمية والشركاء، وحتى الفرق الداخلية.
يتعين على المؤسسات النظر في اعتماد واجهات مستخدم بسيطة وواضحة، بالإضافة إلى توفير وثائق يسهل الوصول إليها، مما يدعم جهودها في مجال الشفافية دون إرباك العملاء. كما يمكنها نشر نتائج تقييمات الأثر أو تقارير الشفافية كوسيلة لإظهار ريادتها ومصداقيتها في ممارسات الذكاء الاصطناعي الموثوقة.
توفير التثقيف والتوعية للمستخدمين
تقع على عاتق المنظمة مسؤولية ضمان إلمام جميع أصحاب المصلحة لديها إلماماً تاماً بقدرات أنظمة الذكاء الاصطناعي وحدودها. ويشمل ذلك استخدام برامج التدريب، ومحتوى التعريف بالنظام، والأسئلة الشائعة لمساعدتهم في ذلك، كوسيلة للحد من الالتباس ومنحهم مجموعة من التوقعات الواقعية المتعلقة بقدرات الذكاء الاصطناعي.
يُعدّ تثقيف الموظفين بنفس القدر من الأهمية. يجب تثقيف جميع الفرق بشكلٍ مناسب، إلى جانب تزويدها بمعلومات مُخصصة حول كيفية تأثير قدرات الذكاء الاصطناعي للمؤسسة على أقسامها أو قدراتها التشغيلية. من خلال تعزيز ثقافة الوعي بالذكاء الاصطناعي، يُمكنهم إرساء أساس لاتخاذ قرارات أخلاقية ومستنيرة من قِبل جميع أصحاب المصلحة الرئيسيين.
تحديد واضح AI Governance الهياكل
AI governance يُوفر هذا الإطار اللازم لضمان بناء جميع الأنظمة ونشرها ومراقبتها بما يتوافق مع الأهداف الأخلاقية والقانونية والاستراتيجية للمنظمة. ويشمل ذلك، على سبيل المثال لا الحصر، اللجان متعددة الوظائف، وتعيين مسؤولين عن النماذج، ووضع نقاط تفتيش للموافقة عند استخدام الذكاء الاصطناعي مع أصول البيانات الحساسة.
من الناحية المثالية، ينبغي أن يدمج نموذج AI governance السياسات مع الممارسات. وينبغي أن يمكّن المؤسسات من دمج الحوكمة في مسارات عمليات التعلم الآلي الخاصة بها، بما يضمن عدم إمكانية نشر النماذج دون استيفاء المعايير الأخلاقية والقانونية ومعايير الأداء وغيرها من المعايير ذات الصلة المحددة مسبقًا.
كيف Securiti يمكن المساعدة
Securiti يُعد مركز قيادة DataAI حلاً شاملاً لبناء أنظمة ذكاء اصطناعي توليدية آمنة وموثوقة على مستوى المؤسسات. يتألف هذا الحل المؤسسي من عدة مكونات يمكن استخدامها مجتمعة لبناء أنظمة ذكاء اصطناعي مؤسسية آمنة من البداية إلى النهاية، أو في سياقات أخرى متنوعة لتلبية حالات استخدام الذكاء الاصطناعي المختلفة، مع ضمان الالتزام الكامل بمبادئ الأمن والخصوصية الأساسية.
مع Securiti ، يمكن للمنظمات إجراء عمليات شاملة تشمل جميع مكونات ووظائف الذكاء الاصطناعي المستخدمة في سير العمل الخاص بها، بما في ذلك تحديد مخاطر النموذج وتحليلها والضوابط والمراقبة والتوثيق وتقييم التصنيف وتقييم تأثير الحقوق الأساسية وتقييم المطابقة.
اطلب عرضًا تجريبيًا اليوم وتعرف على المزيد حول كيفية Securiti يمكن أن تساعد مؤسستك على تطوير ونشر قدرات الذكاء الاصطناعي الموثوقة عبر سير العمل بأكمله.
الأسئلة الشائعة (FAQs)
فيما يلي بعض الأسئلة الأكثر شيوعاً المتعلقة بالذكاء الاصطناعي الجدير بالثقة: