إن الوعي الأخلاقي هو ما يدفع البشر لبناء مجتمع أفضل وأكثر أماناً. ولكن ماذا يعني أن يتمتع نظام الذكاء الاصطناعي بالوعي الأخلاقي؟
لطالما اعتمدت الشركات على البيانات في اتخاذ القرارات لتحسين عملياتها وتعزيز الابتكار. وقد ساهم ظهور الذكاء الاصطناعي التوليدي (GenAI) في نقل هذا التوجه إلى مستوى جديد، مما أدى إلى زيادة السرعة والكفاءة. والجدير بالذكر أن هذا ليس الإنجاز الوحيد الذي حققه الذكاء الاصطناعي في السنوات الأخيرة، بل جلب معه أيضاً مخاطر غير مسبوقة.
على سبيل المثال، اضطرت شركة تجارة إلكترونية عالمية عملاقة إلى إيقاف مشروعها الخاص بأداة توظيف تعتمد على الذكاء الاصطناعي، بعد أن أظهرت مؤشرات على التمييز ضد المتقدمات من النساء، حيث فضّلت الرجال عليهن. وبالمثل، في عام 2019، حققت هيئة تنظيمية في نيويورك مع شركة رعاية صحية أمريكية لتطويرها نموذج ذكاء اصطناعي قدّم توصيات متحيزة تُعطي الأولوية للمرضى بناءً على لون بشرتهم.
هنا تبرز أهمية أخلاقيات الذكاء الاصطناعي. فبعد أن كانت مقتصرة على النقاشات الأكاديمية وبعض محاضرات تيد، بات الذكاء الاصطناعي الأخلاقي يحظى باهتمام عالمي واسع. ولعلّ أهم ما تعلمته المؤسسات في السنوات الأخيرة حول مناقشة الذكاء الاصطناعي واستخدامه هو أنها لا تستطيع تحمل مخاطر الفشل في استخدام البيانات والذكاء الاصطناعي بشكل آمن وأخلاقي، لأن المخاطر جسيمة للغاية.
ما هو الذكاء الاصطناعي الأخلاقي - التعريف والأهمية
الذكاء الاصطناعي الأخلاقي هو إطار عمل أو منهج أو مجموعة من المبادئ التوجيهية التي تُركز على القيم الإنسانية والمجتمعية عند تبني أو تطوير نماذج الذكاء الاصطناعي. بعبارة أخرى، لا تقتصر أخلاقيات أنظمة الذكاء الاصطناعي على تحديد مشروعية استخدامها فحسب، بل تشمل أيضاً سلامتها وشفافيتها وعدالتها وقابليتها للتفسير ومساءلتها وجدارتها بالثقة.
تقدم شركة غارتنر تعريفاً مشابهاً للذكاء الاصطناعي الأخلاقي ضمن فئة الذكاء الاصطناعي المسؤول، حيث تشير إليه على النحو التالي:
"مصطلح شامل لجوانب اتخاذ الخيارات التجارية والأخلاقية المناسبة عند تبني الذكاء الاصطناعي. وتشمل هذه الجوانب القيمة التجارية والمجتمعية، والمخاطر، والثقة، والشفافية، والإنصاف، والحد من التحيز، وقابلية التفسير، والاستدامة، والمساءلة، والسلامة، والخصوصية، والامتثال التنظيمي."
تُعدّ تقنية الذكاء الاصطناعي، التي تتبوأ مكانةً مرموقةً في عالم التطورات التكنولوجية، مصدراً غنياً بالفوائد. إلا أن هذه التقنية تنطوي على جوانب إيجابية وسلبية. فبإمكانها أن تُفيد المؤسسات من خلال إنتاج منتجات أفضل وأكثر نظافة، وتحسين كفاءة العمليات، وتعزيز إجراءات الرعاية الصحية، ومضاعفة وتيرة الابتكار، والمساهمة في إحداث أثر بيئي إيجابي. في المقابل، إذا لم تُصمّم هذه التقنية وتُدرّب وفقاً للمعايير الأخلاقية منذ البداية، فقد تُلحق أضراراً جسيمة على الصعيد السياسي والبيئي والاجتماعي.
المخاطر والتحديات الأخلاقية في الذكاء الاصطناعي
إنّ مسار الابتكار باستخدام الذكاء الاصطناعي محفوفٌ بتحديات أخلاقية عديدة. وما لم تتغلب المؤسسات على هذه التحديات استراتيجياً، فقد تواجه تعقيدات ومخاطر كبيرة عند إتاحة البيانات والذكاء الاصطناعي للجميع. دعونا نلقي نظرة فاحصة على بعض التحديات الأخلاقية الشائعة التي تواجهها المؤسسات عند استخدام الذكاء الاصطناعي أو تبنيه.
شرح
تُشبه خوارزميات الذكاء الاصطناعي الصناديق السوداء، إذ يصعب تفسير القرارات التي تتخذها بعضها. ولكن عندما تخطئ هذه الخوارزميات أو تشوب قراراتها تحيزات، يصبح من الضروري فهم سبب اتخاذ النظام لهذا القرار. لذا، لا بد من وجود مخطط منطقي للعملية، أشبه بدليل يُرشد أصحاب المصلحة إلى مصدر المشكلة. وهنا تبرز أهمية الذكاء الاصطناعي القابل للتفسير.
يشير الذكاء الاصطناعي القابل للتفسير إلى المنهج المنطقي لفهم عملية اتخاذ القرار في خوارزمية الذكاء الاصطناعي. وبمجرد فهم هذه العملية، يصبح بإمكان الجهات الفاعلة في مجال الذكاء الاصطناعي الوثوق بمخرجات التطبيق. ويُعدّ تبسيط قابلية التفسير أو التتبع أمرًا بالغ الأهمية لتمكين الجهات الفاعلة في مجال الذكاء الاصطناعي من تحديد مصدر المشكلة واقتراح الإجراءات التصحيحية.
بالإضافة إلى ذلك، فإن قابلية التفسير تعزز الشفافية والمساءلة في استخدام وتطوير واعتماد الذكاء الاصطناعي.
التحيز والتمييز
إن إزالة الظلم من الذكاء الاصطناعي لا تقل صعوبة عن إزالة التحيز والتمييز الناتج عنه في العالم الحقيقي. ويُمكن تعريف التحيز في الذكاء الاصطناعي بأنه أي انحراف عن الدقة، مما يؤدي إلى تحيز اجتماعي واقتصادي.
على سبيل المثال، إذا تم تدريب خوارزمية الذكاء الاصطناعي للتوظيف باستخدام سير ذاتية أو مجموعات بيانات يهيمن عليها الذكور فقط، فقد يصبح النظام متحيزًا وغير مواتٍ للمتقدمات من النساء، مما يؤدي في النهاية إلى التمييز. وعندما يُترك هذا التحيز دون رادع أو حل، فإنه غالبًا ما يُلحق ضررًا بالمجتمع والبيئة. والجدير بالذكر أن الشركات التي تستخدم تطبيقات ذكاء اصطناعي متحيزة قد تعاني من نتائج مشوهة قد تؤدي في نهاية المطاف إلى الإضرار بسمعتها أو فقدان ثقة العملاء.
يمكن إدخال التحيز إلى نموذج الذكاء الاصطناعي في أي مرحلة من مراحل دورة حياته. على سبيل المثال، قد ينتج ذلك عن مجموعة بيانات تالفة تحتوي على تحيز أو تمييز ضد جنس أو عرق أو إثنية أو دين معين. وقد ينتج أيضًا عن نموذج ذكاء اصطناعي ضعيف التدريب يعجز عن اكتشاف التحيز بدقة.
الخصوصية والأمان
يعتمد أداء وكفاءة نماذج اللغة الكبيرة (LLM) على البيانات التي تُدرَّب عليها. ومن الجدير بالذكر أن تريليونات البايتات من البيانات تُستخدم لتغذية هذه النماذج، مما يُنتج تطبيقات الذكاء الاصطناعي المذهلة المنتشرة على الإنترنت. ومع ذلك، يبرز القلق عندما تُجمع البيانات وتُستخدم وتُعالَج دون موافقة أصحابها. تُعرِّض هذه المخاوف المتعلقة بالخصوصية الشركات لمخاطر قانونية جسيمة.
خذ على سبيل المثال شركة Lensa AI ، التي تعرضت لانتقادات من قبل الهيئات التنظيمية العالمية لاستخدامها أعمال الفنانين الرقميين لتغذية نماذج الذكاء الاصطناعي الخاصة بها دون موافقة صريحة من الأفراد.
وبالمثل، تصدّرت حالات تسريب البيانات الحساسة عناوين الأخبار، حيث تم اكتشاف استخدام الموظفين لبيانات حساسة كمدخلات دون إدراكهم للعواقب الوخيمة على الخصوصية والأمن. وبمجرد تدريب نظام التعلم القائم على التعلم (LLM) باستخدام بيانات حساسة، لا يمكن برمجته لإلغاء تدريبه. وتُعرّض حالات تسريب البيانات الحساسة هذه المؤسسات لمخاطر الذكاء الاصطناعي الناشئة، مثل هجمات تسريب البيانات.
سمية الذكاء الاصطناعي
حققت نماذج اللغة الكبيرة تقدماً ملحوظاً في مجال روبوتات الدردشة المدعومة بالذكاء الاصطناعي. وقد أثبتت هذه الروبوتات قدرتها على تمكين الشركات من تحسين تجربة العملاء وجعلها أكثر تفاعلية ومتعة. ومع ذلك، من الأهمية بمكان أن تحافظ الشركات على شبكة روبوتات دردشة آمنة تعتمد على الذكاء الاصطناعي، وهو أمر بالغ الصعوبة بالنسبة لنماذج اللغة الكبيرة التي تعتمد بشكل كبير على التوجيهات واستفسارات المستخدمين لتدريبها.
يشير مصطلح "السمية" إلى احتمالية إنتاج نموذج عمل ينشر خطاب كراهية أو ازدراء أو إساءة أو محتوى سام. إن نشر الإساءة وخطاب الكراهية أمر غير أخلاقي في حد ذاته. بل إن امتلاك نموذج عمل ينشر السمية قد يكون غير قانوني ويعرض سمعة المؤسسة للخطر.
يُعدّ روبوت الدردشة الذكي "تاي" مثالاً مثالياً لتوضيح نموذج التسويق السام. صُمّم هذا الروبوت ليكون "تجربة حوارية" حيث يتم تدريبه باستمرار من خلال "محادثات ودية ومرحة". إلا أن التجربة لم تسر كما هو مخطط لها، إذ بدأ عدد كبير من المستخدمين بمضايقة الروبوت بتعليقات معادية للنساء وكراهية.
الدور المهم لأطر الذكاء الاصطناعي الأخلاقية
مع ظهور المخاطر المحتملة للذكاء الاصطناعي، كما هو موضح في معظم حالات "الذكاء الاصطناعي الذي خرج عن السيطرة"، أقرّ قادة العالم وعمالقة التكنولوجيا بضرورة اقتراح لوائح غير مسبوقة، ولا سيما أطر إدارة مخاطر الذكاء الاصطناعي. تهدف أطر تقييم المخاطر إلى مساعدة المؤسسات التي تركز على تطوير الذكاء الاصطناعي في تحديد وتقييم وتخفيف المخاطر في أنظمة الذكاء الاصطناعي لضمان الاستخدام والتطوير المسؤولين لتقنيات الذكاء الاصطناعي.
دعونا نلقي نظرة سريعة على بعض الأطر الشائعة للحصول على نظرة عامة عالية المستوى حول كيفية مساعدة أطر مخاطر الذكاء الاصطناعي في تطوير أنظمة ذكاء اصطناعي جديرة بالثقة.
إطار إدارة مخاطر الذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتكنولوجيا
أطلق المعهد الوطني للمعايير والتكنولوجيا (NIST) النسخة الأولية من إطار إدارة مخاطر الذكاء الاصطناعي ( AI RMF 1.0 ) في يناير 2023. ويهدف هذا الإطار إلى تزويد الوكالات الحكومية والشركات الخاصة بمجموعة من المبادئ التوجيهية الاستراتيجية حول تحديد مخاطر الذكاء الاصطناعي والتخفيف من حدتها مع تمكين تطويرها واستخدامها بشكل مسؤول.
ينقسم هذا الإطار إلى جزأين أساسيين. يُعرّف الجزء الأول المؤسسات بأنواع الأضرار التي قد تنشأ عن استخدام أو تطبيق أنظمة الذكاء الاصطناعي، مثل الضرر الذي يلحق بالأفراد، والضرر الذي يلحق بالمؤسسة، والضرر الذي يلحق بالنظام البيئي. ويتناول هذا الجزء أيضًا التحديات المختلفة التي قد تواجهها المؤسسات عند تطبيق هذا الإطار، مثل تحديات قياس المخاطر، ومستوى تقبّل المخاطر، وتحديد أولوياتها.
يتناول الجزء الثاني من الإطار مفهوم "الجوهر". ويُعرّفه الإطار بأنه مجموعة من الوظائف المتميزة التي تُمكّن المؤسسات من معالجة مخاطر الذكاء الاصطناعي. وتتمثل وظائف الجوهر في: الحوكمة، والتخطيط، والقياس، والإدارة. تُطبّق وظيفة الحوكمة بشكل شامل على إطار إدارة المخاطر بأكمله في المؤسسة، بينما يمكن الاستفادة من باقي الوظائف بشكل خاص لأنظمة الذكاء الاصطناعي أو أي مرحلة من مراحل دورة حياة الذكاء الاصطناعي.
تعرّف على المزيد حول إطار إدارة المخاطر للذكاء الاصطناعي NIST AI RMF 1.0
إطار عمل بريسيديو للذكاء الاصطناعي
ال AI Governance قدم التحالف (AIGA) إطار عمل Presidio AI في الاجتماع السنوي الرابع والخمسين في دافوس-كلوسترز من قبل المنتدى الاقتصادي العالمي (WEF) في يناير 2024. ويهدف إطار العمل إلى توفير منهجية قياسية لتنظيم إدارة دورة حياة نماذج الذكاء الاصطناعي التوليدي.
يوفر إطار عمل Presidio للذكاء الاصطناعي مجموعة شاملة من المبادئ التوجيهية التي تهدف إلى أن تكون أكثر من مجرد استراتيجية ثابتة، بل رؤية شاملة لتوجيه المبادئ والقيم الأخلاقية التي تقود تطوير قدرات الذكاء الاصطناعي المستقبلية.
تستند هذه المبادئ التوجيهية إلى ثلاثة مبادئ أساسية: دورة حياة الذكاء الاصطناعي الموسعة، وضوابط المخاطر الشاملة، ومنهجية التحول إلى اليسار.
يوفر كل من هذه الاعتبارات التشغيلية والوظيفية والفلسفية الحيوية لتطوير الذكاء الاصطناعي لضمان اتباع نهج دقيق واستباقي دون المساس بالابتكار والموثوقية.
علاوة على ذلك، فإن اعتماد هذه الاعتبارات الثلاثة الحاسمة يُمكّن من بذل جهد تعاوني أكبر داخل المنظمة، مما يسمح بتعاون ديناميكي بين مختلف الفرق وأصحاب المصلحة، وهو ما لا يقتصر فقط على دمج وجهات نظر وخبرات متنوعة، بل يعزز أيضًا المسؤولية المشتركة والمساءلة.
تعرّف على المزيد حول إطار عمل Presidio للذكاء الاصطناعي
قانون الذكاء الاصطناعي للاتحاد الأوروبي
قانون الاتحاد الأوروبي للذكاء الاصطناعي، المعروف أيضًا باسم قانون الذكاء الاصطناعي للاتحاد الأوروبي ، هو تشريع شامل يهدف إلى تحقيق التوازن بين الابتكار والاعتبارات الأخلاقية، متناولًا تحديات وفرص تقنيات الذكاء الاصطناعي. ويهدف القانون إلى ضمان سلامة أنظمة الذكاء الاصطناعي في الاتحاد الأوروبي، وحماية الحقوق الأساسية، وتعزيز الوضوح القانوني للاستثمار والابتكار في مجال الذكاء الاصطناعي، وتحسين الحوكمة والإنفاذ، وإنشاء سوق موحدة للذكاء الاصطناعي الموثوق ، ومنع تشتت السوق. ويحدد القانون التزامات الجهات الفاعلة في مجال الذكاء الاصطناعي - بما في ذلك مقدمي الخدمات، والمطورين، والمستوردين، والموزعين، والمصنعين - مما يضمن المساءلة طوال دورة حياة نظام الذكاء الاصطناعي. كما ينطبق القانون على الكيانات غير الأوروبية، مثل تلك الموجودة في سويسرا، إذا كان مُخرج نظام الذكاء الاصطناعي الخاص بها مُعدًا للاستخدام في الاتحاد الأوروبي.
يتبنى القانون نهجاً قائماً على المخاطر لإدارة أنظمة الذكاء الاصطناعي طوال دورة حياتها. وتشمل هذه الفئات: الاستخدام غير المقبول للذكاء الاصطناعي، وأنظمة الذكاء الاصطناعي عالية المخاطر، والأنظمة ذات المخاطر المحدودة، والأنظمة ذات المخاطر الدنيا أو المعدومة.
بموجب قانون الاتحاد الأوروبي للذكاء الاصطناعي، يجب على مزودي أنظمة الذكاء الاصطناعي ضمان إلمام موظفيهم بالذكاء الاصطناعي والالتزام ببروتوكولات الامتثال، بما في ذلك توثيق تقييمات الذكاء الاصطناعي وتسجيلها في قواعد بيانات الاتحاد الأوروبي. أما بالنسبة لأنظمة الذكاء الاصطناعي عالية المخاطر، فتشمل الالتزامات الإضافية وضع علامات واضحة، والحفاظ على الوثائق، وتطبيق أنظمة إدارة الجودة، وإجراء تقييمات المطابقة. يجب على القائمين على تشغيل الأنظمة ضمان استخدامها بشكل صحيح وتقييم المخاطر، بينما يُطلب من المستوردين والموزعين التحقق من الامتثال والتعامل بمسؤولية مع الأنظمة غير المتوافقة.
تنص المادة 70 من القانون على أن تقوم كل دولة عضو في الاتحاد الأوروبي بإنشاء أو تعيين سلطة إخطار واحدة على الأقل وسلطة مراقبة سوق واحدة على الأقل كسلطات وطنية مختصة.
بموجب قانون الذكاء الاصطناعي، تشمل عقوبات المخالفات غرامات تصل إلى 35 مليون يورو أو 7% من الإيرادات السنوية العالمية للمخالفات الجسيمة، وتصل إلى 15 مليون يورو أو 3% لعدم الامتثال لأنظمة الذكاء الاصطناعي عالية المخاطر، وتصل إلى 7.5 مليون يورو أو 1% لتقديم معلومات مضللة. وتدفع الشركات الصغيرة والمتوسطة المبلغ الأقل المطبق.
تعرّف أكثر على أطر إدارة مخاطر الذكاء الاصطناعي العالمية
أفضل الممارسات لضمان الذكاء الاصطناعي الأخلاقي
إدارة الثقة والمخاطر والأمان في نماذج الذكاء الاصطناعي باستخدام أداة Gartner's AI TRiSM
طوّر خبراء الصناعة أطرًا متينة لإدارة مخاطر الذكاء الاصطناعي لمعالجة التعقيدات المحيطة AI governance . ومن هذه الأطر التي ينبغي على المؤسسات تبنيها إطار عمل "الذكاء الاصطناعي TRiSM" من غارتنر، وهو اختصار لـ "إدارة الثقة والمخاطر والأمن في الذكاء الاصطناعي". وقد طُوّر هذا الإطار لمساعدة المؤسسات على اكتساب رؤية شاملة وفهم كامل لكيفية عمل نماذج الذكاء الاصطناعي الخاصة بها، ومدى توافقها مع الغرض أو الهدف الأصلي، والنتائج المتوقعة. وفيما يلي ركائزه الأساسية.
قابلية التفسير/مراقبة النموذج
تُعدّ الشفافية أساسيةً لتطوير نماذج الذكاء الاصطناعي أو تطبيقات الذكاء الاصطناعي من الجيل الجديد واستخدامها بأمان. ومن الضروري امتلاك فهم شامل لوظائف أنظمة الذكاء الاصطناعي وكيفية معالجتها للمعلومات واستخدامها في اتخاذ القرارات. كما تُمكّن قابلية تفسير نماذج الذكاء الاصطناعي المؤسسات من تلبية المتطلبات القانونية للشفافية المنصوص عليها في مختلف لوائح حماية البيانات والذكاء الاصطناعي.
عمليات النموذج
بفضل حوكمة وتصنيف أنظمة الذكاء الاصطناعي، تستطيع المؤسسات تحسين نموذج الذكاء الاصطناعي طوال دورة حياته. كما توفر عمليات النموذج (ModelOps) للفرق رؤية أفضل لكيفية تحسين النماذج وضبطها بعد نشرها.
أمن تطبيقات الذكاء الاصطناعي
تعتمد نماذج الذكاء الاصطناعي على كميات هائلة من مجموعات البيانات، والتي تتضمن معلومات تعريفية شخصية ، بما في ذلك البيانات الحساسة . لذا، من الضروري حماية النموذج نفسه من الوصول غير المصرح به أو التلاعب به، بالإضافة إلى حماية البيانات المستخدمة في تدريب نماذج الذكاء الاصطناعي أو ضبطها.
خصوصية النموذج
يتعين على الشركات وضع سياسات وإجراءات تُمكّن من جمع البيانات وتخزينها واستخدامها بشكل آمن لتدريب نماذج الذكاء الاصطناعي أو تحسينها. ومع توجه الحكومات في جميع أنحاء العالم نحو سنّ قوانين صارمة بشأن الذكاء الاصطناعي لتحسين التحكم في تطوير أنظمة الذكاء الاصطناعي واستخدامها، يصبح من الضروري وجود سياسات وضوابط فعّالة لإثبات الامتثال وتعزيز الثقة.
تمكين الاستخدام المسؤول للذكاء الاصطناعي من خلال AI Security & Governance حل
لضمان تصميم وتطوير واستخدام أنظمة الذكاء الاصطناعي بشكل أخلاقي من قبل المؤسسات، Securiti يقترح الخطوات الخمس الأساسية.
- اكتشف نماذج الذكاء الاصطناعي : اكتشف وقم بتصنيف نماذج الذكاء الاصطناعي (المعتمدة وغير المعتمدة) التي تعمل عبر السحابات العامة والخاصة وبيئات SaaS الخاصة بك.
- تقييم مخاطر نماذج الذكاء الاصطناعي : تقييم المخاطر المرتبطة بنماذج الذكاء الاصطناعي الخاصة بك والبيانات ذات الصلة من بيئتك وتصنيف النماذج وفقًا للقوانين والمعايير العالمية.
- تدفقات بيانات الخرائط والذكاء الاصطناعي : مراقبة تدفق البيانات باستمرار من خلال ربط النماذج بالعمليات والسياسات والموردين والمخاطر.
- تطبيق ضوابط البيانات والذكاء الاصطناعي : وضع ضوابط الخصوصية والحوكمة والأمن والامتثال على مدخلات ومخرجات النموذج.
- الامتثال للوائح العالمية : إجراء تقييمات للامتثال للأطر العالمية، مثل إطار إدارة المخاطر للذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتكنولوجيا، وما إلى ذلك.
أمن الذكاء الاصطناعي وحوكمته، وهو تكامل بين Securiti Data Command Center تُمكّن حلولنا المؤسسات من إتاحة البيانات والذكاء الاصطناعي للجميع بطريقة أخلاقية ومسؤولة من خلال دمج البيانات السياقية مع الذكاء الاصطناعي والضوابط الآلية. يتوافق حلنا تمامًا مع أفضل مناهج وأطر إدارة المخاطر في هذا القطاع، مثل AI TRiSM وNIST AI RMF، مما يوفر للمؤسسات ما يلي:
- رؤية شاملة لبيئة الذكاء الاصطناعي الخاصة بهم.
- رؤى معمقة حول المخاطر المرتبطة بأنظمة الذكاء الاصطناعي والبيانات.
- تفاصيل حول معالجة البيانات باستخدام الذكاء الاصطناعي.
- توفير حماية كافية حول نماذج الذكاء الاصطناعي.
- الامتثال للوائح والأطر العالمية المتعلقة بالذكاء الاصطناعي.