يُمثل الذكاء الاصطناعي التوليدي (GenAI) ذروة الإنجازات التكنولوجية، متجاوزًا بكثير الرهبة التي أحدثها ظهور الإنترنت. بدأ العالم ينظر إلى الابتكار من منظور فريد عندما كشف العقول التي تقف وراء OpenAI ChatGPT للجماهير.
أشارت دراسة أجراها معهد ماكينزي العالمي عام 2023 إلى التأثير المحتمل للذكاء الاصطناعي العام على الإيرادات السنوية في مختلف القطاعات على مستوى العالم، والذي يتراوح بين 2.6 و4.4 تريليون دولار. كما سرد التقرير العديد من حالات الاستخدام التي يمكن لهذه التقنية من خلالها تعزيز الإنتاجية بشكل ملحوظ، مثل توليد أكواد البرامج تلقائيًا وتقديم دعم تفاعلي للعملاء.
مع ذلك، غالبًا ما تميل القوى العظمى بطبيعتها إلى إفساد نفسها إذا تُركت دون رقابة. لذا، يمتلك الذكاء الاصطناعي القدرة على إنشاء ملفات تعريف مستخدمين متحيزة، والمساهمة في خطاب الكراهية، وإنتاج تعليقات تمييزية، أو انتهاك خصوصية المستخدمين. data privacy .
وهنا تبرز أهمية الامتثال لمعايير الذكاء الاصطناعي. فهو السبيل الذي يمكن للصناعات من خلاله نشر واستخدام أنظمة الذكاء الاصطناعي بشكل آمن ومسؤول.
تتناول هذه المدونة تعريف وأهمية الامتثال للذكاء الاصطناعي، والتحديات التي تواجهها المؤسسات عند تنفيذه، وعواقب عدم الامتثال، وأفضل الممارسات لتمكين الاستخدام الآمن والمتوافق مع معايير الذكاء الاصطناعي.
ما هو الامتثال للذكاء الاصطناعي؟
يشير الامتثال لمعايير الذكاء الاصطناعي إلى الالتزام باللوائح والمعايير الصناعية والأطر المصممة لتنظيم نشر وتطوير واستخدام أنظمة الذكاء الاصطناعي والبيانات المرتبطة بها. وكما ذُكر سابقًا، يمكن أن يكون للذكاء الاصطناعي تأثير إيجابي على المجتمع والاقتصاد والبيئة، أو تأثير سلبي يتمثل في التحيز والتمييز وخطاب الكراهية والصحافة الكاذبة وانتهاكات الخصوصية، وغيرها.
لذا، تضمن قوانين وأطر الذكاء الاصطناعي تغطية جميع الجوانب الحاسمة لدورة حياة تطوير الذكاء الاصطناعي لضمان استخدامه الآمن والمسؤول. على سبيل المثال، تضمن قوانين الذكاء الاصطناعي حماية الأفراد data privacy تُصان الحقوق؛ لذا، تشترط هذه اللوائح جمع البيانات المستخدمة لتدريب الذكاء الاصطناعي أو نماذج اللغة الكبيرة واستخدامها بشكل قانوني وأخلاقي. على سبيل المثال، قضية تطبيق Lensa AI ، حيث ادعى فنانون رقميون أن التطبيق سرق أعمالهم الفنية واستخدمها لتدريبه دون موافقتهم.
وبالمثل، يتطلب الامتثال لمعايير الذكاء الاصطناعي من المؤسسات ضمان عدم استخدام أنظمة الذكاء الاصطناعي الخاصة بها للتمييز ضد أي فئة معينة أو لخداع الناس. كما تضمن أطر أخلاقيات وحوكمة الذكاء الاصطناعي نشر أنظمة الذكاء الاصطناعي واستخدامها بمسؤولية لصالح المجتمع ككل.
تهدف هذه القوانين أيضًا إلى حماية البنية التحتية للذكاء الاصطناعي من التهديدات الناشئة، مثل التسميم الإلكتروني، وتسريب البيانات، وغيرها، والتي قد تُعرّض الشركات لمخاطر مثل اختراقات البيانات. ولتوضيح الأمر، تشير 60% من الشركات إلى أنها لا تزال غير مستعدة للهجمات الإلكترونية المدعومة بالذكاء الاصطناعي.
أهمية الامتثال للوائح الذكاء الاصطناعي
بغض النظر عن مدى تعقيد قوانين الذكاء الاصطناعي أو المعايير الأخلاقية، فإن الامتثال للوائح الذكاء الاصطناعي الناشئة أمر بالغ الأهمية. دعونا نلقي نظرة سريعة على بعض الأسباب التي تدفع الشركات إلى ضمان الامتثال:
نشر الذكاء الاصطناعي الأخلاقي
في عام ٢٠١٨، اضطرت إحدى كبرى شركات التجارة الإلكترونية إلى إزالة أداة التوظيف التجريبية المدعومة بالذكاء الاصطناعي بسبب نتائج تمييزية ضد المتقدمات من النساء. يُعدّ التحيز والتمييز من أكثر المخاطر شيوعًا وخطورةً في بعض أنظمة الذكاء الاصطناعي. تدخل هذه المخاطر دورة حياة تطوير الذكاء الاصطناعي إما من خلال المُطوّر أو نتيجة استخدام مجموعات بيانات متحيزة. إلى جانب التحيز، تُعدّ عدم المساواة، والاعتماد على الذكاء الاصطناعي، والظلم، ووجود أنظمة ذكاء اصطناعي معيبة، من المخاطر الأخرى التي قد تُؤدي إلى أضرار سياسية واجتماعية وبيئية جسيمة.
من منظور المؤسسة، عندما لا يتم معالجة التحيز في أنظمة الذكاء الاصطناعي، فقد ينتج عنه تطبيقات ذات نتائج مشوهة يمكن أن تؤدي إلى الإضرار بالسمعة، والعقوبات التنظيمية، وفقدان ثقة العملاء.
تعرّف أكثر على الذكاء الاصطناعي الأخلاقي
إدارة مخاطر الذكاء الاصطناعي الاستباقية والتخفيف من آثارها
أتاح توحيد تبني الحوسبة السحابية المتعددة وإدارة دورة حياة التطبيقات للمؤسسات ضمان قابلية التوسع السريع لبيئة الذكاء الاصطناعي لديها. ومع ذلك، فقد أدى هذا التوحيد إلى ظهور العديد من المخاطر الأخرى المتعلقة بالخصوصية والأمان والحوكمة. على سبيل المثال، ضعف سياسات الاحتفاظ بالبيانات وتقليلها، أو عدم فعالية... consent management قد يُعرّض النظام النظام لمخاطر قانونية. وقد يؤدي غياب ضمانات قوية تحمي من هذه المخاطر إلى فرض غرامات وعقوبات تنظيمية غير مرغوب فيها.
وبالمثل، توجد مخاطر معينة مرتبطة بأمن الذكاء الاصطناعي، مثل عدم وجود صلاحيات مناسبة لنماذج الذكاء الاصطناعي أو ضوابط وصول فعّالة على تدفق البيانات. وعدم اتخاذ تدابير مناسبة لتحديد هذه المخاطر والتخفيف من حدتها قد يؤدي إلى حوادث أمن سيبراني.
الشفافية والمساءلة في مجال الذكاء الاصطناعي
يؤثر الامتثال لمعايير الذكاء الاصطناعي بشكل كبير على الشفافية في نماذج أو أنظمة الذكاء الاصطناعي والمساءلة. وتتيح هذه العناصر الأساسية للمؤسسات إجراء عمليات تدقيق وتقييم وتفسير دورية للقرارات التي تتخذها نماذج الذكاء الاصطناعي الخاصة بها.
تتطلب نماذج الذكاء الاصطناعي العام كميات هائلة من البيانات للتدريب، لذا من الضروري ضمان جودة هذه البيانات. غالبًا ما تُدرَّب أنظمة الذكاء الاصطناعي باستخدام بيانات غير دقيقة، مما يؤدي إلى استجابات غير مناسبة أو وهمية. وبالمثل، لوحظ أن بعض روبوتات الذكاء الاصطناعي قد تأثرت سلبًا برسائل مسيئة، مما أدى إلى خطاب كراهية. هنا، يلعب الامتثال للوائح الذكاء الاصطناعي دورًا هامًا، إذ يُلزم أنظمة الذكاء الاصطناعي بتوفير مستوى معين من الشفافية، مما يُساعد المؤسسات على تحديد مصدر المشكلة واقتراح حلول تصحيحية.
المشهد التنظيمي الحالي للذكاء الاصطناعي
يُعدّ الذكاء الاصطناعي بوابةً للابتكارات التحويلية. مع ذلك، فإن هذه التقنية الثورية محفوفة بمخاطر أمنية ومخاطر تتعلق بالخصوصية. لذا، وكما data privacy وبما أن قوانين الحماية أصبحت الآن بمثابة التزامات بالغة الأهمية للشركات، فإن الامتثال لقوانين الذكاء الاصطناعي يُعتبر الآن أيضاً أساساً دائماً للأطر القانونية العالمية الحالية.
قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي
حالياً، يتصدر قانون الاتحاد الأوروبي للذكاء الاصطناعي (قانون الذكاء الاصطناعي للاتحاد الأوروبي) السباق العالمي لـ AI governance ، متبوعًا بالأمر التنفيذي الأمريكي بشأن الذكاء الاصطناعي وقانون الذكاء الاصطناعي والبيانات الكندي (AIDA)، على سبيل المثال لا الحصر.
سيدخل قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي حيز التنفيذ في الأول من أغسطس/آب 2024، وسيُطبّق تدريجياً. وباتباع نهج قائم على المخاطر والأهداف، يفرض القانون عدداً من الالتزامات على الجهات التي تتعامل مع أنظمة الذكاء الاصطناعي بمختلف صفاتها. كما ينص القانون على إنشاء المجلس الأوروبي للذكاء الاصطناعي (EAIB) كهيئة تنظيمية مستقلة مسؤولة، من بين أمور أخرى، عن التنسيق بين السلطات الوطنية المختصة وتقديم المشورة بشأن تنفيذ قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي.
يصنف قانون الاتحاد الأوروبي للذكاء الاصطناعي أنظمة الذكاء الاصطناعي إلى مجموعات منفصلة بناءً على مستوى المخاطر المرتبطة بكل فئة. وتشمل هذه الفئات أنظمة الذكاء الاصطناعي ذات المخاطر غير المقبولة، والمخاطر العالية، والمخاطر المحدودة، والمخاطر الضئيلة. وتتناسب شدة الالتزام طرديًا مع مستوى المخاطر المرتبطة بنظام ذكاء اصطناعي معين. فعلى سبيل المثال، يُحظر نشر أو استخدام أنظمة الذكاء الاصطناعي التي تندرج ضمن فئة المخاطر غير المقبولة، لأنها تُشكل مخاطر جسيمة على سلامة الناس ومعيشتهم وحقوقهم الأساسية.
تم تصميم قانون الذكاء الاصطناعي للاتحاد الأوروبي بحيث يحترم أيضًا الحقوق الأساسية للمستخدمين الممنوحة بموجب اللائحة العامة لحماية البيانات للاتحاد الأوروبي (GDPR) ، فيما يتعلق بمعالجة البيانات الشخصية.
إطار إدارة مخاطر الذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتكنولوجيا
أطلق المعهد الوطني للمعايير والتكنولوجيا (NIST) أول إطار عمل للذكاء الاصطناعي في أوائل عام 2023. والغرض من إطار عمل NIST AI RMF 1.0 هو تزويد المؤسسات بخارطة طريق استراتيجية يمكن أن تُمكّن من بناء الثقة في تطوير أنظمة الذكاء الاصطناعي ونشرها واستخدامها، وتساعد على تعزيز الاستخدام المسؤول للذكاء الاصطناعي.
يُوفر إطار عمل الذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتكنولوجيا (NIST) للمؤسسات طريقة استراتيجية لتحديد مخاطر الذكاء الاصطناعي وتقييمها والتخفيف من حدتها. وهذا من شأنه أن يُمكّن المؤسسات من نشر أنظمة الذكاء الاصطناعي بطريقة أخلاقية مع تجنب أي ضرر محتمل بسلاسة. كما يُعزز هذا الإطار المساءلة والشفافية عند تطوير نماذج وتطبيقات الذكاء الاصطناعي واستخدامها.
ينقسم هذا الإطار إلى قسمين. يناقش القسم الأول ويحدد الجوانب الأساسية لنظام ذكاء اصطناعي جدير بالثقة . أما القسم الثاني، فيوضح أفضل الممارسات لتطبيق هذا الإطار مع تقليل المخاطر طوال دورة حياة تطوير الذكاء الاصطناعي. وينقسم القسم الثاني بدوره إلى أربع وظائف رئيسية: الحوكمة، والتخطيط، والقياس، والإدارة.
تعرّف على المزيد حول قوانين الذكاء الاصطناعي الفيدرالية الأمريكية
التحدي الحرج والمخاطر التي تعيق الامتثال لمعايير الذكاء الاصطناعي
تشير دراسة استقصائية أجرتها شركة أكسنتشر إلى موقف إيجابي لدى الشركات تجاه الامتثال لقوانين الذكاء الاصطناعي، حيث ذكرت أن 77% منها تعتبر لوائح الذكاء الاصطناعي المستقبلية أولوية على مستوى الشركة. ومع ذلك، غالبًا ما تعيق العديد من التحديات والمخاطر جهود الشركات لتحقيق الامتثال. على سبيل المثال، عدم وضوح استخدام الذكاء الاصطناعي غير الرسمي.
يشير مصطلح الذكاء الاصطناعي الخفي إلى نماذج أو أنظمة أو تطبيقات الذكاء الاصطناعي التي يتم نشرها واستخدامها دون ضوابط وسياسات أمنية فعّالة. ويمكن وصف هذه الأنظمة بأنها نماذج غير مصرح بها، إذ نادراً ما تكون فرق تكنولوجيا المعلومات على دراية بها أو مصرحاً باستخدامها.
يُعرّض انتشار الذكاء الاصطناعي الخفي في بيئة المؤسسات هذه البيئة لسلسلة من الثغرات والمخاطر. فعلى سبيل المثال، نظرًا لعدم امتلاك المؤسسات رؤية واضحة لهذه الأنظمة، فإنها تجهل المخاطر المرتبطة بها. ويؤدي هذا الجهل إلى مشاكل مثل تسميم الذكاء الاصطناعي، والتأثيرات الضارة، والهلوسة الناتجة عنه، وغيرها. وبالمثل، تستفيد نماذج اللغة الكبيرة من كميات هائلة من بيانات التدريب لإنتاج استجابات ذكية. وقد يؤدي غياب ضوابط أمنية مناسبة لهذه النماذج وبيانات التدريب إلى هجمات خبيثة، أو التلاعب بالبيانات، أو تسريبها.
في نهاية المطاف، قد يعرض الذكاء الاصطناعي الخفي المؤسسات ليس فقط لانتهاكات الامتثال، بل أيضاً لمخاطر أمنية وفقدان السمعة.
يُعدّ الذكاء الاصطناعي الخفي أحد التحديات العديدة التي تعيق جهود الامتثال في المؤسسات. فعلى سبيل المثال، تلعب قابلية التفسير دورًا حاسمًا في تعزيز الشفافية والمساءلة في تطوير الذكاء الاصطناعي واستخدامه. ومع ذلك، ونظرًا لغياب الضوابط والسياسات المناسبة المتعلقة بنماذج الذكاء الاصطناعي وبيانات التدريب، يصبح من الصعب ضمان قابلية تفسير الذكاء الاصطناعي والمساءلة عنه.
أفضل الممارسات لتبسيط الامتثال لمعايير الذكاء الاصطناعي وتحقيقه
للسيطرة الاستراتيجية على بيئة الذكاء الاصطناعي الخاصة بك، Securiti يوصي هذا التقرير بالنظر في أفضل الممارسات الخمس التالية AI governance والامتثال له.
اكتشف نماذج الذكاء الاصطناعي وفهرسها
من الأهمية بمكان أن تكتشف المؤسسات نماذج الذكاء الاصطناعي في بيئاتها العامة والخاصة وبيئات البرمجيات كخدمة (SaaS) للحصول على صورة شاملة لبيئة الذكاء الاصطناعي لديها. ويشمل ذلك اكتشاف نماذج الذكاء الاصطناعي المعتمدة وغير المعتمدة في بيئات الإنتاج وغير الإنتاج. كما يجب فهرسة البيانات الوصفية المرتبطة بخصائص وميزات نموذج الذكاء الاصطناعي لتقييم تأثيره ومخاطره ومتطلبات الامتثال. ويجب أتمتة عملية الاكتشاف والفهرسة وتحديثها باستمرار لتعكس التغييرات عند إضافة نماذج ذكاء اصطناعي جديدة إلى البيئة.
تقييم المخاطر وتصنيف نماذج الذكاء الاصطناعي
قيّم الجوانب المؤثرة على نماذج الذكاء الاصطناعي في بيئات الحوسبة السحابية العامة والخاصة والسحابية (SaaS). يشمل ذلك تقييم كلٍ من مزودي خدمات الحوسبة السحابية العامة ومزودي خدمات SaaS. وثّق نماذج الذكاء الاصطناعي التي يستخدمها المزودون، وكيفية استخدامهم لبياناتك، وكيف تؤثر خدماتهم الشاملة على بيئة الذكاء الاصطناعي لديك. بعد التقييم، قدّم تصنيفات للمخاطر استنادًا إلى قانون الاتحاد الأوروبي للذكاء الاصطناعي وغيره من اللوائح والمعايير لتغطية الجوانب الرئيسية، مثل سمية الذكاء الاصطناعي، والتشويش، وما إلى ذلك. ستُمكّنك هذه التصنيفات من تحديد نماذج الذكاء الاصطناعي التي يجب السماح بها أو حظرها.
رسم خرائط ورصد تدفقات البيانات والذكاء الاصطناعي
إلى جانب اكتشاف نماذج الذكاء الاصطناعي وتقييم المخاطر، من الضروري أيضاً فهم كيفية تفاعل هذه النماذج مع أنظمة البيانات الأخرى ومجموعات البيانات والعمليات والسياسات. وهذا يمكّن المؤسسات من تحديد أوجه التبعية والمخاطر المحتملة ومعالجتها استباقياً.
تطبيق ضوابط البيانات والذكاء الاصطناعي لضمان الخصوصية والأمان والامتثال
يجب وضع ضوابط وسياسات مناسبة لحماية البيانات الحساسة، لضمان عدم وصولها إلى نماذج الذكاء الاصطناعي دون وجود ضمانات قوية. ويتحقق ذلك من خلال شقين: أولاً، يجب وضع ضوابط على مدخلات البيانات، لضمان فحصها وتصنيفها وتنظيفها بشكل صحيح قبل إرسالها إلى نماذج الذكاء الاصطناعي. على سبيل المثال، ينبغي تجزئة البيانات الحساسة أو إخفاؤها أو إخفاء هويتها قبل إرسالها إلى أنظمة الذكاء الاصطناعي. ثانياً، يجب وضع ضوابط على البيانات الخارجة من نماذج الذكاء الاصطناعي. يجب تطبيق جدران حماية من نوع LLM لحماية البيانات من مخاطر الحقن السريع أو تسريبها عبر الذكاء الاصطناعي، وما إلى ذلك.
الالتزام باللوائح ومعايير الصناعة
إجراء تقييمات لتقييم الوضع الحالي للامتثال للوائح ومعايير الذكاء الاصطناعي. بالإضافة إلى ذلك، تطبيق إطار عمل قوي لأتمتة الامتثال لقوانين الذكاء الاصطناعي العالمية ومعايير الصناعة باستخدام قواعد وضوابط واختبارات موحدة.
استوفِ متطلبات الامتثال للذكاء الاصطناعي بسرعة مع Securiti
أمن الذكاء الاصطناعي وحوكمته، وهو تكامل بين Securiti Data Command Center تم تصميمها لمساعدة المؤسسات على تطوير ونشر واستخدام الذكاء الاصطناعي مع الاستفادة من البيانات السياقية + ذكاء الذكاء الاصطناعي والضوابط الآلية.
اطلب عرضًا توضيحيًا لمعرفة كيفية أتمتة امتثال الذكاء الاصطناعي باستخدام Securiti .