أصبحت سلامة الذكاء الاصطناعي مصدر قلق بالغ الأهمية للعاملين في مجال تطوير وتصميم ونشر الذكاء الاصطناعي. وتهدف سلامة الذكاء الاصطناعي، التي تشمل مجموعة من الممارسات التشغيلية والفلسفات والآليات، إلى ضمان عمل أي أنظمة ونماذج ذكاء اصطناعي مطورة بالطريقة التي تصورها المطورون في الأصل، دون التسبب في أي عواقب أو أضرار غير مقصودة.
وللقيام بذلك، يجب على المطورين المشاركين في تطوير هذه النماذج والأنظمة اتخاذ التدابير ذات الصلة لضمان سلامة الخوارزميات، وأمن البيانات المناسب، والامتثال التنظيمي.
في السياق الأوسع للذكاء الاصطناعي التوليدي (GenAI)، يكتسب نطاق وأهمية سلامة الذكاء الاصطناعي درجة أعلى من الأهمية نظرًا للتصميم المستقل جذريًا لنماذج وأنظمة الذكاء الاصطناعي التوليدي.
لطالما شكّلت القفزات التكنولوجية السريعة والتعقيد المتزايد عنصرين أساسيين في تطوير الذكاء الاصطناعي من الجيل الأول. وليست المخاوف بشأن سلامة الذكاء الاصطناعي بجديدة، فقد كانت في البداية نظرية إلى حد كبير، حيث تركزت معظم المخاوف حول احتمالية إساءة استخدام أي من تطورات الذكاء الاصطناعي. إلا أنه مع تزايد اندماج وظائف الذكاء الاصطناعي من الجيل الأول في الاستخدامات التجارية والمنزلية، باتت التحديات الأخلاقية والاجتماعية والتقنية الواسعة التي يطرحها الذكاء الاصطناعي تمثل تحديًا وجوديًا.
علاوة على ذلك، يُبرز هذا الإمكانات الهائلة للذكاء الاصطناعي في التأثير المباشر على جميع جوانب الحياة البشرية تقريبًا. وهذا وحده يؤكد على ضرورة التفكير واتخاذ الإجراءات اللازمة لضمان سلامة الذكاء الاصطناعي.
تُعدّ سلامة الخوارزميات وأمن البيانات والامتثال التنظيمي من الاعتبارات الحيوية التي يجب على المؤسسات مراعاتها عند وضع استراتيجيات وأساليب لتطوير خوارزميات الذكاء الاصطناعي العام الخالية من التحيز والقادرة على إنتاج نتائج موثوقة. والأهم من ذلك، ضرورة الموازنة الدقيقة بين كل هذه الاعتبارات نظرًا للالتزامات المتعددة المتعلقة AI governance .
في ضوء كل هذا، يتضح أن سلامة الذكاء الاصطناعي عملية شاملة، ديناميكية وتعاونية بطبيعتها. يجب إشراك جهات معنية متعددة، بما في ذلك واضعي السياسات، ومطوري الذكاء الاصطناعي، والمستخدمين، وخبراء الامتثال، بشكل مناسب في هذه العملية لضمان اليقظة المستمرة، والابتكار، والالتزام بالمبادئ الأخلاقية التي ستكون أساسية لضمان أن يؤدي تطوير الذكاء الاصطناعي إلى إسهام إيجابي في المجتمع.
لماذا تُعدّ سلامة الذكاء الاصطناعي مهمة؟
تتجلى أهمية سلامة الذكاء الاصطناعي المناسبة من خلال المخاطر والعواقب التي قد تنجم بسهولة عن تطوير الذكاء الاصطناعي غير المنظم. وقد كرست المنظمات العاملة في تطوير وتصميم وتنفيذ نماذج وأنظمة الذكاء الاصطناعي موارد مادية وبشرية كبيرة لتعزيز القدرات الوظيفية لهذه الأنظمة.
مع ازدياد هذه القدرات، يزداد احتمال تسببها في نتائج غير متوقعة وضارة بشكل متناسب. وإذا تُركت دون رادع، فقد تؤدي هذه النتائج إلى تفاقم أوجه عدم المساواة الاجتماعية القائمة، ومخاطر الخصوصية والأمن ، فضلاً عن استخدامها لتقويض العمليات الديمقراطية.
لذا، يتحمل مطورو الذكاء الاصطناعي مسؤولية أخلاقية وعملية تتمثل في وضع اعتبارات سلامة الذكاء الاصطناعي في صميم عملية تطويرهم. ولتحقيق ذلك، يجب عليهم إجراء تقييم شامل للآثار الأوسع نطاقًا لعملهم، فضلًا عن احتمالية إساءة استخدامه. وتهدف هذه العملية إلى تعزيز الشعور بالمسؤولية تجاه تطوير الذكاء الاصطناعي، لا سيما في الحالات التي يرتفع فيها احتمال أن تؤدي قرارات الذكاء الاصطناعي إلى نتائج سلبية.
علاوة على ذلك، ونظرًا للتأثير الاقتصادي والثقافي والتكنولوجي الواسع النطاق للذكاء الاصطناعي، فإنه يمتلك القدرة على إحداث تحول جذري في طبيعة العمل، والتفاعلات بين الإنسان والآلة، والتفاوتات الاقتصادية العالمية، والأخلاقيات الرقمية. ومع كل قفزة تكنولوجية في وظائف الذكاء الاصطناعي، تتحول هذه الإمكانية إلى حقيقة شبه مؤكدة.
وبالتالي، سيكون للذكاء الاصطناعي تأثير عميق على المجتمع والحوكمة على المدى البعيد، حيث ستشهد ديناميكيات القوة والمعايير الثقافية والأطر الأخلاقية تحولاً جذرياً. لذا، فإن ضمان سلامة الذكاء الاصطناعي لن يكون أمراً بالغ الأهمية لمنع الضرر التشغيلي المباشر فحسب، بل سيساهم أيضاً في رسم مستقبل المجتمع كما نعرفه.
مناقشة مخاطر الذكاء الاصطناعي
يمكن تصنيف مخاطر الذكاء الاصطناعي على نطاق واسع. ويشكل كل منها تحدياً فريداً للمؤسسات، نظراً لاختلاف درجات سرعة حدوثها وحجم الضرر المحتمل الذي يمكن أن تسببه.
مخاطر نماذج الذكاء الاصطناعي
تكمن المخاطر الأكثر إلحاحاً المتعلقة بالذكاء الاصطناعي في نموذج الذكاء الاصطناعي نفسه. وتشمل هذه المخاطر ما يلي:
تسميم النماذج
تُعدّ عملية تعلّم نموذج الذكاء الاصطناعي عمليةً بالغة الأهمية، إذ تُحدّد قدرة أي نموذج على تقديم نتائج دقيقة وموثوقة. وقد يُعرّض مُهاجمون هذه العملية للخطر عن طريق إدخال بيانات خاطئة ومُضلّلة في مجموعة بيانات التدريب. ونتيجةً لذلك، سيتعلّم النموذج هذه الأنماط الخاطئة ويتكيّف معها، ممّا سيؤثّر على النتائج المُولّدة.
تحيز
نتيجةً لتسميم النموذج، قد يُنتج نموذج الذكاء الاصطناعي مخرجاتٍ مبنيةً على بياناتٍ وافتراضاتٍ تمييزيةٍ كانت جزءًا من مجموعة البيانات المُخترقة التي دُرِّب عليها. قد تكون هذه الافتراضات عنصريةً أو اجتماعيةً اقتصاديةً أو سياسيةً أو جنسانيةً. يمكن أن تؤدي هذه المخرجات المتحيزة إلى عواقب وخيمة، لا سيما في الحالات التي يُستخدم فيها نموذج الذكاء الاصطناعي المُخترق لأغراض اتخاذ قراراتٍ حاسمةٍ مثل التوظيف، وتقييم الجدارة الائتمانية، والعدالة الجنائية.
هلوسة
يشير مصطلح الهلوسة إلى مخرجات ينتجها نموذج الذكاء الاصطناعي، وتكون إما خاطئة تمامًا أو مشوهة. ومع ذلك، نظرًا لأن هذه المخرجات متماسكة وقد تتبع سلسلة من المخرجات غير الخاطئة، فقد يصعب رصدها وتحديدها.
الاستخدام السريع
قد تشكل المطالبات الخاصة بنماذج وأنظمة الذكاء الاصطناعي مخاطر متنوعة لكل من المؤسسات ومستخدميها، بما في ذلك ما يلي:
الحقن الفوري
يتم التلاعب بمدخلات النموذج بهدف التأثير على مخرجاته. وفي حال نجاح هذه العملية، سيؤدي إدخال هذه المدخلات إلى استجابات خاطئة ومتحيزة ومضللة من النموذج، وذلك لأن مجموعة بيانات التدريب التي تم تدريبه عليها ستكون قد تم التلاعب بها لتحقيق هذه النتيجة.
هجوم حجب الخدمة الفوري
يمكن شنّ هجوم حجب الخدمة (DoS) على نموذج ذكاء اصطناعي لتعطيله. ويتم ذلك عن طريق إطلاق استجابة آلية داخل النموذج الذي تم تدريبه على مجموعة بيانات مُعدّلة. ويمكن إطلاق هذه الاستجابة باستخدام موجه أوامر مُخترق يهدف إلى بدء سلسلة من الأحداث تؤدي في النهاية إلى تحميل زائد وتعطيل النموذج.
مخاطر التسرب
تشير مخاطر تسريب البيانات إلى قدرة الجهات الخبيثة على استغلال كلمات وعبارات ومصطلحات معينة لإجراء هندسة عكسية وتسريب بيانات التدريب. ويمكن استخدام المعلومات المستخرجة من هذه الهندسة العكسية لاستغلال بيانات حساسة محتملة. ويمكن لهذه الجهات استخدام مزيج من عمليات الحقن الفوري وهجمات حجب الخدمة لتحقيق هذا الهدف.
مخاطر أخرى
تتضمن بعض المخاطر الهامة الأخرى التي يجب أخذها في الاعتبار ما يلي:
تسريب البيانات
يشير تسريب البيانات إلى حالةٍ تجد فيها بيانات اختبارية، لم يكن من المفترض أن تكون جزءًا من مجموعة بيانات تدريب نموذج الذكاء الاصطناعي، نفسها جزءًا من هذه المجموعة، مما يؤثر بالتالي على مخرجات النموذج. ومن بين التحديات التشغيلية المتعددة التي قد يطرحها هذا التسريب، يمكن أن يؤدي أيضًا إلى data privacy - القضايا المتعلقة بالمعلومات السرية التي قد تتعرض للخطر.
الامتثال غير التنظيمي
بدأت الحكومات في جميع أنحاء العالم تدرك أهمية التنظيم لترسيخ فكرة التطوير المسؤول للذكاء الاصطناعي، بالإضافة إلى إنشاء هيئات متخصصة تُعنى بتقديم أفضل الممارسات لضمان استخدام أكثر أمانًا ومسؤولية للذكاء الاصطناعي. ويُعدّ معهد سلامة الذكاء الاصطناعي الأمريكي ( USAISI )، الذي أنشأه مؤخرًا المعهد الوطني للمعايير والتكنولوجيا ( NIST )، مثالًا حديثًا على ذلك.
بالطبع، فإن عدم وجود إطار عمل موحد يمكن أن يكون بمثابة مخطط فعلي يعني أن معظم الحكومات لا تزال في مرحلة التجربة والخطأ لتحديد أفضل نهج.
بالنسبة للمؤسسات، يعني هذا ضرورة تعديل عملياتها ووظائف تطوير الذكاء الاصطناعي لضمان الامتثال للوائح المختلفة التي قد تدخل حيز التنفيذ عالميًا. ورغم تشابه معظم هذه اللوائح في مبادئها، إلا أنها قد تختلف في جوانب جوهرية، مما يستلزم من المؤسسات التعامل مع كل لائحة على حدة. وقد يؤدي عدم الالتزام بذلك إلى تعريض المؤسسة لعقوبات قانونية وتنظيمية، ما قد يُلحق بها مزيدًا من الضرر بسمعتها على المدى البعيد.
إطار عمل لسلامة الذكاء الاصطناعي وحوكمته
يُعدّ تحديد المخاطر بدقة جزءًا أساسيًا من وضع سلامة الذكاء الاصطناعي في صميم عملية تطويره الشاملة. ومع ذلك، يجب أن يتبع ذلك خطوات عملية تهدف إلى الحدّ من المخاطر التي تُشكّلها قدرات الذكاء الاصطناعي المطوّرة بشكل فعّال.
ولتحقيق هذه الغاية، يجب على المؤسسات أن تتبنى إطار AI governance يمكنه إدارة عمليات الذكاء الاصطناعي بفعالية مع توفير الكفاءة التشغيلية والامتثال للمعايير التنظيمية.
يمكن أن يتضمن إطار الحوكمة هذا القدرات التالية:
اكتشاف نماذج الذكاء الاصطناعي
للتعامل الأمثل مع المخاطر التي تشكلها نماذج وأنظمة الذكاء الاصطناعي، ينبغي أن تمتلك المؤسسة فهمًا شفافًا وشاملاً لبنيتها التحتية للذكاء الاصطناعي. ويتحقق ذلك تحديدًا من خلال فهرسة جميع النماذج المستخدمة عبر سحاباتها العامة وتطبيقاتها السحابية وبيئاتها الخاصة.
بمجرد تحديد جميع نماذج الذكاء الاصطناعي المعتمدة وغير المعتمدة وتصنيفها، يمكن تصنيفها بدقة وفقًا للاحتياجات والالتزامات الفريدة للمنظمة، بالإضافة إلى خطط تخفيف المخاطر الشاملة.
تقييم مخاطر نموذج الذكاء الاصطناعي
بفضل نظرة عامة محدّثة على جميع نماذج وأنظمة الذكاء الاصطناعي المستخدمة، تستطيع المؤسسات تقييم كل منها بشكل مناسب لتحديد المخاطر الفريدة التي قد تُعرّض المؤسسة لها. وبالتالي، يمكن تحديد المخاطر الأكثر إلحاحاً التي تواجه المؤسسة، بما في ذلك التحيز، والبيانات المحمية بحقوق الطبع والنشر، والمعلومات المضللة، وأوجه القصور مثل الاستهلاك المفرط للطاقة.
البيانات + الذكاء الاصطناعي: رسم الخرائط والمراقبة
بمجرد أن تكتشف المنظمة وتقيّم جميع نماذج وأنظمة الذكاء الاصطناعي المستخدمة، يمكنها المضي قدماً في ربطها بمصادر البيانات والعمليات والبائعين والمخاطر المحتملة والتزامات الامتثال ذات الصلة لتوفير سياق غني حول نماذج الذكاء الاصطناعي.
البيانات + ضوابط الذكاء الاصطناعي
يمكن للمؤسسات استخدام ضوابط قوية للبيانات المضمنة والذكاء الاصطناعي، مثل إخفاء هوية البيانات قبل تقديمها إلى نماذج الذكاء الاصطناعي، وضوابط الاستحقاق، وجدران الحماية الخاصة بإدارة دورة حياة البيانات، لفرض الامتثال لسياسات الأمن والخصوصية والحوكمة، وتأمين البيانات الحساسة طوال دورة حياتها.
كيف Securiti يمكن المساعدة
مع استمرار توسع الذكاء الاصطناعي من حيث القدرات والتعقيدات، تصبح سلامة الذكاء الاصطناعي أكثر أهمية بشكل كبير.
Securiti ، شركة رائدة عالمياً في سوق المؤسسات data privacy يمكن لحلول الأمن والامتثال والحوكمة أن تساعد بشكل كبير في تمكين المؤسسات من تبني قدرات الذكاء الاصطناعي في عملياتها مع ضمان الامتثال التنظيمي المناسب. وذلك بفضل Data Command Center ، وهو حل مؤسسي قائم على إطار عمل موحد للتحكم في البيانات، يمكنه تمكين المؤسسات من تحسين إشرافها والتزامها بالالتزامات التنظيمية المختلفة المتعلقة بالبيانات والذكاء الاصطناعي.
بالإضافة إلى، Securiti يقدم دورة AI Governance مصممة لتزويد الملتحقين بها بفهم شامل للمفاهيم الأساسية في الذكاء الاصطناعي العام، واللوائح العالمية المتعلقة بالذكاء الاصطناعي، والتزامات الامتثال، وإدارة مخاطر الذكاء الاصطناعي، و AI governance أطر الابتكار المسؤول.
اطلب عرضًا تجريبيًا اليوم وتعرف على المزيد حول كيفية Securiti يمكننا مساعدة مؤسستك في تنفيذ التدابير اللازمة لضمان سلامة الذكاء الاصطناعي ضمن عملياتك الداخلية.
الأسئلة الشائعة (FAQs)
فيما يلي بعض الأسئلة الشائعة التي قد تتبادر إلى ذهنك فيما يتعلق بأمان الذكاء الاصطناعي: