الإعلان عن Agent Commander - أول حل متكامل من Veeam + Securiti .ai تمكين توسيع نطاق وكلاء الذكاء الاصطناعي الآمنين

منظر

مخاطر الذكاء الاصطناعي غير الخاضع للرقابة: الذكاء الاصطناعي الخفي والمخاطر الأخلاقية

مؤلف

أنكور غوبتا

مدير حوكمة البيانات ومنتجات الذكاء الاصطناعي في Securiti

استمع إلى المحتوى

هذا المنشور متاح أيضاً باللغات التالية: English

نحن نعيش في خضم ثورة الذكاء الاصطناعي التوليدي التي تُعيد تشكيل أساليبنا في إدارة الأعمال . من الضروري إدراك المخاطر المحتملة للذكاء الاصطناعي غير المُتحكم به، بينما نسعى إلى تسخير فوائده مع الحفاظ على السلامة والثقة. ولتحقيق ذلك، يجب على الشركات إعطاء الأولوية للشفافية والسلامة والأمان في نماذج الذكاء الاصطناعي الخاصة بها لضمان الامتثال الأخلاقي والقانوني، وتعزيز الثقة مع العملاء.

لماذا يُعدّ الذكاء الاصطناعي غير المنضبط وصفةً للمشاكل؟

يتطلب دمج خدمات الذكاء الاصطناعي في نماذج بيانات المؤسسات تحكمًا دقيقًا وإشرافًا شاملًا على دورة حياة الذكاء الاصطناعي بأكملها، بدءًا من الإنشاء وحتى النشر. وهذا أمر ضروري للحد من مخاطر الاختراقات الأمنية. data privacy والمخالفات القانونية، وتضرر ثقة العلامة التجارية. ومع ذلك، توجد فجوة مقلقة بين تبني هذه التقنيات وإدارتها. فقد أظهر استطلاع رأي أجراه مجلس المؤتمرات في سبتمبر 2023 أن أكثر من نصف العاملين في الولايات المتحدة (56%) يستخدمون تقنيات الذكاء الاصطناعي التوليدي في عملهم، بينما أشار استطلاع رأي أجرته جمعية ISACA إلى أن 10% فقط من المؤسسات لديها سياسة رسمية للذكاء الاصطناعي التوليدي.

وهكذا ندخل عصر الذكاء الاصطناعي غير الخاضع للرقابة، حيث تُصبح AI governance أولوية بالغة الأهمية للشركات التي ترغب في دمج نماذج الذكاء الاصطناعي بأمان وشفافية، مع تحقيق أثر إيجابي على أعمالها وتلبية المتطلبات القانونية والأخلاقية. فبدون الضوابط والإشراف المناسبين، تواجه المؤسسات سلسلة من المخاطر التي قد تُحوّل سعيها نحو الابتكار والكفاءة إلى كارثة أمنية والتزام بالمعايير. وفيما يلي بعض هذه المخاطر.

الذكاء الاصطناعي الخفي موجود بالفعل

في ظل هذا المناخ سريع التغير، باتت المنافسة على الابتكار أشدّ من أي وقت مضى، وتزايدت مخاطر الخصوصية والأمن. وبينما تسعى الشركات جاهدةً لتحقيق أهدافها التجارية عبر دمج الذكاء الاصطناعي بسرعة، لا تزال هذه المؤسسات نفسها بصدد تحديد استراتيجيتها في هذا المجال.

بدون رؤية شاملة لجميع أنظمة الذكاء الاصطناعي، سواءً كانت مُطبقة داخليًا أو عبر برمجيات كخدمة (SaaS)، تعمل النماذج الخفية بمخاطر غير معروفة قد تُؤدي إلى تكاليف باهظة لاحقًا. ومما يُفاقم المشكلة، أن الذكاء الاصطناعي الخفي يُظهر علامات على انتشاره بوتيرة أسرع من التحدي الموازي المتمثل في تكنولوجيا المعلومات الخفية التي تُؤرق فرق الأمن والحوكمة منذ عقود، ولا تزال تُؤرقها.

المخاطر غير المحددة تمهد الطريق لعواقب غير مرغوب فيها

لا تزال هناك الكثير من الأسئلة حول استخدام الذكاء الاصطناعي - والعديد منها ينطوي على تحديات لم تواجهها فرق أمن المؤسسات من قبل.

لأن نماذج الذكاء الاصطناعي لا تقتصر على كونها مجرد نتاج لرمز النموذج أو البيانات التي تمر عبره، بل تشمل أيضاً المنطق الذي "يتعلم" من تلك البيانات، فإن مخرجاتها أكثر عرضة للتغير المستمر مما اعتادت عليه العديد من المؤسسات. إن تجاهل المخاطر المحتملة كالتّحيّز والتمييز والاستجابات "الوهمية" قد يُسبب انتكاسات خطيرة لفرق الأمن والبيانات والامتثال، مما يزيد من احتمالية وقوع انتهاكات أخلاقية والإضرار بالسمعة. على سبيل المثال، تعرّض بنك Navy Federal Credit Union مؤخراً لدعوى قضائية بسبب مزاعم تحيّز عنصري في ممارساته المتعلقة بإقراض الرهن العقاري .

غموض البيانات يثير مخاوف بشأن الخصوصية

لطالما واجهت المنظمات تحديات تتعلق بشفافية البيانات في عالم الخصوصية والأمن - وتظهر نفس المشكلات في استخدام الذكاء الاصطناعي.

غالبًا ما تُحاط البيانات المُولّدة بواسطة نماذج الذكاء الاصطناعي بالغموض، مما يُثير تساؤلات حول مصدرها واستخدامها ودقتها. هذا الاستخدام غير الواضح للبيانات الكامنة في نماذج الذكاء الاصطناعي وقنواتها يُثير الشكوك حول الصلاحيات، ويعرض المعلومات الحساسة لخطر التسريب، مما يُعرقل جهود الامتثال ويُعرّض المؤسسات لثغرات أمنية غير مُكتشفة. على سبيل المثال، حظرت إحدى الشركات الرائدة في مجال الإلكترونيات الاستهلاكية استخدام ChatGPT بين موظفيها بعد تسريب شفرة برمجية حساسة.

النماذج غير الآمنة تخلق ثغرات أمنية

مع توسع استخدام الذكاء الاصطناعي، تزداد الحاجة إلى تطبيق ضوابط البيانات على مدخلات ومخرجات النموذج.

يجب أن تتوافق المعلومات الحساسة، سواءً تلك المُدخلة في نماذج الذكاء الاصطناعي أو المُستخرجة منها، مع معايير حماية البيانات والخصوصية. ويُعرّض غياب ضوابط الأمان نماذج الذكاء الاصطناعي للتلاعب وتسريب البيانات والهجمات الخبيثة. ولا تملك المؤسسات التي تسعى لتجنب حوادث اختراق البيانات ترف إهمال أمن الذكاء الاصطناعي ، إذ يُشكّل ذلك تهديدًا لسلامة المؤسسة ومصداقية علامتها التجارية.

التفاعلات غير المنضبطة تدعو إلى الإساءة

إن التنبيهات والوكلاء والمساعدين غير المحميين يفتحون الباب أمام تفاعلات ضارة، مما يهدد سلامة المستخدم والمبادئ الأخلاقية.

من الضروري فهم كيفية استخدام البيانات التي تولدها هذه النماذج، سواءً أكانت تُشارك عبر قناة سلاك، أو تُدمج في موقع ويب كبرنامج دردشة آلي، أو تُنشر عبر واجهة برمجة تطبيقات، أو تُدمج في تطبيق. علاوة على ذلك، تُصبح هذه البرامج، إلى جانب كونها قنوات للاستفسارات المشروعة، مسارات محتملة لأنواع جديدة من الهجمات على أنظمة الذكاء الاصطناعي.

على الصعيد العالمي، يولي صناع السياسات اهتماماً متزايداً ويتخذون إجراءات بشأن الاستخدام الآمن والموثوق للذكاء الاصطناعي. وكان الاتحاد الأوروبي أول من سنّ قانوناً شاملاً للذكاء الاصطناعي، وهو قانون الذكاء الاصطناعي، وسرعان ما حذت حذوه دول أخرى، حيث اقترحت الصين والمملكة المتحدة وكندا تشريعات خاصة بالذكاء الاصطناعي أو سنّتها. حتى أن إدارة بايدن-هاريس أصدرت أمراً تنفيذياً بهذا الشأن في أواخر عام 2023.

إن عدم مواكبة اللوائح العالمية مثل قانون الذكاء الاصطناعي للاتحاد الأوروبي وإطار إدارة المخاطر التابع للمعهد الوطني للمعايير والتكنولوجيا (NIST RMF) يضع المؤسسات في خلاف مع تطوير الذكاء الاصطناعي المسؤول والأخلاقي - ويعرضها للعقوبات المالية الكبيرة وتشويه سمعة العلامة التجارية التي يمكن أن تنتج عن عدم الامتثال.

خمس خطوات لـ AI Governance

لحسن الحظ، توجد طرقٌ تمكّن المؤسسات التي تسعى إلى تمكين الاستخدام الآمن للذكاء الاصطناعي من دمج نماذج الذكاء الاصطناعي في بيئة بياناتها مع الالتزام بالمتطلبات القانونية، والحفاظ على المعايير الأخلاقية، وتحقيق نتائج أعمال إيجابية. إليك كيفية دمج AI governance يُمكّن Data Command Center المركزي من الاستخدام الآمن للذكاء الاصطناعي:

1. اكتشف نماذج الذكاء الاصطناعي

تتمثل الخطوة الأولى في اكتشاف وتصنيف نماذج الذكاء الاصطناعي المستخدمة عبر السحابات العامة والسحابات الخاصة وتطبيقات SaaS.

2. تقييم المخاطر وتصنيف نماذج الذكاء الاصطناعي

تقييم المخاطر المتعلقة بالبيانات ونماذج الذكاء الاصطناعي وتصنيف نماذج الذكاء الاصطناعي وفقًا للمتطلبات التنظيمية العالمية.

3. رسم خرائط ورصد تدفقات البيانات والذكاء الاصطناعي

ربط النماذج بمصادر البيانات، ومسارات معالجة البيانات، والموردين، والمخاطر المحتملة، والتزامات الامتثال - ومراقبة تدفق البيانات باستمرار.

4. تطبيق ضوابط البيانات والذكاء الاصطناعي لضمان الخصوصية والأمان والامتثال

وضع ضوابط على البيانات المتعلقة بمدخلات ومخرجات النموذج، وتأمين أنظمة الذكاء الاصطناعي من الوصول غير المصرح به أو التلاعب بها.

5. الامتثال للوائح

إجراء تقييمات للامتثال لمعايير مثل NIST AI RMF وإنشاء تقارير AI ROPA وسجلات أحداث نظام الذكاء الاصطناعي.

وبعيدًا عن مجرد "التحكم" في البيانات، فإن الشركات ذات التفكير المستقبلي التي تسبق المخاطر التي يشكلها الذكاء الاصطناعي غير المنضبط لن تُمكّن فقط من الاستخدام الآمن للذكاء الاصطناعي من خلال حوكمة أفضل تدعم المعايير الأخلاقية والقانونية، بل ستطلق أيضًا قيمة لا تُحصى في أداء الأعمال، والرؤى، والابتكار، وسمعة العلامة التجارية.

اقرأ الورقة البيضاء "5 خطوات إلى AI Governance "للاطلاع على المزيد حول كل إجراء من الإجراءات المذكورة أعلاه التي يمكنك اتخاذها للبدء في ضمان الاستخدام الآمن والموثوق به والمتوافق مع المعايير للذكاء الاصطناعي."

خمس خطوات لـ AI Governance ضمان الذكاء الاصطناعي الآمن والموثوق والمتوافق مع المعايير

تحميل الورقة البيضاء
منظر

قم بتحليل هذه المقالة باستخدام الذكاء الاصطناعي

تظهر المطالبات في أدوات الذكاء الاصطناعي التابعة لجهات خارجية.
انضم إلى قائمتنا البريدية

احصل على أحدث المعلومات والتحديثات القانونية والمزيد مباشرةً في بريدك الإلكتروني


يشارك

قصص أخرى قد تهمك
مقاطع فيديو
عرض المزيد
ريحان جليل، من شركة Veeam، يتحدث عن Agent Commander: theCUBE + NYSE Wired: قادة الأمن السيبراني
بعد استحواذ شركة Veeam على Securiti يمثل إطلاق برنامج Agent Commander خطوة هامة نحو مساعدة المؤسسات على تبني وكلاء الذكاء الاصطناعي بثقة أكبر. في...
عرض المزيد
تخفيف مخاطر قائمة OWASP لأهم 10 مخاطر لتطبيقات ماجستير القانون 2025
أحدث الذكاء الاصطناعي التوليدي (GenAI) تحولاً جذرياً في طريقة عمل الشركات وتوسعها ونموها. يوجد تطبيق للذكاء الاصطناعي لكل غرض، بدءاً من زيادة إنتاجية الموظفين وصولاً إلى تبسيط العمليات...
عرض المزيد
أفضل 6 DSPM حالات الاستخدام
مع ظهور الذكاء الاصطناعي التوليدي (GenAI)، أصبحت البيانات أكثر ديناميكية. يتم توليد بيانات جديدة بوتيرة أسرع من أي وقت مضى، ونقلها إلى أنظمة وتطبيقات متنوعة...
عرض المزيد
قانون الخصوصية في كولورادو (CPA)
ما هو قانون خصوصية كولورادو؟ قانون خصوصية كولورادو هو قانون شامل لحماية الخصوصية، تم توقيعه في 7 يوليو 2021. وقد وضع معايير جديدة لحماية البيانات الشخصية...
عرض المزيد
Securiti لمساعد الطيار في البرمجيات كخدمة (SaaS)
تسريع اعتماد Copilot بأمان وثقة: تتطلع المؤسسات إلى اعتماد Microsoft 365 Copilot لزيادة الإنتاجية والكفاءة. ومع ذلك، تظل المخاوف الأمنية، مثل حماية البيانات...
عرض المزيد
أهم عشرة اعتبارات لاستخدام البيانات غير المهيكلة بأمان مع الذكاء الاصطناعي العام
نسبة مذهلة تصل إلى 90% من بيانات المؤسسات غير منظمة. وتُستخدم هذه البيانات بسرعة لتغذية تطبيقات الذكاء الاصطناعي من الجيل الجديد، مثل روبوتات الدردشة والبحث المدعوم بالذكاء الاصطناعي.
عرض المزيد
جينكور للذكاء الاصطناعي: بناء أنظمة ذكاء اصطناعي آمنة وعالية الجودة للمؤسسات في دقائق
مع تبني المؤسسات للذكاء الاصطناعي التوليدي، تواجه فرق البيانات والذكاء الاصطناعي العديد من العقبات: ربط مصادر البيانات غير المهيكلة والمهيكلة بشكل آمن، والحفاظ على الضوابط والحوكمة المناسبة،...
عرض المزيد
كيفية التعامل مع قانون حماية خصوصية المستهلك في كاليفورنيا: رؤى أساسية للشركات
ما هو قانون حقوق الخصوصية في كاليفورنيا (CPRA)؟ هو تشريع ولاية كاليفورنيا الذي يهدف إلى حماية خصوصية سكانها الرقمية. وقد دخل حيز التنفيذ في يناير...
عرض المزيد
التكيف مع التحول: الانتقال إلى معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS) الإصدار 4.0
ما هو معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS)؟ هو مجموعة من معايير الأمان لضمان المعالجة والتخزين الآمنين للبيانات، و...
عرض المزيد
تأمين البيانات والذكاء الاصطناعي: دليل إدارة الثقة والمخاطر والأمن (TRiSM)
أثارت المخاطر الأمنية المتزايدة للذكاء الاصطناعي قلق 48% من مسؤولي أمن المعلومات حول العالم. انضموا إلى هذه الجلسة الرئيسية للتعرف على دليل عملي لتمكين الثقة في الذكاء الاصطناعي، وإدارة المخاطر،...

جلسات حوارية مميزة

تسليط الضوء 50:52
من البيانات إلى النشر: حماية الذكاء الاصطناعي المؤسسي من خلال الأمن والحوكمة
شاهد الآن منظر
تسليط الضوء 11:29
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
شاهد الآن منظر
تسليط الضوء 11:18
إعادة هيكلة تمويل العقارات - كيف تُجري شركة ووكر آند دنلوب تحديثًا لمحفظتها الاستثمارية البالغة 135 مليار دولار أمريكي بالاعتماد على البيانات أولاً
شاهد الآن منظر
تسليط الضوء 13:38
تسريع المعجزات - كيف تُدمج شركة سانوفي الذكاء الاصطناعي لتقليص مدة تطوير الأدوية بشكل كبير
صورة مصغرة لشركة سانوفي
شاهد الآن منظر
تسليط الضوء 10:35
حدث تحول جوهري في مركز ثقل البيانات
شاهد الآن منظر
تسليط الضوء 14:21
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
شاهد الآن منظر
تسليط الضوء 12:!3
لا يمكنك بناء خطوط الأنابيب أو المستودعات أو منصات الذكاء الاصطناعي بدون معرفة تجارية
شاهد الآن منظر
تسليط الضوء 47:42
الأمن السيبراني – حيث يقوم القادة بالشراء والبناء والشراكة
ريحان جليل
شاهد الآن منظر
تسليط الضوء 27:29
بناء ذكاء اصطناعي آمن باستخدام Databricks و Gencore
ريحان جليل
شاهد الآن منظر
تسليط الضوء 46:02
بناء ذكاء اصطناعي آمن للمؤسسات: خارطة طريق عملية
شاهد الآن منظر
أحدث
عرض المزيد
نقدم لكم قائد العملاء
إن وعود وكلاء الذكاء الاصطناعي مذهلة - فالأنظمة الذكية التي تتخذ القرارات، وتستخدم الأدوات، وتؤتمت سير العمل المعقد، تعمل كمضاعفات قوة لكل معرفة...
عزل المخاطر: أكبر مشكلة في الذكاء الاصطناعي لا تتحدث عنها مجالس الإدارة عرض المزيد
عزل المخاطر: أكبر مشكلة في الذكاء الاصطناعي لا تتحدث عنها مجالس الإدارة
تتابع مجالس الإدارة نقاش الذكاء الاصطناعي، لكن هناك نقطة عمياء لم تُشر إليها العديد من المؤسسات بعد: وهي عزلة أقسام إدارة المخاطر. الجميع متفقون على ذلك. AI governance ...
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ قانون حماية خصوصية المستهلك في كاليفورنيا؟ عرض المزيد
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ القانون؟
يمكن للشركات أن تستفيد من بعض الدروس الحيوية من أكبر إجراء إنفاذي تم اتخاذه مؤخراً في تاريخ قانون خصوصية المستهلك في كاليفورنيا (CCPA). Securiti مدونة 's تغطي جميع التفاصيل المهمة التي يجب معرفتها.
عرض المزيد
الذكاء الاصطناعي وقانون HIPAA: ما يعنيه وكيفية أتمتة الامتثال
تعرّف على كيفية تطبيق قانون قابلية نقل التأمين الصحي والمساءلة (HIPAA) على الذكاء الاصطناعي في تأمين المعلومات الصحية المحمية. تعلّم كيف...
عرض المزيد
من وضوح البيانات إلى سرعة الذكاء الاصطناعي
اطلع على الورقة البيضاء واكتشف كيف يتم توحيد DataAI security يحوّل إدارة البيانات إلى عامل تمكين للأعمال، ويعزز ابتكار الذكاء الاصطناعي من خلال الشفافية والامتثال وإدارة المخاطر...
عرض المزيد
دليل تنفيذ قانون بيانات الاتحاد الأوروبي: التعامل مع طلبات الوصول إلى البيانات، ومشاركة البيانات، والتحويل السحابي
Securiti توفر الورقة البيضاء الخاصة بـ دليل تنفيذ مفصل لتحقيق الامتثال لقانون البيانات، مما يجعلها قراءة أساسية للشركات التي تعمل بالبيانات في الاتحاد الأوروبي.
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti عرض المزيد
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti
التزم بتعديلات قانون خصوصية المستهلك في كاليفورنيا لعام 2026 باستخدام Securiti وتشمل هذه المتطلبات تحديث متطلبات الموافقة، وتوسيع تعريفات البيانات الحساسة، وتعزيز حقوق المستهلك، وتقييمات الجاهزية.
عرض المزيد
أين تنتهك الخصوصية: الذكاء الاصطناعي الوكيل في المؤسسات
يُحدث الذكاء الاصطناعي الآلي تحولاً جذرياً في المؤسسات، ولكن ما هو ثمن ذلك على الخصوصية؟ اكتشف أهم 10 مخاطر، والضوابط الرئيسية، وكيفية التعامل معها. Securiti يُمكّن من تحقيق الأمان والتوسع...
عرض المزيد
تخلص من مخاطر البيانات في الذكاء الاصطناعي
تعرف على كيفية إعداد بيانات المؤسسة لاعتماد Gemini Enterprise بشكل آمن من خلال الحوكمة الأولية، واكتشاف البيانات الحساسة، وضوابط سياسة ما قبل الفهرسة.
عرض المزيد
دليل الحصول على شهادة HITRUST
Securiti يُعد الكتاب الإلكتروني دليلاً عملياً للحصول على شهادة HITRUST، ويغطي كل شيء بدءاً من اختيار i1 مقابل r2 ونطاق الأنظمة وصولاً إلى إدارة خطط العمل والتخطيط...
ما هو
جديد