الإعلان عن Agent Commander - أول حل متكامل من Veeam + Securiti .ai تمكين توسيع نطاق وكلاء الذكاء الاصطناعي الآمنين

منظر

شرح الذكاء الاصطناعي الخفي: التهديد الصامت في المؤسسات الحديثة

مؤلف

أنس بيج

مدير تسويق المنتجات في Securiti

نُشر في 2 ديسمبر 2025 / تم التحديث في 8 ديسمبر 2025

استمع إلى المحتوى

تُعدّ التهديدات السيبرانية حقيقية للغاية وتتزايد بشكل ملحوظ. في الوقت نفسه، تتبنى المؤسسات بحماس أدوات الذكاء الاصطناعي وتستفيد منها في مختلف أقسامها. ورغم ما يحمله الذكاء الاصطناعي من مزايا لا تُنكر، إلا أنه ينطوي على مخاطر خاصة به.

والأبرز من ذلك كله، والذي يكمن في الظلال، هو خطر غير مرئي تقريبًا يُعرف باسم الذكاء الاصطناعي الخفي.

لطالما كان العنصر البشري الحلقة الأضعف في سلسلة الأمن السيبراني. فعلى الرغم من الوعي والتدريب المستمرين، لا يزال الموظفون يتجاوزون البروتوكولات والتطبيقات المعتمدة رسميًا والمتاحة للاستخدام في بيئة العمل. ومن هنا نشأ مصطلح "الذكاء الاصطناعي الخفي"، الذي يشير إلى استخدام الموظفين لأدوات الذكاء الاصطناعي التوليدي بشكل سري.

بإمكان المؤسسات تبني أحدث الإجراءات الأمنية، ومع ذلك، قد تؤدي ثغرة أمنية واحدة إلى شل جميع المبادرات. الخطر الحقيقي واضح؛ فالبيانات الحساسة معرضة للخطر. لذا، يُعد فهم الذكاء الاصطناعي الخفي أمرًا بالغ الأهمية لتجنب الكشف غير المقصود عن البيانات الحساسة.

ما هو الذكاء الاصطناعي الخفي؟

يُعرَّف الذكاء الاصطناعي الخفي بأنه استخدام غير مصرح به وغير معتمد وغير موثق لأدوات وتطبيقات ونماذج وأنظمة الذكاء الاصطناعي داخل المؤسسة، دون علمها أو موافقتها الصريحة أو إشرافها الأمني. ويحدث ما يقارب 90% من استخدام الذكاء الاصطناعي في المؤسسات دون علم فرق الأمن وتقنية المعلومات، مما يعرض المؤسسات لمخاطر مثل تسريب البيانات والوصول غير المصرح به.

تتشابه تقنيات الذكاء الاصطناعي غير الرسمية مع تقنية المعلومات غير الرسمية، حيث تُستخدم التقنيات والتطبيقات والأدوات والخدمات دون موافقة قسم تقنية المعلومات في المؤسسة. والسبب الرئيسي لاستخدامها غالبًا هو تحسين الكفاءة وتبسيط سير العمل.

غالباً ما يختبئ الذكاء الاصطناعي الخفي في وضح النهار، متغلغلاً في سير العمل في كل وحدة عمل وقطاع تقريباً. يستخدم الموظفون في مختلف القطاعات الذكاء الاصطناعي العام لزيادة الكفاءة، غالباً خارج نطاق الحوكمة المعتمدة من قبل قسم تقنية المعلومات.

على الرغم من أن استخدام أدوات الذكاء الاصطناعي غير المعتمدة قد لا ينطوي على نية سيئة، إلا أن غياب الرؤية والحوكمة من قبل فرق تكنولوجيا المعلومات يجعل الذكاء الاصطناعي الخفي تهديدًا صامتًا يمكن أن يعرض البيانات لجهات خبيثة.

التهديدات الصامتة للذكاء الاصطناعي الخفي

ينطوي الذكاء الاصطناعي الخفي على مخاطر كامنة تُعرّض سلامة البيانات والخصوصية والأمان للخطر. ويعود ذلك أساسًا إلى أن أدوات الذكاء الاصطناعي أنظمة متعطشة للبيانات، إذ تُراكم كميات هائلة من المعلومات المُقدّمة إليها، وتُضيف هذه المعلومات إلى قاعدة بيانات أوسع نطاقًا قد تُستخدم لتدريب نماذج الذكاء الاصطناعي.

قد يقوم الموظفون، دون إدراك كامل لكيفية عمل أدوات الذكاء الاصطناعي، بإدخال بيانات حساسة في تطبيقات غير مصرح بها. وقد تكشف هذه التطبيقات، دون قصد، معلومات حساسة لجهات خارجية تفتقر إلى ممارسات آمنة للتعامل مع البيانات.

توضح العديد من أدوات الذكاء الاصطناعي ذلك بوضوح في privacy policy قد تتم معالجة البيانات الحساسة خارج نطاق أمن مؤسستك. وهذا يعني بوضوح أنه قد يتم استخدام البيانات السرية للمؤسسة أو مشاركتها مع جهات خارجية.

بحسب تقرير فارونيس لحالة أمن البيانات ، فإن 99% من المؤسسات لديها بيانات حساسة معرضة للخطر بسبب أدوات الذكاء الاصطناعي. ويشير التقرير نفسه إلى أن 98% من الشركات لديها موظفون يستخدمون تطبيقات غير مصرح بها، بما في ذلك تطبيقات الذكاء الاصطناعي غير المصرح بها، حيث يبلغ متوسط ​​عدد التطبيقات غير الرسمية في كل شركة 1200 تطبيق.

بما أن الذكاء الاصطناعي الخفي يعمل خارج نطاق الرقابة الرسمية، فإن ذلك يؤدي إلى:

أ. معالجة البيانات الحساسة غير المصرح بها

قد يقوم موظفو المؤسسة عن طريق الخطأ بإدخال بيانات خاصة وحساسة وسرية للغاية في أنظمة الذكاء الاصطناعي غير المعتمدة وغير المصرح بها دون فهم كامل لتداعياتها، مثل ما إذا كانت أداة الذكاء الاصطناعي ستخزن هذه البيانات، وإذا كان الأمر كذلك، فإلى متى، وما إذا كان سيتم مشاركتها خارجيًا أو معالجتها لتدريب نموذج الذكاء الاصطناعي، وما إلى ذلك.

ب. توسع نطاق التهديد

تتزايد التهديدات الإلكترونية بالفعل. إن تغذية نماذج الذكاء الاصطناعي بمعلومات سرية وبيانات حساسة يزيد من نطاق الهجوم، وذلك بجذب جهات خبيثة للتجسس على واجهات برمجة التطبيقات غير الآمنة، والنماذج التي تفتقر إلى بروتوكولات الأمان، مما يعرض البيانات للخطر.

ج. تسميم النموذج والمخرجات الفاسدة

لا تُصمم جميع نماذج الذكاء الاصطناعي بنوايا حسنة. وحتى لو كانت كذلك، فقد تُدرّب على بيانات خبيثة وغير دقيقة يمكن للموظفين استخدامها في بيئة رسمية، مما يؤدي إلى معلومات متحيزة ومُتلاعب بها.

د. الثغرات التنظيمية والامتثال

عدم وجود data privacy ويؤدي الأمن إلى زيادة خطر التعرض للبيانات وانتهاكات الامتثال للوائح مثل اللائحة العامة لحماية البيانات (GDPR) وقانون خصوصية المستهلك في كاليفورنيا/قانون حماية خصوصية المستهلك في كاليفورنيا (CCPA/CPRA) وقانون قابلية نقل التأمين الصحي والمساءلة (HIPAA) وقانون الذكاء الاصطناعي للاتحاد الأوروبي ، وما إلى ذلك.

هـ. انعدام إمكانية التتبع والمساءلة

إن نماذج الذكاء الاصطناعي غير المصرح بها غير معتمدة لسبب وجيه. فقد تنتج مخرجات متحيزة وغير دقيقة يصعب تتبعها في كثير من الأحيان، مما يعني أن المعلومات التي يستخدمها الموظف قد تكون فاسدة، ولا توجد طريقة للتحقق من البيانات التي تم إدخالها أو معالجتها وكيفية توليد المخرجات.

الذكاء الاصطناعي الخفي مقابل الذكاء الاصطناعي المرخص

على عكس الذكاء الاصطناعي غير الرسمي، الذي لا يخضع للتنظيم أو الترخيص، فإن الذكاء الاصطناعي المُرخَّص يتضمن استخدام أدوات ذكاء اصطناعي مُدقَّقة وآمنة ومعتمدة من قِبل قسم تقنية المعلومات. ولعل السبب وراء موافقة فريق تقنية المعلومات على منصات الذكاء الاصطناعي هذه هو أنها توفر ضمانات أمنية مُدمجة، وتتوافق مع سياسات الشركة والمتطلبات التنظيمية، والأهم من ذلك، أنها تتمتع بضوابط حوكمة شفافة.

تُمكّن أدوات الذكاء الاصطناعي المعتمدة الموظفين من الاستفادة من المنصة بسهولة، إذ يتم تطويرها وفقًا لحوكمة الشركات. في المقابل، يتجاوز الذكاء الاصطناعي غير الرسمي رقابة قسم تقنية المعلومات، مما يؤدي إلى استخدام الموظفين لهذه الأدوات بشكل منفرد، وبالتالي زيادة المخاطر الأمنية. وينتج عن ذلك تفاقم الثغرات الأمنية الخفية التي قد لا تظهر إلا عند تفاقم المشكلات.

كيفية الحماية من الذكاء الاصطناعي الخفي

بحسب شركة غارتنر، قام 41% من الموظفين في عام 2022 بتثبيت واستخدام تطبيقات خارج نطاق رؤية أقسام تقنية المعلومات لديهم. ومن المتوقع أن ترتفع هذه النسبة إلى 75% بحلول عام 2027. وللحماية من الذكاء الاصطناعي الخفي، تحتاج المؤسسات إلى تبني نهج استباقي، يشمل ما يلي:

أ. اكتساب رؤية شاملة

لا يمكنك تأمين ما لا تراه. عليك أن تدرك أن الذكاء الاصطناعي الخفي موجود بالفعل داخل مؤسستك، وأن تُفعّل خاصية اكتشاف استخدام الذكاء الاصطناعي تلقائيًا. حدد نماذج/تطبيقات الذكاء الاصطناعي المستخدمة، وصرح باستخدامها وفقًا لذلك.

ب. وضع سياسة واضحة لاستخدام الذكاء الاصطناعي

ضع سياسة استخدام مخصصة للذكاء الاصطناعي تُفصّل الأدوات المعتمدة، وما إذا كان بإمكان الموظفين إدخال بيانات حساسة، وما هي الضمانات المتاحة. نظّم إمكانية الوصول من خلال الهويات المؤسسية وراقب الاستخدام وفقًا لذلك. اعتمد نهجًا استباقيًا بدلًا من نهج رد الفعل.

ج. تدريب الموظفين

توعية الموظفين وجميع الجهات المعنية بالاستخدام الآمن لأدوات الذكاء الاصطناعي. الاحتفاظ بقائمة معتمدة لأدوات الذكاء الاصطناعي وحظر الأدوات غير المصرح بها. توفير تدريب دوري للموظفين حول مخاطر استخدام أدوات الذكاء الاصطناعي غير المصرح بها، مثل تسريب البيانات وظهور نتائج وهمية، مما قد يضر بسلامة البيانات ويؤدي إلى عقوبات عدم الامتثال.

تمكين التبني السريع والآمن للذكاء الاصطناعي في مؤسستك

يتطلب التغلب على التحديات المرتبطة بالذكاء الاصطناعي غير الرسمي إطار عمل قوي لأمن البيانات والذكاء الاصطناعي ، يعمل على أتمتة اكتشاف أنظمة الذكاء الاصطناعي المستخدمة داخل المؤسسة. تُمكّن Securiti المؤسسات من اكتشاف استخدام الذكاء الاصطناعي وتقييمه وحمايته في جميع أنحاء المؤسسة.

اطلب عرضًا توضيحيًا لمعرفة المزيد حول كيفية Securiti يساعد المؤسسات على التغلب على الذكاء الاصطناعي الخفي.

الأسئلة الشائعة (FAQs)

الذكاء الاصطناعي الخفي هو الاستخدام غير المصرح به وغير المعتمد وغير الموثق للأدوات والتطبيقات والنماذج والأنظمة التي تعمل بالذكاء الاصطناعي داخل المؤسسة، دون علم المؤسسة أو موافقتها الصريحة أو إشرافها الأمني.

وتشمل الأمثلة استخدام الموظفين لأدوات الذكاء الاصطناعي غير المعتمدة والمتاحة للجمهور لتلخيص المعلومات السرية واكتساب فهم أفضل لها، أو استخدام أدوات الذكاء الاصطناعي لبرمجة وتطوير مواقع الويب/التطبيقات.

يستخدم AI governance أدوات أتمتة للكشف السريع عن استخدام أدوات الذكاء الاصطناعي غير المعتمدة داخل المؤسسة. إجراء تقييم يدوي للتأكد من استخدام هذه الأدوات على أجهزة الشركة. ويمكن تحقيق ذلك أيضًا من خلال التواصل الشفاف وكسب ثقة الموظفين.

يركز الذكاء الاصطناعي الخفي بشكل أساسي على الاستخدام غير المصرح به لأدوات الذكاء الاصطناعي من قبل الموظفين وغيرهم من الأفراد، بينما يركز تكنولوجيا المعلومات الخفية على الاستخدام غير المصرح به للشبكات والأنظمة، وخاصة من قبل فريق تكنولوجيا المعلومات.

نظراً لاستخدام الموظفين لأدوات الذكاء الاصطناعي غير المعتمدة، فهناك خطر من إدخال بيانات حساسة إلى نماذج الذكاء الاصطناعي التي يمكن استخدامها لتدريب النموذج، مما يؤدي إلى كشف هذه البيانات الحساسة.

قم بتحليل هذه المقالة باستخدام الذكاء الاصطناعي

تظهر المطالبات في أدوات الذكاء الاصطناعي التابعة لجهات خارجية.
انضم إلى قائمتنا البريدية

احصل على أحدث المعلومات والتحديثات القانونية والمزيد مباشرةً في بريدك الإلكتروني



قصص أخرى قد تهمك
مقاطع فيديو
عرض المزيد
ريحان جليل، من شركة Veeam، يتحدث عن Agent Commander: theCUBE + NYSE Wired: قادة الأمن السيبراني
بعد استحواذ شركة Veeam على Securiti يمثل إطلاق برنامج Agent Commander خطوة هامة نحو مساعدة المؤسسات على تبني وكلاء الذكاء الاصطناعي بثقة أكبر. في...
عرض المزيد
تخفيف مخاطر قائمة OWASP لأهم 10 مخاطر لتطبيقات ماجستير القانون 2025
أحدث الذكاء الاصطناعي التوليدي (GenAI) تحولاً جذرياً في طريقة عمل الشركات وتوسعها ونموها. يوجد تطبيق للذكاء الاصطناعي لكل غرض، بدءاً من زيادة إنتاجية الموظفين وصولاً إلى تبسيط العمليات...
عرض المزيد
أفضل 6 DSPM حالات الاستخدام
مع ظهور الذكاء الاصطناعي التوليدي (GenAI)، أصبحت البيانات أكثر ديناميكية. يتم توليد بيانات جديدة بوتيرة أسرع من أي وقت مضى، ونقلها إلى أنظمة وتطبيقات متنوعة...
عرض المزيد
قانون الخصوصية في كولورادو (CPA)
ما هو قانون خصوصية كولورادو؟ قانون خصوصية كولورادو هو قانون شامل لحماية الخصوصية، تم توقيعه في 7 يوليو 2021. وقد وضع معايير جديدة لحماية البيانات الشخصية...
عرض المزيد
Securiti لمساعد الطيار في البرمجيات كخدمة (SaaS)
تسريع اعتماد Copilot بأمان وثقة: تتطلع المؤسسات إلى اعتماد Microsoft 365 Copilot لزيادة الإنتاجية والكفاءة. ومع ذلك، تظل المخاوف الأمنية، مثل حماية البيانات...
عرض المزيد
أهم عشرة اعتبارات لاستخدام البيانات غير المهيكلة بأمان مع الذكاء الاصطناعي العام
نسبة مذهلة تصل إلى 90% من بيانات المؤسسات غير منظمة. وتُستخدم هذه البيانات بسرعة لتغذية تطبيقات الذكاء الاصطناعي من الجيل الجديد، مثل روبوتات الدردشة والبحث المدعوم بالذكاء الاصطناعي.
عرض المزيد
جينكور للذكاء الاصطناعي: بناء أنظمة ذكاء اصطناعي آمنة وعالية الجودة للمؤسسات في دقائق
مع تبني المؤسسات للذكاء الاصطناعي التوليدي، تواجه فرق البيانات والذكاء الاصطناعي العديد من العقبات: ربط مصادر البيانات غير المهيكلة والمهيكلة بشكل آمن، والحفاظ على الضوابط والحوكمة المناسبة،...
عرض المزيد
كيفية التعامل مع قانون حماية خصوصية المستهلك في كاليفورنيا: رؤى أساسية للشركات
ما هو قانون حقوق الخصوصية في كاليفورنيا (CPRA)؟ هو تشريع ولاية كاليفورنيا الذي يهدف إلى حماية خصوصية سكانها الرقمية. وقد دخل حيز التنفيذ في يناير...
عرض المزيد
التكيف مع التحول: الانتقال إلى معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS) الإصدار 4.0
ما هو معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS)؟ هو مجموعة من معايير الأمان لضمان المعالجة والتخزين الآمنين للبيانات، و...
عرض المزيد
تأمين البيانات والذكاء الاصطناعي: دليل إدارة الثقة والمخاطر والأمن (TRiSM)
أثارت المخاطر الأمنية المتزايدة للذكاء الاصطناعي قلق 48% من مسؤولي أمن المعلومات حول العالم. انضموا إلى هذه الجلسة الرئيسية للتعرف على دليل عملي لتمكين الثقة في الذكاء الاصطناعي، وإدارة المخاطر،...

جلسات حوارية مميزة

تسليط الضوء
الاستعداد للمستقبل لمحترفي الخصوصية
شاهد الآن منظر
تسليط الضوء 50:52
من البيانات إلى النشر: حماية الذكاء الاصطناعي المؤسسي من خلال الأمن والحوكمة
شاهد الآن منظر
تسليط الضوء 11:29
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
شاهد الآن منظر
تسليط الضوء 11:18
إعادة هيكلة تمويل العقارات - كيف تُجري شركة ووكر آند دنلوب تحديثًا لمحفظتها الاستثمارية البالغة 135 مليار دولار أمريكي بالاعتماد على البيانات أولاً
شاهد الآن منظر
تسليط الضوء 13:38
تسريع المعجزات - كيف تُدمج شركة سانوفي الذكاء الاصطناعي لتقليص مدة تطوير الأدوية بشكل كبير
صورة مصغرة لشركة سانوفي
شاهد الآن منظر
تسليط الضوء 10:35
حدث تحول جوهري في مركز ثقل البيانات
شاهد الآن منظر
تسليط الضوء 14:21
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
شاهد الآن منظر
تسليط الضوء 12:!3
لا يمكنك بناء خطوط الأنابيب أو المستودعات أو منصات الذكاء الاصطناعي بدون معرفة تجارية
شاهد الآن منظر
تسليط الضوء 47:42
الأمن السيبراني – حيث يقوم القادة بالشراء والبناء والشراكة
ريحان جليل
شاهد الآن منظر
تسليط الضوء 27:29
بناء ذكاء اصطناعي آمن باستخدام Databricks و Gencore
ريحان جليل
شاهد الآن منظر
أحدث
عرض المزيد
بناء ذكاء اصطناعي سيادي باستخدام HPE Private Cloud AI و Veeam Securiti Gencore AI
كيف تُساهم تقنيات الذكاء الاصطناعي في السحابة الخاصة من HPE، وتسريع NVIDIA، وVeeam؟ Securiti يدعم نظام Gencore AI الذكاء الاصطناعي الآمن والمُدار للمؤسسات مع تطبيق السياسات عبر سير العمل RAG والمساعدين والوكلاء.
عرض المزيد
Securiti أعلنت شركة .ai عن اختيار شركة أكسنتشر كشريك العام لعام 2025
في إطار الاحتفال المستمر بالتعاون المؤثر في DataAI Security ، Securiti منحت شركة .ai، التابعة لشركة Veeam، شركة Accenture لقب شريك العام لعام 2025....
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ قانون حماية خصوصية المستهلك في كاليفورنيا؟ عرض المزيد
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ القانون؟
يمكن للشركات أن تستفيد من بعض الدروس الحيوية من أكبر إجراء إنفاذي تم اتخاذه مؤخراً في تاريخ قانون خصوصية المستهلك في كاليفورنيا (CCPA). Securiti مدونة 's تغطي جميع التفاصيل المهمة التي يجب معرفتها.
عرض المزيد
الذكاء الاصطناعي وقانون HIPAA: ما يعنيه وكيفية أتمتة الامتثال
تعرّف على كيفية تطبيق قانون قابلية نقل التأمين الصحي والمساءلة (HIPAA) على الذكاء الاصطناعي في تأمين المعلومات الصحية المحمية. تعلّم كيف...
عرض المزيد
قلل من المعلومات التي تكشفها: ضوابط الخصوصية للذكاء الاصطناعي Agents and Copilots
تقليل انكشاف البيانات في الذكاء الاصطناعي agents and copilots قم بتطبيق ضوابط حماية الخصوصية مثل تقليل البيانات، وضوابط الوصول، وإخفاء البيانات، وإنفاذ السياسات لمنع التسريب و...
عرض المزيد
من وضوح البيانات إلى سرعة الذكاء الاصطناعي
اطلع على الورقة البيضاء واكتشف كيف يتم توحيد DataAI security يحوّل إدارة البيانات إلى عامل تمكين للأعمال، ويعزز ابتكار الذكاء الاصطناعي من خلال الشفافية والامتثال وإدارة المخاطر...
عرض المزيد
قائد العملاء: ملخص الحل
تعرّف على كيفية قيام Agent Commander باكتشاف وكلاء الذكاء الاصطناعي، وحماية بيانات المؤسسة من خلال ضوابط التشغيل، وتصحيح أخطاء الذكاء الاصطناعي - مما يتيح اعتماد الذكاء الاصطناعي بشكل آمن ومتوافق مع المعايير في...
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti عرض المزيد
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti
التزم بتعديلات قانون خصوصية المستهلك في كاليفورنيا لعام 2026 باستخدام Securiti وتشمل هذه المتطلبات تحديث متطلبات الموافقة، وتوسيع تعريفات البيانات الحساسة، وتعزيز حقوق المستهلك، وتقييمات الجاهزية.
عرض المزيد
تخلص من مخاطر البيانات في الذكاء الاصطناعي
تعرف على كيفية إعداد بيانات المؤسسة لاعتماد Gemini Enterprise بشكل آمن من خلال الحوكمة الأولية، واكتشاف البيانات الحساسة، وضوابط سياسة ما قبل الفهرسة.
عرض المزيد
دليل الحصول على شهادة HITRUST
Securiti يُعد الكتاب الإلكتروني دليلاً عملياً للحصول على شهادة HITRUST، ويغطي كل شيء بدءاً من اختيار i1 مقابل r2 ونطاق الأنظمة وصولاً إلى إدارة خطط العمل والتخطيط...
ما هو
جديد