الإعلان عن Agent Commander - أول حل متكامل من Veeam + Securiti .ai تمكين توسيع نطاق وكلاء الذكاء الاصطناعي الآمنين

منظر

جولة فيمون 2026 - البيانات والذكاء الاصطناعي يتلاقيان من أجل عصر الوكلاء

منظر

ما يجب معرفته حول إرشادات المركز الكندي للأمن السيبراني بشأن الذكاء الاصطناعي التوليدي

المساهمون

أنس بيج

مدير تسويق المنتجات في Securiti

عمر عمران مالك

Data Privacy مدير الشؤون القانونية، Securiti

FIP، CIPT، CIPM، CIPP/US

نُشر في 18 سبتمبر 2023

يُبشّر الذكاء الاصطناعي التوليدي بزيادة إنتاجية المؤسسات عشرة أضعاف. إذ يُمكّن الجمع بين جودة وكمية المحتوى المُنتَج المؤسسات من تحقيق كفاءة غير مسبوقة. وقد استفادت مؤسسات من مختلف القطاعات، كقطاع الرعاية الصحية، وتطوير البرمجيات، والإعلام والنشر، والأوساط الأكاديمية، والأمن السيبراني، من أدوات الذكاء الاصطناعي التوليدي لدعم عملياتها في شتى المجالات.

مهما كانت قدرة الذكاء الاصطناعي التوليدي على إحداث تحولات جذرية واضطرابات، فإن إمكاناته الهائلة يمكن استغلالها بسهولة في أعمال خبيثة من قبل مجرمي الإنترنت والمهاجمين.

في ضوء ذلك، نشر المركز الكندي للأمن السيبراني مؤخرًا وثيقة إرشادية تحدد المخاطر الرئيسية وأفضل الممارسات للتخفيف منها. بالنسبة للمؤسسات التي لا تزال تبحث عن أفضل السبل لدمج الذكاء الاصطناعي التوليدي في عملياتها اليومية، توفر هذه الإرشادات فرصةً للقيام بذلك بأقل قدر من المخاطر.

المخاطر الرئيسية المحددة

تُقدّم هذه الإرشادات إرشادات دقيقة لتحديد التهديدات والمخاطر المحتملة التي قد تواجهها الشركات عند استخدام الذكاء الاصطناعي التوليدي في منتجاتها وخدماتها. وتشمل هذه التهديدات والمخاطر ما يلي:

معلومات مضللة

لطالما شكلت المعلومات المضللة مشكلة متفشية لشركات التكنولوجيا عالميًا. إلا أنها قد تتطور إلى مستويات كارثية عبر أدوات الذكاء الاصطناعي التوليدي. فبفضل هذه الأدوات، يستطيع المغرضون إنتاج معلومات خادعة وكاذبة على نطاق واسع، مستخدمين لغة مصممة خصيصًا للتأثير على الجمهور وإقناعه بثقة أكبر.

التصيد الاحتيالي

لطالما شكل التصيد الاحتيالي تهديدًا إلكترونيًا خطيرًا لعقود، إلا أن الذكاء الاصطناعي التوليدي قد يُفضي إلى هجمات تصيد احتيالي أكثر تطورًا وتكرارًا، مما يزيد من احتمالية نجاحها. وكما هو الحال مع المعلومات المضللة، يمكن إنشاء رسائل البريد الإلكتروني التصيدية بلغة دقيقة ومرعبة، مما قد يؤدي إلى سرقة الهوية والاحتيال المالي وأنواع أخرى من الجرائم الإلكترونية.

Data Privacy

لا تزال أدوات الذكاء الاصطناعي التوليدي في مراحلها الأولى. ومع مرور الوقت، سيتطور هذا التطور، وستزداد قدرتنا على الاستفادة منها بشكل صحيح ومسؤول إلى أقصى حد. ولكن حتى ذلك الحين، قد يكشف المستخدمون، دون قصد ، معلوماتهم الشخصية الحساسة أو بيانات جهات عملهم الحساسة على هذه الأدوات. وقد يستغل المخترقون حينها تقنيات مختلفة للوصول إلى هذه البيانات الحيوية وانتحال شخصيات الأفراد.

تسميم الذكاء الاصطناعي

يُعدّ هذا تهديدًا جديدًا نسبيًا قادرًا على اختراق النماذج بأكملها. فبدلًا من استهداف النموذج نفسه، قد يلجأ المهاجم إلى اختراق مجموعة البيانات التي يُدرَّب عليها النموذج. ولا يقتصر تأثير ذلك على الإضرار الشديد بدقة وجودة وشفافية المخرجات المُولَّدة، بل قد يُستغل أيضًا، جنبًا إلى جنب مع بعض التهديدات الأخرى المُحدَّدة، في هجمات رقمية منسقة واسعة النطاق تستهدف المؤسسات.

انحياز النموذج

من الطبيعي أن يتعرض نموذج الذكاء الاصطناعي التوليدي للاختراق نتيجة لهجوم مُحكم التخطيط، لكن هذه النماذج معرضة بنفس القدر للأخطاء أو التحيزات غير المقصودة في مجموعات بيانات التدريب. تُدرَّب معظم النماذج على مجموعات بيانات محدودة مُستقاة من مصادر إنترنت مفتوحة المصدر. قد يؤثر التحيز في هذه المصادر على بيانات التدريب، وبالتالي على النموذج.

تُعدّ حقوق الملكية الفكرية بالفعل موضع خلاف في مجال الذكاء الاصطناعي التوليدي. فمع وجود تساؤلات حول ملكية الأعمال الفنية والمحتوى المُولّد باستخدام أدوات الذكاء الاصطناعي التوليدي، قد يستغلّها مجرمون لسرقة كميات هائلة من بيانات الملكية الفكرية السرية للشركات بسرعة فائقة. وهذا قد يُشكّل تهديدًا وجوديًا خطيرًا على موارد المؤسسة المالية وسمعتها.

توضح الإرشادات بوضوح أنه قد لا يكون من الممكن دائمًا تحديد الهجمات الإلكترونية المدعومة بالذكاء الاصطناعي التوليدي. ومع ذلك، فهي تحدد عدة تدابير مضادة يمكن الاستفادة منها على المستويين التنظيمي والفردي للحد من احتمالات نجاح هذه الهجمات.

مستوى المنظمة

إدارة الوصول

تؤكد الإرشادات على ضرورة اقتصار الوصول إلى الأصول التنظيمية الحيوية على الأفراد الأكثر صلة بالموضوع. ولتحقيق ذلك، يُنصح المؤسسات بتبني إطار عمل عملي للتحكم في الوصول يمنع الوصول غير المصرح به إلى الموارد ذات القيمة العالية.

تحديثات أمنية وتصحيحات منتظمة

يمتلك المهاجمون الإلكترونيون أدوات عديدة تساعدهم في تنفيذ هجماتهم. والأهم من ذلك، أن هذه الأدوات تخضع لتحسينات مستمرة لرفع مستوى فعاليتها. لذا، من الضروري أن تتبنى المؤسسات نهجًا صارمًا واستباقيًا مماثلًا تجاه تحديثات الأمان وتصحيحاتها، لأنها غالبًا ما تُمثل خط الدفاع الأول والأهم ضد أي هجوم إلكتروني.

أمن الشبكات

يجب على أي مؤسسة تبني أدوات استباقية وشاملة للكشف عن التهديدات الشبكية لضمان قدرتها على تحديد ومعالجة التهديدات المحتملة قبل أن تتسبب في أي اضطراب أو ضرر كبير. ورغم أن أدوات الذكاء الاصطناعي التوليدي واعدة بالفعالية، إلا أن استخدامها ينطوي على عيب بسيط يتمثل في الضغط الهائل الذي تُسببه على موارد الشبكة. ويمكن رصد هذه الحالات بسهولة إذا ما استخدمت المؤسسة أداة موثوقة للكشف عن التهديدات الشبكية.

يوفر الدليل معلومات إضافية تتعلق بأمن الشبكة هنا .

تدريب الموظفين

قد تمتلك أي مؤسسة أفضل الآليات والسياسات لمنع الهجمات الإلكترونية، إلا أن هذه الآليات والسياسات لا تُجدي نفعًا إن لم يفهمها موظفوها أو يلتزموا بها. لذا، فإن عقد دورات تدريبية منتظمة للموظفين، تُقدم لهم فيها التدريبات المناسبة حول التدابير المضادة المعتمدة وأفضل ممارسات الأمن السيبراني، يُسهم بشكل كبير في تقليل فرص نجاح الهجمات الإلكترونية إلى أدنى حد.

مستوى التاج

التحقق من المحتوى

لقد تم تحديد المعلومات المضللة بالفعل كأحد أخطر المخاطر المباشرة التي تشكلها تقنيات الذكاء الاصطناعي التوليدي، وذلك بسبب كمية ونوعية المحتوى المضلل الذي يمكن توليده عبر هذه الأدوات. لذا، يجب على الموظفين استخدام قدراتهم المنطقية القصوى للتحقق من جميع المحتويات التي يتفاعلون معها لضمان عدم تعرضهم لمحاولات الهندسة الاجتماعية أو التصيد الاحتيالي.

يوفر الدليل موارد مفيدة في هذا الصدد هنا .

احذر من الهندسة الاجتماعية

ليست هذه أحدث حيلة يستخدمها المهاجمون الإلكترونيون، لكنها لا تزال من أكثرها فعالية. ومع الذكاء الاصطناعي التوليدي، من المرجح أن تصبح أكثر فعالية. لذا، يجب على الأفراد تطبيق ممارسات السلامة الرقمية الأساسية، مثل تقليل كمية المعلومات الشخصية المتاحة على الإنترنت، والتعامل بحذر مع مرفقات البريد الإلكتروني من مصادر غير معروفة، أو إجراء اتصالاتهم عبر قنوات غير موثوقة أو بديلة.

يوفر الدليل موارد مفيدة في هذا الصدد هنا .

سلامة الأمن السيبراني

يمكن أن تكون التدابير البسيطة مثل كلمات المرور القوية، والمصادقة متعددة العوامل (MFA) ، وبرنامج مكافحة الفيروسات الموثوق به، ضرورية في استراتيجية التدابير المضادة للأمن السيبراني للمؤسسة لأنها تقلل من احتمالية وجود أي ضعف داخل إطار الأمن الداخلي الخاص بها.

كيف يمكن Securiti يساعد

إذا استُخدم الذكاء الاصطناعي التوليدي بمسؤولية، فإنه يُبشّر برفع أداء المؤسسات وإنتاجيتها وإيراداتها على نطاق غير مسبوق. في الوقت نفسه، ونظرًا لحداثة هذا المجال، فإن حجم المخاطر المختلفة المرتبطة به لا يزال غير واضح.

ونتيجة لذلك، على الأقل في الوقت الحالي، يتعين على المؤسسات أن تسير على حبل مشدود، وتوازن بين مخاطر ومكافآت استخدام الذكاء الاصطناعي التوليدي.

Securiti مركز قيادة البيانات™ هو حل مؤسسي قائم على Data Command Center إطار عمل يسمح للمؤسسات بتنفيذ وحدات وحلول وآليات متنوعة يمكن أن تساعد في معالجة التحديات الأمنية التي يطرحها الذكاء الاصطناعي التوليدي.

وتشمل هذه data privacy ، والامتثال التنظيمي، وإدارة أمن البيانات.

علاوة على ذلك، يسمح ذلك للمؤسسات بالاستفادة من وحدات وحلول متنوعة مثل ضوابط الوصول إلى البيانات، data lineage ، sensitive data intelligence وغيرها بما يتماشى مع توصيات هذا الدليل.

اطلب عرضًا تجريبيًا اليوم وتعرف على المزيد حول كيفية Securiti يمكن أن يساعدك ذلك في التخفيف من التحديات والمخاطر التي يفرضها استخدام الذكاء الاصطناعي التوليدي.

الأسئلة الشائعة

هذا دليل لأفضل الممارسات صادر عن المركز الوطني الكندي للأمن السيبراني لمساعدة المؤسسات على استخدام الذكاء الاصطناعي التوليدي بأمان. يشرح الدليل المخاطر الرئيسية والحقوق والمسؤوليات والخطوات التي ينبغي على الشركات اتخاذها قبل وأثناء وبعد تبني أدوات الذكاء الاصطناعي التوليدي.

يوضح هذا كيفية إدارة الذكاء الاصطناعي التوليدي كجزء من نهج أوسع لإدارة المخاطر، وذلك من خلال تصنيف البيانات، وتتبع تدفقها، وإنفاذ ضوابط الخصوصية والأمان، والحفاظ على الرقابة. وهذا يساعد المؤسسات على دعم الابتكار مع الالتزام باللوائح والقوانين.

هو إطار عمل وطني مصمم لمساعدة المؤسسات على فهم وإدارة مخاطر الأمن السيبراني المرتبطة بالذكاء الاصطناعي التوليدي. يشرح هذا الدليل كيفية تبني أدوات الذكاء الاصطناعي بأمان مع حماية البيانات الحساسة، والحفاظ على الثقة، والالتزام بالمعايير الأخلاقية.

يُعدّ الذكاء الاصطناعي التوليدي تقنيةً قوية، ولكنه ينطوي أيضاً على مخاطر مثل تسريب البيانات، ونشر المعلومات المضللة، وإنشاء محتوى خبيث. وقد أصدرت هيئة الأمن السيبراني الكندية هذا الدليل لمساعدة الشركات والهيئات الحكومية والأفراد على استخدام الذكاء الاصطناعي بمسؤولية مع الحفاظ على الخصوصية والأمان.

قم بتحليل هذه المقالة باستخدام الذكاء الاصطناعي

تظهر المطالبات في أدوات الذكاء الاصطناعي التابعة لجهات خارجية.
انضم إلى قائمتنا البريدية

احصل على أحدث المعلومات والتحديثات القانونية والمزيد مباشرةً في بريدك الإلكتروني



قصص أخرى قد تهمك
مقاطع فيديو
عرض المزيد
ريحان جليل، من شركة Veeam، يتحدث عن Agent Commander: theCUBE + NYSE Wired: قادة الأمن السيبراني
بعد استحواذ شركة Veeam على Securiti يمثل إطلاق برنامج Agent Commander خطوة هامة نحو مساعدة المؤسسات على تبني وكلاء الذكاء الاصطناعي بثقة أكبر. في...
عرض المزيد
تخفيف مخاطر قائمة OWASP لأهم 10 مخاطر لتطبيقات ماجستير القانون 2025
أحدث الذكاء الاصطناعي التوليدي (GenAI) تحولاً جذرياً في طريقة عمل الشركات وتوسعها ونموها. يوجد تطبيق للذكاء الاصطناعي لكل غرض، بدءاً من زيادة إنتاجية الموظفين وصولاً إلى تبسيط العمليات...
عرض المزيد
أفضل 6 DSPM حالات الاستخدام
مع ظهور الذكاء الاصطناعي التوليدي (GenAI)، أصبحت البيانات أكثر ديناميكية. يتم توليد بيانات جديدة بوتيرة أسرع من أي وقت مضى، ونقلها إلى أنظمة وتطبيقات متنوعة...
عرض المزيد
قانون الخصوصية في كولورادو (CPA)
ما هو قانون خصوصية كولورادو؟ قانون خصوصية كولورادو هو قانون شامل لحماية الخصوصية، تم توقيعه في 7 يوليو 2021. وقد وضع معايير جديدة لحماية البيانات الشخصية...
عرض المزيد
Securiti لمساعد الطيار في البرمجيات كخدمة (SaaS)
تسريع اعتماد Copilot بأمان وثقة: تتطلع المؤسسات إلى اعتماد Microsoft 365 Copilot لزيادة الإنتاجية والكفاءة. ومع ذلك، تظل المخاوف الأمنية، مثل حماية البيانات...
عرض المزيد
أهم عشرة اعتبارات لاستخدام البيانات غير المهيكلة بأمان مع الذكاء الاصطناعي العام
نسبة مذهلة تصل إلى 90% من بيانات المؤسسات غير منظمة. وتُستخدم هذه البيانات بسرعة لتغذية تطبيقات الذكاء الاصطناعي من الجيل الجديد، مثل روبوتات الدردشة والبحث المدعوم بالذكاء الاصطناعي.
عرض المزيد
جينكور للذكاء الاصطناعي: بناء أنظمة ذكاء اصطناعي آمنة وعالية الجودة للمؤسسات في دقائق
مع تبني المؤسسات للذكاء الاصطناعي التوليدي، تواجه فرق البيانات والذكاء الاصطناعي العديد من العقبات: ربط مصادر البيانات غير المهيكلة والمهيكلة بشكل آمن، والحفاظ على الضوابط والحوكمة المناسبة،...
عرض المزيد
كيفية التعامل مع قانون حماية خصوصية المستهلك في كاليفورنيا: رؤى أساسية للشركات
ما هو قانون حقوق الخصوصية في كاليفورنيا (CPRA)؟ هو تشريع ولاية كاليفورنيا الذي يهدف إلى حماية خصوصية سكانها الرقمية. وقد دخل حيز التنفيذ في يناير...
عرض المزيد
التكيف مع التحول: الانتقال إلى معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS) الإصدار 4.0
ما هو معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS)؟ هو مجموعة من معايير الأمان لضمان المعالجة والتخزين الآمنين للبيانات، و...
عرض المزيد
تأمين البيانات والذكاء الاصطناعي: دليل إدارة الثقة والمخاطر والأمن (TRiSM)
أثارت المخاطر الأمنية المتزايدة للذكاء الاصطناعي قلق 48% من مسؤولي أمن المعلومات حول العالم. انضموا إلى هذه الجلسة الرئيسية للتعرف على دليل عملي لتمكين الثقة في الذكاء الاصطناعي، وإدارة المخاطر،...

جلسات حوارية مميزة

تسليط الضوء
الاستعداد للمستقبل لمحترفي الخصوصية
شاهد الآن منظر
تسليط الضوء 50:52
من البيانات إلى النشر: حماية الذكاء الاصطناعي المؤسسي من خلال الأمن والحوكمة
شاهد الآن منظر
تسليط الضوء 11:29
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
شاهد الآن منظر
تسليط الضوء 11:18
إعادة هيكلة تمويل العقارات - كيف تُجري شركة ووكر آند دنلوب تحديثًا لمحفظتها الاستثمارية البالغة 135 مليار دولار أمريكي بالاعتماد على البيانات أولاً
شاهد الآن منظر
تسليط الضوء 13:38
تسريع المعجزات - كيف تُدمج شركة سانوفي الذكاء الاصطناعي لتقليص مدة تطوير الأدوية بشكل كبير
صورة مصغرة لشركة سانوفي
شاهد الآن منظر
تسليط الضوء 10:35
حدث تحول جوهري في مركز ثقل البيانات
شاهد الآن منظر
تسليط الضوء 14:21
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
شاهد الآن منظر
تسليط الضوء 12:!3
لا يمكنك بناء خطوط الأنابيب أو المستودعات أو منصات الذكاء الاصطناعي بدون معرفة تجارية
شاهد الآن منظر
تسليط الضوء 47:42
الأمن السيبراني – حيث يقوم القادة بالشراء والبناء والشراكة
ريحان جليل
شاهد الآن منظر
تسليط الضوء 27:29
بناء ذكاء اصطناعي آمن باستخدام Databricks و Gencore
ريحان جليل
شاهد الآن منظر
أحدث
عرض المزيد
بناء ذكاء اصطناعي سيادي باستخدام HPE Private Cloud AI و Veeam Securiti Gencore AI
كيف تُساهم تقنيات الذكاء الاصطناعي في السحابة الخاصة من HPE، وتسريع NVIDIA، وVeeam؟ Securiti يدعم نظام Gencore AI الذكاء الاصطناعي الآمن والمُدار للمؤسسات مع تطبيق السياسات عبر سير العمل RAG والمساعدين والوكلاء.
عرض المزيد
Securiti أعلنت شركة .ai عن اختيار شركة أكسنتشر كشريك العام لعام 2025
في إطار الاحتفال المستمر بالتعاون المؤثر في DataAI Security ، Securiti منحت شركة .ai، التابعة لشركة Veeam، شركة Accenture لقب شريك العام لعام 2025....
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ قانون حماية خصوصية المستهلك في كاليفورنيا؟ عرض المزيد
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ القانون؟
يمكن للشركات أن تستفيد من بعض الدروس الحيوية من أكبر إجراء إنفاذي تم اتخاذه مؤخراً في تاريخ قانون خصوصية المستهلك في كاليفورنيا (CCPA). Securiti مدونة 's تغطي جميع التفاصيل المهمة التي يجب معرفتها.
عرض المزيد
الذكاء الاصطناعي وقانون HIPAA: ما يعنيه وكيفية أتمتة الامتثال
تعرّف على كيفية تطبيق قانون قابلية نقل التأمين الصحي والمساءلة (HIPAA) على الذكاء الاصطناعي في تأمين المعلومات الصحية المحمية. تعلّم كيف...
عرض المزيد
خيارات الانسحاب الدائمة: سحب الموافقة عبر التسويق، والبرمجيات كخدمة، والذكاء الاصطناعي العام
Securiti تقدم الورقة البيضاء الخاصة بـ [اسم الشركة] نظرة عامة مفصلة حول متطلبات سحب الموافقة المختلفة في مجالات التسويق، والبرمجيات كخدمة (SaaS)، والذكاء الاصطناعي العام (GenAI). اقرأ الآن لمعرفة المزيد.
عرض المزيد
التكلفة الخفية للخصوصية الناتجة عن الذكاء الاصطناعي الخفي والبيانات الخفية
قم بتنزيل الورقة البيضاء لاكتشاف مخاطر الذكاء الاصطناعي الخفي والبيانات الخفية، ولماذا تفشل الضوابط التقليدية، وكيفية بناء ذكاء اصطناعي استباقي وقابل للتطوير...
عرض المزيد
قائد العملاء: ملخص الحل
تعرّف على كيفية قيام Agent Commander باكتشاف وكلاء الذكاء الاصطناعي، وحماية بيانات المؤسسة من خلال ضوابط التشغيل، وتصحيح أخطاء الذكاء الاصطناعي - مما يتيح اعتماد الذكاء الاصطناعي بشكل آمن ومتوافق مع المعايير في...
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti عرض المزيد
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti
التزم بتعديلات قانون خصوصية المستهلك في كاليفورنيا لعام 2026 باستخدام Securiti وتشمل هذه المتطلبات تحديث متطلبات الموافقة، وتوسيع تعريفات البيانات الحساسة، وتعزيز حقوق المستهلك، وتقييمات الجاهزية.
عرض المزيد
تخلص من مخاطر البيانات في الذكاء الاصطناعي
تعرف على كيفية إعداد بيانات المؤسسة لاعتماد Gemini Enterprise بشكل آمن من خلال الحوكمة الأولية، واكتشاف البيانات الحساسة، وضوابط سياسة ما قبل الفهرسة.
عرض المزيد
دليل الحصول على شهادة HITRUST
Securiti يُعد الكتاب الإلكتروني دليلاً عملياً للحصول على شهادة HITRUST، ويغطي كل شيء بدءاً من اختيار i1 مقابل r2 ونطاق الأنظمة وصولاً إلى إدارة خطط العمل والتخطيط...
ما هو
جديد