الإعلان عن Agent Commander - أول حل متكامل من Veeam + Securiti .ai تمكين توسيع نطاق وكلاء الذكاء الاصطناعي الآمنين

منظر

ما يجب أن تعرفه عن إرشادات اللجنة الوطنية للمعلوماتية والحريات بشأن نشر الذكاء الاصطناعي من الجيل الجديد

المساهمون

أنس بيج

مدير تسويق المنتجات في Securiti

سيد تطهير كاظمي

Data Privacy المحلل

CIPP/أوروبا

نُشر في 25 أكتوبر 2024

لا يزال الذكاء الاصطناعي التوليدي (GenAI) يطرح العديد من التحديات الكبيرة أمام المؤسسات والشركات على مستوى العالم. ومن أبرز هذه التحديات، كيفية قيام المؤسسات التي تسعى إلى الاستفادة من إمكانيات الذكاء الاصطناعي التوليدي الواسعة بذلك بطريقة أخلاقية.

سعت الحكومات والهيئات التنظيمية في جميع أنحاء العالم إلى معالجة هذه القضية من خلال توفير العديد من المبادئ التوجيهية والأطر والتوجيهات. ولا تختلف اللجنة الوطنية للمعلوماتية والحريات (CNIL) في فرنسا عن ذلك، إذ كانت من أوائل الهيئات التنظيمية التي وضعت خطة عمل للذكاء الاصطناعي تُبيّن كيفية استخدام المؤسسات لأنظمة الذكاء الاصطناعي، بما في ذلك أدوات الذكاء الاصطناعي التوليدي، مع احترام خصوصية الأفراد.

توضح هذه الإرشادات الصادرة عن الهيئة الوطنية للمعلوماتية والحريات (CNIL) كيفية قيام المؤسسات التي ترغب في استخدام الذكاء الاصطناعي التوليدي في عملياتها اليومية بذلك بشكل مسؤول. تابع القراءة لمعرفة المزيد.

تعريف الذكاء الاصطناعي التوليدي

على غرار العديد من اللوائح والهيئات الإدارية الأخرى المتعلقة بالذكاء الاصطناعي، قدمت اللجنة الوطنية للمعلوماتية والحريات (CNIL) أيضًا تعريفًا لما تعتبره "ذكاءً اصطناعيًا توليديًا". ووفقًا للجنة الوطنية للمعلوماتية والحريات، يشير الذكاء الاصطناعي التوليدي إلى الأنظمة القادرة على إنشاء محتوى بتنسيقات نصية وصوتية ومرئية وموسيقية ورموز حاسوبية.

إذا تم تصميم أنظمة الذكاء الاصطناعي العام هذه لأداء مجموعة واسعة من المهام، فيمكن الإشارة إليها باسم "أنظمة الذكاء الاصطناعي للأغراض العامة"، وهو ما ينطبق في الغالب على الأنظمة التي تدمج نماذج لغوية كبيرة (LLMs).

بإمكان هذه الأنظمة تعزيز إبداع المستخدمين وإنتاجيتهم من خلال إنشاء محتوى جديد وتحليل المحتوى الموجود وإعادة هيكلته. مع ذلك، ونظرًا لطبيعتها الاحتمالية، قد تُنتج هذه الأنظمة نتائج غير دقيقة قد تبدو منطقية.

علاوة على ذلك، يتطلب تطوير مثل هذه الأنظمة التدريب باستخدام مجموعة بيانات واسعة النطاق، والتي غالباً ما تتضمن معلومات عن الأشخاص الطبيعيين وبياناتهم الشخصية والبيانات المقدمة عند استخدام هذه الأنظمة.

لذا، من الضروري للمنظمات التي تخطط لاستخدام هذه الأنظمة في عملياتها اليومية اتخاذ العديد من التدابير الاحترازية لضمان حماية حقوق الأفراد على بياناتهم بشكل مناسب.

كيفية نشر الذكاء الاصطناعي العام

تقدم اللجنة الوطنية للمعلوماتية والحريات التوصيات التالية للمنظمات التي تفكر في نشر نظام ذكاء اصطناعي متوافق مع المعايير:

  • وجود حاجة محددة - يجب على المنظمة التأكد من أن لديها دائمًا حاجة وهدفًا محددين لنشر نظام الذكاء الاصطناعي من الجيل الأول؛
  • استخدامات الإطار - يجب أن يكون لدى المؤسسات قائمة واضحة بالاستخدامات المصرح بها والمحظورة لنظام GenAI الذي تقوم بنشره، مع مراعاة المخاطر المحتملة التي يشكلها هذا النظام؛
  • تحديد القيود - يجب تحديد قيود نظام GenAI المراد نشره بشكل مناسب لضمان معالجة أي مخاطر على مصالح وحقوق الأشخاص بشكل مناسب؛
  • اختر النظام بحكمة - عند اختيار نظام ذكاء اصطناعي توليدي، اختر نظامًا قويًا وآمنًا، مثل الأنظمة المحلية والمتخصصة. إذا لم يكن ذلك ممكنًا، فقم بتقييم ممارسات مزود الخدمة المتعلقة بالبيانات بعناية، مثل ما إذا كان قد يقوم بتخزين بيانات الإدخال أو تحليلها أو إعادة استخدامها. هذا مهم لأن بعض المزودين قد يستخدمون البيانات لتحسين نماذجهم أو لأغراض أخرى، مما قد يشكل مخاطر على الخصوصية أو الأمن. بناءً على هذا التقييم، ينبغي للمؤسسات تعديل طريقة تفاعلها مع النظام، وربما الحد من نوع البيانات التي تشاركها.
  • تدريب المستخدمين النهائيين - تقع على عاتق المنظمة التي تقوم بنشر نظام GenAI مسؤولية اتخاذ الخطوات المناسبة لتدريب المستخدمين ورفع مستوى وعيهم بشأن استخداماته المحظورة والمخاطر المحتملة التي تنطوي عليها استخداماته المصرح بها؛
  • تطبيق الحوكمة المسؤولة - بشكل موثوق AI governance يجب تنفيذ نظام متوافق مع متطلبات اللائحة العامة لحماية البيانات (GDPR)، مع إشراك جميع أصحاب المصلحة الآخرين الضروريين، مثل مسؤول حماية البيانات، ومدير نظم المعلومات، ومسؤول أمن المعلومات، ومديري الأعمال، وما إلى ذلك، منذ البداية.

للحصول على معلومات أكثر تفصيلاً وتحديداً حول الأسئلة التي قد تكون لدى أي منظمة، توفر اللجنة الوطنية للمعلوماتية والحريات (CNIL) معلومات مفصلة على صفحة الأسئلة الشائعة المخصصة لها هنا .

كيف Securiti يمكن المساعدة

Securiti هو رائد في Data Command Center هي منصة مركزية تُمكّن من الاستخدام الآمن للبيانات والذكاء الاصطناعي. توفر المنصة ذكاءً موحدًا للبيانات، وضوابط، وتنسيقًا عبر بيئات سحابية هجينة متعددة. وتعتمد عليها العديد من العلامات التجارية والشركات الأكثر شهرة في العالم. Securiti 's Data Command Center لتلبية احتياجاتهم المتعلقة بأمن البيانات والخصوصية والحوكمة والامتثال.

مع Data Command Center ستتمكن من الوصول إلى العديد من الوحدات والحلول المصممة لضمان الامتثال الفعال والكفء لالتزامات المنظمة.

لتحقيق متطلبات هذا التوجيه، تتيح لك إدارة privacy policy المرونة في ضمان الشفافية الكاملة مع المستخدمين فيما يتعلق بحقوقهم ومخاطر استخدام خدماتك. كما تتيح AI Security & Governance اكتشاف جميع نماذج الذكاء الاصطناعي المستخدمة في بنية المؤسسة وتصنيفها، مما يوفر رؤية شاملة، بما في ذلك الذكاء الاصطناعي الخفي.

اطلب عرضًا تجريبيًا اليوم وتعرف على المزيد حول كيفية Securiti يمكننا مساعدتك في الامتثال لتوجيهات الهيئة الوطنية الفرنسية للمعلوماتية والحريات (CNIL) بالإضافة إلى اللوائح الرئيسية الأخرى المتعلقة بالذكاء الاصطناعي من جميع أنحاء العالم.

قم بتحليل هذه المقالة باستخدام الذكاء الاصطناعي

تظهر المطالبات في أدوات الذكاء الاصطناعي التابعة لجهات خارجية.
انضم إلى قائمتنا البريدية

احصل على أحدث المعلومات والتحديثات القانونية والمزيد مباشرةً في بريدك الإلكتروني



قصص أخرى قد تهمك
مقاطع فيديو
عرض المزيد
ريحان جليل، من شركة Veeam، يتحدث عن Agent Commander: theCUBE + NYSE Wired: قادة الأمن السيبراني
بعد استحواذ شركة Veeam على Securiti يمثل إطلاق برنامج Agent Commander خطوة هامة نحو مساعدة المؤسسات على تبني وكلاء الذكاء الاصطناعي بثقة أكبر. في...
عرض المزيد
تخفيف مخاطر قائمة OWASP لأهم 10 مخاطر لتطبيقات ماجستير القانون 2025
أحدث الذكاء الاصطناعي التوليدي (GenAI) تحولاً جذرياً في طريقة عمل الشركات وتوسعها ونموها. يوجد تطبيق للذكاء الاصطناعي لكل غرض، بدءاً من زيادة إنتاجية الموظفين وصولاً إلى تبسيط العمليات...
عرض المزيد
أفضل 6 DSPM حالات الاستخدام
مع ظهور الذكاء الاصطناعي التوليدي (GenAI)، أصبحت البيانات أكثر ديناميكية. يتم توليد بيانات جديدة بوتيرة أسرع من أي وقت مضى، ونقلها إلى أنظمة وتطبيقات متنوعة...
عرض المزيد
قانون الخصوصية في كولورادو (CPA)
ما هو قانون خصوصية كولورادو؟ قانون خصوصية كولورادو هو قانون شامل لحماية الخصوصية، تم توقيعه في 7 يوليو 2021. وقد وضع معايير جديدة لحماية البيانات الشخصية...
عرض المزيد
Securiti لمساعد الطيار في البرمجيات كخدمة (SaaS)
تسريع اعتماد Copilot بأمان وثقة: تتطلع المؤسسات إلى اعتماد Microsoft 365 Copilot لزيادة الإنتاجية والكفاءة. ومع ذلك، تظل المخاوف الأمنية، مثل حماية البيانات...
عرض المزيد
أهم عشرة اعتبارات لاستخدام البيانات غير المهيكلة بأمان مع الذكاء الاصطناعي العام
نسبة مذهلة تصل إلى 90% من بيانات المؤسسات غير منظمة. وتُستخدم هذه البيانات بسرعة لتغذية تطبيقات الذكاء الاصطناعي من الجيل الجديد، مثل روبوتات الدردشة والبحث المدعوم بالذكاء الاصطناعي.
عرض المزيد
جينكور للذكاء الاصطناعي: بناء أنظمة ذكاء اصطناعي آمنة وعالية الجودة للمؤسسات في دقائق
مع تبني المؤسسات للذكاء الاصطناعي التوليدي، تواجه فرق البيانات والذكاء الاصطناعي العديد من العقبات: ربط مصادر البيانات غير المهيكلة والمهيكلة بشكل آمن، والحفاظ على الضوابط والحوكمة المناسبة،...
عرض المزيد
كيفية التعامل مع قانون حماية خصوصية المستهلك في كاليفورنيا: رؤى أساسية للشركات
ما هو قانون حقوق الخصوصية في كاليفورنيا (CPRA)؟ هو تشريع ولاية كاليفورنيا الذي يهدف إلى حماية خصوصية سكانها الرقمية. وقد دخل حيز التنفيذ في يناير...
عرض المزيد
التكيف مع التحول: الانتقال إلى معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS) الإصدار 4.0
ما هو معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS)؟ هو مجموعة من معايير الأمان لضمان المعالجة والتخزين الآمنين للبيانات، و...
عرض المزيد
تأمين البيانات والذكاء الاصطناعي: دليل إدارة الثقة والمخاطر والأمن (TRiSM)
أثارت المخاطر الأمنية المتزايدة للذكاء الاصطناعي قلق 48% من مسؤولي أمن المعلومات حول العالم. انضموا إلى هذه الجلسة الرئيسية للتعرف على دليل عملي لتمكين الثقة في الذكاء الاصطناعي، وإدارة المخاطر،...

جلسات حوارية مميزة

تسليط الضوء
الاستعداد للمستقبل لمحترفي الخصوصية
شاهد الآن منظر
تسليط الضوء 50:52
من البيانات إلى النشر: حماية الذكاء الاصطناعي المؤسسي من خلال الأمن والحوكمة
شاهد الآن منظر
تسليط الضوء 11:29
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
شاهد الآن منظر
تسليط الضوء 11:18
إعادة هيكلة تمويل العقارات - كيف تُجري شركة ووكر آند دنلوب تحديثًا لمحفظتها الاستثمارية البالغة 135 مليار دولار أمريكي بالاعتماد على البيانات أولاً
شاهد الآن منظر
تسليط الضوء 13:38
تسريع المعجزات - كيف تُدمج شركة سانوفي الذكاء الاصطناعي لتقليص مدة تطوير الأدوية بشكل كبير
صورة مصغرة لشركة سانوفي
شاهد الآن منظر
تسليط الضوء 10:35
حدث تحول جوهري في مركز ثقل البيانات
شاهد الآن منظر
تسليط الضوء 14:21
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
شاهد الآن منظر
تسليط الضوء 12:!3
لا يمكنك بناء خطوط الأنابيب أو المستودعات أو منصات الذكاء الاصطناعي بدون معرفة تجارية
شاهد الآن منظر
تسليط الضوء 47:42
الأمن السيبراني – حيث يقوم القادة بالشراء والبناء والشراكة
ريحان جليل
شاهد الآن منظر
تسليط الضوء 27:29
بناء ذكاء اصطناعي آمن باستخدام Databricks و Gencore
ريحان جليل
شاهد الآن منظر
أحدث
عرض المزيد
بناء ذكاء اصطناعي سيادي باستخدام HPE Private Cloud AI و Veeam Securiti Gencore AI
كيف تُساهم تقنيات الذكاء الاصطناعي في السحابة الخاصة من HPE، وتسريع NVIDIA، وVeeam؟ Securiti يدعم نظام Gencore AI الذكاء الاصطناعي الآمن والمُدار للمؤسسات مع تطبيق السياسات عبر سير العمل RAG والمساعدين والوكلاء.
عرض المزيد
Securiti أعلنت شركة .ai عن اختيار شركة أكسنتشر كشريك العام لعام 2025
في إطار الاحتفال المستمر بالتعاون المؤثر في DataAI Security ، Securiti منحت شركة .ai، التابعة لشركة Veeam، شركة Accenture لقب شريك العام لعام 2025....
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ قانون حماية خصوصية المستهلك في كاليفورنيا؟ عرض المزيد
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ القانون؟
يمكن للشركات أن تستفيد من بعض الدروس الحيوية من أكبر إجراء إنفاذي تم اتخاذه مؤخراً في تاريخ قانون خصوصية المستهلك في كاليفورنيا (CCPA). Securiti مدونة 's تغطي جميع التفاصيل المهمة التي يجب معرفتها.
عرض المزيد
الذكاء الاصطناعي وقانون HIPAA: ما يعنيه وكيفية أتمتة الامتثال
تعرّف على كيفية تطبيق قانون قابلية نقل التأمين الصحي والمساءلة (HIPAA) على الذكاء الاصطناعي في تأمين المعلومات الصحية المحمية. تعلّم كيف...
عرض المزيد
قلل من المعلومات التي تكشفها: ضوابط الخصوصية للذكاء الاصطناعي Agents and Copilots
تقليل انكشاف البيانات في الذكاء الاصطناعي agents and copilots قم بتطبيق ضوابط حماية الخصوصية مثل تقليل البيانات، وضوابط الوصول، وإخفاء البيانات، وإنفاذ السياسات لمنع التسريب و...
عرض المزيد
من وضوح البيانات إلى سرعة الذكاء الاصطناعي
اطلع على الورقة البيضاء واكتشف كيف يتم توحيد DataAI security يحوّل إدارة البيانات إلى عامل تمكين للأعمال، ويعزز ابتكار الذكاء الاصطناعي من خلال الشفافية والامتثال وإدارة المخاطر...
عرض المزيد
قائد العملاء: ملخص الحل
تعرّف على كيفية قيام Agent Commander باكتشاف وكلاء الذكاء الاصطناعي، وحماية بيانات المؤسسة من خلال ضوابط التشغيل، وتصحيح أخطاء الذكاء الاصطناعي - مما يتيح اعتماد الذكاء الاصطناعي بشكل آمن ومتوافق مع المعايير في...
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti عرض المزيد
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti
التزم بتعديلات قانون خصوصية المستهلك في كاليفورنيا لعام 2026 باستخدام Securiti وتشمل هذه المتطلبات تحديث متطلبات الموافقة، وتوسيع تعريفات البيانات الحساسة، وتعزيز حقوق المستهلك، وتقييمات الجاهزية.
عرض المزيد
تخلص من مخاطر البيانات في الذكاء الاصطناعي
تعرف على كيفية إعداد بيانات المؤسسة لاعتماد Gemini Enterprise بشكل آمن من خلال الحوكمة الأولية، واكتشاف البيانات الحساسة، وضوابط سياسة ما قبل الفهرسة.
عرض المزيد
دليل الحصول على شهادة HITRUST
Securiti يُعد الكتاب الإلكتروني دليلاً عملياً للحصول على شهادة HITRUST، ويغطي كل شيء بدءاً من اختيار i1 مقابل r2 ونطاق الأنظمة وصولاً إلى إدارة خطط العمل والتخطيط...
ما هو
جديد