الإعلان عن Agent Commander - أول حل متكامل من Veeam + Securiti .ai تمكين توسيع نطاق وكلاء الذكاء الاصطناعي الآمنين

منظر

جولة فيمون 2026 - البيانات والذكاء الاصطناعي يتلاقيان من أجل عصر الوكلاء

منظر

التدابير المؤقتة التي اتخذتها الصين بشأن الذكاء الاصطناعي التوليدي: الأساسيات التي يجب معرفتها

المساهمون

أنس بيج

مدير تسويق المنتجات في Securiti

عادل حسن

السيد. Data Privacy محلل في Securiti

CIPM، CIPP/كندا

استمع إلى المحتوى

هذا المنشور متاح أيضاً باللغات التالية: English

في 13 يوليو/تموز 2023، أصدرت إدارة الفضاء الإلكتروني الصينية (CAC) وست جهات تنظيمية حكومية مركزية أخرى التدابير المؤقتة لإدارة خدمات الذكاء الاصطناعي التوليدي (تدابير الذكاء الاصطناعي). وجاء إصدار التدابير النهائية للذكاء الاصطناعي عقب نشر إدارة الفضاء الإلكتروني الصينية مسودة التدابير للاستشارة العامة في 11 أبريل/نيسان 2023.

من المقرر أن تدخل تدابير الذكاء الاصطناعي حيز التنفيذ في 15 أغسطس 2023، وقد تم صياغتها وفقًا للقوانين واللوائح الحالية مثل قانون الأمن السيبراني ( CSL )، وقانون أمن البيانات ( DSL )، وقانون حماية المعلومات الشخصية ( PIPL )، وقانون التقدم العلمي والتكنولوجي ( STPL ).

تهدف تدابير الذكاء الاصطناعي إلى ضمان إمكانية تعزيز بيئة صحية داخل الصين تسمح بالاستخدام المسؤول للذكاء الاصطناعي التوليدي (GenAI) دون التسبب في ضرر لا داعي له للأمن القومي والمصلحة الاجتماعية والعامة والحقوق والمصالح المشروعة للمواطنين، بما في ذلك الأشخاص الاعتباريين والمنظمات.

تعريفات المصطلحات الرئيسية

أ) تقنية الذكاء الاصطناعي من الجيل الأول

تشير تقنية GenAI إلى النماذج والتقنيات ذات الصلة التي لديها القدرة على إنشاء محتوى مثل النصوص والصور والصوت والفيديو.

ب) مزودو خدمات الذكاء الاصطناعي العام

يشير مقدمو خدمات الذكاء الاصطناعي العام (المقدمون) إلى المنظمات والأفراد الذين يستخدمون تقنية الذكاء الاصطناعي العام لتقديم خدمات الذكاء الاصطناعي العام (بما في ذلك تقديم خدمات الذكاء الاصطناعي العام من خلال توفير واجهات قابلة للبرمجة، وما إلى ذلك).

ج) مستخدمو خدمة GenAI

يشير مستخدمو خدمة GenAI (المستخدمون) إلى المنظمات والأفراد الذين يستخدمون خدمات الذكاء الاصطناعي التوليدي لإنشاء المحتوى.

نِطَاق

تُطبَّق تدابير الذكاء الاصطناعي على استخدام تقنية الذكاء الاصطناعي العام لتقديم خدمات الذكاء الاصطناعي العام للجمهور داخل أراضي جمهورية الصين الشعبية. ومع ذلك، في حال وجود لوائح محددة سارية المفعول بشأن استخدام خدمات الذكاء الاصطناعي العام في أنشطة مثل نشر الأخبار، وإنتاج الأفلام والبرامج التلفزيونية، والإبداع الأدبي والفني، فإن اللوائح المحددة ذات الصلة هي التي تسود على تدابير الذكاء الاصطناعي.

علاوة على ذلك، تُستثنى من تطبيق تدابير الذكاء الاصطناعي الجمعيات الصناعية والشركات والمؤسسات التعليمية والبحثية والمؤسسات الثقافية وبعض المؤسسات المهنية التي تُطوّر وتُطبّق تقنية الذكاء الاصطناعي العام ولكنها لا تُقدّم خدمات الذكاء الاصطناعي العام للجمهور. والجدير بالذكر أن المسودة الأولى لتدابير الذكاء الاصطناعي لم تُنصّ على هذا الاستثناء، بل شملت جميع أنواع استخدامات تقنية الذكاء الاصطناعي العام.

مبادئ الاستخدام

وفقًا لتدابير الذكاء الاصطناعي، يجب أن يتوافق تقديم خدمات الذكاء الاصطناعي التوليدي واستخدامها مع القوانين واللوائح السارية، وأن يلتزم بالقيم الأخلاقية والاجتماعية. ويتعين على المؤسسات التي تستخدم الذكاء الاصطناعي التوليدي لتقديم منتجات أو خدمات للجمهور داخل الصين الالتزام بالمبادئ التالية:

  1. التمسك بالقيم الاشتراكية الأساسية - يتعين على المنظمات اتخاذ تدابير صارمة للقضاء على فرص إنشاء أي محتوى قد:
    1. التحريض على تقويض السيادة الوطنية؛
    2. تعريض الأمن القومي للخطر؛
    3. الإضرار بصورة الأمة؛
    4. يدعو إلى الانفصال؛
    5. تقويض الاستقرار الاجتماعي؛
    6. الدعوة إلى الإرهاب؛
    7. الترويج للكراهية والتمييز العرقي؛
    8. نشر المعلومات المضللة والضارة؛
    9. اقترح إلغاء النظام الاشتراكي.
  2. الحد من التمييز - يجب على المنظمات أن تنسق بعناية عمليات مثل تصميم الخوارزميات، واختيار بيانات التدريب، وتوليد النماذج، والتحسين لمنع إنشاء وانتشار أي تمييز غير مقصود بشكل استباقي.
  3. احترام حقوق الملكية الفكرية - يجب على المنظمات تطبيق تدابير داخلية صارمة لاحترام وحماية جميع الأسرار التجارية وحقوق الملكية الفكرية مع تقليل احتمالية الاحتكارات أو المنافسة غير العادلة.
  4. احترام الحقوق والمصالح - يجب على المنظمات ضمان عدم تعريض الحقوق والمصالح المشروعة للأفراد والمنظمات للخطر بأي شكل من الأشكال، مثل صورتهم وسمعتهم وشرفهم وخصوصيتهم ومعلوماتهم الشخصية.
  5. ضمان الشفافية - يجب على المؤسسات اتخاذ تدابير صارمة وفعالة لزيادة شفافية خدمات الذكاء الاصطناعي التوليدية الخاصة بها والدقة والموثوقية الشاملة لأي محتوى يتم إنشاؤه عبر خدمات الذكاء الاصطناعي التوليدية.

التزامات مقدمي خدمات الذكاء الاصطناعي العام

فيما يلي بعض الالتزامات التي يجب على مقدمي الخدمات الالتزام بها بموجب تدابير الذكاء الاصطناعي:

أنشطة معالجة بيانات التدريب

يجب على مقدمي الخدمات تنفيذ أنشطة معالجة بيانات التدريب، بما في ذلك التدريب المسبق والتدريب على التحسين، وفقًا للقانون، ويجب عليهم ضمان ما يلي:

  • استخدم البيانات والنماذج الأساسية من مصادر موثوقة؛
  • تجنب انتهاك حقوق الملكية الفكرية القائمة للأفراد والمنظمات الأخرى؛
  • الحصول على موافقة صريحة من الأفراد عند استخدام معلوماتهم الشخصية؛
  • اتخاذ تدابير فعالة لتحسين جودة بيانات التدريب، وتعزيز مصداقية ودقة وموضوعية وتنوع بيانات التدريب؛
  • الامتثال لمتطلبات CSL وDSL وPIPL وغيرها من القوانين واللوائح ذات الصلة.

تصنيف البيانات

يجب على مقدمي الخدمات ضمان ما يلي أثناء تنفيذ عملية تصنيف البيانات خلال البحث والتطوير لتقنية الذكاء الاصطناعي العام:

  • صياغة قواعد واضحة ومحددة وقابلة للتطبيق لوضع العلامات؛
  • إجراء تقييم لجودة بيانات التسمية وإجراء التحقق من دقة محتوى التسمية عن طريق أخذ العينات؛
  • إجراء التدريب اللازم لموظفي وضع العلامات، بالإضافة إلى تحسين الوعي باحترام القانون والالتزام به، و
  • الإشراف على موظفي وضع الملصقات وتوجيههم لتوحيد عملية وضع الملصقات.

اتفاقيات الموردين

بموجب تدابير الذكاء الاصطناعي، يتحمل مقدمو الخدمات مسؤولية سلوك منتجي محتوى معلومات الشبكة، بالإضافة إلى التزامات أمن معلومات الشبكة بموجب القوانين السارية. ولحماية المعلومات الشخصية وضمان الامتثال للقوانين السارية، ينبغي على مقدمي الخدمات إبرام اتفاقيات ملزمة مع مورديهم تحدد التزاماتهم، ومراقبة امتثال الموردين بانتظام.

اتفاقيات المستخدم

تتطلب تدابير الذكاء الاصطناعي من مقدمي الخدمات إبرام اتفاقيات خدمة مع المستخدمين. ويجب أن توضح هذه الاتفاقيات حقوق والتزامات كل من مقدمي الخدمات والمستخدمين.

متطلبات الإفصاح

يجب على مقدمي الخدمات توضيح الفئات والمناسبات والاستخدامات التي تنطبق عليها خدماتهم للمستخدمين، والإفصاح عنها لهم. كما يجب عليهم توجيه المستخدمين لاستخدام تقنية الذكاء الاصطناعي العام (GenAI) بشكل علمي وعقلاني وفقًا للقانون، واتخاذ تدابير فعّالة لمنع القاصرين من الاعتماد المفرط على خدمات الذكاء الاصطناعي العام أو الإفراط في استخدامها.

بالإضافة إلى ذلك، يجب على مقدمي الخدمات أيضًا وضع علامات على الصور ومقاطع الفيديو والمحتوى الآخر الذي يتم إنشاؤه وفقًا للوائح المتعلقة بإدارة التركيب العميق لخدمات معلومات الإنترنت.

معالجة معلومات إدخال المستخدمين

يجب على مقدمي الخدمات حماية معلومات المستخدمين المدخلة والاحتفاظ بالسجلات وفقًا للقوانين واللوائح المعمول بها . ويجب على مقدمي الخدمات الامتناع عن:

  • جمع معلومات شخصية غير ضرورية؛
  • الاحتفاظ بمعلومات الإدخال بشكل غير قانوني واستخدام السجلات لتحديد هوية المستخدم؛ و
  • الكشف غير القانوني عن معلومات إدخال المستخدمين واستخدام السجلات لأطراف ثالثة.

حقوق المستخدمين

تمنح تدابير الذكاء الاصطناعي المستخدمين عدة حقوق. ويتعين على مقدمي الخدمات قبول طلبات المستخدمين، وهم أفراد، ومعالجتها في الوقت المناسب لممارسة الحقوق التالية:

  • الحق في مراجعة المعلومات الشخصية؛
  • الحق في الحصول على نسخة من المعلومات الشخصية؛
  • الحق في تصحيح المعلومات الشخصية؛
  • الحق في استكمال المعلومات الشخصية؛ و
  • الحق في حذف المعلومات الشخصية.

علاوة على ذلك، يحق للمستخدمين تقديم الشكاوى والإبلاغ عن أي خدمات GenAI التي لا تتوافق مع القوانين واللوائح وتدابير الذكاء الاصطناعي المعمول بها.

يراقب

يجب على مقدمي الخدمات ضمان المراقبة المنتظمة لخدمات الذكاء الاصطناعي من الجيل الجديد، والامتثال للمتطلبات التالية:

  • عندما يكتشف مزود الخدمة محتوى غير قانوني، يجب عليه اتخاذ التدابير المناسبة على الفور، مثل إيقاف الإنتاج، وإيقاف الإرسال، والإزالة، واتخاذ تدابير مثل تدريب تحسين النموذج للتصحيح، وإبلاغ السلطة المختصة ذات الصلة؛
  • عندما يكتشف المزود أن المستخدم يستخدم خدمة GenAI للانخراط في نشاط غير قانوني، يجب عليه اتخاذ تدابير مثل التحذير، وتقييد الوظائف، وتعليق أو إنهاء تقديم الخدمات له وفقًا للقانون، والاحتفاظ بالسجلات ذات الصلة، والإبلاغ إلى السلطة المختصة ذات الصلة.

آلية تقديم الشكاوى والتقارير

تُلزم تدابير الذكاء الاصطناعي مقدمي الخدمات بإنشاء آلية للشكاوى والبلاغات والحفاظ عليها. كما يجب عليهم نشر إجراءات معالجة الشكاوى والمهلة الزمنية المحددة للرد عليها، وقبول الشكاوى والبلاغات العامة ومعالجتها في الوقت المناسب، وتقديم ملاحظات حول نتائج المعالجة.

التقييمات الأمنية

يتعين على مقدمي الخدمات الذين يتمتعون بخصائص التأثير على الرأي العام أو القدرة على التعبئة الاجتماعية إجراء تقييمات أمنية وفقًا للوائح الدولة ذات الصلة. إضافةً إلى ذلك، يجب على هؤلاء المقدمين أيضًا تنفيذ إجراءات تقديم الخوارزميات وتعديلها وإلغائها وفقًا للوائح إدارة توصيات خوارزميات خدمة معلومات الإنترنت.

السلطات الإشرافية

تتولى مختلف إدارات الحكومة المركزية، بموجب تدابير الذكاء الاصطناعي، مسؤولية الإشراف على خدمات الذكاء الاصطناعي العام وتفتيشها وفقاً لواجباتها ومسؤولياتها. وتشمل هذه الإدارات ما يلي:

  • إدارات الأمن السيبراني والمعلوماتية
  • وزارة التنمية والإصلاح
  • وزارة التعليم والعلوم والتكنولوجيا
  • وزارة الصناعة والمعلوماتية
  • إدارة الأمن العام
  • قسم الإذاعة والتلفزيون
  • إدارة الصحافة والنشر

علاوة على ذلك، فإن إدارة معلومات الشبكة الوطنية مسؤولة عن إخطار المؤسسات المعنية لاتخاذ التدابير الفنية وغيرها من التدابير اللازمة عندما لا يتوافق تقديم خدمات الذكاء الاصطناعي من الجيل الأول القادمة من خارج جمهورية الصين الشعبية مع تدابير الذكاء الاصطناعي.

العقوبات المترتبة على عدم الامتثال

يتحمل مقدمو الخدمات الذين ينتهكون أحكام تدابير الذكاء الاصطناعي المسؤولية عن العقوبات وفقًا للقوانين المعمول بها، بما في ذلك CSL وDSL وPIPL وSTPL وما إلى ذلك. علاوة على ذلك، وبحسب طبيعة المخالفة، قد يخضع المخالفون أيضًا للملاحقة الجنائية.

كيف يمكن Securiti يساعد

تكتسب الصين بسرعة سمعة طيبة لكونها استباقية على نطاق واسع في صياغة وتكييف اللوائح المتعلقة بالذكاء الاصطناعي.

هذه الإجراءات، إلى جانب لوائح data privacy المعمول بها بالفعل، تجعل الصين ولاية قضائية معقدة بالنسبة للمنظمات التي تهدف إلى الامتثال لالتزاماتها التنظيمية بشكل كامل.

هذا هو المكان Securiti يمكن أن يكون ذلك مفيدًا للغاية.

شركة عالمية رائدة في مجال توفير خدمات المؤسسات data privacy حلول الأمن والامتثال والحوكمة، Securiti مركز قيادة البيانات™ هو حل مؤسسي قائم على Data Command Center إطار عمل يسمح للمؤسسات بتحسين إشرافها والتزامها باللوائح التنظيمية الشاملة للذكاء الاصطناعي والبيانات في الصين .

اطلب عرضًا تجريبيًا اليوم وتعرف على المزيد حول كيفية Securiti يمكننا مساعدتك في مساعدة مؤسستك على الامتثال للوائح الصينية data privacy واللوائح المتعلقة بالذكاء الاصطناعي اليوم.

قم بتحليل هذه المقالة باستخدام الذكاء الاصطناعي

تظهر المطالبات في أدوات الذكاء الاصطناعي التابعة لجهات خارجية.
انضم إلى قائمتنا البريدية

احصل على أحدث المعلومات والتحديثات القانونية والمزيد مباشرةً في بريدك الإلكتروني


يشارك

قصص أخرى قد تهمك
مقاطع فيديو
عرض المزيد
ريحان جليل، من شركة Veeam، يتحدث عن Agent Commander: theCUBE + NYSE Wired: قادة الأمن السيبراني
بعد استحواذ شركة Veeam على Securiti يمثل إطلاق برنامج Agent Commander خطوة هامة نحو مساعدة المؤسسات على تبني وكلاء الذكاء الاصطناعي بثقة أكبر. في...
عرض المزيد
تخفيف مخاطر قائمة OWASP لأهم 10 مخاطر لتطبيقات ماجستير القانون 2025
أحدث الذكاء الاصطناعي التوليدي (GenAI) تحولاً جذرياً في طريقة عمل الشركات وتوسعها ونموها. يوجد تطبيق للذكاء الاصطناعي لكل غرض، بدءاً من زيادة إنتاجية الموظفين وصولاً إلى تبسيط العمليات...
عرض المزيد
أفضل 6 DSPM حالات الاستخدام
مع ظهور الذكاء الاصطناعي التوليدي (GenAI)، أصبحت البيانات أكثر ديناميكية. يتم توليد بيانات جديدة بوتيرة أسرع من أي وقت مضى، ونقلها إلى أنظمة وتطبيقات متنوعة...
عرض المزيد
قانون الخصوصية في كولورادو (CPA)
ما هو قانون خصوصية كولورادو؟ قانون خصوصية كولورادو هو قانون شامل لحماية الخصوصية، تم توقيعه في 7 يوليو 2021. وقد وضع معايير جديدة لحماية البيانات الشخصية...
عرض المزيد
Securiti لمساعد الطيار في البرمجيات كخدمة (SaaS)
تسريع اعتماد Copilot بأمان وثقة: تتطلع المؤسسات إلى اعتماد Microsoft 365 Copilot لزيادة الإنتاجية والكفاءة. ومع ذلك، تظل المخاوف الأمنية، مثل حماية البيانات...
عرض المزيد
أهم عشرة اعتبارات لاستخدام البيانات غير المهيكلة بأمان مع الذكاء الاصطناعي العام
نسبة مذهلة تصل إلى 90% من بيانات المؤسسات غير منظمة. وتُستخدم هذه البيانات بسرعة لتغذية تطبيقات الذكاء الاصطناعي من الجيل الجديد، مثل روبوتات الدردشة والبحث المدعوم بالذكاء الاصطناعي.
عرض المزيد
جينكور للذكاء الاصطناعي: بناء أنظمة ذكاء اصطناعي آمنة وعالية الجودة للمؤسسات في دقائق
مع تبني المؤسسات للذكاء الاصطناعي التوليدي، تواجه فرق البيانات والذكاء الاصطناعي العديد من العقبات: ربط مصادر البيانات غير المهيكلة والمهيكلة بشكل آمن، والحفاظ على الضوابط والحوكمة المناسبة،...
عرض المزيد
كيفية التعامل مع قانون حماية خصوصية المستهلك في كاليفورنيا: رؤى أساسية للشركات
ما هو قانون حقوق الخصوصية في كاليفورنيا (CPRA)؟ هو تشريع ولاية كاليفورنيا الذي يهدف إلى حماية خصوصية سكانها الرقمية. وقد دخل حيز التنفيذ في يناير...
عرض المزيد
التكيف مع التحول: الانتقال إلى معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS) الإصدار 4.0
ما هو معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS)؟ هو مجموعة من معايير الأمان لضمان المعالجة والتخزين الآمنين للبيانات، و...
عرض المزيد
تأمين البيانات والذكاء الاصطناعي: دليل إدارة الثقة والمخاطر والأمن (TRiSM)
أثارت المخاطر الأمنية المتزايدة للذكاء الاصطناعي قلق 48% من مسؤولي أمن المعلومات حول العالم. انضموا إلى هذه الجلسة الرئيسية للتعرف على دليل عملي لتمكين الثقة في الذكاء الاصطناعي، وإدارة المخاطر،...

جلسات حوارية مميزة

تسليط الضوء
الاستعداد للمستقبل لمحترفي الخصوصية
شاهد الآن منظر
تسليط الضوء 50:52
من البيانات إلى النشر: حماية الذكاء الاصطناعي المؤسسي من خلال الأمن والحوكمة
شاهد الآن منظر
تسليط الضوء 11:29
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
شاهد الآن منظر
تسليط الضوء 11:18
إعادة هيكلة تمويل العقارات - كيف تُجري شركة ووكر آند دنلوب تحديثًا لمحفظتها الاستثمارية البالغة 135 مليار دولار أمريكي بالاعتماد على البيانات أولاً
شاهد الآن منظر
تسليط الضوء 13:38
تسريع المعجزات - كيف تُدمج شركة سانوفي الذكاء الاصطناعي لتقليص مدة تطوير الأدوية بشكل كبير
صورة مصغرة لشركة سانوفي
شاهد الآن منظر
تسليط الضوء 10:35
حدث تحول جوهري في مركز ثقل البيانات
شاهد الآن منظر
تسليط الضوء 14:21
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
شاهد الآن منظر
تسليط الضوء 12:!3
لا يمكنك بناء خطوط الأنابيب أو المستودعات أو منصات الذكاء الاصطناعي بدون معرفة تجارية
شاهد الآن منظر
تسليط الضوء 47:42
الأمن السيبراني – حيث يقوم القادة بالشراء والبناء والشراكة
ريحان جليل
شاهد الآن منظر
تسليط الضوء 27:29
بناء ذكاء اصطناعي آمن باستخدام Databricks و Gencore
ريحان جليل
شاهد الآن منظر
أحدث
عرض المزيد
بناء ذكاء اصطناعي سيادي باستخدام HPE Private Cloud AI و Veeam Securiti Gencore AI
كيف تُساهم تقنيات الذكاء الاصطناعي في السحابة الخاصة من HPE، وتسريع NVIDIA، وVeeam؟ Securiti يدعم نظام Gencore AI الذكاء الاصطناعي الآمن والمُدار للمؤسسات مع تطبيق السياسات عبر سير العمل RAG والمساعدين والوكلاء.
عرض المزيد
Securiti أعلنت شركة .ai عن اختيار شركة أكسنتشر كشريك العام لعام 2025
في إطار الاحتفال المستمر بالتعاون المؤثر في DataAI Security ، Securiti منحت شركة .ai، التابعة لشركة Veeam، شركة Accenture لقب شريك العام لعام 2025....
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ قانون حماية خصوصية المستهلك في كاليفورنيا؟ عرض المزيد
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ القانون؟
يمكن للشركات أن تستفيد من بعض الدروس الحيوية من أكبر إجراء إنفاذي تم اتخاذه مؤخراً في تاريخ قانون خصوصية المستهلك في كاليفورنيا (CCPA). Securiti مدونة 's تغطي جميع التفاصيل المهمة التي يجب معرفتها.
عرض المزيد
الذكاء الاصطناعي وقانون HIPAA: ما يعنيه وكيفية أتمتة الامتثال
تعرّف على كيفية تطبيق قانون قابلية نقل التأمين الصحي والمساءلة (HIPAA) على الذكاء الاصطناعي في تأمين المعلومات الصحية المحمية. تعلّم كيف...
عرض المزيد
الذكاء الاصطناعي الوكيل والخصوصية: إدارة وكلاء الذكاء الاصطناعي المستقلين في المؤسسات
تعرّف على كيفية إدارة الذكاء الاصطناعي الوكيل في المؤسسة. إدارة مخاطر الخصوصية، والتحكم في الوصول إلى البيانات، وإنفاذ السياسات، وضمان الامتثال لوكلاء الذكاء الاصطناعي المستقلين.
عرض المزيد
خيارات الانسحاب الدائمة: سحب الموافقة عبر التسويق، والبرمجيات كخدمة، والذكاء الاصطناعي العام
Securiti تقدم الورقة البيضاء الخاصة بـ [اسم الشركة] نظرة عامة مفصلة حول متطلبات سحب الموافقة المختلفة في مجالات التسويق، والبرمجيات كخدمة (SaaS)، والذكاء الاصطناعي العام (GenAI). اقرأ الآن لمعرفة المزيد.
عرض المزيد
ROT Data Minimization
التخلص من البيانات الزائدة والقديمة والتافهة (ROT) لتحسين دقة الذكاء الاصطناعي، وتقليل تكاليف التخزين، وتقليل مخاطر الأمن والامتثال على نطاق واسع.
عرض المزيد
قائد العملاء: ملخص الحل
تعرّف على كيفية قيام Agent Commander باكتشاف وكلاء الذكاء الاصطناعي، وحماية بيانات المؤسسة من خلال ضوابط التشغيل، وتصحيح أخطاء الذكاء الاصطناعي - مما يتيح اعتماد الذكاء الاصطناعي بشكل آمن ومتوافق مع المعايير في...
عرض المزيد
تخلص من مخاطر البيانات في الذكاء الاصطناعي
تعرف على كيفية إعداد بيانات المؤسسة لاعتماد Gemini Enterprise بشكل آمن من خلال الحوكمة الأولية، واكتشاف البيانات الحساسة، وضوابط سياسة ما قبل الفهرسة.
عرض المزيد
دليل الحصول على شهادة HITRUST
Securiti يُعد الكتاب الإلكتروني دليلاً عملياً للحصول على شهادة HITRUST، ويغطي كل شيء بدءاً من اختيار i1 مقابل r2 ونطاق الأنظمة وصولاً إلى إدارة خطط العمل والتخطيط...
ما هو
جديد