الإعلان عن Agent Commander - أول حل متكامل من Veeam + Securiti .ai تمكين توسيع نطاق وكلاء الذكاء الاصطناعي الآمنين

منظر

ما يجب معرفته عن متطلبات السلامة الأساسية في الصين لخدمات الذكاء الاصطناعي التوليدي

المساهمون

أنس بيج

مدير تسويق المنتجات في Securiti

سيدة إيمان غارديزي

شريك Data Privacy محلل في Securiti

أسعد أحمد قريشي

شريك Data Privacy محلل في Securiti

نُشر في 5 سبتمبر 2024

مقدمة

في 29 فبراير 2024، أصدرت اللجنة الفنية الوطنية لتوحيد معايير أمن المعلومات (TC260) الوثيقة الفنية المتعلقة بمتطلبات السلامة الأساسية لخدمات الذكاء الاصطناعي التوليدي (الوثيقة الفنية) . وتأتي هذه الوثيقة الفنية عقب مشاورات عامة موسعة جرت في أكتوبر 2023.

تهدف هذه الوثيقة الفنية إلى أن تكون مرجعًا أساسيًا لمقدمي الخدمات وهيئات الرقابة، حيث توفر معلومات حول كيفية إجراء تقييمات أمنية وتقييم مستوى الأمان العام لخدمات الذكاء الاصطناعي التوليدي المستخدمة. كما تهدف هذه الوثيقة الفنية إلى دعم التدابير المؤقتة لإدارة خدمات الذكاء الاصطناعي التوليدي (التدابير المؤقتة) التي نشرتها إدارة الفضاء الإلكتروني الصينية في 13 يوليو 2023 ودخلت حيز التنفيذ في 15 أغسطس 2023.

تفرض الوثيقة الفنية عدة التزامات ومتطلبات على مزودي الخدمات. وتهدف هذه الالتزامات والمتطلبات إلى ضمان الحد الأدنى من المخاطر في أي خدمات ذكاء اصطناعي عام يتم تكييفها ونشرها للاستخدام العام، مع منع إنتاج محتوى قد ينتهك اللوائح الوطنية الأخرى في الصين.

تابع القراءة لمعرفة المزيد حول متطلبات الوثيقة الفنية لمقدمي الخدمات وكيفية الالتزام بها.

ثانيًا: من يجب عليه الامتثال لهذه المتطلبات؟

ستنطبق هذه المتطلبات على جميع مزودي خدمات الذكاء الاصطناعي العام الذين يُجرون تقييمات السلامة، والذين يلتزمون باستمرار بتحسين مستويات السلامة لديهم. بالإضافة إلى ذلك، تُعدّ الوثيقة الفنية مرجعًا لإدارات الرقابة الرئيسية المعنية لتقييم مستويات السلامة لخدمات الذكاء الاصطناعي العام. لذا، فهي تتضمن مواصفات تتعلق بالمتطلبات الأساسية لجوانب السلامة في هذه الخدمات، مثل سلامة بيانات التدريب، وسلامة النماذج، وتدابير السلامة، ومتطلبات تقييم السلامة.

ثالثًا: تعريفات المصطلحات الرئيسية

فيما يلي بعض تعريفات المصطلحات الرئيسية المذكورة في هذه الوثيقة الفنية:

أ. خدمات الذكاء الاصطناعي التوليدي

استخدام الذكاء الاصطناعي التوليدي (GenAI) لتوفير المحتوى النصي والرسومي والصوتي والمرئي وغيره من أشكال المحتوى التي يتم إنشاؤها من خلال استخدام مجموعات بيانات واسعة النطاق وإتاحتها للجمهور داخل الصين.

ب. مزود الخدمة

فرد أو منظمة أو كيان يقدم خدمات الذكاء الاصطناعي العام في شكل واجهات قابلة للبرمجة أو تفاعلية.

ج. بيانات التدريب

جميع البيانات التي تدرجها المنظمة كجزء من مجموعة بيانات الإدخال الخاصة بها لتدريب النموذج وأثناء عمليات التدريب المسبق والتحسين.

د. معدل المعاينة المؤهل

نسبة العينات التي لا تحتوي على أي من المخاطر الأمنية الـ 31 المحددة في الوثيقة الفنية، مثل الترويج للعنف أو الكراهية العرقية أو المعلومات الكاذبة.

هـ. نموذج الأساس

نموذج شبكة عصبية عميقة تم تدريبه على كميات كبيرة من البيانات لأهداف وأغراض عامة، مما يسمح بتحسينه وتكييفه لمهام متعددة.

و- معلومات غير قانونية وغير صحية

تُدرج أحكام إدارة منظومة المحتوى المعلوماتي على الإنترنت تسعة أنواع من المعلومات الضارة وإحدى عشرة فئة من المعلومات غير القانونية. وترتبط هذه المعلومات بشكل أساسي بأي من فئات المخاطر الأمنية التسع والعشرين الموضحة في الملاحق من أ.1 إلى أ.4 تحت مسمى المعلومات غير القانونية وغير الصحية.

رابعاً: التزامات المنظمات

تفرض الوثيقة الفنية عدة التزامات ومتطلبات على الخاضعين لأحكامها، وتشمل ما يلي:

1. أحكام عامة

الغرض من الوثيقة الفنية هو تحديد متطلبات السلامة الأساسية التي يجب على المنظمات الالتزام بها.

يجب على مقدمي الخدمات الذين يقومون بإجراءات تقديم الملفات وفقًا لالتزاماتهم إجراء تقييمات وفقًا للمتطلبات المنصوص عليها في الوثيقة الفنية وتقديم أي تقارير ذات صلة تم إنشاؤها نتيجة لهذه التقييمات.

وبناءً على المتطلبات التنظيمية الأخرى في الصين، يجب تنفيذ أعمال سلامة إضافية تتعلق بالأمن السيبراني الخاص بمقدمي الخدمات، وأمن البيانات، وحماية البيانات الشخصية، وما إلى ذلك.

يجب إيلاء اهتمام خاص لفهم المخاطر والأخطار طويلة المدى التي تشكلها تقنيات الذكاء الاصطناعي العام، مع تبني نهج تحذيري تجاه أي خدمات للذكاء الاصطناعي العام قد تحاكي السلوك البشري أو يمكن استخدامها في إنشاء برامج ضارة أو أسلحة بيولوجية وكيميائية.

2. متطلبات السلامة في كوربوس

يشير مصطلح "المجموعة النصية" إلى مجموعة كبيرة وغير منظمة من النصوص أو مجموعات البيانات. ومن الضروري وجود متطلبات أمنية لحماية المعلومات الحساسة والالتزام بالمعايير الأخلاقية والقانونية.

متطلبات السلامة لمصدر كوربوس

متطلبات سلامة مصادر البيانات لمقدمي الخدمات هي كما يلي:

إدارة
  • قبل جمع البيانات من مصدر معين، يجب إجراء تقييم سلامة على مجموعات البيانات الخاصة بذلك المصدر. في حال احتوى المصدر على أكثر من 5% من المعلومات غير القانونية وغير الصحية، فلا يمكن جمع مجموعات البيانات من ذلك المصدر.
  • بعد جمع البيانات من مصدر محدد، يجب التحقق من محتوى هذا المصدر. إذا تجاوزت نسبة المحتوى غير القانوني أو غير اللائق 5%، فلا يمكن استخدام مجموعة البيانات للتدريب.
المطابقة

يجب على مقدمي الخدمات اتخاذ التدابير المناسبة لزيادة التنوع الإجمالي لمصادر النصوص، مع توفير مصادر متعددة لكل لغة وأنواع مختلفة من النصوص مثل النصوص والصور والتسجيلات الصوتية والفيديوهات. ويجب، عند الضرورة، مطابقة استخدام النصوص الأجنبية (بما في ذلك نصوص هونغ كونغ وماكاو وتايوان) مع مصادر النصوص المحلية.

إمكانية التتبع

عند استخدام مجموعة بيانات مفتوحة المصدر، تأكد من الحصول على اتفاقية ترخيص مفتوحة المصدر أو وثيقة ترخيص مماثلة خاصة بمصدر تلك المجموعة. علاوة على ذلك، في مثل هذه الحالات، يجب أن يكون مزود الخدمة قد جمع السجلات، ويجب ألا يكون قد جمع مجموعات بيانات تم تحديد أنها غير صالحة للجمع.

عند جمع المجموعات التجارية:

  • يجب أن يكون هناك عقد معاملة أو اتفاقية تعاون سارية المفعول قانونياً؛
  • إذا لم يتمكن الطرف المقابل أو الشريك من تقديم ضمانات تتعلق بمصدر أو جودة أو أمان مجموعة البيانات، فلا يمكن استخدام مجموعة البيانات المعنية؛
  • يجب مراجعة جميع المواد والوثائق الداعمة المقدمة من الطرف المقابل بدقة.

الأهم من ذلك، يجب عدم استخدام أي معلومات محظورة بموجب متطلبات القوانين والسياسات واللوائح الصينية المتعلقة بالأمن السيبراني كمدونة بيانات. بالإضافة إلى ذلك، عند قيام المستخدمين بتقديم معلومات لاستخدامها في مدونة البيانات، يُعد الاحتفاظ بسجلات مفصلة لتفويض المستخدم أمرًا بالغ الأهمية.

متطلبات سلامة محتوى المجموعة

متطلبات سلامة محتوى المدونة هي كما يلي:

تصفية

يجب على مقدمي الخدمات اعتماد أساليب مثل الكلمات الرئيسية ونماذج التصنيف وعمليات الفحص اليدوي العشوائي لتصفية أي معلومات غير قانونية وغير صحية في مجموعات البيانات.

حقوق الملكية الفكرية
  • يجب أن يكون لدى جميع مقدمي الخدمات موظفين متخصصين مسؤولين عن جميع حقوق الملكية الفكرية (IPR) للمجموعات بالإضافة إلى أي محتوى تم إنشاؤه بواسطة الذكاء الاصطناعي بما يتماشى مع استراتيجية إدارة حقوق الملكية الفكرية الخاصة بمقدم الخدمة؛
  • قبل استخدام مجموعة بيانات للتدريب، يجب تحديد المخاطر المحتملة لانتهاك حقوق الملكية الفكرية. إذا تم اكتشاف مثل هذه المخاطر، فلا ينبغي للمزود استخدام مجموعة البيانات هذه للتدريب؛
  • يجب على مقدمي الخدمات إنشاء قنوات واضحة للإبلاغ عن الشكاوى المتعلقة بقضايا حقوق الملكية الفكرية؛
  • ينبغي إبلاغ المستخدمين بشكل مناسب بالمسائل المتعلقة بحقوق الملكية الفكرية في اتفاقية خدمة المستخدم، بالإضافة إلى مسؤوليات والتزامات مقدمي الخدمة؛
  • يجب تحديث استراتيجية حقوق الملكية الفكرية في الوقت المناسب وبما يتوافق مع متطلبات السياسة الوطنية وكذلك شكاوى الأطراف الثالثة؛
  • يجب تطبيق تدابير حقوق الملكية الفكرية التالية:
    • الإفصاح عن المعلومات الموجزة المتعلقة بأجزاء من مجموعات النصوص ذات الصلة بحقوق الملكية الفكرية؛
    • تقديم الدعم في قنوات الإبلاغ عن الشكاوى للاستفسارات من جهات خارجية حول استخدام مجموعة النصوص وأي قضايا متعلقة بحقوق الملكية الفكرية أيضًا.
معلومات شخصية
  • قبل استخدام مجموعة بيانات تحتوي على معلومات شخصية، من المهم الحصول على موافقة الأفراد الذين تنتمي إليهم المعلومات بالإضافة إلى الامتثال لأي قوانين ولوائح أخرى ذات صلة؛
  • قبل استخدام مجموعة بيانات تحتوي على معلومات شخصية حساسة، من المهم الحصول على موافقة منفصلة من كل فرد تنتمي إليه المعلومات، بالإضافة إلى الامتثال لأي قوانين ولوائح أخرى ذات صلة.

متطلبات السلامة الخاصة بتعليقات النصوص

متطلبات السلامة الخاصة بتعليقات النصوص هي كما يلي:

المعلقون
  • يُكلف مقدمو الخدمات بتوفير تدريب داخلي على السلامة للمعلقين. يجب أن يشمل التدريب قواعد مهمة التعليق، وطرق استخدام أدوات التعليق، وطرق التحقق من جودة محتوى التعليق، بالإضافة إلى متطلبات إدارة أمن بيانات التعليق؛
  • يجب على مقدمي الخدمات إجراء فحوصات داخلية للمعلقين التابعين لهم مع وجود آليات لإعادة التدريب وإعادة التقييم بشكل منتظم، إلى جانب تعليق وإلغاء أهلية المعلق عند الضرورة؛
  • يجب تقسيم وظائف المعلقين إلى جزأين على الأقل، وهما: التعليق على البيانات ومراجعة البيانات، مع عدم قيام أي معلق بالدورين في وقت واحد؛
  • يجب تزويد المعلقين بالوقت والموارد المناسبة لأداء كل مهمة.
قواعد التعليق
  • يجب أن تتضمن قواعد الشرح، كحد أدنى، أهداف الشرح، وتنسيقات البيانات، وطرق الشرح، ومؤشرات الجودة؛
  • يجب وضع قواعد التعليقات الوظيفية وتعليقات السلامة بشكل منفصل، بحيث يغطي كل منهما تعليقات البيانات ومراجعة البيانات كحد أدنى؛
  • يجب أن توجه قواعد الشرح الوظيفي القائمين على الشرح حول كيفية إنتاج مجموعات النصوص المشروحة التي تتسم بالأصالة والدقة والموضوعية والتنوع وفقًا لمتطلبات السوق والمتطلبات التنظيمية؛
  • يجب أن توجه قواعد التعليق المتعلقة بالسلامة المعلقين حول كيفية التعليق مع تجنب مخاطر السلامة الرئيسية المحيطة بالمجموعة وإنشاء محتوى بقواعد تعليق مقابلة لأنواع المخاطر الـ 31 المحددة في الوثيقة الفنية.
دقة البيانات المشروحة

عند إضافة التعليقات لأغراض وظيفية، تخضع كل مجموعة لمراجعة يدوية. إذا كانت غير دقيقة أو غير قانونية أو غير سليمة، يُعاد إضافة التعليقات إليها أو تُعتبر لاغية. علاوة على ذلك، ولضمان السلامة، يجب على مدقق واحد على الأقل مراجعة كل مجموعة بيانات مُعلّقة والموافقة عليها.

يجب تخزين جميع بيانات التعليقات المتعلقة بالسلامة بطريقة منفصلة.

3. متطلبات السلامة النموذجية

متطلبات السلامة النموذجية لمقدمي الخدمات هي كما يلي:

نموذج مؤسسة الطرف الثالث

إذا قام مزود الخدمة بتقديم خدمة بناءً على نموذج مؤسسة طرف ثالث، فيجب عليه التأكد من أن نموذج المؤسسة قد تم تقديمه بشكل صحيح إلى إدارة الرقابة ذات الصلة.

سلامة المحتوى المُنشأ بواسطة النموذج

  • يجب أن تُعتبر سلامة المحتوى المُنشأ أحد المؤشرات الرئيسية التي يجب مراعاتها في تقييم نتائج الإنتاج أثناء عملية التدريب؛
  • يجب إجراء اختبارات السلامة على جميع المعلومات التي يقدمها المستخدمون لتوجيه النموذج نحو توليد محتوى إيجابي؛
  • يجب وضع تدابير منتظمة للمراقبة والتقييم، ويجب التعامل مع أي مشكلات يتم تحديدها على الفور وبشكل مناسب من خلال التعليم الموجه والتحسين والتعلم المعزز.

دقة المحتوى المُنشأ

يجب اتخاذ التدابير التقنية المناسبة لتحسين استجابة المحتوى المُنشأ لأهداف المستخدمين. وفي الوقت نفسه، ينبغي اتخاذ خطوات لضمان توافق صياغة المحتوى مع المعرفة العلمية والفهم السائد، مع تقليل الأخطاء فيه إلى أدنى حد.

موثوقية المحتوى المُنشأ

ينبغي تركيز الجهود على تنفيذ التدابير التقنية المناسبة التي تعزز تماسك وصحة المحتوى المُنشأ، وبالتالي زيادة فائدته وقيمته للمستخدمين.

4. متطلبات تدابير السلامة

متطلبات إجراءات السلامة هي كالتالي:

ملاءمة

  • يجب على مقدمي الخدمات إثبات ضرورة خدمات الذكاء الاصطناعي من الجيل الجديد، ومدى ملاءمتها، وسلامتها عند نشرها؛
  • إذا كان من المقرر استخدام خدمات الذكاء الاصطناعي العام للبنية التحتية للمعلومات الحيوية أو أي مواقف مهمة أخرى مثل التحكم الآلي وخدمات المعلومات الطبية والاستشارات النفسية وخدمات المعلومات المالية، فيجب وضع تدابير وقائية مناسبة لمواجهة المخاطر؛
  • إذا اعتُبرت الخدمة مناسبة للأطفال:
    • يجب السماح للوالدين أو الأوصياء بوضع تدابير لمكافحة الإدمان؛
    • لا يجوز تقديم خدمات مدفوعة الأجر للقاصرين تتعارض مع قدرتهم على التصرف كبالغين؛
    • يجب عرض المحتوى الذي يُعتبر مفيدًا للصحة البدنية والعقلية للقاصرين بشكل واضح.

إذا لم تعتبر الخدمة مناسبة للأطفال، فيجب وضع تدابير فنية وإدارية لمنعهم من استخدامها.

شفافية الخدمة

في الحالات التي تعتمد فيها الخدمة على واجهة تفاعلية، من المهم توضيح معلومات على الصفحة الرئيسية، مثل من يمكنه الاستفادة من الخدمة، ومتى تكون مفيدة، والنموذج الأساسي الذي تستند إليه. يساعد هذا المستخدمين على فهم كيفية استخدام الخدمة بفعالية ومتى.

علاوة على ذلك، سيحتوي الإفصاح المذكور أعلاه أيضاً على المعلومات التالية:

  • قيود الخدمة؛
  • معلومات موجزة عن النماذج والخوارزميات المستخدمة؛
  • المعلومات الشخصية التي يتم جمعها واستخداماتها.

إذا كانت الخدمة المقدمة تعتمد على واجهة قابلة للبرمجة، فيجب الكشف عن جميع المعلومات المذكورة أعلاه في وثيقة وصفية.

معلومات المستخدم في التدريب

  • يجب تزويد المستخدمين بخيار إلغاء الاشتراك في استخدام معلوماتهم المدخلة لأغراض التدريب. ويمكن تحقيق ذلك من خلال خيارات قابلة للتحديد، أو أوامر صوتية، أو غيرها من الوسائل المريحة. على سبيل المثال، ينبغي أن يكون خيار إلغاء الاشتراك سهل الوصول إليه من واجهة الخدمة الرئيسية.
  • كما هو موضح في النقطة المذكورة أعلاه، يجب إبلاغ المستخدمين بوضوح بحالة جمع مدخلات المستخدم والطريقة (الطرق) المتاحة لإلغاء الاشتراك.

شرح

يجب أن تستوفي جميع التعليقات التوضيحية لمحتوى الصور والصوت والفيديو المتطلبات ذات الصلة للوائح والمعايير الوطنية.

أنظمة الحوسبة في التدريب

  • يجب إجراء تقييم شامل لاستمرارية واستقرار الإمداد لتقييم أمن سلسلة التوريد للرقائق والبرامج والأدوات وقوة الحوسبة المستخدمة في النظام بشكل صحيح؛
  • يجب أن تدعم أي رقائق مستخدمة خاصية التمهيد الآمن القائم على الأجهزة، وعملية التمهيد الموثوقة، والتحقق الأمني.

الشكاوى/التقارير الواردة من الجمهور

  • يجب وضع طرق وآليات مناسبة للسماح للجمهور والمستخدمين بتقديم الشكاوى والتقارير من خلال آليات تشمل على سبيل المثال لا الحصر الهاتف والبريد الإلكتروني والنوافذ التفاعلية والرسائل النصية؛
  • يجب وضع قواعد للتعامل مع الشكاوى والتقارير العامة.

تقديم الخدمات للمستخدمين

  • يجب اعتماد الأساليب المناسبة حيث يمكن تقييم المعلومات التي يقدمها المستخدمون، وإذا تم تقديم معلومات غير قانونية أو غير صحية أكثر من خمس مرات لكل مستخدم في يوم واحد، أو ثلاث مرات متتالية، فقد يتم تعليق حسابه؛
  • سيتم رفض الإجابة على الأسئلة التي تتسم بالتطرف الواضح، بما في ذلك تلك التي تحث على نشر معلومات غير قانونية وغير صحية. أما باقي الأسئلة فسيتم الرد عليها بشكل طبيعي.
  • يجب تعيين موظفين للمراقبة إلى جانب اتخاذ تدابير لتحسين الجودة والسلامة وفقًا للظروف.

تحديثات النموذج

  • يجب وضع استراتيجية لإدارة السلامة من أجل التحديث والتطوير في الوقت المناسب للنماذج؛
  • يجب تشكيل آلية إدارية لتنظيم جميع تقييمات السلامة الداخلية بعد ترقية النماذج.

ملاءمة الخدمة واستمراريتها

  • من الضروري فصل بيئات التدريب والاستدلال لمنع تسرب البيانات ومشاكل الوصول؛
  • المراقبة المستمرة لمحتوى إدخال النموذج لمنع هجمات الإدخال؛
  • إجراء عمليات تدقيق أمني منتظمة لتحديد وإصلاح الثغرات الأمنية المحتملة؛
  • يجب وضع آليات نسخ احتياطي مناسبة للبيانات والنماذج والأطر والأدوات واستراتيجيات الاسترداد التي تركز على استمرارية الأعمال.

5. متطلبات أخرى

مكتبة الكلمات المفتاحية

متطلبات مكتبة الكلمات المفتاحية هي كالتالي:

  • يجب أن تكون مكتبة الكلمات الرئيسية شاملة، بحيث لا تقل عن 10000 كلمة؛
  • يجب أن تكون مكتبة الكلمات الرئيسية تمثيلية بشكل مناسب وأن تغطي مخاطر السلامة الـ 17 المحددة في الوثيقة الفنية بما لا يقل عن 200 كلمة رئيسية لكل خطر من مخاطر السلامة في الملحق أ.1 وما لا يقل عن 100 كلمة رئيسية لكل خطر في الملحق أ.2؛
  • يجب تحديث مكتبة الكلمات الرئيسية مرة واحدة على الأقل أسبوعياً، وفقاً لمتطلبات الأمن السيبراني ذات الصلة.

بنك أسئلة اختبار المحتوى المُنشأ

ينبغي إنشاء بنك أسئلة اختبار للمحتوى المُنشأ على النحو التالي:

  • يجب أن يكون بنك أسئلة اختبار المحتوى المُنشأ شاملاً، بحيث لا يقل عن 2000 سؤال؛
  • يجب أن يكون بنك أسئلة اختبار المحتوى المُنشأ ممثلاً بشكل مناسب ويغطي مخاطر السلامة الـ 31 المحددة في الوثيقة الفنية بما لا يقل عن 50 سؤالاً لكل خطر من مخاطر السلامة في الملحقين أ.1 وأ.2 وما لا يقل عن 20 سؤالاً لمخاطر السلامة المتبقية؛
  • يجب تحديث بنك أسئلة اختبار المحتوى المُنشأ مرة واحدة على الأقل شهريًا، وفي الوقت المناسب وفقًا لمتطلبات الأمن السيبراني ذات الصلة.

بنك أسئلة رفض الإجابة

المتطلبات ذات الصلة هي كما يلي:

  • يجب إنشاء بنك أسئلة اختبارية حول الأسئلة التي ينبغي على النموذج رفض الإجابة عليها:
  • يجب أن تكون مجموعة أسئلة الاختبار التي يرفض النموذج الإجابة عليها شاملة، بحيث لا تقل عن 500 سؤال؛
  • يجب أن تكون مجموعة أسئلة الاختبار ممثلة بشكل مناسب وتغطي مخاطر السلامة الـ 17 المحددة في الوثيقة الفنية ضمن الملحقين أ.1 وأ.2، مع ما لا يقل عن 20 سؤالاً لكل خطر من مخاطر السلامة المحددة.

ينبغي إنشاء بنك أسئلة الاختبار حول الأسئلة التي لا ينبغي للنموذج أن يرفض الإجابة عليها:

  • ينبغي أن تكون مجموعة أسئلة الاختبار التي لا ينبغي للنموذج أن يرفض الإجابة عليها شاملة ولا تقل عن 500 سؤال؛
  • يجب أن تكون مجموعة أسئلة الاختبار التي لا ينبغي للنموذج أن يرفض الإجابة عليها تمثيلية، وتغطي جوانب النظام الصيني، والمعتقدات، والصورة، والثقافة، والعرق، والجغرافيا، والتاريخ، والشهداء الأبطال، بالإضافة إلى الأسئلة ذات الصلة بالجنس، والعمر، والمهنة، والصحة، بما لا يقل عن 20 مثالاً لكل نوع من أنواع أسئلة الاختبار؛
  • إذا لم تكن بعض الجوانب المذكورة أعلاه جزءًا من نموذج متخصص لمجال معين، فلا داعي لإدراج أسئلة اختبار لتلك الأجزاء في بنك الأسئلة التي لا ينبغي رفضها. مع ذلك، ينبغي إدراج تلك الأجزاء في بنك أسئلة الاختبار التي ينبغي رفضها.

يجب تحديث بنك أسئلة الاختبار التي يجب رفضها مرة واحدة على الأقل شهريًا، وفي الوقت المناسب وفقًا لمتطلبات الأمن السيبراني ذات الصلة.

نماذج التصنيف

يجب أن تغطي نماذج التصنيف المستخدمة لتصفية محتوى مجموعة التدريب ولتقييم سلامة المحتوى المُنشأ جميع مخاطر السلامة الـ 31 المحددة في الوثيقة الفنية.

6. متطلبات تقييم السلامة

أساليب التقييم

متطلبات أسلوب التقييم هي كما يلي:

  • يمكن إجراء تقييم السلامة داخليًا وفقًا لمتطلبات الوثيقة الفنية من قبل مزود الخدمة نفسه أو عن طريق طرف ثالث؛
  • يجب أن يشمل تقييم السلامة الأحكام الضرورية المحددة في الوثيقة. علاوة على ذلك، ينبغي إجراء تقييم منفصل لكل حكم، على أن تُصنف نتائجه إلى "مطابق" أو "غير مطابق" أو "غير قابل للتطبيق".

إذا كانت النتيجة متوافقة، فينبغي أن يكون هناك ما يكفي من الأدلة الداعمة لها. أما إذا كانت النتيجة غير متوافقة، فسيتم توضيح الأسباب مع تقديم توضيحات إضافية في الحالات التالية:

  • التدابير الفنية أو الإدارية التي لا تتوافق مع متطلبات الوثيقة الفنية ولكنها قادرة على تحقيق نفس التأثير الأمني، إلى جانب شرح مفصل لفعاليتها.
  • التدابير الفنية أو الإدارية المتخذة التي لا تفي بالمتطلبات والتدابير اللاحقة التي يتعين اتخاذها.

ينبغي توضيح أسباب عدم قابلية التطبيق إذا كانت النتيجة غير قابلة للتطبيق.

  • يجب تضمين نتائج التقييم لكل بند، بالإضافة إلى المستندات الداعمة الأخرى اللازمة، في تقرير التقييم:
    • يجب أن يتوافق تقرير التقييم مع متطلبات إجراءات التقديم؛
    • أثناء كتابة تقرير التقييم، إذا تعذر تدوين استنتاجات تقرير التقييم بسبب تنسيق التقرير، فيمكن إضافتها كمرفقات.
  • يجب تضمين استنتاج التقييم العام في تقرير التقييم:
    • إذا كانت نتائج التقييم لجميع الأحكام متوافقة أو غير قابلة للتطبيق، فسيكون الاستنتاج العام للتقييم هو أن المتطلبات قد تم استيفاؤها؛
    • إذا كانت نتائج التقييم لبعض الأحكام "غير متوافقة"، فسيتم استيفاء متطلبات التقييم الإجمالية جزئياً؛
    • إذا تم العثور على عدم مطابقة لجميع الأحكام، فسيكون استنتاج التقييم العام هو أنه لم يتم استيفاء أي من المتطلبات؛
    • لن تؤثر نتائج تقييم الأحكام الواردة في الفصول من 5 إلى 8 من الوثيقة الفنية على استنتاج التقييم العام.
  • إذا تم إجراء تقييم السلامة داخلياً، فيجب أن تحمل تقارير التقييم توقيعات عدد من الموظفين على الأقل ممن يشغلون مناصب المسؤولية:
    • الممثل القانوني لوحدة العمل؛
    • الشخص المسؤول عن إجراء أعمال تقييم السلامة؛
    • الشخص المسؤول عن ضمان التقييم القانوني لتقييم السلامة أو الشخص المسؤول عن الشؤون القانونية.

تقييم سلامة كوربوس

يجب على مقدمي الخدمات اتباع الإرشادات التالية أثناء إجراء تقييم سلامة البنية التحتية:

  • يجب أن يكون معدل التأهل 96% على الأقل من خلال عمليات التحقق اليدوية العشوائية والاختيار العشوائي لما لا يقل عن 4000 مجموعة بيانات من قاعدة بيانات التدريب بأكملها.
  • يجب أن يكون معدل تأهيل أخذ العينات 98% على الأقل من خلال استخدام الكلمات الرئيسية ونماذج التصنيف وغيرها من عمليات التحقق الفنية الموضعية، بالإضافة إلى أخذ عينات عشوائية بنسبة 10% على الأقل من مجموعة بيانات التدريب بأكملها.
  • يجب أن تستوفي مكتبة الكلمات الرئيسية ونموذج التصنيف المستخدم في التقييم المتطلبات المنصوص عليها في الفصل 8 من الوثيقة الفنية.

تقييم سلامة المحتوى المُنشأ

فيما يلي متطلبات مقدمي الخدمات عند تقييم سلامة المحتوى المُنشأ:

  • سيتم تفسير بنك أسئلة اختبار المحتوى المُنشأ الذي يفي بالمتطلبات الواردة في القسم 8.2 من الوثيقة الفنية؛
  • باستخدام عمليات التحقق اليدوي العشوائي وأخذ العينات العشوائية بما لا يقل عن 1000 سؤال اختبار من بنك أسئلة اختبار المحتوى الذي تم إنشاؤه، يجب ألا يقل معدل تأهيل أخذ العينات للمحتوى الذي تم إنشاؤه بواسطة النموذج عن 90٪؛
  • باستخدام عمليات التحقق الموضعية القائمة على نموذج التصنيف وأخذ عينات عشوائية من 1000 سؤال اختبار على الأقل من بنك أسئلة اختبار المحتوى الذي تم إنشاؤه، يجب أن يكون معدل تأهيل أخذ العينات للمحتوى الذي تم إنشاؤه بواسطة النموذج 90٪ على الأقل.

تقييم رفض الإجابة على الأسئلة

فيما يلي متطلبات مقدمي الخدمات عند تقييم رفض الأسئلة:

  • سياسة الرفض : يجب على مقدمي الخدمات إنشاء سياسة رفض الأسئلة التي تتوافق مع المتطلبات الموضحة في القسم 8.3 من الوثيقة الفنية.
  • معدل الرفض : يتم اختيار عينة عشوائية لا تقل عن 300 سؤال اختبار من بنك أسئلة الاختبار التي يجب على النموذج رفض الإجابة عليها. يجب ألا يقل معدل رفض النموذج عن 95%.
  • معدل عدم الرفض : عينة عشوائية لا تقل عن 300 سؤال اختبار من بنك أسئلة الاختبار التي لا ينبغي للنموذج أن يرفض الإجابة عليها؛ يجب ألا يتجاوز معدل رفض النموذج 5٪.

خامساً: كيف Securiti يمكن المساعدة

رسخت الصين مكانتها كواحدة من الشركات العالمية الرائدة في مجال ابتكارات الذكاء الاصطناعي من الجيل الأول.

وفي الوقت نفسه، اتخذت نهجاً استباقياً للغاية لتنظيم استخدام خدمات الذكاء الاصطناعي من الجيل الأول لضمان قدرة المؤسسات على مواصلة الاستفادة من هذه الأدوات إلى أقصى حد ممكن دون التسبب في مخاطر كبيرة تتعلق بالخصوصية أو غيرها من المخاطر على مستخدميها.

Securiti هو رائد في Data Command Center منصة مركزية تُمكّن من الاستخدام الآمن للبيانات والذكاء الاصطناعي العام. توفر هذه المنصة ذكاءً موحدًا للبيانات، وضوابط، وتنسيقًا عبر بيئات سحابية هجينة متعددة. وتعتمد عليها كبرى الشركات العالمية. Securiti 's Data Command Center لأغراض أمن البيانات والخصوصية والحوكمة والامتثال.

ال Data Command Center هو حل مؤسسي قائم على Data Command Center إطار عمل يسمح للمؤسسات بتحسين إشرافها والتزامها بالالتزامات التنظيمية الصينية الواسعة النطاق المتعلقة بالذكاء الاصطناعي والبيانات بسلاسة عبر لوحة تحكم مركزية من خلال العديد من الوحدات والحلول المتكاملة.

اطلب عرضًا تجريبيًا اليوم لمعرفة المزيد حول كيفية Securiti يمكننا مساعدتك في مساعدة مؤسستك على الامتثال للوائح الصينية المختلفة المتعلقة بالذكاء الاصطناعي والبيانات.

قم بتحليل هذه المقالة باستخدام الذكاء الاصطناعي

تظهر المطالبات في أدوات الذكاء الاصطناعي التابعة لجهات خارجية.
انضم إلى قائمتنا البريدية

احصل على أحدث المعلومات والتحديثات القانونية والمزيد مباشرةً في بريدك الإلكتروني



قصص أخرى قد تهمك
مقاطع فيديو
عرض المزيد
ريحان جليل، من شركة Veeam، يتحدث عن Agent Commander: theCUBE + NYSE Wired: قادة الأمن السيبراني
بعد استحواذ شركة Veeam على Securiti يمثل إطلاق برنامج Agent Commander خطوة هامة نحو مساعدة المؤسسات على تبني وكلاء الذكاء الاصطناعي بثقة أكبر. في...
عرض المزيد
تخفيف مخاطر قائمة OWASP لأهم 10 مخاطر لتطبيقات ماجستير القانون 2025
أحدث الذكاء الاصطناعي التوليدي (GenAI) تحولاً جذرياً في طريقة عمل الشركات وتوسعها ونموها. يوجد تطبيق للذكاء الاصطناعي لكل غرض، بدءاً من زيادة إنتاجية الموظفين وصولاً إلى تبسيط العمليات...
عرض المزيد
أفضل 6 DSPM حالات الاستخدام
مع ظهور الذكاء الاصطناعي التوليدي (GenAI)، أصبحت البيانات أكثر ديناميكية. يتم توليد بيانات جديدة بوتيرة أسرع من أي وقت مضى، ونقلها إلى أنظمة وتطبيقات متنوعة...
عرض المزيد
قانون الخصوصية في كولورادو (CPA)
ما هو قانون خصوصية كولورادو؟ قانون خصوصية كولورادو هو قانون شامل لحماية الخصوصية، تم توقيعه في 7 يوليو 2021. وقد وضع معايير جديدة لحماية البيانات الشخصية...
عرض المزيد
Securiti لمساعد الطيار في البرمجيات كخدمة (SaaS)
تسريع اعتماد Copilot بأمان وثقة: تتطلع المؤسسات إلى اعتماد Microsoft 365 Copilot لزيادة الإنتاجية والكفاءة. ومع ذلك، تظل المخاوف الأمنية، مثل حماية البيانات...
عرض المزيد
أهم عشرة اعتبارات لاستخدام البيانات غير المهيكلة بأمان مع الذكاء الاصطناعي العام
نسبة مذهلة تصل إلى 90% من بيانات المؤسسات غير منظمة. وتُستخدم هذه البيانات بسرعة لتغذية تطبيقات الذكاء الاصطناعي من الجيل الجديد، مثل روبوتات الدردشة والبحث المدعوم بالذكاء الاصطناعي.
عرض المزيد
جينكور للذكاء الاصطناعي: بناء أنظمة ذكاء اصطناعي آمنة وعالية الجودة للمؤسسات في دقائق
مع تبني المؤسسات للذكاء الاصطناعي التوليدي، تواجه فرق البيانات والذكاء الاصطناعي العديد من العقبات: ربط مصادر البيانات غير المهيكلة والمهيكلة بشكل آمن، والحفاظ على الضوابط والحوكمة المناسبة،...
عرض المزيد
كيفية التعامل مع قانون حماية خصوصية المستهلك في كاليفورنيا: رؤى أساسية للشركات
ما هو قانون حقوق الخصوصية في كاليفورنيا (CPRA)؟ هو تشريع ولاية كاليفورنيا الذي يهدف إلى حماية خصوصية سكانها الرقمية. وقد دخل حيز التنفيذ في يناير...
عرض المزيد
التكيف مع التحول: الانتقال إلى معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS) الإصدار 4.0
ما هو معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS)؟ هو مجموعة من معايير الأمان لضمان المعالجة والتخزين الآمنين للبيانات، و...
عرض المزيد
تأمين البيانات والذكاء الاصطناعي: دليل إدارة الثقة والمخاطر والأمن (TRiSM)
أثارت المخاطر الأمنية المتزايدة للذكاء الاصطناعي قلق 48% من مسؤولي أمن المعلومات حول العالم. انضموا إلى هذه الجلسة الرئيسية للتعرف على دليل عملي لتمكين الثقة في الذكاء الاصطناعي، وإدارة المخاطر،...

جلسات حوارية مميزة

تسليط الضوء 50:52
من البيانات إلى النشر: حماية الذكاء الاصطناعي المؤسسي من خلال الأمن والحوكمة
شاهد الآن منظر
تسليط الضوء 11:29
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
شاهد الآن منظر
تسليط الضوء 11:18
إعادة هيكلة تمويل العقارات - كيف تُجري شركة ووكر آند دنلوب تحديثًا لمحفظتها الاستثمارية البالغة 135 مليار دولار أمريكي بالاعتماد على البيانات أولاً
شاهد الآن منظر
تسليط الضوء 13:38
تسريع المعجزات - كيف تُدمج شركة سانوفي الذكاء الاصطناعي لتقليص مدة تطوير الأدوية بشكل كبير
صورة مصغرة لشركة سانوفي
شاهد الآن منظر
تسليط الضوء 10:35
حدث تحول جوهري في مركز ثقل البيانات
شاهد الآن منظر
تسليط الضوء 14:21
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
شاهد الآن منظر
تسليط الضوء 12:!3
لا يمكنك بناء خطوط الأنابيب أو المستودعات أو منصات الذكاء الاصطناعي بدون معرفة تجارية
شاهد الآن منظر
تسليط الضوء 47:42
الأمن السيبراني – حيث يقوم القادة بالشراء والبناء والشراكة
ريحان جليل
شاهد الآن منظر
تسليط الضوء 27:29
بناء ذكاء اصطناعي آمن باستخدام Databricks و Gencore
ريحان جليل
شاهد الآن منظر
تسليط الضوء 46:02
بناء ذكاء اصطناعي آمن للمؤسسات: خارطة طريق عملية
شاهد الآن منظر
أحدث
عرض المزيد
نقدم لكم قائد العملاء
إن وعود وكلاء الذكاء الاصطناعي مذهلة - فالأنظمة الذكية التي تتخذ القرارات، وتستخدم الأدوات، وتؤتمت سير العمل المعقد، تعمل كمضاعفات قوة لكل معرفة...
عزل المخاطر: أكبر مشكلة في الذكاء الاصطناعي لا تتحدث عنها مجالس الإدارة عرض المزيد
عزل المخاطر: أكبر مشكلة في الذكاء الاصطناعي لا تتحدث عنها مجالس الإدارة
تتابع مجالس الإدارة نقاش الذكاء الاصطناعي، لكن هناك نقطة عمياء لم تُشر إليها العديد من المؤسسات بعد: وهي عزلة أقسام إدارة المخاطر. الجميع متفقون على ذلك. AI governance ...
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ قانون حماية خصوصية المستهلك في كاليفورنيا؟ عرض المزيد
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ القانون؟
يمكن للشركات أن تستفيد من بعض الدروس الحيوية من أكبر إجراء إنفاذي تم اتخاذه مؤخراً في تاريخ قانون خصوصية المستهلك في كاليفورنيا (CCPA). Securiti مدونة 's تغطي جميع التفاصيل المهمة التي يجب معرفتها.
عرض المزيد
الذكاء الاصطناعي وقانون HIPAA: ما يعنيه وكيفية أتمتة الامتثال
تعرّف على كيفية تطبيق قانون قابلية نقل التأمين الصحي والمساءلة (HIPAA) على الذكاء الاصطناعي في تأمين المعلومات الصحية المحمية. تعلّم كيف...
عرض المزيد
من وضوح البيانات إلى سرعة الذكاء الاصطناعي
اطلع على الورقة البيضاء واكتشف كيف يتم توحيد DataAI security يحوّل إدارة البيانات إلى عامل تمكين للأعمال، ويعزز ابتكار الذكاء الاصطناعي من خلال الشفافية والامتثال وإدارة المخاطر...
عرض المزيد
دليل تنفيذ قانون بيانات الاتحاد الأوروبي: التعامل مع طلبات الوصول إلى البيانات، ومشاركة البيانات، والتحويل السحابي
Securiti توفر الورقة البيضاء الخاصة بـ دليل تنفيذ مفصل لتحقيق الامتثال لقانون البيانات، مما يجعلها قراءة أساسية للشركات التي تعمل بالبيانات في الاتحاد الأوروبي.
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti عرض المزيد
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti
التزم بتعديلات قانون خصوصية المستهلك في كاليفورنيا لعام 2026 باستخدام Securiti وتشمل هذه المتطلبات تحديث متطلبات الموافقة، وتوسيع تعريفات البيانات الحساسة، وتعزيز حقوق المستهلك، وتقييمات الجاهزية.
عرض المزيد
أين تنتهك الخصوصية: الذكاء الاصطناعي الوكيل في المؤسسات
يُحدث الذكاء الاصطناعي الآلي تحولاً جذرياً في المؤسسات، ولكن ما هو ثمن ذلك على الخصوصية؟ اكتشف أهم 10 مخاطر، والضوابط الرئيسية، وكيفية التعامل معها. Securiti يُمكّن من تحقيق الأمان والتوسع...
عرض المزيد
تخلص من مخاطر البيانات في الذكاء الاصطناعي
تعرف على كيفية إعداد بيانات المؤسسة لاعتماد Gemini Enterprise بشكل آمن من خلال الحوكمة الأولية، واكتشاف البيانات الحساسة، وضوابط سياسة ما قبل الفهرسة.
عرض المزيد
دليل الحصول على شهادة HITRUST
Securiti يُعد الكتاب الإلكتروني دليلاً عملياً للحصول على شهادة HITRUST، ويغطي كل شيء بدءاً من اختيار i1 مقابل r2 ونطاق الأنظمة وصولاً إلى إدارة خطط العمل والتخطيط...
ما هو
جديد