تاريخ النشر
|
الفعالية
التاريخ
|
الغرض
|
مستهدف نحو
|
النقاط الرئيسية للشركات
|
|
المبادئ التوجيهية للاستجابة لحالات الطوارئ لخدمات الذكاء الاصطناعي التوليدية
|
| 22 سبتمبر 2025 |
غير متاح |
تنفيذ "التدابير المؤقتة لإدارة خدمات الذكاء الاصطناعي التوليدية" وتوجيه إنشاء إطار عمل موحد للاستجابة الأمنية الموحدة لحالات الطوارئ لخدمات الذكاء الاصطناعي التوليدية. |
مزودو خدمات الذكاء الاصطناعي التوليدي وشركاؤهم والإدارات المعنية المسؤولة عن إدارة أمن خدمات الذكاء الاصطناعي التوليدي أو الإشراف عليها. |
يشجع المنظمات على:
- تنفيذ آليات الاستجابة للطوارئ الأمنية بما يتماشى مع التدابير المؤقتة لخدمات الذكاء الاصطناعي التوليدية,
- إنشاء هياكل حوكمة قوية وفرق وآليات استجابة للحوادث,
- تعزيز سلامة دورة الحياة من البحث والتطوير في مجال الذكاء الاصطناعي إلى النشر,
- تطبيق المراقبة المستمرة وأنظمة الإنذار المبكر والتنبيهات الآلية للنماذج والبيانات والشبكات,
- تصنيف الحوادث الأمنية والاستجابة لها حسب النوع والخطورة,
- الإبلاغ عن الحوادث الكبرى على الفور واستعادة الخدمات بشكل آمن,
- إجراء مراجعات بعد وقوع الحوادث، و
- الحماية من المحتوى غير القانوني أو المتحيز أو الكاذب أو الزائف أو المنتهك للخصوصية/بروتوكول الإنترنت وخرق البيانات وهجمات الشبكة.
|
|
إطار عمل حوكمة أمن الذكاء الاصطناعي (الإصدار 2.0)
|
| 15 سبتمبر 2025 |
غير متاح |
توفير نهج شامل ومنظم لضمان التطوير الآمن والأخلاقي والمسؤول لتقنيات الذكاء الاصطناعي ونشرها واستخدامها. |
مطورو الذكاء الاصطناعي وناشروه ومشغلوه |
يشجع المنظمات على:
- تنفيذ الضمانات التكنولوجية,
- وضع تدابير حوكمة قوية,
- تعزيز سلامة دورة الحياة من البحث والتطوير إلى النشر.
- تطبيق المبادئ الأخلاقية,
- إجراء تقييمات سلامة الذكاء الاصطناعي، و
- الحفاظ على إمكانية التتبع في المحتوى الذي ينشئه الذكاء الاصطناعي.
|
|
تدابير لتوسيم المحتوى المُنشأ بالذكاء الاصطناعي
|
| 7 مارس 2025 |
1 سبتمبر 2025 |
تعزيز الاستخدام المسؤول للذكاء الاصطناعي، وحماية حقوق المستخدم، وضمان الشفافية في المحتوى عبر الإنترنت. |
مزودو الخدمات عبر الإنترنت الذين يقدمون خدمات الذكاء الاصطناعي التوليدي، والتي تشمل النصوص والصور والصوت والصوت والفيديو والمشاهد الافتراضية المولدة بالذكاء الاصطناعي. |
تدابير لمقدمي الخدمات:
- قم بتسمية المحتوى الذي تم إنشاؤه بالذكاء الاصطناعي بـ
- التسميات الصريحة (إشعارات مرئية أو تنبيهات صوتية أو علامات صور/فيديو تستمر عند مشاركتها أو تنزيلها).
- التسميات الضمنية (البيانات الوصفية مع السمات وتفاصيل الموفر والأرقام المرجعية؛ ويشجع وضع العلامات المائية الرقمية).
- الاحتفاظ بالسجلات لمدة ستة أشهر إذا تم نشر المحتوى دون تسميات صريحة.
- حظر إزالة الملصقات أو تغييرها أو تزويرها.
- منع الأدوات التي تتجاوز متطلبات وضع العلامات.
- اتبع جميع القوانين واللوائح والمعايير ذات الصلة تحت إشراف الجهات التنظيمية.
علاوة على ذلك، يجب على مقدمي خدمات نقل المحتوى عبر الإنترنت:
- الكشف عن المحتوى والبيانات الوصفية التي تم إنشاؤها بواسطة الذكاء الاصطناعي والتحقق منها.
- الرد على ادعاءات المستخدمين حول التسمية الخاطئة.
- تقديم أدوات لتصنيف محتوى الذكاء الاصطناعي.
|
|
تكنولوجيا الأمن السيبراني - المتطلبات الأمنية الأساسية لخدمات الذكاء الاصطناعي التوليدية
|
| أبريل 25, 2025 |
1 نوفمبر 2025 |
توفير متطلبات الأمان الأساسية لخدمات الذكاء الاصطناعي التوليدي، بما في ذلك أمان بيانات التدريب، وأمان النماذج، وتدابير السلامة.
.
|
مقدمو الخدمات الذين يجرون تقييمات السلامة.
يعمل أيضًا كمرجع للجهات ذات الصلة والمقيّمين الخارجيين.
|
متطلبات أمن بيانات التدريب
- أمن مصادر البيانات: يجب على مقدمي الخدمات إجراء تقييمات أمنية لعينات عشوائية لأمن مصادر البيانات قبل جمعها. إذا كان أكثر من 5% من البيانات تحتوي على معلومات غير قانونية أو ضارة، فلا ينبغي استخدامها في التدريب.
- إدارة محتوى البيانات: يجب تصفية جميع بيانات التدريب لإزالة المحتوى غير القانوني أو الضار قبل استخدامها.
- حماية الملكية الفكرية: يجب أن يكون لدى مقدمي الخدمات استراتيجيات وقواعد لإدارة الملكية الفكرية لبيانات التدريب وإنشاء قنوات للإبلاغ عن القضايا ذات الصلة وتحديثها.
- حماية المعلومات الشخصية: قبل استخدام بيانات التدريب التي تحتوي على معلومات شخصية، يجب على مقدمي الخدمات الحصول على موافقة الفرد أو الامتثال للمتطلبات القانونية الأخرى.
المتطلبات الأمنية النموذجية
- تطوير النماذج ونشرها: يجب على مقدمي الخدمات ضمان تطوير النماذج ونشرها بشكل آمن، مع اتخاذ تدابير لمنع الوصول غير المصرح به والتلاعب.
- تقييم النموذج: يجب إجراء تقييمات منتظمة لتقييم أداء النموذج وأمانه، بما في ذلك قدرته على التعامل مع مختلف المدخلات بأمان.
- تحديثات النماذج: يجب إدارة تحديثات النماذج بشكل آمن لمنع إدخال الثغرات الأمنية.
تدابير السلامة
- أمن بيانات المستخدم: يجب على مقدمي الخدمة تنفيذ تدابير لحماية بيانات المستخدم، بما في ذلك التشفير وضوابط الوصول.
- الاستجابة للحوادث: وضع إجراءات للاستجابة للحوادث الأمنية، بما في ذلك الكشف عن الحوادث الأمنية والإبلاغ عنها والتخفيف من آثارها.
- الامتثال للقوانين واللوائح: يجب أن يمتثل مقدمو الخدمات لقوانين ومعايير الأمن السيبراني وأمن البيانات وحماية المعلومات الشخصية ذات الصلة.
|
|
مواصفات أمن شروح بيانات الذكاء الاصطناعي التوليدية" (GB/T 45674-2025)
|
| أبريل 25, 2025 |
1 نوفمبر 2025 |
يضع متطلبات أمنية شاملة لعملية التعليق التوضيحي للبيانات* في أنظمة الذكاء الاصطناعي التوليدي.
*التعليق التوضيحي للبيانات هو نشاط بالغ الأهمية يؤثر بشكل مباشر على جودة وسلامة بيانات التدريب، وبالتالي على المحتوى الذي تم إنشاؤه.
|
المنظمات المشاركة في أنشطة شرح بيانات الذكاء الاصطناعي التوليدي. |
التدابير الأمنية
- أمن المنصة أو الأداة: يجب على المؤسسات إجراء تقييمات أمنية منتظمة لمنصات أو أنظمة التعليقات التوضيحية لتحديد ومعالجة نقاط الضعف المحتملة. يجب أن تحتفظ المنصات بسجلات مفصلة لعمليات المستخدم وأنشطة النظام لتسهيل التحقيقات في حالة وقوع حوادث أمنية.
- أمن القواعد: يجب وضع قواعد واضحة وآمنة للشرح التوضيحي لتوجيه عملية وضع العلامات، مما يضمن الاتساق والسلامة في البيانات التي تم إنشاؤها.
- متطلبات الموظفين: يجب أن يخضع الموظفون المشاركون في شرح البيانات لتدريب أمني وأن تتم إدارتهم بفعالية لمنع الوصول غير المصرح به وضمان الالتزام بالبروتوكولات الأمنية.
- متطلبات التحقق: يجب أن تكون هناك آليات قوية للتحقق من دقة وأمان البيانات المشروحة، بما في ذلك عمليات التحقق الوظيفية والأمنية.
كما أنه يحدد طرق تقييم أمن منصات التعليقات التوضيحية والقواعد والموظفين وعمليات التحقق لضمان الامتثال لمتطلبات الأمان المحددة.
|
|
تكنولوجيا الأمن السيبراني - مواصفات الأمن السيبراني للذكاء الاصطناعي التوليدي قبل التدريب المسبق وضبط البيانات
|
| أبريل 25, 2025 |
1 نوفمبر 2025 |
تحديد المتطلبات الأمنية لأنشطة معالجة البيانات المتعلقة بالتدريب المسبق والضبط الدقيق لنماذج الذكاء الاصطناعي التوليدية. |
يقوم مزودو خدمات الذكاء الاصطناعي بإجراء تقييمات ذاتية لمعالجة البيانات وتقييمات أمنية ذاتية، بالإضافة إلى مؤسسات الطرف الثالث التي تقوم بتقييم أمن البيانات. |
التدابير الأمنية العامة
- تطوير استراتيجيات إدارة أمن البيانات قبل التدريب والضبط الدقيق للبيانات، بما في ذلك التصنيف، وأمن معالجة البيانات، والاستجابة للحوادث.
- تنفيذ تشفير البيانات أثناء التخزين والإرسال لمنع الوصول غير المصرح به.
- ضمان إمكانية تتبع بيانات التدريب من خلال تحديد هوية البيانات بين الدفعات.
- الامتثال للمعايير ذات الصلة بحماية المعلومات الشخصية وأمن معالجة البيانات.
التدابير الأمنية الخاصة بمعالجة البيانات قبل التدريب
- جمع البيانات: تقييم البيانات وتسجيلها للتأكد من أن المحتوى الضار أو غير القانوني لا يتجاوز 5%.
- المعالجة المسبقة للبيانات: تنفيذ تدابير لتنظيف البيانات وتعقيمها، وإزالة أي معلومات ضارة أو غير ذات صلة.
- استخدام البيانات: التأكد من أن البيانات المستخدمة في التدريب لا تعرض سلامة النموذج أو أمنه للخطر.
التدابير الأمنية لضبط معالجة البيانات بشكل دقيق
- جمع البيانات: اتباع بروتوكولات مماثلة لجمع البيانات قبل التدريب، مع ضمان data quality وقانونيتها.
- المعالجة المسبقة للبيانات: تطبيق تعديلات خاصة بالمجال مع الحفاظ على أمان البيانات.
- استخدام البيانات: مراقبة وتقييم تأثير الضبط الدقيق للبيانات على أداء النموذج وأمانه.
كما يحدد أيضًا طرق التقييم لجمع البيانات ومعالجتها المسبقة واستخدامها لضمان الشرعية والجودة والأمان والأداء خلال مرحلة ما قبل التدريب والضبط الدقيق.
|
|
خطة عمل الحوكمة العالمية للذكاء الاصطناعي
|
| 26 يوليو 2025 |
|
إنشاء نظام إيكولوجي للذكاء الاصطناعي محوره الإنسان وآمن وشامل للجميع، يسترشد بالتعاون والإنصاف والشفافية. |
الجهات المعنية المشاركة في نشر الذكاء الاصطناعي وتطويره وحوكمته. |
تغطي خطة العمل النقاط الرئيسية التالية:
- التعاون والابتكار: نحث الحكومات والقطاع الصناعي والمؤسسات البحثية والمجتمع المدني على العمل معًا للنهوض بتكنولوجيا الذكاء الاصطناعي والبنية التحتية الرقمية والابتكار عبر الحدود.
- الذكاء الاصطناعي عبر القطاعات: من الرعاية الصحية والتعليم إلى المدن الذكية والحلول المناخية، يجب أن يعمل الذكاء الاصطناعي على تمكين كل قطاع مع دعم أهداف التنمية المستدامة.
- بيانات مفتوحة وعالية الجودة: يعزز المشاركة القانونية للبيانات، وتطوير مجموعات البيانات العالمية، وضمانات الخصوصية والتنوع.
- الاستدامة والكفاءة: يشجع الذكاء الاصطناعي الموفر للطاقة، والحوسبة الخضراء، ونماذج التطوير الصديقة للبيئة.
- المعايير العالمية والحوكمة: تعزيز القواعد الدولية والمعايير التقنية وأطر إدارة المخاطر، بما يضمن أن يكون الذكاء الاصطناعي أخلاقيًا وشفافًا وقابلاً للتشغيل البيني.
- بناء القدرات والإدماج: يركز على دعم البلدان النامية وسد فجوة الذكاء الاصطناعي وحماية الحقوق الرقمية للنساء والأطفال.
- مشاركة أصحاب المصلحة المتعددين: تشجيع الشركات والباحثين وصانعي السياسات على التعاون في مجالات الابتكار والسلامة والأخلاقيات ومنصات الحوكمة العالمية.
|