Veeam تكمل الاستحواذ على Securiti لإنشاء أول منصة بيانات موثوقة في القطاع لتسريع الذكاء الاصطناعي الآمن على نطاق واسع

عرض

الإبحار في المشهد التنظيمي للذكاء الاصطناعي في الصين في عام 2025: ما تحتاج الشركات إلى معرفته

المؤلف

سيدة إيمان قرديزي

محلل مشارك Data Privacy في Securiti

نُشر في 13 أكتوبر 2025

تندفع الصين بأقصى سرعة نحو مستقبل الذكاء الاصطناعي، وقد يكون عام 2025 عام النجاح أو الفشل بالنسبة للشركات التي تتطلع إلى ركوب هذه الموجة. لقد وضعت البلاد إطاراً تنظيمياً قوياً مليئاً بالقواعد القابلة للتنفيذ والمعايير الفنية ومتطلبات وضع العلامات - مصممة لدفع الابتكار مع الحفاظ على قبضة محكمة على مخاطر الذكاء الاصطناعي. وبالنسبة للشركات، فإن هذه اللوائح ليست مجرد مربعات يجب تحديدها - بل هي خارطة طريق للنجاح في واحدة من أسرع أسواق الذكاء الاصطناعي حركةً وأكثرها تنظيماً في العالم.

في هذه المدونة، نوضح في هذه المدونة التدابير الرئيسية التي يجب أن تعرفها كل مؤسسة لتظل متوافقة وتنافسية ومتقدمة في مشهد الذكاء الاصطناعي في الصين.

قائمة التحقق من الامتثال العملي لعام 2025

  • تنفيذ التسميات الصريحة والضمنية.
  • تدريب آمن واتباع مواصفات أمان التعليقات التوضيحية.
  • إجراء عمليات تدقيق الخصوصية وتحديد عتبات التدقيق وتكرارها.
  • تسجيل ملف تسجيل خدمات الذكاء الاصطناعي التوليدي لدى مركز مكافحة الأمراض والوقاية منها والاحتفاظ بسجلات الامتثال.
  • مواءمة مشاريع الذكاء الاصطناعي مع المبادئ التوجيهية "AI Plus" والمشاركة في مبادرات الحوكمة العالمية.

خلفية الذكاء الاصطناعي والصين

إن الصعود السريع للصين في مجال الذكاء الاصطناعي ليس من قبيل المصادفة - فهو يعكس مزيجاً من الاستثمارات الحكومية الضخمة، والابتكار المزدهر في القطاع الخاص، والاعتراف المبكر بأن الذكاء الاصطناعي سيكون محورياً للقوة الاقتصادية والجيوسياسية. وخلافًا للعديد من الولايات القضائية التي تتبع فيها اللوائح التنظيمية التكنولوجيا في هذا المجال، فقد اتبعت الصين نهجًا استباقيًا من أعلى إلى أسفل في إدارة الذكاء الاصطناعي. شكلت التدابير المؤقتة لعام 2023 لخدمات الذكاء الاصطناعي التوليدية نقطة تحول، حيث حددت التزامات للشركات التي تقدم أدوات الذكاء الاصطناعي، بدءًا من تسجيل الخدمة وإيداع النماذج إلى حوكمة المحتوى وفحوصات السلامة. وقد أرست هذه التدابير الشفافية كحجر زاوية، حيث اشترطت على خدمات الذكاء الاصطناعي عرض أسماء النماذج وأرقام الإيداع، وفرضت تسجيل الأدوات المؤثرة على الرأي العام لدى إدارة الفضاء الإلكتروني الصينية (CAC). ومنذ طرح هذه التدابير، وافقت إدارة الفضاء الإلكتروني الصينية بالفعل على مئات من منصات الذكاء الاصطناعي التوليديوسجلتها - بما في ذلكمنصة DeepSeek وإيرني بوت من بايدو - مما يدل على أن التنظيم يعمل بنشاط على تشكيل سوق الذكاء الاصطناعي مع وضع الصين في الوقت نفسه في مكانة مبتكر ومنظم عالمي للذكاء الاصطناعي. هذه التدابير هي أيضًا جزء من خطة التنمية الصينية الأوسع نطاقًا "AI Plus"، والتي تسعى إلى تعزيز الابتكار مع ضمان توافق نشر الذكاء الاصطناعي مع المعايير القانونية والأخلاقية والمجتمعية.

المعالم التنظيمية الرئيسية للذكاء الاصطناعي في عام 2025

تاريخ النشر

الفعالية

التاريخ

الغرض

مستهدف نحو

النقاط الرئيسية للشركات

المبادئ التوجيهية للاستجابة لحالات الطوارئ لخدمات الذكاء الاصطناعي التوليدية 

22 سبتمبر 2025 غير متاح تنفيذ "التدابير المؤقتة لإدارة خدمات الذكاء الاصطناعي التوليدية" وتوجيه إنشاء إطار عمل موحد للاستجابة الأمنية الموحدة لحالات الطوارئ لخدمات الذكاء الاصطناعي التوليدية. مزودو خدمات الذكاء الاصطناعي التوليدي وشركاؤهم والإدارات المعنية المسؤولة عن إدارة أمن خدمات الذكاء الاصطناعي التوليدي أو الإشراف عليها. يشجع المنظمات على:

  • تنفيذ آليات الاستجابة للطوارئ الأمنية بما يتماشى مع التدابير المؤقتة لخدمات الذكاء الاصطناعي التوليدية,
  • إنشاء هياكل حوكمة قوية وفرق وآليات استجابة للحوادث,
  • تعزيز سلامة دورة الحياة من البحث والتطوير في مجال الذكاء الاصطناعي إلى النشر,
  • تطبيق المراقبة المستمرة وأنظمة الإنذار المبكر والتنبيهات الآلية للنماذج والبيانات والشبكات,
  • تصنيف الحوادث الأمنية والاستجابة لها حسب النوع والخطورة,
  • الإبلاغ عن الحوادث الكبرى على الفور واستعادة الخدمات بشكل آمن,
  • إجراء مراجعات بعد وقوع الحوادث، و
  • الحماية من المحتوى غير القانوني أو المتحيز أو الكاذب أو الزائف أو المنتهك للخصوصية/بروتوكول الإنترنت وخرق البيانات وهجمات الشبكة.

إطار عمل حوكمة أمن الذكاء الاصطناعي (الإصدار 2.0)

15 سبتمبر 2025 غير متاح توفير نهج شامل ومنظم لضمان التطوير الآمن والأخلاقي والمسؤول لتقنيات الذكاء الاصطناعي ونشرها واستخدامها. مطورو الذكاء الاصطناعي وناشروه ومشغلوه يشجع المنظمات على:

  • تنفيذ الضمانات التكنولوجية,
  • وضع تدابير حوكمة قوية,
  • تعزيز سلامة دورة الحياة من البحث والتطوير إلى النشر.
  • تطبيق المبادئ الأخلاقية,
  • إجراء تقييمات سلامة الذكاء الاصطناعي، و
  • الحفاظ على إمكانية التتبع في المحتوى الذي ينشئه الذكاء الاصطناعي.

تدابير لتوسيم المحتوى المُنشأ بالذكاء الاصطناعي

7 مارس 2025 1 سبتمبر 2025 تعزيز الاستخدام المسؤول للذكاء الاصطناعي، وحماية حقوق المستخدم، وضمان الشفافية في المحتوى عبر الإنترنت. مزودو الخدمات عبر الإنترنت الذين يقدمون خدمات الذكاء الاصطناعي التوليدي، والتي تشمل النصوص والصور والصوت والصوت والفيديو والمشاهد الافتراضية المولدة بالذكاء الاصطناعي. تدابير لمقدمي الخدمات:

  • قم بتسمية المحتوى الذي تم إنشاؤه بالذكاء الاصطناعي بـ
    • التسميات الصريحة (إشعارات مرئية أو تنبيهات صوتية أو علامات صور/فيديو تستمر عند مشاركتها أو تنزيلها).
    • التسميات الضمنية (البيانات الوصفية مع السمات وتفاصيل الموفر والأرقام المرجعية؛ ويشجع وضع العلامات المائية الرقمية).
  • الاحتفاظ بالسجلات لمدة ستة أشهر إذا تم نشر المحتوى دون تسميات صريحة.
  • حظر إزالة الملصقات أو تغييرها أو تزويرها.
  • منع الأدوات التي تتجاوز متطلبات وضع العلامات.
  • اتبع جميع القوانين واللوائح والمعايير ذات الصلة تحت إشراف الجهات التنظيمية.

علاوة على ذلك، يجب على مقدمي خدمات نقل المحتوى عبر الإنترنت:

  • الكشف عن المحتوى والبيانات الوصفية التي تم إنشاؤها بواسطة الذكاء الاصطناعي والتحقق منها.
  • الرد على ادعاءات المستخدمين حول التسمية الخاطئة.
  • تقديم أدوات لتصنيف محتوى الذكاء الاصطناعي.

تكنولوجيا الأمن السيبراني - المتطلبات الأمنية الأساسية لخدمات الذكاء الاصطناعي التوليدية

أبريل 25, 2025 1 نوفمبر 2025 توفير متطلبات الأمان الأساسية لخدمات الذكاء الاصطناعي التوليدي، بما في ذلك أمان بيانات التدريب، وأمان النماذج، وتدابير السلامة.

.

مقدمو الخدمات الذين يجرون تقييمات السلامة.

يعمل أيضًا كمرجع للجهات ذات الصلة والمقيّمين الخارجيين.

متطلبات أمن بيانات التدريب

  • أمن مصادر البيانات: يجب على مقدمي الخدمات إجراء تقييمات أمنية لعينات عشوائية لأمن مصادر البيانات قبل جمعها. إذا كان أكثر من 5% من البيانات تحتوي على معلومات غير قانونية أو ضارة، فلا ينبغي استخدامها في التدريب.
  • إدارة محتوى البيانات: يجب تصفية جميع بيانات التدريب لإزالة المحتوى غير القانوني أو الضار قبل استخدامها.
  • حماية الملكية الفكرية: يجب أن يكون لدى مقدمي الخدمات استراتيجيات وقواعد لإدارة الملكية الفكرية لبيانات التدريب وإنشاء قنوات للإبلاغ عن القضايا ذات الصلة وتحديثها.
  • حماية المعلومات الشخصية: قبل استخدام بيانات التدريب التي تحتوي على معلومات شخصية، يجب على مقدمي الخدمات الحصول على موافقة الفرد أو الامتثال للمتطلبات القانونية الأخرى.

المتطلبات الأمنية النموذجية

  • تطوير النماذج ونشرها: يجب على مقدمي الخدمات ضمان تطوير النماذج ونشرها بشكل آمن، مع اتخاذ تدابير لمنع الوصول غير المصرح به والتلاعب.
  • تقييم النموذج: يجب إجراء تقييمات منتظمة لتقييم أداء النموذج وأمانه، بما في ذلك قدرته على التعامل مع مختلف المدخلات بأمان.
  • تحديثات النماذج: يجب إدارة تحديثات النماذج بشكل آمن لمنع إدخال الثغرات الأمنية.

تدابير السلامة

  • أمن بيانات المستخدم: يجب على مقدمي الخدمة تنفيذ تدابير لحماية بيانات المستخدم، بما في ذلك التشفير وضوابط الوصول.
  • الاستجابة للحوادث: وضع إجراءات للاستجابة للحوادث الأمنية، بما في ذلك الكشف عن الحوادث الأمنية والإبلاغ عنها والتخفيف من آثارها.
  • الامتثال للقوانين واللوائح: يجب أن يمتثل مقدمو الخدمات لقوانين ومعايير الأمن السيبراني وأمن البيانات وحماية المعلومات الشخصية ذات الصلة.

مواصفات أمن شروح بيانات الذكاء الاصطناعي التوليدية" (GB/T 45674-2025)

أبريل 25, 2025 1 نوفمبر 2025 يضع متطلبات أمنية شاملة لعملية التعليق التوضيحي للبيانات* في أنظمة الذكاء الاصطناعي التوليدي.

*التعليق التوضيحي للبيانات هو نشاط بالغ الأهمية يؤثر بشكل مباشر على جودة وسلامة بيانات التدريب، وبالتالي على المحتوى الذي تم إنشاؤه.

المنظمات المشاركة في أنشطة شرح بيانات الذكاء الاصطناعي التوليدي. التدابير الأمنية

  1. أمن المنصة أو الأداة: يجب على المؤسسات إجراء تقييمات أمنية منتظمة لمنصات أو أنظمة التعليقات التوضيحية لتحديد ومعالجة نقاط الضعف المحتملة. يجب أن تحتفظ المنصات بسجلات مفصلة لعمليات المستخدم وأنشطة النظام لتسهيل التحقيقات في حالة وقوع حوادث أمنية.
  2. أمن القواعد: يجب وضع قواعد واضحة وآمنة للشرح التوضيحي لتوجيه عملية وضع العلامات، مما يضمن الاتساق والسلامة في البيانات التي تم إنشاؤها.
  3. متطلبات الموظفين: يجب أن يخضع الموظفون المشاركون في شرح البيانات لتدريب أمني وأن تتم إدارتهم بفعالية لمنع الوصول غير المصرح به وضمان الالتزام بالبروتوكولات الأمنية.
  4. متطلبات التحقق: يجب أن تكون هناك آليات قوية للتحقق من دقة وأمان البيانات المشروحة، بما في ذلك عمليات التحقق الوظيفية والأمنية.

كما أنه يحدد طرق تقييم أمن منصات التعليقات التوضيحية والقواعد والموظفين وعمليات التحقق لضمان الامتثال لمتطلبات الأمان المحددة.

تكنولوجيا الأمن السيبراني - مواصفات الأمن السيبراني للذكاء الاصطناعي التوليدي قبل التدريب المسبق وضبط البيانات

أبريل 25, 2025 1 نوفمبر 2025 تحديد المتطلبات الأمنية لأنشطة معالجة البيانات المتعلقة بالتدريب المسبق والضبط الدقيق لنماذج الذكاء الاصطناعي التوليدية. يقوم مزودو خدمات الذكاء الاصطناعي بإجراء تقييمات ذاتية لمعالجة البيانات وتقييمات أمنية ذاتية، بالإضافة إلى مؤسسات الطرف الثالث التي تقوم بتقييم أمن البيانات. التدابير الأمنية العامة

  • تطوير استراتيجيات إدارة أمن البيانات قبل التدريب والضبط الدقيق للبيانات، بما في ذلك التصنيف، وأمن معالجة البيانات، والاستجابة للحوادث.
  • تنفيذ تشفير البيانات أثناء التخزين والإرسال لمنع الوصول غير المصرح به.
  • ضمان إمكانية تتبع بيانات التدريب من خلال تحديد هوية البيانات بين الدفعات.
  • الامتثال للمعايير ذات الصلة بحماية المعلومات الشخصية وأمن معالجة البيانات.

التدابير الأمنية الخاصة بمعالجة البيانات قبل التدريب

  • جمع البيانات: تقييم البيانات وتسجيلها للتأكد من أن المحتوى الضار أو غير القانوني لا يتجاوز 5%.
  • المعالجة المسبقة للبيانات: تنفيذ تدابير لتنظيف البيانات وتعقيمها، وإزالة أي معلومات ضارة أو غير ذات صلة.
  • استخدام البيانات: التأكد من أن البيانات المستخدمة في التدريب لا تعرض سلامة النموذج أو أمنه للخطر.

التدابير الأمنية لضبط معالجة البيانات بشكل دقيق

  • جمع البيانات: اتباع بروتوكولات مماثلة لجمع البيانات قبل التدريب، مع ضمان data quality وقانونيتها.
  • المعالجة المسبقة للبيانات: تطبيق تعديلات خاصة بالمجال مع الحفاظ على أمان البيانات.
  • استخدام البيانات: مراقبة وتقييم تأثير الضبط الدقيق للبيانات على أداء النموذج وأمانه.

كما يحدد أيضًا طرق التقييم لجمع البيانات ومعالجتها المسبقة واستخدامها لضمان الشرعية والجودة والأمان والأداء خلال مرحلة ما قبل التدريب والضبط الدقيق.

خطة عمل الحوكمة العالمية للذكاء الاصطناعي

26 يوليو 2025 إنشاء نظام إيكولوجي للذكاء الاصطناعي محوره الإنسان وآمن وشامل للجميع، يسترشد بالتعاون والإنصاف والشفافية. الجهات المعنية المشاركة في نشر الذكاء الاصطناعي وتطويره وحوكمته. تغطي خطة العمل النقاط الرئيسية التالية:

  • التعاون والابتكار: نحث الحكومات والقطاع الصناعي والمؤسسات البحثية والمجتمع المدني على العمل معًا للنهوض بتكنولوجيا الذكاء الاصطناعي والبنية التحتية الرقمية والابتكار عبر الحدود.
  • الذكاء الاصطناعي عبر القطاعات: من الرعاية الصحية والتعليم إلى المدن الذكية والحلول المناخية، يجب أن يعمل الذكاء الاصطناعي على تمكين كل قطاع مع دعم أهداف التنمية المستدامة.
  • بيانات مفتوحة وعالية الجودة: يعزز المشاركة القانونية للبيانات، وتطوير مجموعات البيانات العالمية، وضمانات الخصوصية والتنوع.
  • الاستدامة والكفاءة: يشجع الذكاء الاصطناعي الموفر للطاقة، والحوسبة الخضراء، ونماذج التطوير الصديقة للبيئة.
  • المعايير العالمية والحوكمة: تعزيز القواعد الدولية والمعايير التقنية وأطر إدارة المخاطر، بما يضمن أن يكون الذكاء الاصطناعي أخلاقيًا وشفافًا وقابلاً للتشغيل البيني.
  • بناء القدرات والإدماج: يركز على دعم البلدان النامية وسد فجوة الذكاء الاصطناعي وحماية الحقوق الرقمية للنساء والأطفال.
  • مشاركة أصحاب المصلحة المتعددين: تشجيع الشركات والباحثين وصانعي السياسات على التعاون في مجالات الابتكار والسلامة والأخلاقيات ومنصات الحوكمة العالمية.

كيف يمكن ل Securiti المساعدة

وبالتالي، فإن لوائح وإرشادات الذكاء الاصطناعي في الصين في عام 2025 تمثل انتقالاً من التوجيهات الطموحة إلى التزامات ملموسة قابلة للتنفيذ. من من منظور قانوني واستراتيجي، لن تتجنب الشركات التي تنفذ بشكل استباقي تدابير الامتثال للعلامات والأمان والخصوصية بشكل استباقي المزالق التنظيمية فحسب، بل ستكتسب أيضًا المصداقية في أحد أسرع أسواق الذكاء الاصطناعي نموًا في العالم. من حيث الجوهر، لم يعد التنقل في مشهد الذكاء الاصطناعي في الصين يتعلق فقط بالامتثال - بل يتعلق بتضمين المساءلة والشفافية والمواءمة مع الأولويات الوطنية في الحمض النووي لعمليات الذكاء الاصطناعي.

Securiti هي الشركة الرائدة في مركز قيادة البيانات والذكاء الاصطناعي، وهي منصة مركزية تتيح الاستخدام الآمن للبيانات والذكاء الاصطناعي الجيني. يوفر ذكاءً موحدًا للبيانات وعناصر تحكم وتنسيق موحد للبيانات عبر البيئات الهجينة متعددة السحابة. تعتمد الشركات العالمية الكبيرة على Data Command Center من Securiti لأمن البيانات والخصوصية والحوكمة والامتثال.

يُمكِّن Securiti Gencore AI المؤسسات من الاتصال بأمان بمئات أنظمة البيانات مع الحفاظ على ضوابط البيانات والحوكمة أثناء تدفق البيانات إلى أنظمة GenAI الحديثة. وهو مدعوم برسم بياني معرفي فريد من نوعه يحافظ على رؤى سياقية دقيقة حول البيانات وأنظمة الذكاء الاصطناعي.

توفر Gencore AI ضوابط قوية في جميع أنحاء نظام الذكاء الاصطناعي لتتماشى مع سياسات الشركة واستحقاقاتها، وتحمي من الهجمات الضارة وتحمي البيانات الحساسة. وهذا يُمكِّن المؤسسات من الامتثال للمشهد التنظيمي في الصين.

اطلب عرضًا توضيحيًا لمعرفة المزيد.

تحليل هذه المقالة باستخدام الذكاء الاصطناعي

يتم فتح المطالبات في أدوات الذكاء الاصطناعي التابعة لجهة خارجية.
اشترك في نشرتنا الإخبارية

احصل على أحدث المعلومات والتحديثات القانونية والمزيد من المعلومات في صندوق بريدك الإلكتروني



المزيد من القصص التي قد تهمك
مقاطع الفيديو
عرض المزيد
التخفيف من حدة أفضل 10 تطبيقات OWASP لتطبيقات LLM 2025
أحدث الذكاء الاصطناعي التوليدي (GenAI) تحولاً في كيفية عمل الشركات وتوسعها ونموها. هناك تطبيق للذكاء الاصطناعي لكل غرض، بدءًا من زيادة إنتاجية الموظفين إلى تبسيط...
عرض المزيد
أهم 6 حالات استخدام DSPM
مع ظهور الذكاء الاصطناعي التوليدي (GenAI)، أصبحت البيانات أكثر ديناميكية. يتم توليد البيانات الجديدة بشكل أسرع من أي وقت مضى، ويتم نقلها إلى أنظمة وتطبيقات مختلفة...
عرض المزيد
قانون الخصوصية في كولورادو (CPA)
ما هو قانون الخصوصية في كولورادو؟ قانون الخصوصية في كولورادو هو قانون خصوصية شامل تم توقيعه في 7 يوليو 2021. وقد وضع معايير جديدة للخصوصية الشخصية...
عرض المزيد
Securiti لـ Copilot في SaaS
تسريع اعتماد Copilot بأمان وثقة تتوق المؤسسات إلى اعتماد Microsoft 365 Copilot لزيادة الإنتاجية والكفاءة. ومع ذلك، فإن المخاوف الأمنية مثل البيانات...
عرض المزيد
أهم 10 اعتبارات للاستخدام الآمن للبيانات غير المهيكلة مع الذكاء الاصطناعي الجيني
إن 90% من بيانات المؤسسة هي بيانات غير منظمة. يتم استخدام هذه البيانات بسرعة لتغذية تطبيقات GenAI مثل روبوتات الدردشة الآلية والبحث بالذكاء الاصطناعي....
عرض المزيد
جينكور للذكاء الاصطناعي: بناء أنظمة ذكاء اصطناعي آمنة على مستوى الشركات في دقائق
مع اعتماد الشركات للذكاء الاصطناعي التوليدي، تواجه فرق البيانات والذكاء الاصطناعي العديد من العقبات: الربط الآمن بين مصادر البيانات غير المنظمة والمنظمة، والحفاظ على الضوابط والحوكمة المناسبة، ...
عرض المزيد
الإبحار في قانون تنظيم حماية المستهلك: رؤى أساسية للشركات
ما هو CPRA؟ قانون حقوق الخصوصية في كاليفورنيا (CPRA) هو تشريع ولاية كاليفورنيا الذي يهدف إلى حماية الخصوصية الرقمية للمقيمين. وقد أصبح ساريًا في يناير...
عرض المزيد
الإبحار في التحول: الانتقال إلى الإصدار 4.0 من PCI DSS v4.0
ما هو PCI DSS؟ معيار PCI DSS (معيار أمن بيانات صناعة بطاقات الدفع) هو مجموعة من المعايير الأمنية لضمان المعالجة الآمنة للبيانات وتخزينها و...
عرض المزيد
تأمين البيانات + الذكاء الاصطناعي: دليل إدارة الثقة والمخاطر والأمن (TRiSM)
تُثير المخاطر الأمنية المتزايدة للذكاء الاصطناعي قلق 48% من مدراء أمن المعلومات العالميين. انضم إلى هذه المحاضرة الرئيسية للتعرف على دليل عملي لتمكين الذكاء الاصطناعي من الثقة والمخاطر والمخاطر...
شركة AWS الناشئة تعرض حوكمة الأمن السيبراني باستخدام الذكاء الاصطناعي التوليدي عرض المزيد
شركة AWS الناشئة تعرض حوكمة الأمن السيبراني باستخدام الذكاء الاصطناعي التوليدي
تحقيق التوازن بين الابتكار والحوكمة مع الذكاء الاصطناعي التوليدي يتمتع الذكاء الاصطناعي التوليدي بالقدرة على إحداث تغيير جذري في جميع جوانب الأعمال بقدرات جديدة قوية. ومع ذلك، مع...

حوارات تحت الضوء

أضواء كاشفة 50:52
من البيانات إلى النشر: حماية الذكاء الاصطناعي المؤسسي من خلال الأمن والحوكمة
شاهد الآن عرض
أضواء كاشفة 11:29
ليس ضجيجاً - رئيس قسم التحليلات في شركة Dye & Durham يُظهر كيف يبدو الذكاء الاصطناعي في العمل حقاً
ليس ضجيجاً - رئيس قسم التحليلات في شركة Dye & Durham يُظهر كيف يبدو الذكاء الاصطناعي في العمل حقاً
شاهد الآن عرض
أضواء كاشفة 11:18
إعادة توصيل أسلاك التمويل العقاري - كيف تقوم شركة ووكر آند دنلوب بتحديث محفظتها البالغة قيمتها 135 مليار دولار أمريكي بالبيانات أولاً
شاهد الآن عرض
أضواء كاشفة 13:38
تسريع المعجزات - كيف تدمج سانوفي الذكاء الاصطناعي لتقليل الجداول الزمنية لتطوير الأدوية بشكل كبير
الصورة المصغرة لسانوفي
شاهد الآن عرض
أضواء كاشفة 10:35
لقد حدث تحول جوهري في مركز ثقل البيانات
شاهد الآن عرض
أضواء كاشفة 14:21
AI Governance أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
AI Governance أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
شاهد الآن عرض
أضواء كاشفة 12:!3
لا يمكنك بناء خطوط أنابيب أو مستودعات أو منصات ذكاء اصطناعي بدون معرفة الأعمال
شاهد الآن عرض
أضواء كاشفة 47:42
الأمن السيبراني - حيث يقوم القادة بالشراء والبناء والشراكة
ريحان جليل
شاهد الآن عرض
أضواء كاشفة 27:29
بناء ذكاء اصطناعي آمن مع Databricks وGencore
ريحان جليل
شاهد الآن عرض
أضواء كاشفة 46:02
بناء ذكاء اصطناعي مؤسسي آمن: خارطة طريق عملية
شاهد الآن عرض
الأحدث
عرض المزيد
DataAI Security: لماذا تختار مؤسسات الرعاية الصحية Securiti
اكتشف لماذا تثق مؤسسات الرعاية الصحية Securiti البيانات والذكاء الاصطناعي. تعرف على العوائق الرئيسية، والمزايا الخمس المؤكدة، وما يمكن أن تحققه ابتكارات البيانات الآمنة.
عرض المزيد
الاستغلال الأنثروبولوجي مرحباً بكم في عصر هجمات عملاء الذكاء الاصطناعي
استكشف أول هجوم لعامل الذكاء الاصطناعي ولماذا يغير كل شيء، وكيف تحمي ركائز DataAI Security مثل الذكاء ورسم الأوامر وجدران الحماية البيانات الحساسة.
شرح HIPAA PHI: المعرفات، وإزالة الهوية، وقائمة التحقق من الامتثال عرض المزيد
شرح HIPAA PHI: المعرفات، وإزالة الهوية، وقائمة التحقق من الامتثال
اكتشف ما هي المعلومات الصحية المحمية (PHI) بموجب قانون HIPAA. افهم ما يعتبر معلومات صحية محمية (PHI) وفقًا لقواعد HIPAA، وقائمة المحددات الـ 18، وما يحدث لـ...
فريق الأحمر عرض المزيد
ما هو فريق الذكاء الاصطناعي الأحمر؟ الدليل الكامل
يقوم فريق AI red teaming باختبار أنظمة الذكاء الاصطناعي من حيث الأمن والسلامة ومخاطر سوء الاستخدام. تعرف على كيفية عمله، والتقنيات الشائعة، وحالات الاستخدام في العالم الواقعي، ولماذا...
عرض المزيد
إصلاح الخصوصية في أستراليا: إصلاحات تاريخية في مجال الخصوصية والأمن السيبراني والسلامة على الإنترنت
اطلع على التقرير التقني واحصل على رؤى حول قانون الخصوصية الأسترالي، و CSLP، وقانون الحد الأدنى لسن استخدام وسائل التواصل الاجتماعي، وكيف Securiti ضمان الامتثال السريع.
عرض المزيد
تطبيق قانون الموافقة على ملفات تعريف الارتباط بقيمة 475 مليون يورو من قبل CNIL: دروس أساسية للمؤسسات
قم بتنزيل المستند التقني للتعرف على الغرامة البالغة 475 مليون يورو التي فرضتها CNIL لعدم الامتثال لقواعد الموافقة على ملفات تعريف الارتباط. اكتشف الدروس الرئيسية التي يمكن أن تستفيد منها المؤسسات وكيفية أتمتة الامتثال.
عرض المزيد
ملخص الحل: Microsoft Purview + Securiti
قم بتوسيع نطاق Microsoft Purview باستخدام Securiti وتصنيف وتقليل مخاطر البيانات والذكاء الاصطناعي عبر البيئات المختلطة من خلال المراقبة المستمرة والإصلاح التلقائي. تعرف على...
أهم 7 اتجاهات في مجال أمن البيانات والذكاء الاصطناعي لعام 2026 عرض المزيد
أهم 7 اتجاهات في مجال أمن البيانات والذكاء الاصطناعي لعام 2026
اكتشف أهم 7 اتجاهات في مجال أمن البيانات والذكاء الاصطناعي لعام 2026. تعرف على كيفية تأمين وكلاء الذكاء الاصطناعي، وإدارة البيانات، وإدارة المخاطر، وتوسيع نطاق الذكاء الاصطناعي...
عرض المزيد
التنقل في HITRUST: دليل للحصول على الشهادة
يعد كتاب Securiti دليلاً عملياً للحصول على شهادة HITRUST، حيث يغطي كل شيء بدءاً من اختيار i1 مقابل r2 وأنظمة النطاق وحتى إدارة CAPs والتخطيط...
دليل المهندس المعماري DSPM عرض المزيد
دليل مهندس DSPM الاصطناعي: بناء برنامج أمن البيانات + الذكاء الاصطناعي الجاهز للمؤسسات
احصل على شهادة معتمدة في DSPM. تعلّم كيفية تصميم حل DSPM البيانات والذكاء الاصطناعي DSPM، وتفعيل أمن البيانات والذكاء الاصطناعي، وتطبيق أفضل الممارسات المؤسسية، وتمكين اعتماد الذكاء الاصطناعي الآمن...
ما الجديد