الإعلان عن Agent Commander - أول حل متكامل من Veeam + Securiti .ai تمكين توسيع نطاق وكلاء الذكاء الاصطناعي الآمنين

منظر

جولة فيمون 2026 - البيانات والذكاء الاصطناعي يتلاقيان من أجل عصر الوكلاء

منظر

كيفية التعامل مع المشهد التنظيمي للذكاء الاصطناعي في الصين عام 2025: ما تحتاج الشركات إلى معرفته

مؤلف

سيدة إيمان غارديزي

شريك Data Privacy محلل في Securiti

نُشر في 13 أكتوبر 2025

تندفع الصين بخطى حثيثة نحو مستقبل الذكاء الاصطناعي، وقد يكون عام 2025 عامًا حاسمًا للشركات التي تسعى للاستفادة من هذه الموجة. فقد أنشأت الصين إطارًا تنظيميًا قويًا حافلًا بالقواعد القابلة للتنفيذ، والمعايير التقنية، ومتطلبات وضع العلامات، المصممة لدفع عجلة الابتكار مع الحفاظ على السيطرة التامة على مخاطر الذكاء الاصطناعي. بالنسبة للشركات، لا تُعد هذه اللوائح مجرد إجراءات شكلية، بل هي خارطة طريق للنجاح في أحد أسرع أسواق الذكاء الاصطناعي نموًا وأكثرها تنظيمًا في العالم.

في هذه المدونة، نستعرض بالتفصيل التدابير الرئيسية التي يجب على كل منظمة معرفتها للبقاء ملتزمة باللوائح، وقادرة على المنافسة، ومتقدمة في مجال الذكاء الاصطناعي في الصين.

قائمة التحقق العملية للامتثال لعام 2025

  • قم بتطبيق التصنيفات الصريحة والضمنية.
  • التدريب الآمن واتباع مواصفات أمان التعليقات التوضيحية.
  • إجراء عمليات تدقيق الخصوصية وتحديد عتبات التدقيق وتواترها.
  • تسجيل ملفات خدمات الذكاء الاصطناعي التوليدي لدى هيئة شؤون الشركات (CAC) والاحتفاظ بسجلات الامتثال.
  • قم بمواءمة مشاريع الذكاء الاصطناعي مع إرشادات "الذكاء الاصطناعي بلس" وشارك في مبادرات الحوكمة العالمية.

خلفية الذكاء الاصطناعي والصين

إن صعود الصين السريع في مجال الذكاء الاصطناعي ليس وليد الصدفة، بل هو نتاج مزيج من الاستثمارات الحكومية الضخمة، وازدهار ابتكارات القطاع الخاص، وإدراك مبكر لأهمية الذكاء الاصطناعي في تعزيز قوتها الاقتصادية والجيوسياسية. وعلى عكس العديد من الدول التي تتخلف فيها القوانين واللوائح عن التكنولوجيا، انتهجت الصين نهجًا استباقيًا ومنهجيًا في إدارة الذكاء الاصطناعي. وقد مثّلت التدابير المؤقتة لعام 2023 لخدمات الذكاء الاصطناعي التوليدي نقطة تحول، إذ فرضت التزامات على الشركات التي تقدم أدوات الذكاء الاصطناعي، بدءًا من تسجيل الخدمات وتقديم النماذج، وصولًا إلى إدارة المحتوى وفحوصات السلامة. وقد أرست هذه التدابير مبدأ الشفافية كركيزة أساسية، إذ ألزمت خدمات الذكاء الاصطناعي بعرض أسماء النماذج وأرقام التسجيل، وفرضت تسجيل الأدوات التي تؤثر على الرأي العام لدى إدارة الفضاء الإلكتروني الصينية. ومنذ إطلاقها، وافقت إدارة الفضاء الإلكتروني الصينية على مئات منصات الذكاء الاصطناعي التوليدي وسجلتها، بما في ذلك DeepSeek وErnie Bot التابع لشركة Baidu، مما يُظهر كيف تُساهم القوانين واللوائح بفعالية في تشكيل سوق الذكاء الاصطناعي، وترسيخ مكانة الصين كدولة رائدة عالميًا في مجال الابتكار والتنظيم في قطاع الذكاء الاصطناعي. وتُعد هذه الإجراءات أيضاً جزءاً من خطة التنمية الأوسع نطاقاً للصين "الذكاء الاصطناعي بلس"، والتي تسعى إلى تعزيز الابتكار مع ضمان توافق نشر الذكاء الاصطناعي مع المعايير القانونية والأخلاقية والمجتمعية.

أهم المحطات التنظيمية المتعلقة بالذكاء الاصطناعي في عام 2025

تاريخ النشر

فعال

تاريخ

غاية

موجه نحو

أهم النقاط للشركات

إرشادات الاستجابة للطوارئ لخدمات الذكاء الاصطناعي التوليدي 

22 سبتمبر 2025 غير متوفر لتنفيذ "التدابير المؤقتة لإدارة خدمات الذكاء الاصطناعي التوليدي" وتوجيه إنشاء إطار عمل موحد للاستجابة الأمنية الطارئة لخدمات الذكاء الاصطناعي التوليدي. مقدمو خدمات الذكاء الاصطناعي التوليدي، وشركاؤهم، والإدارات ذات الصلة المسؤولة عن إدارة أو الإشراف على أمن خدمات الذكاء الاصطناعي التوليدي. يشجع المنظمات على:

  • تطبيق آليات الاستجابة الأمنية الطارئة بما يتماشى مع التدابير المؤقتة لخدمات الذكاء الاصطناعي التوليدي،
  • إنشاء هياكل حوكمة قوية وفرق وآليات للاستجابة للحوادث،
  • تعزيز سلامة دورة حياة المنتج بدءًا من أبحاث وتطوير الذكاء الاصطناعي وحتى نشره،
  • تطبيق أنظمة المراقبة المستمرة والإنذار المبكر والتنبيهات الآلية للنماذج والبيانات والشبكات.
  • تصنيف الحوادث الأمنية والاستجابة لها حسب النوع والخطورة،
  • الإبلاغ عن الحوادث الكبرى على الفور واستعادة الخدمات بشكل آمن.
  • إجراء مراجعات ما بعد الحادث، و
  • الحماية من المحتوى غير القانوني أو المتحيز أو الكاذب أو الذي ينتهك الخصوصية/الملكية الفكرية، وانتهاكات البيانات، والهجمات الشبكية.

إطار حوكمة أمن الذكاء الاصطناعي (الإصدار 2.0)

15 سبتمبر 2025 غير متوفر توفير نهج شامل ومنظم لضمان التطوير والنشر والاستخدام الآمن والأخلاقي والمسؤول لتقنيات الذكاء الاصطناعي. مطورو الذكاء الاصطناعي، ومنفذوه، ومشغلوه يشجع المنظمات على:

  • تطبيق إجراءات الحماية التكنولوجية،
  • وضع تدابير حوكمة قوية،
  • تعزيز سلامة دورة حياة المنتج من البحث والتطوير إلى النشر.
  • تطبيق المبادئ الأخلاقية،
  • إجراء تقييمات سلامة الذكاء الاصطناعي، و
  • الحفاظ على إمكانية التتبع في المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي.

تدابير لتصنيف المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي

7 مارس 2025 1 سبتمبر 2025 تعزيز الاستخدام المسؤول للذكاء الاصطناعي، وحماية حقوق المستخدمين، وضمان الشفافية في المحتوى عبر الإنترنت. مقدمو الخدمات عبر الإنترنت الذين يقدمون خدمات الذكاء الاصطناعي التوليدي، والتي تغطي النصوص والصور والصوت والفيديو والمشاهد الافتراضية التي يتم إنشاؤها بواسطة الذكاء الاصطناعي. تدابير لمقدمي الخدمات:

  • قم بتصنيف المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي باستخدام:
    • ملصقات صريحة (إشعارات مرئية، تنبيهات صوتية، أو علامات صور/فيديو تبقى عند مشاركتها أو تنزيلها).
    • التصنيفات الضمنية (البيانات الوصفية مع السمات، وتفاصيل الموفر، وأرقام المرجع؛ يُشجع استخدام العلامات المائية الرقمية).
  • احتفظ بالسجلات لمدة ستة أشهر إذا تم نشر المحتوى بدون تصنيفات صريحة.
  • يحظر إزالة أو تغيير أو تزوير الملصقات.
  • منع الأدوات التي تتجاوز متطلبات وضع العلامات.
  • الالتزام بجميع القوانين واللوائح والمعايير ذات الصلة تحت إشراف الجهات التنظيمية.

علاوة على ذلك، ينبغي على مقدمي خدمات نقل المحتوى عبر الإنترنت ما يلي:

  • الكشف عن المحتوى والبيانات الوصفية التي تم إنشاؤها بواسطة الذكاء الاصطناعي والتحقق منها.
  • الرد على شكاوى المستخدمين بشأن سوء التسمية.
  • توفير أدوات لتصنيف محتوى الذكاء الاصطناعي.

تكنولوجيا الأمن السيبراني - متطلبات الأمان الأساسية لخدمات الذكاء الاصطناعي التوليدي

25 أبريل 2025 1 نوفمبر 2025 توفير متطلبات أمنية أساسية لخدمات الذكاء الاصطناعي التوليدي، بما في ذلك أمن بيانات التدريب، وأمن النموذج، وإجراءات السلامة.

.

مقدمو الخدمات الذين يقومون بإجراء تقييمات السلامة.

كما أنها بمثابة مرجع للسلطات المختصة والمقيّمين الخارجيين.

متطلبات أمن بيانات التدريب

  • أمن مصادر البيانات: يجب على مزودي الخدمة إجراء تقييمات أمنية عشوائية لمصادر البيانات قبل جمعها. إذا احتوت أكثر من 5% من البيانات على معلومات غير قانونية أو ضارة، فلا يجوز استخدامها لأغراض التدريب.
  • إدارة محتوى البيانات: يجب تصفية جميع بيانات التدريب لإزالة المحتوى غير القانوني أو الضار قبل الاستخدام.
  • حماية الملكية الفكرية: يجب أن يكون لدى مقدمي الخدمات استراتيجيات وقواعد لإدارة الملكية الفكرية لبيانات التدريب وإنشاء قنوات للإبلاغ عن المشكلات ذات الصلة وتحديثها.
  • حماية المعلومات الشخصية: قبل استخدام بيانات التدريب التي تحتوي على معلومات شخصية، يجب على مقدمي الخدمات الحصول على موافقة الفرد أو الامتثال للمتطلبات القانونية الأخرى.

متطلبات الأمان النموذجية

  • تطوير النماذج ونشرها: يجب على مقدمي الخدمات ضمان تطوير النماذج ونشرها بشكل آمن، مع اتخاذ تدابير لمنع الوصول غير المصرح به والتلاعب.
  • تقييم النموذج : ينبغي إجراء تقييمات منتظمة لتقييم أداء النموذج وأمانه، بما في ذلك قدرته على التعامل مع المدخلات المختلفة بأمان.
  • تحديثات النماذج: يجب إدارة تحديثات النماذج بشكل آمن لمنع إدخال الثغرات الأمنية.

تدابير السلامة

  • أمن بيانات المستخدم: يجب على مقدمي الخدمات تنفيذ تدابير لحماية بيانات المستخدم، بما في ذلك التشفير وضوابط الوصول.
  • الاستجابة للحوادث: وضع إجراءات للاستجابة للحوادث الأمنية، بما في ذلك الكشف والإبلاغ والتخفيف.
  • الامتثال للقوانين واللوائح: يجب على مقدمي الخدمات الامتثال لقوانين ومعايير الأمن السيبراني وأمن البيانات وحماية المعلومات الشخصية ذات الصلة.

"مواصفات أمان التعليقات التوضيحية لبيانات الذكاء الاصطناعي التوليدي" (GB/T 45674—2025 )

25 أبريل 2025 1 نوفمبر 2025 يحدد متطلبات أمنية شاملة لعملية شرح البيانات* في أنظمة الذكاء الاصطناعي التوليدية.

*يُعدّ تصنيف البيانات نشاطًا بالغ الأهمية يؤثر بشكل مباشر على جودة وسلامة بيانات التدريب، وبالتالي على المحتوى المُنشأ.

المنظمات المشاركة في أنشطة شرح بيانات الذكاء الاصطناعي التوليدي. التدابير الأمنية

  1. أمن المنصات والأدوات: يجب على المؤسسات إجراء تقييمات أمنية دورية لمنصات أو أنظمة التعليقات التوضيحية لتحديد ومعالجة الثغرات الأمنية المحتملة. ينبغي للمنصات الاحتفاظ بسجلات مفصلة لعمليات المستخدمين وأنشطة النظام لتسهيل التحقيقات في حال وقوع حوادث أمنية.
  2. أمن القواعد: يجب وضع قواعد تعليق واضحة وآمنة لتوجيه عملية وضع العلامات، مما يضمن الاتساق والسلامة في البيانات التي تم إنشاؤها.
  3. متطلبات الموظفين: يجب أن يخضع الموظفون المشاركون في شرح البيانات لتدريب أمني وأن تتم إدارتهم بشكل فعال لمنع الوصول غير المصرح به وضمان الالتزام بالبروتوكولات الأمنية.
  4. متطلبات التحقق: ينبغي أن تكون هناك آليات قوية للتحقق من دقة وأمان البيانات المشروحة، بما في ذلك عمليات التحقق الوظيفي والأمني.

كما يحدد هذا الدليل أساليب تقييم أمن منصات التعليقات التوضيحية والقواعد والموظفين وعمليات التحقق لضمان الامتثال لمتطلبات الأمان المحددة.

تكنولوجيا الأمن السيبراني - مواصفات أمنية لبيانات التدريب المسبق والضبط الدقيق للذكاء الاصطناعي التوليدي

25 أبريل 2025 1 نوفمبر 2025 حدد متطلبات الأمان لأنشطة معالجة البيانات المتعلقة بالتدريب المسبق والضبط الدقيق لنماذج الذكاء الاصطناعي التوليدية. مقدمو خدمات الذكاء الاصطناعي الذين يقومون بمعالجة البيانات والتقييمات الذاتية الأمنية، بالإضافة إلى المؤسسات الخارجية التي تقوم بتقييم أمن البيانات. التدابير الأمنية العامة

  • تطوير استراتيجيات إدارة الأمن للتدريب المسبق وضبط البيانات بدقة، بما في ذلك التصنيف وأمن معالجة البيانات والاستجابة للحوادث.
  • قم بتطبيق تشفير البيانات أثناء التخزين والنقل لمنع الوصول غير المصرح به.
  • ضمان إمكانية تتبع بيانات التدريب من خلال تحديد هوية البيانات بين الدفعات.
  • الالتزام بالمعايير ذات الصلة بحماية المعلومات الشخصية وأمن معالجة البيانات.

تدابير أمنية لمعالجة البيانات قبل التدريب

  • جمع البيانات: تقييم وتسجيل البيانات لضمان عدم تجاوز المحتوى الضار أو غير القانوني نسبة 5%.
  • معالجة البيانات المسبقة: تنفيذ إجراءات لتنظيف البيانات وتطهيرها، وإزالة أي معلومات ضارة أو غير ذات صلة.
  • استخدام البيانات: تأكد من أن البيانات المستخدمة في التدريب لا تضر بسلامة النموذج أو أمانه.

تدابير أمنية لتحسين معالجة البيانات

  • جمع البيانات: اتبع بروتوكولات مماثلة لتلك المستخدمة في جمع بيانات ما قبل التدريب، مع ضمان data quality والشرعية.
  • معالجة البيانات المسبقة: تطبيق تعديلات خاصة بالمجال مع الحفاظ على أمان البيانات.
  • استخدام البيانات: مراقبة وتقييم تأثير ضبط البيانات بدقة على أداء النموذج وأمانه.

كما يحدد أساليب التقييم لجمع البيانات ومعالجتها المسبقة واستخدامها لضمان الشرعية والجودة والأمان والأداء طوال فترة التدريب المسبق والضبط الدقيق.

خطة عمل للحوكمة العالمية للذكاء الاصطناعي

26 يوليو 2025 إنشاء نظام بيئي للذكاء الاصطناعي يتمحور حول الإنسان، وآمن، وشامل، ويعود بالنفع على الجميع، ويسترشد بالتعاون والإنصاف والشفافية. أصحاب المصلحة المعنيون بنشر الذكاء الاصطناعي وتطويره وحوكمته. تتضمن خطة العمل النقاط الرئيسية التالية:

  • التعاون والابتكار: يُحثّ الحكومات والصناعة والمؤسسات البحثية والمجتمع المدني على العمل معًا للنهوض بتكنولوجيا الذكاء الاصطناعي والبنية التحتية الرقمية والابتكار عبر الحدود.
  • الذكاء الاصطناعي في مختلف القطاعات: من الرعاية الصحية والتعليم إلى المدن الذكية وحلول المناخ، يجب أن يمكّن الذكاء الاصطناعي كل قطاع مع دعم أهداف التنمية المستدامة.
  • البيانات المفتوحة وعالية الجودة: تعزز مشاركة البيانات القانونية، وتطوير مجموعات البيانات العالمية، والضمانات المتعلقة بالخصوصية والتنوع.
  • الاستدامة والكفاءة: تشجع الذكاء الاصطناعي الموفر للطاقة، والحوسبة الخضراء، ونماذج التنمية الصديقة للبيئة.
  • المعايير والحوكمة العالمية: تعمل على تعزيز المعايير الدولية والمعايير التقنية وأطر إدارة المخاطر، مما يضمن أن يكون الذكاء الاصطناعي أخلاقياً وشفافاً وقابلاً للتشغيل البيني.
  • بناء القدرات والشمول : يركز على دعم البلدان النامية، وسد الفجوة في مجال الذكاء الاصطناعي، وحماية الحقوق الرقمية للنساء والأطفال.
  • إشراك أصحاب المصلحة المتعددين: يشجع المؤسسات والباحثين وصناع السياسات على التعاون في منصات الابتكار والسلامة والأخلاق والحوكمة العالمية.

كيف Securiti يمكن المساعدة

وهكذا، تُشير لوائح وتوجيهات الذكاء الاصطناعي الصينية لعام 2025 إلى تحوّل من مجرد توجيهات طموحة إلى التزامات ملموسة وقابلة للتنفيذ. من منظور قانوني واستراتيجي، لن تتجنب الشركات التي تُطبّق بشكل استباقي تدابير الامتثال لأنظمة الوسم والأمن والخصوصية، المخاطر التنظيمية فحسب، بل ستكتسب أيضًا مصداقية في أحد أسرع أسواق الذكاء الاصطناعي نموًا في العالم. باختصار، لم يعد التعامل مع بيئة الذكاء الاصطناعي في الصين يقتصر على الامتثال فحسب، بل أصبح يتعلق بترسيخ المساءلة والشفافية والتوافق مع الأولويات الوطنية في صميم عمليات الذكاء الاصطناعي.

Securiti تُعدّ الشركة رائدةً في مجال مركز قيادة البيانات والذكاء الاصطناعي، وهي منصة مركزية تُمكّن من الاستخدام الآمن للبيانات والذكاء الاصطناعي من الجيل الجديد. وتُوفّر هذه المنصة ذكاءً موحدًا للبيانات، وضوابط، وتنسيقًا عبر بيئات سحابية هجينة متعددة. وتعتمد عليها كبرى الشركات العالمية. Securiti 's Data Command Center لأغراض أمن البيانات والخصوصية والحوكمة والامتثال.

Securiti تُمكّن منصة Gencore AI المؤسسات من الاتصال الآمن بمئات أنظمة البيانات مع الحفاظ على ضوابط البيانات وحوكمتها أثناء تدفق البيانات إلى أنظمة GenAI الحديثة. وتعتمد المنصة على مخطط معرفي فريد يوفر رؤى سياقية دقيقة حول البيانات وأنظمة الذكاء الاصطناعي.

توفر Gencore AI ضوابط قوية في جميع أنحاء نظام الذكاء الاصطناعي لضمان التوافق مع سياسات الشركات وحقوقها، والحماية من الهجمات الخبيثة، وحماية البيانات الحساسة. وهذا يمكّن المؤسسات من الامتثال للوائح التنظيمية في الصين.

اطلب عرضًا توضيحيًا لمعرفة المزيد.

قم بتحليل هذه المقالة باستخدام الذكاء الاصطناعي

تظهر المطالبات في أدوات الذكاء الاصطناعي التابعة لجهات خارجية.
انضم إلى قائمتنا البريدية

احصل على أحدث المعلومات والتحديثات القانونية والمزيد مباشرةً في بريدك الإلكتروني



قصص أخرى قد تهمك
مقاطع فيديو
عرض المزيد
ريحان جليل، من شركة Veeam، يتحدث عن Agent Commander: theCUBE + NYSE Wired: قادة الأمن السيبراني
بعد استحواذ شركة Veeam على Securiti يمثل إطلاق برنامج Agent Commander خطوة هامة نحو مساعدة المؤسسات على تبني وكلاء الذكاء الاصطناعي بثقة أكبر. في...
عرض المزيد
تخفيف مخاطر قائمة OWASP لأهم 10 مخاطر لتطبيقات ماجستير القانون 2025
أحدث الذكاء الاصطناعي التوليدي (GenAI) تحولاً جذرياً في طريقة عمل الشركات وتوسعها ونموها. يوجد تطبيق للذكاء الاصطناعي لكل غرض، بدءاً من زيادة إنتاجية الموظفين وصولاً إلى تبسيط العمليات...
عرض المزيد
أفضل 6 DSPM حالات الاستخدام
مع ظهور الذكاء الاصطناعي التوليدي (GenAI)، أصبحت البيانات أكثر ديناميكية. يتم توليد بيانات جديدة بوتيرة أسرع من أي وقت مضى، ونقلها إلى أنظمة وتطبيقات متنوعة...
عرض المزيد
قانون الخصوصية في كولورادو (CPA)
ما هو قانون خصوصية كولورادو؟ قانون خصوصية كولورادو هو قانون شامل لحماية الخصوصية، تم توقيعه في 7 يوليو 2021. وقد وضع معايير جديدة لحماية البيانات الشخصية...
عرض المزيد
Securiti لمساعد الطيار في البرمجيات كخدمة (SaaS)
تسريع اعتماد Copilot بأمان وثقة: تتطلع المؤسسات إلى اعتماد Microsoft 365 Copilot لزيادة الإنتاجية والكفاءة. ومع ذلك، تظل المخاوف الأمنية، مثل حماية البيانات...
عرض المزيد
أهم عشرة اعتبارات لاستخدام البيانات غير المهيكلة بأمان مع الذكاء الاصطناعي العام
نسبة مذهلة تصل إلى 90% من بيانات المؤسسات غير منظمة. وتُستخدم هذه البيانات بسرعة لتغذية تطبيقات الذكاء الاصطناعي من الجيل الجديد، مثل روبوتات الدردشة والبحث المدعوم بالذكاء الاصطناعي.
عرض المزيد
جينكور للذكاء الاصطناعي: بناء أنظمة ذكاء اصطناعي آمنة وعالية الجودة للمؤسسات في دقائق
مع تبني المؤسسات للذكاء الاصطناعي التوليدي، تواجه فرق البيانات والذكاء الاصطناعي العديد من العقبات: ربط مصادر البيانات غير المهيكلة والمهيكلة بشكل آمن، والحفاظ على الضوابط والحوكمة المناسبة،...
عرض المزيد
كيفية التعامل مع قانون حماية خصوصية المستهلك في كاليفورنيا: رؤى أساسية للشركات
ما هو قانون حقوق الخصوصية في كاليفورنيا (CPRA)؟ هو تشريع ولاية كاليفورنيا الذي يهدف إلى حماية خصوصية سكانها الرقمية. وقد دخل حيز التنفيذ في يناير...
عرض المزيد
التكيف مع التحول: الانتقال إلى معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS) الإصدار 4.0
ما هو معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS)؟ هو مجموعة من معايير الأمان لضمان المعالجة والتخزين الآمنين للبيانات، و...
عرض المزيد
تأمين البيانات والذكاء الاصطناعي: دليل إدارة الثقة والمخاطر والأمن (TRiSM)
أثارت المخاطر الأمنية المتزايدة للذكاء الاصطناعي قلق 48% من مسؤولي أمن المعلومات حول العالم. انضموا إلى هذه الجلسة الرئيسية للتعرف على دليل عملي لتمكين الثقة في الذكاء الاصطناعي، وإدارة المخاطر،...

جلسات حوارية مميزة

تسليط الضوء
الاستعداد للمستقبل لمحترفي الخصوصية
شاهد الآن منظر
تسليط الضوء 50:52
من البيانات إلى النشر: حماية الذكاء الاصطناعي المؤسسي من خلال الأمن والحوكمة
شاهد الآن منظر
تسليط الضوء 11:29
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
شاهد الآن منظر
تسليط الضوء 11:18
إعادة هيكلة تمويل العقارات - كيف تُجري شركة ووكر آند دنلوب تحديثًا لمحفظتها الاستثمارية البالغة 135 مليار دولار أمريكي بالاعتماد على البيانات أولاً
شاهد الآن منظر
تسليط الضوء 13:38
تسريع المعجزات - كيف تُدمج شركة سانوفي الذكاء الاصطناعي لتقليص مدة تطوير الأدوية بشكل كبير
صورة مصغرة لشركة سانوفي
شاهد الآن منظر
تسليط الضوء 10:35
حدث تحول جوهري في مركز ثقل البيانات
شاهد الآن منظر
تسليط الضوء 14:21
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
شاهد الآن منظر
تسليط الضوء 12:!3
لا يمكنك بناء خطوط الأنابيب أو المستودعات أو منصات الذكاء الاصطناعي بدون معرفة تجارية
شاهد الآن منظر
تسليط الضوء 47:42
الأمن السيبراني – حيث يقوم القادة بالشراء والبناء والشراكة
ريحان جليل
شاهد الآن منظر
تسليط الضوء 27:29
بناء ذكاء اصطناعي آمن باستخدام Databricks و Gencore
ريحان جليل
شاهد الآن منظر
أحدث
عرض المزيد
بناء ذكاء اصطناعي سيادي باستخدام HPE Private Cloud AI و Veeam Securiti Gencore AI
كيف تُساهم تقنيات الذكاء الاصطناعي في السحابة الخاصة من HPE، وتسريع NVIDIA، وVeeam؟ Securiti يدعم نظام Gencore AI الذكاء الاصطناعي الآمن والمُدار للمؤسسات مع تطبيق السياسات عبر سير العمل RAG والمساعدين والوكلاء.
عرض المزيد
Securiti أعلنت شركة .ai عن اختيار شركة أكسنتشر كشريك العام لعام 2025
في إطار الاحتفال المستمر بالتعاون المؤثر في DataAI Security ، Securiti منحت شركة .ai، التابعة لشركة Veeam، شركة Accenture لقب شريك العام لعام 2025....
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ قانون حماية خصوصية المستهلك في كاليفورنيا؟ عرض المزيد
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ القانون؟
يمكن للشركات أن تستفيد من بعض الدروس الحيوية من أكبر إجراء إنفاذي تم اتخاذه مؤخراً في تاريخ قانون خصوصية المستهلك في كاليفورنيا (CCPA). Securiti مدونة 's تغطي جميع التفاصيل المهمة التي يجب معرفتها.
عرض المزيد
الذكاء الاصطناعي وقانون HIPAA: ما يعنيه وكيفية أتمتة الامتثال
تعرّف على كيفية تطبيق قانون قابلية نقل التأمين الصحي والمساءلة (HIPAA) على الذكاء الاصطناعي في تأمين المعلومات الصحية المحمية. تعلّم كيف...
عرض المزيد
الذكاء الاصطناعي الوكيل والخصوصية: إدارة وكلاء الذكاء الاصطناعي المستقلين في المؤسسات
تعرّف على كيفية إدارة الذكاء الاصطناعي الوكيل في المؤسسة. إدارة مخاطر الخصوصية، والتحكم في الوصول إلى البيانات، وإنفاذ السياسات، وضمان الامتثال لوكلاء الذكاء الاصطناعي المستقلين.
عرض المزيد
خيارات الانسحاب الدائمة: سحب الموافقة عبر التسويق، والبرمجيات كخدمة، والذكاء الاصطناعي العام
Securiti تقدم الورقة البيضاء الخاصة بـ [اسم الشركة] نظرة عامة مفصلة حول متطلبات سحب الموافقة المختلفة في مجالات التسويق، والبرمجيات كخدمة (SaaS)، والذكاء الاصطناعي العام (GenAI). اقرأ الآن لمعرفة المزيد.
عرض المزيد
ROT Data Minimization
التخلص من البيانات الزائدة والقديمة والتافهة (ROT) لتحسين دقة الذكاء الاصطناعي، وتقليل تكاليف التخزين، وتقليل مخاطر الأمن والامتثال على نطاق واسع.
عرض المزيد
قائد العملاء: ملخص الحل
تعرّف على كيفية قيام Agent Commander باكتشاف وكلاء الذكاء الاصطناعي، وحماية بيانات المؤسسة من خلال ضوابط التشغيل، وتصحيح أخطاء الذكاء الاصطناعي - مما يتيح اعتماد الذكاء الاصطناعي بشكل آمن ومتوافق مع المعايير في...
عرض المزيد
تخلص من مخاطر البيانات في الذكاء الاصطناعي
تعرف على كيفية إعداد بيانات المؤسسة لاعتماد Gemini Enterprise بشكل آمن من خلال الحوكمة الأولية، واكتشاف البيانات الحساسة، وضوابط سياسة ما قبل الفهرسة.
عرض المزيد
دليل الحصول على شهادة HITRUST
Securiti يُعد الكتاب الإلكتروني دليلاً عملياً للحصول على شهادة HITRUST، ويغطي كل شيء بدءاً من اختيار i1 مقابل r2 ونطاق الأنظمة وصولاً إلى إدارة خطط العمل والتخطيط...
ما هو
جديد