الإعلان عن Agent Commander - أول حل متكامل من Veeam + Securiti .ai تمكين توسيع نطاق وكلاء الذكاء الاصطناعي الآمنين

منظر
فيم

أطرف أمسية في RSA مع حسن منهاج

حسن منهاج طلب تذكرة
منظر

كيف ستؤثر لوائح الذكاء الاصطناعي التوليدي في الصين على المستقبل؟

المساهمون

أنس بيج

مدير تسويق المنتجات في Securiti

محمد فيصل ستار

مدير الشؤون القانونية للمنتجات والامتثال العالمي للبيانات

FIP، CIPT، CIPM، CIPP/آسيا

نُشر بتاريخ 16 أكتوبر 2023

لا يزال الذكاء الاصطناعي التوليدي ظاهرة ديناميكية للغاية. وقد كان سام ألتمان، الرئيس التنفيذي لشركة OpenAI، شفافاً إلى حد كبير بشأن آرائه حول الذكاء الاصطناعي ومدى ضآلة فهم فريقه للتكنولوجيا التي يتعاملون معها.

مع ذلك، كان موقفه حاسماً بشأن جانب واحد مثير للدهشة يتعلق بالذكاء الاصطناعي: التنظيم . ففي شهادته التي حظيت بتغطية إعلامية واسعة أمام مجلس الشيوخ الأمريكي ، دعا ألتمان إلى تنظيم صارم وشامل لهذه التقنية، وهو رأي كرره في كوريا الجنوبية ضمن جولته العالمية حول تنظيم الذكاء الاصطناعي.

قلة من الدول كانت استباقية مثل الصين في تنظيم الذكاء الاصطناعي التوليدي.

أصبحت هذه اللوائح، التي سنناقشها بمزيد من التفصيل لاحقًا، أكثر تأثيرًا من أي وقت مضى على ريادة الصين في تطوير الذكاء الاصطناعي. وسيزداد هذا التأثير قوةً في الأشهر والسنوات القادمة.

إن فهم كيفية تأثير هذه اللوائح على مستقبل الصين سيساعد بشكل كبير في اكتساب رؤية مستقبلية حيوية حول مستقبل التكنولوجيا ومكانتها في العالم بشكل عام.

لوائح الذكاء الاصطناعي في الصين: لمحة موجزة

في أبريل، أصدرت إدارة الفضاء الإلكتروني الصينية مسودة بعنوان "تدابير خدمات الذكاء الاصطناعي التوليدي". وتهدف هذه التدابير المؤقتة إلى إدارة استخدام خدمات الذكاء الاصطناعي مثل خدمات OpenAI. ChatGPT .

والأهم من ذلك، أن التدابير تهدف إلى وضع الأساس للتنظيم المستقبلي لمنتجات وخدمات الذكاء الاصطناعي التوليدي بالإضافة إلى كيفية عملها في الصين بالتوازي مع العديد من اللوائح القائمة مسبقًا.

النهج التنظيمي الصيني

حظيت الصين بإشادة واسعة لنهجها الاستباقي في تنظيم الذكاء الاصطناعي. ورغم عدم وجود تشريعات مركزية خاصة باستخدام الذكاء الاصطناعي في البلاد حتى الآن، إلا أن هناك وفرة من الأدلة الرسمية والخطط والخرائط والمبادرات التي أُطلقت لضمان استمرار ازدهار قطاع الذكاء الاصطناعي وإدارته بمسؤولية.

تضمن الإصدارات الرسمية مثل مبادرة "صنع في الصين 2025"، وخطة تطوير الجيل القادم من الذكاء الاصطناعي لعام 2017، وخطة العمل لتعزيز تطوير البيانات الضخمة (2015)، وأحكام التركيب العميق، والأحكام الإدارية المتعلقة بخوارزميات التوصية في خدمات المعلومات القائمة على الإنترنت، أن تطوير واستخدام ونشر أي تقنية متعلقة بالذكاء الاصطناعي داخل الصين يخضع لحدود الأخلاقيات والاعتبارات المحددة بشكل صحيح.

تُستخدم الأدلة المذكورة أعلاه جنبًا إلى جنب مع اللوائح الصينية الثلاثة المتعلقة بالبيانات، بما في ذلك قانون الأمن السيبراني ( CSL ) وقانون أمن البيانات ( DSL ) وقانون حماية المعلومات الشخصية ( PIPL ).

علاوة على ذلك، تتناول اللوائح الإقليمية المنفصلة لمناطق محددة، مثل لوائح شنغهاي وشنتشن، المسائل المتعلقة بالذكاء الاصطناعي على مستوى أكثر تحديدًا وعلى مستوى البلديات.

ونتيجة لذلك، لا تستطيع الصين فقط أن تتباهى ببنية تنظيمية منظمة ومنهجية للغاية لتنظيم استخدام وتطوير تكنولوجيا الذكاء الاصطناعي داخل حدودها، بل يمكنها أيضًا إجراء تعديلات مستهدفة ضمن هذه اللوائح اعتمادًا على الاحتياجات لضمان عدم إعاقة اللوائح للابتكار في أي مرحلة.

التأثير على شركات التكنولوجيا المحلية

نظراً لضخامة الاقتصاد الصيني، فإن أي قرار تنظيمي في بكين يُحدث أثراً مضاعفاً على الاقتصاد العالمي وعالم الأعمال عموماً. ومع ذلك، فإن تأثيره المباشر يكاد يكون دائماً على شركات التكنولوجيا المحلية.

كان هذا هو الحال عندما صدرت المسودة الأولية للإجراءات في أبريل. وقد اعتبرها البعض مفرطة في الصرامة، إلا أنها اتبعت نمطًا من إجراءات هيئة شؤون الشركات لضمان وجود آليات شاملة ودقيقة تسمح للحكومة المركزية بفهم أعمق لكيفية قيام مختلف المنظمات بتطوير منتجات وخدمات الذكاء الاصطناعي المختلفة.

وشملت المتطلبات الأخرى معايير لضمان أن تكون بيانات التدريب والمخرجات الناتجة ذات دقة كافية، مع التركيز الشديد على استخدام مصادر البيانات المشروعة.

ومع ذلك، فإن أحدث مسودة للتدابير (تدابير الذكاء الاصطناعي) توفر هامشًا حاسمًا للمنظمات التي تقوم بتطوير خدمات الذكاء الاصطناعي، حيث تخضع لهذه المتطلبات فقط المنظمات التي تقدم خدماتها مباشرة للجمهور.

النمو الاقتصادي والإنتاجية

على غرار بقية العالم، انشغلت شركات التكنولوجيا الصينية بالعمل ليلاً ونهاراً لتنفيذ العديد من المشاريع التي يمكن أن تمنحها الريادة في سوق الذكاء الاصطناعي العالمي.

شهدت شركات عملاقة تقليدية مثل بايدو ومجموعة علي بابا استثمارات قياسية خلال الشهرين الماضيين، حيث تم تطوير العشرات من نماذج وخوارزميات الذكاء الاصطناعي في أعقاب ذلك. ChatGPT نجاح هائل منذ بداية عام 2023.

ومع ذلك، وعلى الرغم من وجود كل من الاستثمار والمنتجات في مراحل تطوير مختلفة، فقد امتنعت معظم شركات التكنولوجيا في الصين عن طرح منتجاتها للجمهور الأوسع.

وقد أشير إلى الإعلان الأخير عن النسخة النهائية من مسودة الإجراءات التي طُرحت في أبريل/نيسان كسبب رئيسي. وقد تبنت معظم المؤسسات التي تُطوّر منتجات وخدمات الذكاء الاصطناعي نهج الترقب والانتظار قبل طرح منتجاتها لضمان التزامها بالمتطلبات القانونية.

بالإضافة إلى ذلك، ركزت شركات التكنولوجيا في قطاع الأعمال بين الشركات على توسيع التطبيقات الصناعية لمنتجاتها، حيث أصبحت JD أحدث اسم ينضم إلى القائمة بنموذج ChatRhino الخاص بها.

الموازنة بين الابتكار والتنظيم

وفي هذا الصدد تحديداً، تواجه الصين نفس القضية الأساسية التي تواجهها بقية دول العالم: كيفية تحقيق التوازن الأمثل بين الابتكار والتنظيم.

كما تم توضيحه سابقاً، توفر تدابير الذكاء الاصطناعي "مساحة تنفس" تشتد الحاجة إليها لشركات التكنولوجيا في قطاع الذكاء الاصطناعي، حيث أن هذه التدابير ستنطبق فقط على المحتوى الذي تم إنشاؤه أو توليده للجمهور.

الأهم من ذلك، أن تدابير الذكاء الاصطناعي تستثني المؤسسات البحثية والخدمات المطورة حصرياً للمستخدمين الأجانب. وهذا يتيح لشركات التكنولوجيا الصينية، التي تتمتع بحوافز أكبر، التعاون مع شركاء دوليين وتوسيع خدماتها عالمياً دون خوف من ردود فعل سلبية في الداخل.

لقد خضعت سمعة الصين التنظيمية لنقاشات حادة على مر السنين. ويشير الكثيرون إلى الرقابة الصارمة المفروضة على الإنترنت ووسائل التواصل الاجتماعي وتدفق المعلومات بشكل عام باعتبارها ضارة بالابتكار التكنولوجي.

ومع ذلك، فقد تبنى المنظمون في البلاد نهجًا أكثر دقة فيما يتعلق بتنظيم الذكاء الاصطناعي، حيث تؤكد تدابير الذكاء الاصطناعي على ضرورة تحقيق التوازن بين "التنمية والأمن".

تحقيقاً لهذه الغاية، وحمايةً للأفراد المعنيين بالبيانات، تلزم تدابير الذكاء الاصطناعي مزودي خدمات الذكاء الاصطناعي التوليدي بالامتثال لالتزامات أمن معلومات الشبكة وحماية البيانات الشخصية. كما تهدف هذه التدابير إلى ضمان سلامة الفئات الضعيفة، كالقاصرين، من خلال منع الاعتماد المفرط على الذكاء الاصطناعي التوليدي أو الإدمان عليه.

يُظهر اشتراط خضوع منتجات الذكاء الاصطناعي التوليدي لتقييم أمني قبل إتاحتها للاستخدام، مدى العناية الفائقة التي تُبذل لضمان سلامة المستخدمين. إضافةً إلى ذلك، ستشرف سبع هيئات وطنية على تنفيذ تدابير الذكاء الاصطناعي، بما في ذلك اللجنة الوطنية للتنمية والإصلاح ووزارة التعليم، مما يُشير إلى الأهمية البالغة التي توليها الصين للتعامل الفعال مع لوائح الذكاء الاصطناعي.

تتناول تدابير الذكاء الاصطناعي أيضًا المخاطر المحتملة لاستخدام الذكاء الاصطناعي التوليدي لأعمال المبدعين الأصليين، وتوجه مزودي الخدمات إلى احترام حقوق الملكية الفكرية التي يكفلها القانون وعدم انتهاكها. كما يُطلب من المؤسسات اتخاذ تدابير فعالة لتحسين شفافية المحتوى المُولّد باستخدام الذكاء الاصطناعي ودقته وموثوقيته.

ما يخبئه المستقبل

من نواحٍ عديدة، تتناقض الإجراءات التنظيمية الصينية المتعلقة بالذكاء الاصطناعي التوليدي تناقضاً صارخاً مع سجلها السابق. فالهيئات التنظيمية تدرك بوضوح الإمكانات الهائلة التي يمثلها الذكاء الاصطناعي للصين، فضلاً عن نقاط قوتها في هذا المجال.

لا تضاهي أي دولة الصين في مجال الأبحاث الأكاديمية وبراءات الاختراع والاستثمارات والتمويل المتعلق بالذكاء الاصطناعي . والأهم من ذلك، من المتوقع أن تتجاوز استثمارات الصين الإجمالية في مجال الذكاء الاصطناعي 26 مليار دولار أمريكي خلال ثلاث سنوات، حيث يُتوقع أن تستحوذ على ما يقرب من 10% من الاستثمارات العالمية في هذا المجال.

لا شك أن الصين تمتلك مقومات قوية لتتبوأ الصدارة العالمية في صناعة الذكاء الاصطناعي. ويُشير إنشاء منطقتي شنغهاي وشنتشن للابتكار، إلى جانب الأنظمة الخاصة بهاتين المنطقتين، إلى الموارد التي ترغب الصين في تخصيصها لتحقيق طموحاتها في الريادة العالمية في مجال الذكاء الاصطناعي مع ضمان الاكتفاء الذاتي التام.

كيف Securiti يمكن المساعدة

يُتيح الذكاء الاصطناعي التوليدي فرصةً فريدةً للشركات على مستوى العالم. وفي الوقت نفسه، ونظراً لقلة الفهم الجماعي لإمكانياته، فقد يُسبب مشاكل خطيرة تتعلق بالامتثال لقواعد البيانات بالنسبة للمؤسسات.

ستجد المنظمات في الصين نفسها أمام معضلة مماثلة. فبما أن المبادرة في تبني الذكاء الاصطناعي قد مكّنت الصين من ترسيخ مكانتها كقائدة عالمية في هذا المجال، فسيكون من الضروري اتباع نهج مماثل فيما يتعلق بالامتثال التنظيمي.

Securiti تُعد الشركة رائدة في توفير حلول data privacy والأمن والامتثال والحوكمة، ولديها العديد من الوحدات والمنتجات المخصصة لمساعدة المؤسسات على تلبية أي التزامات تنظيمية قد تخضع لها، وتحديداً تلك التي قد يُطلب من المؤسسات فيها اتخاذ تدابير خاصة تتعلق ببيانات المستخدم في سياق الذكاء الاصطناعي التوليدي.

شركة عالمية رائدة في مجال توفير خدمات المؤسسات data privacy حلول الأمن والامتثال والحوكمة، Securiti Data Command Center يُمكّن هذا المنظمات من تحسين إشرافها والتزامها باللوائح التنظيمية الشاملة للذكاء الاصطناعي والبيانات في الصين.

ونتيجة لذلك، يمكن للمنظمات تحديد أي مخالفات ضمن بروتوكولات الامتثال الخاصة بها والاستجابة لها بشكل استباقي مع تقليل أي فرصة لحدوث انتهاكات تنظيمية أو إهمال.

اطلب عرضًا تجريبيًا اليوم وتعرف على المزيد حول كيفية Securiti يمكننا مساعدتك في تحقيق الامتثال التنظيمي للوائح الذكاء الاصطناعي في الصين اليوم.

قم بتحليل هذه المقالة باستخدام الذكاء الاصطناعي

تظهر المطالبات في أدوات الذكاء الاصطناعي التابعة لجهات خارجية.
انضم إلى قائمتنا البريدية

احصل على أحدث المعلومات والتحديثات القانونية والمزيد مباشرةً في بريدك الإلكتروني



قصص أخرى قد تهمك
مقاطع فيديو
عرض المزيد
تخفيف مخاطر قائمة OWASP لأهم 10 مخاطر لتطبيقات ماجستير القانون 2025
أحدث الذكاء الاصطناعي التوليدي (GenAI) تحولاً جذرياً في طريقة عمل الشركات وتوسعها ونموها. يوجد تطبيق للذكاء الاصطناعي لكل غرض، بدءاً من زيادة إنتاجية الموظفين وصولاً إلى تبسيط العمليات...
عرض المزيد
أفضل 6 DSPM حالات الاستخدام
مع ظهور الذكاء الاصطناعي التوليدي (GenAI)، أصبحت البيانات أكثر ديناميكية. يتم توليد بيانات جديدة بوتيرة أسرع من أي وقت مضى، ونقلها إلى أنظمة وتطبيقات متنوعة...
عرض المزيد
قانون الخصوصية في كولورادو (CPA)
ما هو قانون خصوصية كولورادو؟ قانون خصوصية كولورادو هو قانون شامل لحماية الخصوصية، تم توقيعه في 7 يوليو 2021. وقد وضع معايير جديدة لحماية البيانات الشخصية...
عرض المزيد
Securiti لمساعد الطيار في البرمجيات كخدمة (SaaS)
تسريع اعتماد Copilot بأمان وثقة: تتطلع المؤسسات إلى اعتماد Microsoft 365 Copilot لزيادة الإنتاجية والكفاءة. ومع ذلك، تظل المخاوف الأمنية، مثل حماية البيانات...
عرض المزيد
أهم عشرة اعتبارات لاستخدام البيانات غير المهيكلة بأمان مع الذكاء الاصطناعي العام
نسبة مذهلة تصل إلى 90% من بيانات المؤسسات غير منظمة. وتُستخدم هذه البيانات بسرعة لتغذية تطبيقات الذكاء الاصطناعي من الجيل الجديد، مثل روبوتات الدردشة والبحث المدعوم بالذكاء الاصطناعي.
عرض المزيد
جينكور للذكاء الاصطناعي: بناء أنظمة ذكاء اصطناعي آمنة وعالية الجودة للمؤسسات في دقائق
مع تبني المؤسسات للذكاء الاصطناعي التوليدي، تواجه فرق البيانات والذكاء الاصطناعي العديد من العقبات: ربط مصادر البيانات غير المهيكلة والمهيكلة بشكل آمن، والحفاظ على الضوابط والحوكمة المناسبة،...
عرض المزيد
كيفية التعامل مع قانون حماية خصوصية المستهلك في كاليفورنيا: رؤى أساسية للشركات
ما هو قانون حقوق الخصوصية في كاليفورنيا (CPRA)؟ هو تشريع ولاية كاليفورنيا الذي يهدف إلى حماية خصوصية سكانها الرقمية. وقد دخل حيز التنفيذ في يناير...
عرض المزيد
التكيف مع التحول: الانتقال إلى معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS) الإصدار 4.0
ما هو معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS)؟ هو مجموعة من معايير الأمان لضمان المعالجة والتخزين الآمنين للبيانات، و...
عرض المزيد
تأمين البيانات والذكاء الاصطناعي: دليل إدارة الثقة والمخاطر والأمن (TRiSM)
أثارت المخاطر الأمنية المتزايدة للذكاء الاصطناعي قلق 48% من مسؤولي أمن المعلومات حول العالم. انضموا إلى هذه الجلسة الرئيسية للتعرف على دليل عملي لتمكين الثقة في الذكاء الاصطناعي، وإدارة المخاطر،...
عرض شركة ناشئة تابعة لـ AWS حول حوكمة الأمن السيبراني باستخدام الذكاء الاصطناعي التوليدي عرض المزيد
عرض شركة ناشئة تابعة لـ AWS حول حوكمة الأمن السيبراني باستخدام الذكاء الاصطناعي التوليدي
الموازنة بين الابتكار والحوكمة باستخدام الذكاء الاصطناعي التوليدي: يمتلك الذكاء الاصطناعي التوليدي القدرة على إحداث تغيير جذري في جميع جوانب الأعمال، بفضل إمكانياته الجديدة الفعّالة. ومع ذلك،...

جلسات حوارية مميزة

تسليط الضوء 50:52
من البيانات إلى النشر: حماية الذكاء الاصطناعي المؤسسي من خلال الأمن والحوكمة
شاهد الآن منظر
تسليط الضوء 11:29
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
شاهد الآن منظر
تسليط الضوء 11:18
إعادة هيكلة تمويل العقارات - كيف تُجري شركة ووكر آند دنلوب تحديثًا لمحفظتها الاستثمارية البالغة 135 مليار دولار أمريكي بالاعتماد على البيانات أولاً
شاهد الآن منظر
تسليط الضوء 13:38
تسريع المعجزات - كيف تُدمج شركة سانوفي الذكاء الاصطناعي لتقليص مدة تطوير الأدوية بشكل كبير
صورة مصغرة لشركة سانوفي
شاهد الآن منظر
تسليط الضوء 10:35
حدث تحول جوهري في مركز ثقل البيانات
شاهد الآن منظر
تسليط الضوء 14:21
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
شاهد الآن منظر
تسليط الضوء 12:!3
لا يمكنك بناء خطوط الأنابيب أو المستودعات أو منصات الذكاء الاصطناعي بدون معرفة تجارية
شاهد الآن منظر
تسليط الضوء 47:42
الأمن السيبراني – حيث يقوم القادة بالشراء والبناء والشراكة
ريحان جليل
شاهد الآن منظر
تسليط الضوء 27:29
بناء ذكاء اصطناعي آمن باستخدام Databricks و Gencore
ريحان جليل
شاهد الآن منظر
تسليط الضوء 46:02
بناء ذكاء اصطناعي آمن للمؤسسات: خارطة طريق عملية
شاهد الآن منظر
أحدث
عرض المزيد
نقدم لكم قائد العملاء
إن وعود وكلاء الذكاء الاصطناعي مذهلة - فالأنظمة الذكية التي تتخذ القرارات، وتستخدم الأدوات، وتؤتمت سير العمل المعقد، تعمل كمضاعفات قوة لكل معرفة...
عزل المخاطر: أكبر مشكلة في الذكاء الاصطناعي لا تتحدث عنها مجالس الإدارة عرض المزيد
عزل المخاطر: أكبر مشكلة في الذكاء الاصطناعي لا تتحدث عنها مجالس الإدارة
تتابع مجالس الإدارة نقاش الذكاء الاصطناعي، لكن هناك نقطة عمياء لم تُشر إليها العديد من المؤسسات بعد: وهي عزلة أقسام إدارة المخاطر. الجميع متفقون على ذلك. AI governance ...
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ قانون حماية خصوصية المستهلك في كاليفورنيا؟ عرض المزيد
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ القانون؟
يمكن للشركات أن تستفيد من بعض الدروس الحيوية من أكبر إجراء إنفاذي تم اتخاذه مؤخراً في تاريخ قانون خصوصية المستهلك في كاليفورنيا (CCPA). Securiti مدونة 's تغطي جميع التفاصيل المهمة التي يجب معرفتها.
عرض المزيد
الذكاء الاصطناعي وقانون HIPAA: ما يعنيه وكيفية أتمتة الامتثال
تعرّف على كيفية تطبيق قانون قابلية نقل التأمين الصحي والمساءلة (HIPAA) على الذكاء الاصطناعي في تأمين المعلومات الصحية المحمية. تعلّم كيف...
بناء بنية تحتية آمنة للذكاء الاصطناعي للخدمات المالية عرض المزيد
بناء بنية تحتية آمنة للذكاء الاصطناعي للخدمات المالية
اطلع على الورقة البيضاء واكتشف كيف تقضي المؤسسات المالية على الذكاء الاصطناعي الخفي، وتفرض سياسات الذكاء الاصطناعي في الوقت الفعلي، وتؤمن البيانات الحساسة من خلال نظام تحكم موحد في البيانات والذكاء الاصطناعي...
قوانين الخصوصية في ولايات إنديانا وكنتاكي ورود آيلاند عرض المزيد
قوانين الخصوصية في إنديانا وكنتاكي ورود آيلاند: ما الذي تغير وما الذي يجب على الشركات فعله الآن
تفصيل للجديد data privacy القوانين في ولايات إنديانا وكنتاكي ورود آيلاند - الالتزامات الرئيسية وحقوق المستهلك والجداول الزمنية للتنفيذ وما يجب على الشركات فعله الآن.
أمن الذكاء الاصطناعي الآلي: أهم 10 مخاطر أمنية وفقًا لمعيار OWASP مع أدوات تحكم مؤسسية عرض المزيد
أمن الذكاء الاصطناعي الآلي: أهم 10 مخاطر أمنية وفقًا لمعيار OWASP مع أدوات تحكم مؤسسية
قم بربط أهم 10 مخاطر OWASP للذكاء الاصطناعي الوكيل بضوابط على مستوى المؤسسة، والهوية، وأمن البيانات، والضوابط، والمراقبة، والحوكمة لوقف إساءة استخدام الذكاء الاصطناعي المستقل.
عرض المزيد
الأولويات الاستراتيجية لقادة الأمن في عام 2026
Securiti تقدم الورقة البيضاء الخاصة بـ [اسم الشركة] نظرة عامة مفصلة على النهج ثلاثي المراحل للامتثال لقانون الذكاء الاصطناعي، مما يجعلها قراءة أساسية للشركات العاملة في مجال الذكاء الاصطناعي. التصنيف: ...
عرض المزيد
تخلص من مخاطر البيانات في الذكاء الاصطناعي
تعرف على كيفية إعداد بيانات المؤسسة لاعتماد Gemini Enterprise بشكل آمن من خلال الحوكمة الأولية، واكتشاف البيانات الحساسة، وضوابط سياسة ما قبل الفهرسة.
عرض المزيد
دليل الحصول على شهادة HITRUST
Securiti يُعد الكتاب الإلكتروني دليلاً عملياً للحصول على شهادة HITRUST، ويغطي كل شيء بدءاً من اختيار i1 مقابل r2 ونطاق الأنظمة وصولاً إلى إدارة خطط العمل والتخطيط...
ما هو
جديد