الإعلان عن Agent Commander - أول حل متكامل من Veeam + Securiti .ai تمكين توسيع نطاق وكلاء الذكاء الاصطناعي الآمنين

منظر

Securiti تمكين الذكاء الاصطناعي السيادي في الاتحاد الأوروبي بالتعاون مع NVIDIA

مؤلف

كريس جوينت

مدير تسويق المنتجات في Securiti

استمع إلى المحتوى

هذا المنشور متاح أيضاً باللغات التالية: English

لقد اضطلع الاتحاد الأوروبي بدور ريادي عالمي في ضمان تسخير قوة أنظمة الذكاء الاصطناعي لتحقيق الرفاه الشامل للمواطنين، واتخذ خطوات ملموسة لتيسير تطوير الذكاء الاصطناعي السيادي في المنطقة. ويهدف الذكاء الاصطناعي السيادي إلى تعزيز ذكاء اصطناعي يتمحور حول الإنسان، ويتسم بالأمان والشفافية وعدم التمييز، ويحترم القيم الديمقراطية والرقابة البشرية.
لقد مهّد الاستثمار في البنية التحتية لزيادة القدرة الحاسوبية، وإنشاء مختبرات البيانات ومساحات البيانات المشتركة، وتطوير مناهج تدريب الذكاء الاصطناعي، الطريق أمام المبتكرين لتحقيق رؤية الذكاء الاصطناعي السيادي. وقد أوضح قادة الاتحاد الأوروبي للعالم أن الحقوق الأساسية للمواطنين ستُحترم وتُحمى من قِبل المنظمات التي تطمح إلى بناء و/أو نشر أنظمة الذكاء الاصطناعي في الاتحاد الأوروبي أو استخدام البيانات التي جُمعت فيه. Securiti تفخر بدعم هذه الرؤية للذكاء الاصطناعي السيادي من خلال تصميم NVIDIA Enterprise AI Factory Validated Design.

تتمتع تطبيقات الذكاء الاصطناعي بالقدرة على إحداث تحول جذري في جوانب عديدة من المجتمع، لذا يسعى الاتحاد الأوروبي إلى ضمان امتلاكه القدرة على تطوير هذه الأنظمة ونشرها وإدارتها دون أي تأثير أو تبعية خارجية غير مبررة. ويكتسب هذا الأمر أهمية خاصة في مجالات الذكاء الاصطناعي، مثل البنية التحتية الحيوية والرعاية الصحية والإدارة العامة. ولذلك، فإن جوهر الذكاء الاصطناعي السيادي يكمن في السيطرة على عنصرين أساسيين: البيانات والبنية التحتية. وقد تعاونت Securiti مع شركة إنفيديا لتوفير سيطرة لا مثيل لها على كليهما. ومن خلال تمكين المؤسسات من نشر حلول متكاملة جاهزة للاستخدام، يوفر مصنع الذكاء الاصطناعي المؤسسي تحكمًا كاملاً في البنية التحتية، بالإضافة إلى Securiti تتمتع الشركة بقدرات لا مثيل لها AI Security & Governance . وهذا يتيح للمؤسسات ما يلي:

  • تطوير سجل كامل لأصل جميع البيانات المستخدمة في الذكاء الاصطناعي لضمان data quality وخصوصيتها وأمنها وسلامتها
  • استخلاص وحفظ معلومات سياقية دقيقة للغاية حول جميع بيانات المؤسسة، بما في ذلك الأذونات وأنماط الوصول من قبل المستخدمين البشريين أو أنظمة الذكاء الاصطناعي، وذلك لإثراء عملية تطبيق السياسات.
  • تحديد وتصنيف وتنقيح أي بيانات حساسة أو بيانات محمية بموجب اللوائح في مختلف البيئات، مما يؤدي فعلياً إلى إنشاء مناطق آمنة حيث يمكن الوصول إلى البيانات المنقحة بشكل آمن وبما يتوافق مع اللوائح.
  • حماية الذكاء الاصطناعي في الوقت الفعلي من خلال تطبيق الصلاحيات وسياسات المؤسسة على جميع تفاعلات الذكاء الاصطناعي، حتى عبر خطوط الأنابيب المعقدة وهياكل RAG لمنع المخرجات الضارة أو الهجمات الخبيثة أو تسريب البيانات الحساسة.
  • إجراء اختبارات تلقائية للتأكد من الامتثال وإنشاء تقارير للوائح الجغرافية والصناعية لتحويل الحوكمة من عبء إلى عامل تسريع استراتيجي.

Securiti يوفر مخطط أوامر البيانات والذكاء الاصطناعي معلومات سياقية حول بياناتك والعلاقات الرئيسية بين النماذج والمستخدمين والأنظمة

من خلال توفير بطاقات نماذج قابلة للمقارنة بسهولة، Securiti تساعد فرق الذكاء الاصطناعي المسؤولة على اتخاذ قرارات بشأن النماذج الأنسب لحالات استخدامها ومجتمعاتها. تسهل خدمة NVIDIA NIM المصغّرة نشر نماذج التعلم المحدود المختلفة أو "النماذج الأساسية"، وضبطها حسب الحاجة، والتحكم في الإصدارات بناءً على الاحتياجات الفريدة للمستخدمين.

بطاقات النماذج في Securiti يقوم مركز قيادة البيانات والذكاء الاصطناعي بتتبع مجموعة من مقاييس النماذج لمساعدة فرق الذكاء الاصطناعي المسؤولة على اتخاذ قرارات جيدة بشأن النماذج التي تُسهّل بشكل أفضل الثقة والسلامة في الذكاء الاصطناعي.

إن بناء أو نشر الذكاء الاصطناعي السيادي هو مسعى شامل ومتكامل. Securiti يتكامل مع تصميم NVIDIA Enterprise AI Factory المُعتمد للمساعدة في حماية حتى أكثر أنظمة الذكاء الاصطناعي تطورًا. من خلال الاستفادة من تصاميم Enterprise AI المُعتمدة، يمكن للعملاء اختيار نماذج آمنة مُدرَّبة على بيانات آمنة ومُعقَّمة، ونشر خدمات الذكاء الاصطناعي الأساسية وتوسيع نطاقها بسرعة، مثل: Securiti تستخدم Gencore AI جدران الحماية لحمايتها أثناء التشغيل. Securiti يتوافق نهج الطبقات المتعددة مع إطار عمل Gartner's AI TRiSM ، مما يوفر حوكمة قوية، وتخفيف المخاطر، وضوابط أمنية لعمليات الذكاء الاصطناعي المستقلة لضمان رفاهية المستخدمين والمجتمعات مع تحديد أي مشكلات محتملة وتخفيفها بسرعة.

Securiti يدعم الذكاء الاصطناعي، الذي تسارع بفضل شركة NVIDIA، سيادة الذكاء الاصطناعي من خلال اتباع نهج النظام البيئي لتأمين الأصول والبنية التحتية والبيانات الحيوية للذكاء الاصطناعي.

Securiti وتتعاون NVIDIA لتمكين المؤسسات من تحقيق السيادة على الذكاء الاصطناعي من خلال توفير تحكم شامل في كل من البيانات والبنية التحتية. وذلك من خلال تصميم NVIDIA Enterprise AI Factory المُعتمد، Securiti 's AI Security & Governance تُتيح هذه الإمكانيات إنشاء بيئات بيانات آمنة للابتكار من خلال ذكاء البيانات، بما في ذلك البيانات الحساسة ، والتطبيق الدقيق لضوابط الوصول. ويتماشى هذا بشكل وثيق مع أُطر عمل مثل AI TRiSM واللوائح الناشئة. AI governance يُمكّن من النشر السريع والتوسع في خدمات الذكاء الاصطناعي الآمنة مع الحفاظ على الشفافية والأمان والامتثال، مما يؤدي في النهاية إلى تحقيق الذكاء الاصطناعي السيادي.

قم بتحليل هذه المقالة باستخدام الذكاء الاصطناعي

تظهر المطالبات في أدوات الذكاء الاصطناعي التابعة لجهات خارجية.
انضم إلى قائمتنا البريدية

احصل على أحدث المعلومات والتحديثات القانونية والمزيد مباشرةً في بريدك الإلكتروني


يشارك

قصص أخرى قد تهمك
مقاطع فيديو
عرض المزيد
ريحان جليل، من شركة Veeam، يتحدث عن Agent Commander: theCUBE + NYSE Wired: قادة الأمن السيبراني
بعد استحواذ شركة Veeam على Securiti يمثل إطلاق برنامج Agent Commander خطوة هامة نحو مساعدة المؤسسات على تبني وكلاء الذكاء الاصطناعي بثقة أكبر. في...
عرض المزيد
تخفيف مخاطر قائمة OWASP لأهم 10 مخاطر لتطبيقات ماجستير القانون 2025
أحدث الذكاء الاصطناعي التوليدي (GenAI) تحولاً جذرياً في طريقة عمل الشركات وتوسعها ونموها. يوجد تطبيق للذكاء الاصطناعي لكل غرض، بدءاً من زيادة إنتاجية الموظفين وصولاً إلى تبسيط العمليات...
عرض المزيد
أفضل 6 DSPM حالات الاستخدام
مع ظهور الذكاء الاصطناعي التوليدي (GenAI)، أصبحت البيانات أكثر ديناميكية. يتم توليد بيانات جديدة بوتيرة أسرع من أي وقت مضى، ونقلها إلى أنظمة وتطبيقات متنوعة...
عرض المزيد
قانون الخصوصية في كولورادو (CPA)
ما هو قانون خصوصية كولورادو؟ قانون خصوصية كولورادو هو قانون شامل لحماية الخصوصية، تم توقيعه في 7 يوليو 2021. وقد وضع معايير جديدة لحماية البيانات الشخصية...
عرض المزيد
Securiti لمساعد الطيار في البرمجيات كخدمة (SaaS)
تسريع اعتماد Copilot بأمان وثقة: تتطلع المؤسسات إلى اعتماد Microsoft 365 Copilot لزيادة الإنتاجية والكفاءة. ومع ذلك، تظل المخاوف الأمنية، مثل حماية البيانات...
عرض المزيد
أهم عشرة اعتبارات لاستخدام البيانات غير المهيكلة بأمان مع الذكاء الاصطناعي العام
نسبة مذهلة تصل إلى 90% من بيانات المؤسسات غير منظمة. وتُستخدم هذه البيانات بسرعة لتغذية تطبيقات الذكاء الاصطناعي من الجيل الجديد، مثل روبوتات الدردشة والبحث المدعوم بالذكاء الاصطناعي.
عرض المزيد
جينكور للذكاء الاصطناعي: بناء أنظمة ذكاء اصطناعي آمنة وعالية الجودة للمؤسسات في دقائق
مع تبني المؤسسات للذكاء الاصطناعي التوليدي، تواجه فرق البيانات والذكاء الاصطناعي العديد من العقبات: ربط مصادر البيانات غير المهيكلة والمهيكلة بشكل آمن، والحفاظ على الضوابط والحوكمة المناسبة،...
عرض المزيد
كيفية التعامل مع قانون حماية خصوصية المستهلك في كاليفورنيا: رؤى أساسية للشركات
ما هو قانون حقوق الخصوصية في كاليفورنيا (CPRA)؟ هو تشريع ولاية كاليفورنيا الذي يهدف إلى حماية خصوصية سكانها الرقمية. وقد دخل حيز التنفيذ في يناير...
عرض المزيد
التكيف مع التحول: الانتقال إلى معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS) الإصدار 4.0
ما هو معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS)؟ هو مجموعة من معايير الأمان لضمان المعالجة والتخزين الآمنين للبيانات، و...
عرض المزيد
تأمين البيانات والذكاء الاصطناعي: دليل إدارة الثقة والمخاطر والأمن (TRiSM)
أثارت المخاطر الأمنية المتزايدة للذكاء الاصطناعي قلق 48% من مسؤولي أمن المعلومات حول العالم. انضموا إلى هذه الجلسة الرئيسية للتعرف على دليل عملي لتمكين الثقة في الذكاء الاصطناعي، وإدارة المخاطر،...

جلسات حوارية مميزة

تسليط الضوء 50:52
من البيانات إلى النشر: حماية الذكاء الاصطناعي المؤسسي من خلال الأمن والحوكمة
شاهد الآن منظر
تسليط الضوء 11:29
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
شاهد الآن منظر
تسليط الضوء 11:18
إعادة هيكلة تمويل العقارات - كيف تُجري شركة ووكر آند دنلوب تحديثًا لمحفظتها الاستثمارية البالغة 135 مليار دولار أمريكي بالاعتماد على البيانات أولاً
شاهد الآن منظر
تسليط الضوء 13:38
تسريع المعجزات - كيف تُدمج شركة سانوفي الذكاء الاصطناعي لتقليص مدة تطوير الأدوية بشكل كبير
صورة مصغرة لشركة سانوفي
شاهد الآن منظر
تسليط الضوء 10:35
حدث تحول جوهري في مركز ثقل البيانات
شاهد الآن منظر
تسليط الضوء 14:21
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
شاهد الآن منظر
تسليط الضوء 12:!3
لا يمكنك بناء خطوط الأنابيب أو المستودعات أو منصات الذكاء الاصطناعي بدون معرفة تجارية
شاهد الآن منظر
تسليط الضوء 47:42
الأمن السيبراني – حيث يقوم القادة بالشراء والبناء والشراكة
ريحان جليل
شاهد الآن منظر
تسليط الضوء 27:29
بناء ذكاء اصطناعي آمن باستخدام Databricks و Gencore
ريحان جليل
شاهد الآن منظر
تسليط الضوء 46:02
بناء ذكاء اصطناعي آمن للمؤسسات: خارطة طريق عملية
شاهد الآن منظر
أحدث
عرض المزيد
نقدم لكم قائد العملاء
إن وعود وكلاء الذكاء الاصطناعي مذهلة - فالأنظمة الذكية التي تتخذ القرارات، وتستخدم الأدوات، وتؤتمت سير العمل المعقد، تعمل كمضاعفات قوة لكل معرفة...
عزل المخاطر: أكبر مشكلة في الذكاء الاصطناعي لا تتحدث عنها مجالس الإدارة عرض المزيد
عزل المخاطر: أكبر مشكلة في الذكاء الاصطناعي لا تتحدث عنها مجالس الإدارة
تتابع مجالس الإدارة نقاش الذكاء الاصطناعي، لكن هناك نقطة عمياء لم تُشر إليها العديد من المؤسسات بعد: وهي عزلة أقسام إدارة المخاطر. الجميع متفقون على ذلك. AI governance ...
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ قانون حماية خصوصية المستهلك في كاليفورنيا؟ عرض المزيد
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ القانون؟
يمكن للشركات أن تستفيد من بعض الدروس الحيوية من أكبر إجراء إنفاذي تم اتخاذه مؤخراً في تاريخ قانون خصوصية المستهلك في كاليفورنيا (CCPA). Securiti مدونة 's تغطي جميع التفاصيل المهمة التي يجب معرفتها.
عرض المزيد
الذكاء الاصطناعي وقانون HIPAA: ما يعنيه وكيفية أتمتة الامتثال
تعرّف على كيفية تطبيق قانون قابلية نقل التأمين الصحي والمساءلة (HIPAA) على الذكاء الاصطناعي في تأمين المعلومات الصحية المحمية. تعلّم كيف...
عرض المزيد
من وضوح البيانات إلى سرعة الذكاء الاصطناعي
اطلع على الورقة البيضاء واكتشف كيف يتم توحيد DataAI security يحوّل إدارة البيانات إلى عامل تمكين للأعمال، ويعزز ابتكار الذكاء الاصطناعي من خلال الشفافية والامتثال وإدارة المخاطر...
عرض المزيد
دليل تنفيذ قانون بيانات الاتحاد الأوروبي: التعامل مع طلبات الوصول إلى البيانات، ومشاركة البيانات، والتحويل السحابي
Securiti توفر الورقة البيضاء الخاصة بـ دليل تنفيذ مفصل لتحقيق الامتثال لقانون البيانات، مما يجعلها قراءة أساسية للشركات التي تعمل بالبيانات في الاتحاد الأوروبي.
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti عرض المزيد
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti
التزم بتعديلات قانون خصوصية المستهلك في كاليفورنيا لعام 2026 باستخدام Securiti وتشمل هذه المتطلبات تحديث متطلبات الموافقة، وتوسيع تعريفات البيانات الحساسة، وتعزيز حقوق المستهلك، وتقييمات الجاهزية.
عرض المزيد
أين تنتهك الخصوصية: الذكاء الاصطناعي الوكيل في المؤسسات
يُحدث الذكاء الاصطناعي الآلي تحولاً جذرياً في المؤسسات، ولكن ما هو ثمن ذلك على الخصوصية؟ اكتشف أهم 10 مخاطر، والضوابط الرئيسية، وكيفية التعامل معها. Securiti يُمكّن من تحقيق الأمان والتوسع...
عرض المزيد
تخلص من مخاطر البيانات في الذكاء الاصطناعي
تعرف على كيفية إعداد بيانات المؤسسة لاعتماد Gemini Enterprise بشكل آمن من خلال الحوكمة الأولية، واكتشاف البيانات الحساسة، وضوابط سياسة ما قبل الفهرسة.
عرض المزيد
دليل الحصول على شهادة HITRUST
Securiti يُعد الكتاب الإلكتروني دليلاً عملياً للحصول على شهادة HITRUST، ويغطي كل شيء بدءاً من اختيار i1 مقابل r2 ونطاق الأنظمة وصولاً إلى إدارة خطط العمل والتخطيط...
ما هو
جديد