الإعلان عن Agent Commander - أول حل متكامل من Veeam + Securiti .ai تمكين توسيع نطاق وكلاء الذكاء الاصطناعي الآمنين

منظر

تسريع الذكاء الاصطناعي الآمن للمؤسسات باستخدام Gencore Sync و Databricks

مؤلف

ريحان جليل

الرئيس التنفيذي السابق لـ Securiti الذكاء الاصطناعي، والآن رئيس قسم المنتجات والتكنولوجيا في شركة فيم

استمع إلى المحتوى

هذا المنشور متاح أيضاً باللغات التالية: English

يسرّنا الإعلان عن إمكانيات جديدة في Gencore AI لدعم Mosaic AI و Delta Tables من Databricks! يُمكّن هذا الدعم المؤسسات من استيراد البيانات غير المهيكلة وسياق الأمان بشكل انتقائي وآمن من مئات أنظمة البيانات إلى Databricks Delta Tables. ونتيجةً لذلك، تستطيع الشركات بسهولة بناء أنظمة ذكاء اصطناعي آمنة وعالية الجودة ، بالإضافة إلى وكلاء ذكاء اصطناعي، باستخدام بياناتها الخاصة مع Databricks.

الشكل 1: تسريع تطوير الذكاء الاصطناعي الآمن للمؤسسات باستخدام Gencore AI و Databricks

يُعدّ استخدام البيانات من مصادر بيانات متنوعة بشكل آمن وموثوق، مع ضمان الضوابط والحوكمة السليمة طوال مسار الذكاء الاصطناعي، أكبر عائق أمام نشر أنظمة الذكاء الاصطناعي في المؤسسات. ونظرًا لأن غالبية بيانات المؤسسة غير مُهيكلة، فمن الضروري إدارة هذه الأصول والتحكم بها بشكل سليم.
تُسرّع Gencore AI من تبني تقنيات الذكاء الاصطناعي العام في المؤسسات من خلال تسهيل بناء مسارات الذكاء الاصطناعي باستخدام البيانات من مئات أنظمة البيانات. وبات بإمكان المؤسسات الآن الاستفادة بأمان من قوة بياناتها غير المهيكلة والمهيكلة في أي مكان باستخدام Databricks.

الشكل 2: مزامنة البيانات غير المهيكلة بأمان مع جداول دلتا داتابريكس لحالات استخدام الذكاء الاصطناعي في المؤسسات

لتمكين الابتكار السريع في مجال الذكاء الاصطناعي العام باستخدام البيانات الخاصة على نطاق واسع، يجب مراعاة ثلاثة اعتبارات رئيسية.

1. سهولة بناء وتشغيل أنظمة الذكاء الاصطناعي الآمنة

تمتلك المؤسسات النموذجية عشرات أو مئات من حالات استخدام الذكاء الاصطناعي العام التي تحتاج إلى التنفيذ والتشغيل. ولنشر وإدارة مشاريع الذكاء الاصطناعي العام هذه بفعالية وعلى نطاق واسع، تحتاج المؤسسات إلى أدوات برمجية تدمج بسلاسة البيانات غير المهيكلة والمهيكلة من أنظمة متنوعة مع نماذج الذكاء الاصطناعي العام.

تعمل Gencore AI على تبسيط عملية استيعاب البيانات من خلال الاتصال بالبيانات غير المهيكلة والمهيكلة عبر الأنظمة والتطبيقات المختلفة، مع السماح باستخدام أي نماذج ذكاء اصطناعي أساسية أو مخصصة في Databricks.

يمكن لفرق البيانات والذكاء الاصطناعي تهيئة وتشغيل أنظمة الذكاء الاصطناعي هذه في دقائق.

الشكل 3 (أ). تهيئة وتشغيل أنظمة الذكاء الاصطناعي الآمنة في دقائق (باستخدام واجهة المستخدم)

الشكل 3(ب). تهيئة وتشغيل أنظمة الذكاء الاصطناعي الآمنة في دقائق (بناءً على واجهة برمجة التطبيقات)

2. الأمن والحوكمة المدمجة في أنظمة الذكاء الاصطناعي

يُعدّ أمن البيانات الخاصة وحوكمتها واستخدامها الآمن من أهمّ الاحتياجات والمتطلبات الأساسية لمديري تقنية المعلومات ومديري أمن المعلومات في مشاريع الذكاء الاصطناعي من الجيل الجديد. وهو أمر بالغ الأهمية للانتقال من مرحلة إثبات المفهوم إلى أنظمة الإنتاج المؤسسية عالية الجودة.

يتوافق Gencore AI مع OWASP Top 10 لـ LLMs للمساعدة في دمج أمن البيانات وحوكمتها في كل مرحلة مهمة من مراحل نظام الذكاء الاصطناعي داخل Databricks، بدءًا من استيعاب البيانات وحتى طبقات استهلاك الذكاء الاصطناعي.

يقوم Gencore AI تلقائيًا بتنظيف البيانات عند استيعابها، ويجلب الصلاحيات من الأنظمة المصدرية ويفرض الصلاحيات عند استهلاك الذكاء الاصطناعي، ويحمي النشاط على التضمينات في قواعد البيانات المتجهة، ويفحص ويتحكم في المطالبات والاستجابات.

الشكل 4. بناء أنظمة ذكاء اصطناعي آمنة للمؤسسات باستخدام Databricks و Gencore AI

3. تتبع كامل لأصل أنظمة الذكاء الاصطناعي

يتألف نظام الذكاء الاصطناعي العام عادةً من مجموعة متنوعة من المكونات الأساسية وعلاقات معقدة لا حصر لها بين عناصر البيانات المتغيرة باستمرار، مثل الملفات، وصلاحيات المستخدمين، ونماذج الذكاء الاصطناعي، ووكلاء الذكاء الاصطناعي، وقواعد بيانات المتجهات، ونقاط نهاية المستخدمين. من المهم امتلاك رؤية شاملة لأصل نظام الذكاء الاصطناعي بأكمله، وصولاً إلى مستوى كل عنصر بيانات وملف. كما تتطلب العديد من لوائح الذكاء الاصطناعي هذه الرؤية. تشمل الأسئلة الحاسمة ما يلي: ما أنظمة البيانات التي تغذي نماذج التعلم الموجه (LLMs) المحددة؟ ما الملفات المستخدمة؟ من لديه صلاحيات الوصول؟ ما الأنظمة المتأثرة بتغييرات قواعد بيانات المتجهات؟

توفر قاعدة المعرفة الخاصة بشركة Gencore AI رؤى سياقية دقيقة حول البيانات وأنظمة الذكاء الاصطناعي داخل Databricks.

يتيح ذلك التحكم في الوقت الفعلي وإمكانية التتبع الشاملة عبر استخدام البيانات والملفات والمستخدمين والنماذج ونقاط النهاية.

الشكل 5. Data Command Graph يوفر رؤية عميقة مدمجة وتتبعًا دقيقًا لأصول أنظمة الذكاء الاصطناعي

حالات الاستخدام النموذجية مع Gencore AI والذكاء الاصطناعي في Databricks

يُمكّن دعم تقنية Mosaic AI وجداول Delta من Databricks في Gencore AI المؤسسات من بناء أنظمة ذكاء اصطناعي آمنة وعالية الجودة، تُوازن بين الابتكار والأمان والامتثال. تشمل حالات الاستخدام الرئيسية ما يلي: 

1. استيعاب البيانات بشكل آمن من مصادر متنوعة لذكاء الذكاء الاصطناعي في داتابريكس

يتيح هذا الحل استيعاب البيانات بشكل شامل في جداول دلتا Databricks من خلال مسارات بيانات آمنة.

  • الاتصال بسلاسة بقواعد البيانات المحلية، ومنصات التخزين السحابي، وتطبيقات SaaS (Salesforce، وServiceNow، وWorkday، وما إلى ذلك)، وأنظمة البيانات المحلية، مما يتيح إدارة مركزية للبيانات في جداول دلتا.
  • تَأثِير Securiti 's Data Command Graph لاختيار مجموعات البيانات ذات الصلة تلقائيًا بناءً على سياق العمل والبيانات الوصفية ومتطلبات الامتثال.
  • ضمان حداثة البيانات وتفردها وملاءمتها للموضوع للحصول على مدخلات عالية الجودة لتدريب نماذج الذكاء الاصطناعي وضبطها.
  • تنظيف البيانات غير المهيكلة والبيانات المهيكلة تلقائيًا ، بما في ذلك التنقيح والإخفاء وإخفاء الهوية بناءً على مستويات حساسية البيانات والسياسات التنظيمية.
  • مراقبة تدفقات البيانات للتأكد من الالتزام بلوائح الخصوصية وسياسات الأمان ومتطلبات سيادة البيانات.

تُرسّخ هذه القدرات أساسًا قويًا لعمليات البيانات الآمنة والمتوافقة التي تدعم تدريب وضبط نموذج الذكاء الاصطناعي داخل نظام Mosaic AI البيئي.

2. توفير ضوابط بيانات أساسية لدعم الاستخدام الموسع للبيانات والذكاء الاصطناعي

يُمكّن هذا الحل من اعتماد الذكاء الاصطناعي بشكل آمن وعلى نطاق واسع من خلال تطبيق ضوابط حوكمة شاملة وضمانات عبر أنظمة الذكاء الاصطناعي والبيانات، مما يساعد المؤسسات على توسيع قدراتها في مجال الذكاء الاصطناعي بثقة مع الحفاظ على الإشراف.

  • تمكين التوافق مع معايير OWASP Top 10 لأنظمة إدارة التعلم من أجل أنظمة ذكاء اصطناعي آمنة. توفير عرض كامل لمصدر بيانات الذكاء الاصطناعي والبيانات قائم على الرسوم البيانية، وفقًا لمتطلبات لوائح الذكاء الاصطناعي المختلفة.
  • فرض تنظيف البيانات في الوقت الفعلي عبر مسارات الذكاء الاصطناعي في Databricks، والكشف التلقائي عن المعلومات الحساسة وحمايتها من خلال الإخفاء وإخفاء الهوية بناءً على سياسات تصنيف البيانات.
  • توفير معلومات حول استحقاقات المستخدمين واللوائح التنظيمية المتعلقة بالبيانات التي تم إدخالها في Databricks، بالإضافة إلى رسوم بيانية للوصول والاستحقاقات للبيانات في Databricks.
  • توفير جدران حماية LLM لضمان الأمن والامتثال لضوابط الشركات بشأن استخدام الذكاء الاصطناعي، ومنع هجمات الحقن الفوري، والحماية من تسرب البيانات، ومراقبة المدخلات المعادية.

تُمكّن هذه الضوابط المؤسسات من توسيع نطاق مبادرات الذكاء الاصطناعي المؤسسية مع الحفاظ على متطلبات الأمن والامتثال والحوكمة.

3. بناء تطبيقات ذكاء اصطناعي شخصية تراعي الأذونات

توفر Gencore AI إطار عمل شاملاً لتطوير تطبيقات ذكاء اصطناعي شخصية تراعي الصلاحيات على منصة Databricks. يتيح هذا الحل ما يلي:

  • تطوير تطبيقات الذكاء الاصطناعي الواعية بالسياق والتي تتكيف تلقائيًا مع أذونات واستحقاقات كل مستخدم، مما يضمن وصول الموظفين واستخدامهم فقط لميزات الذكاء الاصطناعي المناسبة لدورهم ومستوى تصريحهم.
  • التكامل السلس لحوكمة بيانات المؤسسة مع سير عمل الذكاء الاصطناعي من خلال عناصر التحكم الآلية في الوصول، والتحقق من الأذونات في الوقت الفعلي، وتسجيل التدقيق الدقيق - مما يخلق أساسًا لتطوير الذكاء الاصطناعي المسؤول.
  • إنشاء تجارب ذكاء اصطناعي مخصصة من خلال الاستفادة من بيانات المستخدم الوصفية الغنية وأنماط التفاعل وبيانات الاستخدام التاريخية مع الحفاظ على حدود أمنية صارمة ومتطلبات الامتثال.

يتيح هذا النهج على مستوى المؤسسات للمؤسسات بناء تطبيقات ذكاء اصطناعي متطورة ومدركة لاحتياجات المستخدم على منصة Databricks مع الحفاظ على ضوابط الأمان والامتثال التنظيمي على نطاق واسع.

في Securiti ، مهمتنا هي تمكين المؤسسات من تسخير القوة الهائلة للبيانات والذكاء الاصطناعي بأمان. يدعم Gencore AI منصتي Mosaic AI وDelta Tables من Databricks، مما يتيح للمؤسسات استخدام بياناتها الخاصة لتطوير ونشر نماذج الذكاء الاصطناعي، بدءًا من تدريب النماذج وضبطها وصولًا إلى إنشاء نماذج خطية لغوية مخصصة واستنتاج البيانات في بيئة الإنتاج. يساعد هذا التكامل المؤسسات على الانتقال بسرعة وأمان من مرحلة إثبات المفهوم إلى أنظمة الذكاء الاصطناعي المؤسسية.

هل ترغب في مشاهدة عرض توضيحي؟ أرسل طلبًا لعرض توضيحي على Gencore.AI .

قم بتحليل هذه المقالة باستخدام الذكاء الاصطناعي

تظهر المطالبات في أدوات الذكاء الاصطناعي التابعة لجهات خارجية.
انضم إلى قائمتنا البريدية

احصل على أحدث المعلومات والتحديثات القانونية والمزيد مباشرةً في بريدك الإلكتروني


يشارك

قصص أخرى قد تهمك
مقاطع فيديو
عرض المزيد
ريحان جليل، من شركة Veeam، يتحدث عن Agent Commander: theCUBE + NYSE Wired: قادة الأمن السيبراني
بعد استحواذ شركة Veeam على Securiti يمثل إطلاق برنامج Agent Commander خطوة هامة نحو مساعدة المؤسسات على تبني وكلاء الذكاء الاصطناعي بثقة أكبر. في...
عرض المزيد
تخفيف مخاطر قائمة OWASP لأهم 10 مخاطر لتطبيقات ماجستير القانون 2025
أحدث الذكاء الاصطناعي التوليدي (GenAI) تحولاً جذرياً في طريقة عمل الشركات وتوسعها ونموها. يوجد تطبيق للذكاء الاصطناعي لكل غرض، بدءاً من زيادة إنتاجية الموظفين وصولاً إلى تبسيط العمليات...
عرض المزيد
أفضل 6 DSPM حالات الاستخدام
مع ظهور الذكاء الاصطناعي التوليدي (GenAI)، أصبحت البيانات أكثر ديناميكية. يتم توليد بيانات جديدة بوتيرة أسرع من أي وقت مضى، ونقلها إلى أنظمة وتطبيقات متنوعة...
عرض المزيد
قانون الخصوصية في كولورادو (CPA)
ما هو قانون خصوصية كولورادو؟ قانون خصوصية كولورادو هو قانون شامل لحماية الخصوصية، تم توقيعه في 7 يوليو 2021. وقد وضع معايير جديدة لحماية البيانات الشخصية...
عرض المزيد
Securiti لمساعد الطيار في البرمجيات كخدمة (SaaS)
تسريع اعتماد Copilot بأمان وثقة: تتطلع المؤسسات إلى اعتماد Microsoft 365 Copilot لزيادة الإنتاجية والكفاءة. ومع ذلك، تظل المخاوف الأمنية، مثل حماية البيانات...
عرض المزيد
أهم عشرة اعتبارات لاستخدام البيانات غير المهيكلة بأمان مع الذكاء الاصطناعي العام
نسبة مذهلة تصل إلى 90% من بيانات المؤسسات غير منظمة. وتُستخدم هذه البيانات بسرعة لتغذية تطبيقات الذكاء الاصطناعي من الجيل الجديد، مثل روبوتات الدردشة والبحث المدعوم بالذكاء الاصطناعي.
عرض المزيد
جينكور للذكاء الاصطناعي: بناء أنظمة ذكاء اصطناعي آمنة وعالية الجودة للمؤسسات في دقائق
مع تبني المؤسسات للذكاء الاصطناعي التوليدي، تواجه فرق البيانات والذكاء الاصطناعي العديد من العقبات: ربط مصادر البيانات غير المهيكلة والمهيكلة بشكل آمن، والحفاظ على الضوابط والحوكمة المناسبة،...
عرض المزيد
كيفية التعامل مع قانون حماية خصوصية المستهلك في كاليفورنيا: رؤى أساسية للشركات
ما هو قانون حقوق الخصوصية في كاليفورنيا (CPRA)؟ هو تشريع ولاية كاليفورنيا الذي يهدف إلى حماية خصوصية سكانها الرقمية. وقد دخل حيز التنفيذ في يناير...
عرض المزيد
التكيف مع التحول: الانتقال إلى معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS) الإصدار 4.0
ما هو معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS)؟ هو مجموعة من معايير الأمان لضمان المعالجة والتخزين الآمنين للبيانات، و...
عرض المزيد
تأمين البيانات والذكاء الاصطناعي: دليل إدارة الثقة والمخاطر والأمن (TRiSM)
أثارت المخاطر الأمنية المتزايدة للذكاء الاصطناعي قلق 48% من مسؤولي أمن المعلومات حول العالم. انضموا إلى هذه الجلسة الرئيسية للتعرف على دليل عملي لتمكين الثقة في الذكاء الاصطناعي، وإدارة المخاطر،...

جلسات حوارية مميزة

تسليط الضوء 50:52
من البيانات إلى النشر: حماية الذكاء الاصطناعي المؤسسي من خلال الأمن والحوكمة
شاهد الآن منظر
تسليط الضوء 11:29
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
شاهد الآن منظر
تسليط الضوء 11:18
إعادة هيكلة تمويل العقارات - كيف تُجري شركة ووكر آند دنلوب تحديثًا لمحفظتها الاستثمارية البالغة 135 مليار دولار أمريكي بالاعتماد على البيانات أولاً
شاهد الآن منظر
تسليط الضوء 13:38
تسريع المعجزات - كيف تُدمج شركة سانوفي الذكاء الاصطناعي لتقليص مدة تطوير الأدوية بشكل كبير
صورة مصغرة لشركة سانوفي
شاهد الآن منظر
تسليط الضوء 10:35
حدث تحول جوهري في مركز ثقل البيانات
شاهد الآن منظر
تسليط الضوء 14:21
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
شاهد الآن منظر
تسليط الضوء 12:!3
لا يمكنك بناء خطوط الأنابيب أو المستودعات أو منصات الذكاء الاصطناعي بدون معرفة تجارية
شاهد الآن منظر
تسليط الضوء 47:42
الأمن السيبراني – حيث يقوم القادة بالشراء والبناء والشراكة
ريحان جليل
شاهد الآن منظر
تسليط الضوء 27:29
بناء ذكاء اصطناعي آمن باستخدام Databricks و Gencore
ريحان جليل
شاهد الآن منظر
تسليط الضوء 46:02
بناء ذكاء اصطناعي آمن للمؤسسات: خارطة طريق عملية
شاهد الآن منظر
أحدث
عرض المزيد
Securiti أعلنت شركة .ai عن اختيار شركة أكسنتشر كشريك العام لعام 2025
في إطار الاحتفال المستمر بالتعاون المؤثر في DataAI Security ، Securiti منحت شركة .ai، التابعة لشركة Veeam، شركة Accenture لقب شريك العام لعام 2025....
عرض المزيد
نقدم لكم قائد العملاء
إن وعود وكلاء الذكاء الاصطناعي مذهلة - فالأنظمة الذكية التي تتخذ القرارات، وتستخدم الأدوات، وتؤتمت سير العمل المعقد، تعمل كمضاعفات قوة لكل معرفة...
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ قانون حماية خصوصية المستهلك في كاليفورنيا؟ عرض المزيد
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ القانون؟
يمكن للشركات أن تستفيد من بعض الدروس الحيوية من أكبر إجراء إنفاذي تم اتخاذه مؤخراً في تاريخ قانون خصوصية المستهلك في كاليفورنيا (CCPA). Securiti مدونة 's تغطي جميع التفاصيل المهمة التي يجب معرفتها.
عرض المزيد
الذكاء الاصطناعي وقانون HIPAA: ما يعنيه وكيفية أتمتة الامتثال
تعرّف على كيفية تطبيق قانون قابلية نقل التأمين الصحي والمساءلة (HIPAA) على الذكاء الاصطناعي في تأمين المعلومات الصحية المحمية. تعلّم كيف...
عرض المزيد
من وضوح البيانات إلى سرعة الذكاء الاصطناعي
اطلع على الورقة البيضاء واكتشف كيف يتم توحيد DataAI security يحوّل إدارة البيانات إلى عامل تمكين للأعمال، ويعزز ابتكار الذكاء الاصطناعي من خلال الشفافية والامتثال وإدارة المخاطر...
عرض المزيد
دليل تنفيذ قانون بيانات الاتحاد الأوروبي: التعامل مع طلبات الوصول إلى البيانات، ومشاركة البيانات، والتحويل السحابي
Securiti توفر الورقة البيضاء الخاصة بـ دليل تنفيذ مفصل لتحقيق الامتثال لقانون البيانات، مما يجعلها قراءة أساسية للشركات التي تعمل بالبيانات في الاتحاد الأوروبي.
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti عرض المزيد
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti
التزم بتعديلات قانون خصوصية المستهلك في كاليفورنيا لعام 2026 باستخدام Securiti وتشمل هذه المتطلبات تحديث متطلبات الموافقة، وتوسيع تعريفات البيانات الحساسة، وتعزيز حقوق المستهلك، وتقييمات الجاهزية.
عرض المزيد
أين تنتهك الخصوصية: الذكاء الاصطناعي الوكيل في المؤسسات
يُحدث الذكاء الاصطناعي الآلي تحولاً جذرياً في المؤسسات، ولكن ما هو ثمن ذلك على الخصوصية؟ اكتشف أهم 10 مخاطر، والضوابط الرئيسية، وكيفية التعامل معها. Securiti يُمكّن من تحقيق الأمان والتوسع...
عرض المزيد
تخلص من مخاطر البيانات في الذكاء الاصطناعي
تعرف على كيفية إعداد بيانات المؤسسة لاعتماد Gemini Enterprise بشكل آمن من خلال الحوكمة الأولية، واكتشاف البيانات الحساسة، وضوابط سياسة ما قبل الفهرسة.
عرض المزيد
دليل الحصول على شهادة HITRUST
Securiti يُعد الكتاب الإلكتروني دليلاً عملياً للحصول على شهادة HITRUST، ويغطي كل شيء بدءاً من اختيار i1 مقابل r2 ونطاق الأنظمة وصولاً إلى إدارة خطط العمل والتخطيط...
ما هو
جديد