الإعلان عن Agent Commander - أول حل متكامل من Veeam + Securiti .ai تمكين توسيع نطاق وكلاء الذكاء الاصطناعي الآمنين

منظر

جولة فيمون 2026 - البيانات والذكاء الاصطناعي يتلاقيان من أجل عصر الوكلاء

منظر

يمكن لعملاء Gencore AI الآن استخدام DeepSeek R1 بشكل آمن

مؤلف

مايكل راينهارت

نائب رئيس قسم الذكاء الاصطناعي في Securiti

استمع إلى المحتوى

هذا المنشور متاح أيضاً باللغات التالية: English

تواجه المؤسسات ضغوطًا هائلة لاستخدام الذكاء الاصطناعي التوليدي لتقديم حلول مبتكرة ، واستخلاص رؤى قيّمة من كميات هائلة من البيانات، والحفاظ على تفوقها التنافسي . وفي الوقت نفسه، تتزايد التوقعات والمتطلبات المتعلقة بهذا المجال. data privacy ولم يسبق أن كان الأمن أعلى من ذلك.

ولمساعدة المؤسسات على تلبية هذه الاحتياجات المتنافسة باستخدام أحدث نماذج الذكاء الاصطناعي التوليدي، أضافت منصة Gencore AI من Securiti دعمًا لـ DeepSeek R1 بالإضافة إلى نماذج الاستدلال بالذكاء الاصطناعي الأحدث الأخرى.

تتفوق نماذج الاستدلال مثل DeepSeek R1 في توليد رؤى دقيقة وتنفيذ مهام معقدة. ويعود تفوقها الملحوظ على الأجيال السابقة من الذكاء الاصطناعي التوليدي إلى استخدامها للاستدلال ، مما يسمح لها بوضع استجابة مدروسة بعناية للطلب وتقييم جودة الاستجابات المحتملة . وتتصدر نماذج الاستدلال مثل DeepSeek R1 الآن قوائم الاختبارات المعيارية للمهام المعقدة.

في هذه المقالة، نستكشف أهمية الاستدلال في الذكاء الاصطناعي، والتطور الأخير لنماذج الاستدلال، والخطوات الحاسمة التي يجب على المؤسسات اتخاذها لتسخير قدراتها بشكل آمن .

ثورة التفكير المنطقي جارية

لماذا يُعدّ التفكير المنطقي مهماً؟

لكي تتمكن الأنظمة المدعومة بالذكاء الاصطناعي (مثل روبوتات الدردشة المُحسّنة بالأدوات وسير العمل المدعوم بالذكاء الاصطناعي) من تقديم مساعدة موثوقة في المهام المعقدة، يجب أن تُحلل المهام والبيانات بدلاً من مجرد تقديم ردود مباشرة. وقد ثبت أن التحليل المنطقي يوفر مزايا رئيسية، منها:

  • تحسين الدقة في تنفيذ المهام المعقدة،
  • تقديم تفسيرات أفضل للنتائج والتوصيات،
  • تحسين القدرة على التكيف في سير العمل الديناميكي أو متعدد الخطوات.

كان التفكير المنطقي الموثوق به صعباً

قبل ظهور نماذج الاستدلال المتخصصة مثل DeepSeek R1، كان تحقيق استدلال موثوق للذكاء الاصطناعي يتطلب تقنيات مخصصة أو نماذج ضيقة النطاق مدربة خصيصًا. على سبيل المثال:

1. الهندسة السريعة والمعالجة التكرارية

  • تحاول تقنيات مثل سلسلة الأفكار ، وشجرة الأفكار ، وأفضل الحلول من بين عدة حلول ، والتحسين الذاتي، تحسين النتائج من خلال جعل النموذج "يفكر" قبل الاستجابة، بالإضافة إلى تقييم إجاباته وتحسينها بشكل متكرر. ومع ذلك، فهي إما هشة، إذ قد تخطئ في قرار واحد خاطئ، أو تتطلب عددًا كبيرًا من الرموز (تكلفة) لتطبيقها.

2. الضبط الدقيق المتخصص (SFT)

  • تعتبر SFT فعالة في توجيه النماذج نحو أداء موثوق به في مهام محددة وضيقة، ولكنها قد تؤدي إلى فقدان التعميم .

3. سير العمل التفصيلي

  • يساعد تقسيم المهام إلى خطوات أصغر نماذج الذكاء الاصطناعي التوليدية على الأداء بشكل أفضل، ولكن نقاط القرار الصعبة في سير العمل لا تزال تتطلب تحسين التفكير على مستوى النموذج .

يُسهّل DeepSeek R1 ونماذج الاستدلال الأخرى الوصول إلى نتائج عالية الجودة

تُدرَّب نماذج الاستدلال مثل DeepSeek R1 بشكلٍ صريح على الاستدلال قبل الاستجابة. ولأن هذه النماذج تُنتج استدلالًا عالي الجودة بحكم تصميمها ، فإنها تتطلب هندسةً أقل تخصصًا للمُدخلات، وقد لا تتطلب SFT، مما يُمكّن المؤسسات من معالجة مهام أكبر وأكثر تعقيدًا بكفاءة.

شكّل عام 2025 علامة فارقة في نماذج الاستدلال

شهدنا حتى الآن في عام 2025 طفرة في نماذج الاستدلال التي دفعت حدود قدرات الاستدلال في الذكاء الاصطناعي:

  1. DeepSeek R1 (20 يناير)
  2. كوين 2.5-ماكس (29 يناير)
  3. o3-mini (31 يناير)

من بين هذه النماذج، حظي نموذج DeepSeek R1 باهتمام كبير. فهو ليس مجرد أول نموذج من هذه الموجة الجديدة من نماذج الاستدلال، بل يقدم أيضاً:

  1. دقة فائقة : بفضل بيانات التدريب عالية الجودة التي تركز على الاستدلال، يحقق DeepSeek R1 باستمرار أداءً من الدرجة الأولى يضاهي OpenAI o1 (الذي تم إصداره في ديسمبر 2024).
  2. أوزان مفتوحة المصدر : يتوفر DeepSeek R1 كأوزان مفتوحة المصدر بموجب ترخيص MIT المتساهل ، والذي يسمح للمؤسسات بدمج DeepSeek R1 وتسويقه بأقل قدر من القيود.
  3. مجموعة متنوعة من أحجام النماذج : يتوفر DeepSeek R1 في مجموعة متنوعة من أحجام النماذج المصغرة (1.5B، 7B، 8B، 14B، 32B، و70B) لتلبية المفاضلات المختلفة بين الأداء والتكلفة .
  4. انخفاض تكلفة التطويرتشير التقارير إلى أن برنامج DeepSeek R1 طُوّر بتكلفة أقل بكثير من نماذج OpenAI المماثلة، مما دفع الخبراء إلى التنبؤ بـ مجموعة من النماذج المتطورة للغاية مع مجموعة متنوعة من التراخيص ومتطلبات الموارد المختلفة.

يُعدّ أمن البيانات والذكاء الاصطناعي القوي أمرًا بالغ الأهمية لاستخدام DeepSeek في العمل.

بإمكان المؤسسات الاستفادة من نماذج الاستدلال مثل DeepSeek R1 دون المساس بالأمان، ويبدأ ذلك بتطبيق نظام ذكاء اصطناعي يتمتع بضوابط قوية للغاية للبيانات والذكاء الاصطناعي . في الواقع، تشير الأبحاث في Securiti أظهرت الدراسات إمكانية استخراج البيانات الحساسة من نظام ذكاء اصطناعي غير آمن في تفاعلين فقط. لذا، ينبغي ربط نظام الذكاء الاصطناعي الآمن بسياسة تمنع استخدام واجهات الدردشة المباشرة لـ DeepSeek، إذ كشفت التقارير عن حالات أدت فيها خدمات الدردشة المباشرة (بما فيها DeepSeek) إلى تسريب البيانات. وأخيرًا، يُمكّن نظام الذكاء الاصطناعي الآمن مؤسستك من الاستفادة من بياناتك بشكل مسؤول من خلال نسخ آمنة مُدرّبة مسبقًا من DeepSeek، مما يسمح لها بتجنب تدريب DeepSeek على بيانات حساسة . لا تستطيع النماذج المُدرّبة التمييز بدقة بين البيانات الحساسة وغير الحساسة، وبالتالي قد تُسرّب أي بيانات تتعرض لها أثناء التدريب في أي سياق.

تُمكّن تقنية الذكاء الاصطناعي من Gencore بشكل فريد من الاستخدام الآمن لتقنية DeepSeek في المؤسسات . تحديداً:

  • يفهم نظام Gencore AI الصلاحيات ويفرضها : نظرًا لأن البيانات المُدخلة تتجاوز حدود أنظمة البيانات، فإن وجود مزود واحد لعمليات الإدخال والاسترجاع ضروري للحفاظ على معلومات الصلاحيات وفرضها. يتكامل نظام Gencore AI بسلاسة مع Data Command Graph من Securiti لفهم المستخدمين وصلاحياتهم أثناء الإدخال والاسترجاع، وفرضها بشكل أساسي.
  • يقوم Gencore AI بإخفاء البيانات الحساسة أثناء عملية الاستيعاب : على عكس الضوابط التي تعتمد فقط على منطق وقت الاسترجاع لاكتشاف البيانات الحساسة المحتملة، يتكامل Gencore AI مع Sensitive Data Intelligence من Securiti لاكتشاف وإخفاء البيانات الحساسة أثناء عملية الاستيعاب لضمان الأمن والخصوصية، حتى أنواع البيانات الحساسة الخاصة بمؤسستك.
  • يوفر جدار الحماية LLM من Gencore AI أمانًا مصممًا خصيصًا لمؤسستك : فأنظمة الحماية المدمجة في LLM غالبًا ما تكون هدفًا للهجمات، وتوفر حماية عامة، ولا تفهم بيانات مؤسستك. يتكامل جدار الحماية LLM من Gencore AI مع محرك سياسات Securiti لتطبيق سياسات على مستوى المؤسسات على مطالبات LLM، واستجابات LLM، والبيانات المسترجعة، والتي يمكن تخصيصها بشكل أكبر لتلبية الاحتياجات الخاصة لمؤسستك.
  • تضمن Gencore AI سهولة الاستخدام والمرونة الفورية : يجب أن تكون حلول أمان الذكاء الاصطناعي قابلة للتخصيص وسهلة الاستخدام لضمان اعتمادها. تركز فلسفة تصميم Gencore AI على تجربة مستخدم بديهية مع خيارات لعرض عناصر تحكم دقيقة مطلوبة لحالات استخدام متخصصة.

يلبي نظام Gencore AI من Securiti هذه المعايير، ومع عمليات التكامل الأخيرة مع نماذج الاستدلال مثل DeepSeek R1، يمكن للمؤسسات أن تتوقع ابتكارًا غير مسبوق مع أمان مدمج .

قم بتحليل هذه المقالة باستخدام الذكاء الاصطناعي

تظهر المطالبات في أدوات الذكاء الاصطناعي التابعة لجهات خارجية.
انضم إلى قائمتنا البريدية

احصل على أحدث المعلومات والتحديثات القانونية والمزيد مباشرةً في بريدك الإلكتروني


يشارك

قصص أخرى قد تهمك
مقاطع فيديو
عرض المزيد
ريحان جليل، من شركة Veeam، يتحدث عن Agent Commander: theCUBE + NYSE Wired: قادة الأمن السيبراني
بعد استحواذ شركة Veeam على Securiti يمثل إطلاق برنامج Agent Commander خطوة هامة نحو مساعدة المؤسسات على تبني وكلاء الذكاء الاصطناعي بثقة أكبر. في...
عرض المزيد
تخفيف مخاطر قائمة OWASP لأهم 10 مخاطر لتطبيقات ماجستير القانون 2025
أحدث الذكاء الاصطناعي التوليدي (GenAI) تحولاً جذرياً في طريقة عمل الشركات وتوسعها ونموها. يوجد تطبيق للذكاء الاصطناعي لكل غرض، بدءاً من زيادة إنتاجية الموظفين وصولاً إلى تبسيط العمليات...
عرض المزيد
أفضل 6 DSPM حالات الاستخدام
مع ظهور الذكاء الاصطناعي التوليدي (GenAI)، أصبحت البيانات أكثر ديناميكية. يتم توليد بيانات جديدة بوتيرة أسرع من أي وقت مضى، ونقلها إلى أنظمة وتطبيقات متنوعة...
عرض المزيد
قانون الخصوصية في كولورادو (CPA)
ما هو قانون خصوصية كولورادو؟ قانون خصوصية كولورادو هو قانون شامل لحماية الخصوصية، تم توقيعه في 7 يوليو 2021. وقد وضع معايير جديدة لحماية البيانات الشخصية...
عرض المزيد
Securiti لمساعد الطيار في البرمجيات كخدمة (SaaS)
تسريع اعتماد Copilot بأمان وثقة: تتطلع المؤسسات إلى اعتماد Microsoft 365 Copilot لزيادة الإنتاجية والكفاءة. ومع ذلك، تظل المخاوف الأمنية، مثل حماية البيانات...
عرض المزيد
أهم عشرة اعتبارات لاستخدام البيانات غير المهيكلة بأمان مع الذكاء الاصطناعي العام
نسبة مذهلة تصل إلى 90% من بيانات المؤسسات غير منظمة. وتُستخدم هذه البيانات بسرعة لتغذية تطبيقات الذكاء الاصطناعي من الجيل الجديد، مثل روبوتات الدردشة والبحث المدعوم بالذكاء الاصطناعي.
عرض المزيد
جينكور للذكاء الاصطناعي: بناء أنظمة ذكاء اصطناعي آمنة وعالية الجودة للمؤسسات في دقائق
مع تبني المؤسسات للذكاء الاصطناعي التوليدي، تواجه فرق البيانات والذكاء الاصطناعي العديد من العقبات: ربط مصادر البيانات غير المهيكلة والمهيكلة بشكل آمن، والحفاظ على الضوابط والحوكمة المناسبة،...
عرض المزيد
كيفية التعامل مع قانون حماية خصوصية المستهلك في كاليفورنيا: رؤى أساسية للشركات
ما هو قانون حقوق الخصوصية في كاليفورنيا (CPRA)؟ هو تشريع ولاية كاليفورنيا الذي يهدف إلى حماية خصوصية سكانها الرقمية. وقد دخل حيز التنفيذ في يناير...
عرض المزيد
التكيف مع التحول: الانتقال إلى معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS) الإصدار 4.0
ما هو معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS)؟ هو مجموعة من معايير الأمان لضمان المعالجة والتخزين الآمنين للبيانات، و...
عرض المزيد
تأمين البيانات والذكاء الاصطناعي: دليل إدارة الثقة والمخاطر والأمن (TRiSM)
أثارت المخاطر الأمنية المتزايدة للذكاء الاصطناعي قلق 48% من مسؤولي أمن المعلومات حول العالم. انضموا إلى هذه الجلسة الرئيسية للتعرف على دليل عملي لتمكين الثقة في الذكاء الاصطناعي، وإدارة المخاطر،...

جلسات حوارية مميزة

تسليط الضوء
الاستعداد للمستقبل لمحترفي الخصوصية
شاهد الآن منظر
تسليط الضوء 50:52
من البيانات إلى النشر: حماية الذكاء الاصطناعي المؤسسي من خلال الأمن والحوكمة
شاهد الآن منظر
تسليط الضوء 11:29
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
شاهد الآن منظر
تسليط الضوء 11:18
إعادة هيكلة تمويل العقارات - كيف تُجري شركة ووكر آند دنلوب تحديثًا لمحفظتها الاستثمارية البالغة 135 مليار دولار أمريكي بالاعتماد على البيانات أولاً
شاهد الآن منظر
تسليط الضوء 13:38
تسريع المعجزات - كيف تُدمج شركة سانوفي الذكاء الاصطناعي لتقليص مدة تطوير الأدوية بشكل كبير
صورة مصغرة لشركة سانوفي
شاهد الآن منظر
تسليط الضوء 10:35
حدث تحول جوهري في مركز ثقل البيانات
شاهد الآن منظر
تسليط الضوء 14:21
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
شاهد الآن منظر
تسليط الضوء 12:!3
لا يمكنك بناء خطوط الأنابيب أو المستودعات أو منصات الذكاء الاصطناعي بدون معرفة تجارية
شاهد الآن منظر
تسليط الضوء 47:42
الأمن السيبراني – حيث يقوم القادة بالشراء والبناء والشراكة
ريحان جليل
شاهد الآن منظر
تسليط الضوء 27:29
بناء ذكاء اصطناعي آمن باستخدام Databricks و Gencore
ريحان جليل
شاهد الآن منظر
أحدث
عرض المزيد
بناء ذكاء اصطناعي سيادي باستخدام HPE Private Cloud AI و Veeam Securiti Gencore AI
كيف تُساهم تقنيات الذكاء الاصطناعي في السحابة الخاصة من HPE، وتسريع NVIDIA، وVeeam؟ Securiti يدعم نظام Gencore AI الذكاء الاصطناعي الآمن والمُدار للمؤسسات مع تطبيق السياسات عبر سير العمل RAG والمساعدين والوكلاء.
عرض المزيد
Securiti أعلنت شركة .ai عن اختيار شركة أكسنتشر كشريك العام لعام 2025
في إطار الاحتفال المستمر بالتعاون المؤثر في DataAI Security ، Securiti منحت شركة .ai، التابعة لشركة Veeam، شركة Accenture لقب شريك العام لعام 2025....
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ قانون حماية خصوصية المستهلك في كاليفورنيا؟ عرض المزيد
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ القانون؟
يمكن للشركات أن تستفيد من بعض الدروس الحيوية من أكبر إجراء إنفاذي تم اتخاذه مؤخراً في تاريخ قانون خصوصية المستهلك في كاليفورنيا (CCPA). Securiti مدونة 's تغطي جميع التفاصيل المهمة التي يجب معرفتها.
عرض المزيد
الذكاء الاصطناعي وقانون HIPAA: ما يعنيه وكيفية أتمتة الامتثال
تعرّف على كيفية تطبيق قانون قابلية نقل التأمين الصحي والمساءلة (HIPAA) على الذكاء الاصطناعي في تأمين المعلومات الصحية المحمية. تعلّم كيف...
عرض المزيد
الذكاء الاصطناعي الوكيل والخصوصية: إدارة وكلاء الذكاء الاصطناعي المستقلين في المؤسسات
تعرّف على كيفية إدارة الذكاء الاصطناعي الوكيل في المؤسسة. إدارة مخاطر الخصوصية، والتحكم في الوصول إلى البيانات، وإنفاذ السياسات، وضمان الامتثال لوكلاء الذكاء الاصطناعي المستقلين.
عرض المزيد
خيارات الانسحاب الدائمة: سحب الموافقة عبر التسويق، والبرمجيات كخدمة، والذكاء الاصطناعي العام
Securiti تقدم الورقة البيضاء الخاصة بـ [اسم الشركة] نظرة عامة مفصلة حول متطلبات سحب الموافقة المختلفة في مجالات التسويق، والبرمجيات كخدمة (SaaS)، والذكاء الاصطناعي العام (GenAI). اقرأ الآن لمعرفة المزيد.
عرض المزيد
ROT Data Minimization
التخلص من البيانات الزائدة والقديمة والتافهة (ROT) لتحسين دقة الذكاء الاصطناعي، وتقليل تكاليف التخزين، وتقليل مخاطر الأمن والامتثال على نطاق واسع.
عرض المزيد
قائد العملاء: ملخص الحل
تعرّف على كيفية قيام Agent Commander باكتشاف وكلاء الذكاء الاصطناعي، وحماية بيانات المؤسسة من خلال ضوابط التشغيل، وتصحيح أخطاء الذكاء الاصطناعي - مما يتيح اعتماد الذكاء الاصطناعي بشكل آمن ومتوافق مع المعايير في...
عرض المزيد
تخلص من مخاطر البيانات في الذكاء الاصطناعي
تعرف على كيفية إعداد بيانات المؤسسة لاعتماد Gemini Enterprise بشكل آمن من خلال الحوكمة الأولية، واكتشاف البيانات الحساسة، وضوابط سياسة ما قبل الفهرسة.
عرض المزيد
دليل الحصول على شهادة HITRUST
Securiti يُعد الكتاب الإلكتروني دليلاً عملياً للحصول على شهادة HITRUST، ويغطي كل شيء بدءاً من اختيار i1 مقابل r2 ونطاق الأنظمة وصولاً إلى إدارة خطط العمل والتخطيط...
ما هو
جديد