الإعلان عن Agent Commander - أول حل متكامل من Veeam + Securiti .ai تمكين توسيع نطاق وكلاء الذكاء الاصطناعي الآمنين

منظر

جولة فيمون 2026 - البيانات والذكاء الاصطناعي يتلاقيان من أجل عصر الوكلاء

منظر

وزارة التجارة الأمريكية تصدر توجيهات وأدوات جديدة بشأن الذكاء الاصطناعي بعد الأمر التنفيذي الذي أصدره بايدن

المساهمون

أنس بيج

مدير تسويق المنتجات في Securiti

صدف أيوب تشودري

Data Privacy محلل في Securiti

CIPP/US

نُشر في 22 أغسطس 2024

في 26 يوليو 2024، أصدرت وزارة التجارة الأمريكية مسودة إرشادات جديدة من المعهد الوطني للمعايير والتكنولوجيا (NIST) من معهد سلامة الذكاء الاصطناعي الأمريكي لمساعدة مطوري الذكاء الاصطناعي في تقييم وتخفيف المخاطر المرتبطة بنماذج الأساس ذات الاستخدام المزدوج والذكاء الاصطناعي التوليدي.

إليكم المزيد حول ورقة البيت الأبيض التي تتضمن الإجراءات التي اتخذتها الإدارة على مستوى البلاد بشأن الذكاء الاصطناعي.

خلفية التوجيهات الجديدة

في 20 أكتوبر 2023، أصدر الرئيس بايدن أمرًا تنفيذيًا رائدًا بشأن التطوير والاستخدام الآمن والموثوق للذكاء الاصطناعي، بهدف وضع الولايات المتحدة كقائدة في تسخير إمكانات الذكاء الاصطناعي وإدارة المخاطر المتطورة المرتبطة به.

لننتقل إلى اليوم. أصدر المعهد الوطني للمعايير والتكنولوجيا (NIST) التابع للوزارة ثلاث وثائق إرشادية نهائية، والتي تم إتاحتها لأول مرة للتعليق العام في أبريل ، إلى جانب مسودة وثيقة إرشادية من معهد سلامة الذكاء الاصطناعي الأمريكي للمساعدة في تخفيف المخاطر.

تعرف على المزيد حول الأمر التنفيذي التاريخي.

نظرة عامة على الإرشادات الجديدة

أعلنت وزارة التجارة الأمريكية عن توجيهات وأدوات جديدة، بمناسبة مرور 270 يومًا على الأمر التنفيذي الذي أصدره الرئيس بايدن. وتأتي هذه المبادرة ضمن الجهود المتواصلة لضمان التطوير الآمن والمسؤول لتقنيات الذكاء الاصطناعي. ومن أبرز النقاط ما يلي:

منشورات المعهد الوطني للمعايير والتكنولوجيا

أصدر المعهد الوطني للمعايير والتكنولوجيا (NIST) وثائق إرشادية جديدة حول الذكاء الاصطناعي تغطي جوانب مختلفة من تقنية الذكاء الاصطناعي. ومن بين الوثائق المنشورة حديثًا:

  • مسودة وثيقة إرشادية من معهد سلامة الذكاء الاصطناعي الأمريكي لمساعدة المطورين على التخفيف من المخاطر الناجمة عن الذكاء الاصطناعي التوليدي ونماذج الأساس ذات الاستخدام المزدوج و
  • منصة اختبار لقياس نقاط ضعف أنظمة الذكاء الاصطناعي أمام الهجمات.

أما الوثائق الثلاث المتبقية فهي نسخ نهائية من مسودات سبق نشرها:

  • يقدم اثنان منها إرشادات لإدارة المخاطر المرتبطة بالذكاء الاصطناعي التوليدي، مكملين بذلك إطار إدارة مخاطر الذكاء الاصطناعي (AI RMF) وإطار تطوير البرمجيات الآمنة (SSDF) التابعين للمعهد الوطني للمعايير والتكنولوجيا (NIST).
  • أما الثالث فيحدد خطة للتعاون العالمي بشأن معايير الذكاء الاصطناعي.

أدوات البرمجيات

أصدر المعهد الوطني للمعايير والتكنولوجيا (NIST) حزمة برمجية لتقييم الآثار المحتملة للهجمات المعادية على وظائف أنظمة الذكاء الاصطناعي. تُمكّن هذه الحزمة مطوري الذكاء الاصطناعي من تحديد نقاط الضعف في نماذج الذكاء الاصطناعي والتخفيف من آثارها.

تحديثات مكتب براءات الاختراع والعلامات التجارية الأمريكي

عدّل مكتب براءات الاختراع والعلامات التجارية الأمريكي (USPTO) إرشاداته بشأن أهلية براءات الاختراع للذكاء الاصطناعي والتقنيات النامية الأخرى. ويساهم هذا التعديل في توضيح عملية مراجعة الأفكار المتعلقة بالذكاء الاصطناعي.

المعايير العالمية للذكاء الاصطناعي

تم توفير مسودة مقترح لأصحاب المصلحة في الولايات المتحدة للتعاون عالميًا بشأن معايير الذكاء الاصطناعي. وتتمثل الأهداف الرئيسية لهذه الاستراتيجية في تحسين الشفافية والاختبار والتقييم، ووضع معايير عالمية لتكنولوجيا الذكاء الاصطناعي.

تعلن NIST اليوم عن إصدارين جديدين لأول مرة:

الحماية من مخاطر سوء الاستخدام الناجمة عن نماذج المؤسسات ذات الاستخدام المزدوج

  • مقدمة عن المبادئ التوجيهية : أصدر معهد السلامة للذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتكنولوجيا المسودة العامة الأولية لمعيار NIST AI 800-1 .
  • نطاق النماذج : تركز المبادئ التوجيهية على نماذج الأساسات ذات الاستخدام المزدوج والتي لديها إمكانية للتطبيقات المفيدة والضارة على حد سواء.
  • الهدف : يهدف إلى توفير أفضل الممارسات الطوعية للمطورين لمنع إساءة استخدام أنظمة الذكاء الاصطناعي.
  • الأساليب الرئيسية : يحدد مسودة التوجيه سبعة أساليب رئيسية للتخفيف من مخاطر سوء الاستخدام.
  • التنفيذ والشفافية : يتضمن توصيات لتنفيذ أفضل الممارسات وضمان الشفافية.
  • التهديدات المحددة التي تم تناولها : تهدف إلى منع استخدام نماذج الذكاء الاصطناعي في إنشاء أسلحة بيولوجية، وإجراء عمليات هجومية إلكترونية، وإنتاج محتوى ضار (مثل مواد الاعتداء الجنسي على الأطفال، والصور الحميمة غير الرضائية).
  • الحماية المستهدفة : تركز على حماية الأفراد والسلامة العامة والأمن القومي من مخاطر إساءة استخدام الذكاء الاصطناعي.

اختبار كيفية استجابة أنظمة الذكاء الاصطناعي للهجمات

  • نقطة الضعف الأساسية : تكمن نقطة الضعف الأساسية لأنظمة الذكاء الاصطناعي في النموذج، الذي يتخذ القرارات بناءً على بيانات تدريب كبيرة.
  • التهديد العدائي : يمكن للخصوم تسميم بيانات التدريب، مما يتسبب في اتخاذ النماذج قرارات غير صحيحة (على سبيل المثال، تحديد علامات التوقف بشكل خاطئ على أنها علامات تحديد السرعة).
  • مقدمة عن ديوبترا : ديوبترا عبارة عن حزمة برامج جديدة مصممة لاختبار قدرة برامج الذكاء الاصطناعي على الصمود في وجه الهجمات المعادية.
  • التوفر كمصدر مفتوح : برنامج Dioptra مفتوح المصدر ومتاح للتنزيل مجانًا.
  • دعم المجتمع : يدعم الوكالات الحكومية والشركات الصغيرة والمتوسطة الحجم في إجراء تقييمات الذكاء الاصطناعي.
  • التحقق من الأداء : يُمكّن هذا المجتمع من التحقق من ادعاءات أداء مطوري الذكاء الاصطناعي.
  • مساعدة اختبار النماذج : تساعد في تحديد أنواع الهجمات التي يمكن أن تؤدي إلى تدهور أداء نماذج الذكاء الاصطناعي.
  • قياس انخفاض الأداء : يقوم برنامج Dioptra بقياس انخفاض الأداء، مما يوفر رؤى حول تكرار وظروف أعطال أنظمة الذكاء الاصطناعي.

بالإضافة إلى إصدارين أوليين، أنجز المعهد الوطني للمعايير والتكنولوجيا (NIST) ثلاثة وثائق:

تخفيف مخاطر الذكاء الاصطناعي التوليدي

يتضمن المنشور الأول تفاصيل ملف تعريف الذكاء الاصطناعي التوليدي NIST AI RMF ( NIST AI 600-1 ).

  • الغرض من ملف تعريف الذكاء الاصطناعي التوليدي RMF : يساعد معيار NIST AI 600-1 المؤسسات على تحديد وإدارة المخاطر الفريدة المرتبطة بالذكاء الاصطناعي التوليدي.
  • إدارة المخاطر الشاملة : يقترح أكثر من 200 إجراء لإدارة مخاطر الذكاء الاصطناعي التوليدي.
  • مصاحب لإطار إدارة مخاطر الذكاء الاصطناعي : يعمل كمورد مصاحب لإطار إدارة مخاطر الذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتكنولوجيا (AI RMF).
  • التركيز على مخاطر محددة : تماشياً مع أهداف المنظمة وأولوياتها، يركز هذا النهج على 12 خطراً محدداً. تشمل المخاطر الرئيسية انخفاض الحواجز أمام الهجمات الإلكترونية، وإنتاج المعلومات المضللة، والمعلومات الكاذبة، وخطاب الكراهية، والمحتوى الضار الآخر، وأنظمة الذكاء الاصطناعي التي تُنتج مخرجات خاطئة أو "وهمية".
  • التوافق مع أهداف المنظمة : يضمن توافق إجراءات إدارة المخاطر مع أهداف المنظمة وأولوياتها.

الحد من التهديدات التي تواجه البيانات المستخدمة في تدريب أنظمة الذكاء الاصطناعي

يكمل المنشور النهائي الثاني، " ممارسات تطوير البرمجيات الآمنة للذكاء الاصطناعي التوليدي ونماذج الأساس ذات الاستخدام المزدوج" (منشور NIST الخاص 800-218A) ، إطار عمل تطوير البرمجيات الآمنة (SP 800-218) .

  • الاهتمام المُركّز : يتناول هذا الموضوع تحديداً مشكلة تعرض أنظمة الذكاء الاصطناعي التوليدي للاختراق من خلال بيانات التدريب الخبيثة.
  • النطاق : يركز على تدريب واستخدام أنظمة الذكاء الاصطناعي.
  • تحديد المخاطر : يحدد عوامل الخطر المحتملة المرتبطة بتدريب الذكاء الاصطناعي واستخدامه.
  • استراتيجيات التخفيف : توفر استراتيجيات للتخفيف من المخاطر المحددة.
  • التوصيات الرئيسية : تحليل بيانات التدريب بحثًا عن علامات التسمم والتحيز والتجانس والتلاعب وضمان سلامة وأداء أنظمة الذكاء الاصطناعي.
  • الهدف العام : تعزيز أمن وموثوقية الذكاء الاصطناعي التوليدي ونماذج الأساس ذات الاستخدام المزدوج من خلال ممارسات تطوير قوية.

المشاركة العالمية في معايير الذكاء الاصطناعي

يهدف المنشور النهائي الثالث، " خطة للمشاركة العالمية في معايير الذكاء الاصطناعي" (NIST AI 100-5) ، إلى تعزيز التطوير والتنفيذ العالمي لمعايير الإجماع المتعلقة بالذكاء الاصطناعي.

  • مجالات التركيز : تعزيز التعاون بين أصحاب المصلحة الدوليين وتحسين التنسيق وتبادل المعلومات بين البلدان لضمان النشر الآمن والفعال لتقنيات الذكاء الاصطناعي.
  • التوافق مع الخطط الحالية : يتوافق هذا الدليل مع الاستراتيجية الوطنية للمعايير للتكنولوجيا الحرجة والناشئة ويستند إلى الأولويات المحددة في خطة المعهد الوطني للمعايير والتكنولوجيا (NIST) للمشاركة الفيدرالية في معايير الذكاء الاصطناعي والأدوات ذات الصلة.

كيف Securiti يساعد

Securiti 's Data Command Center يمكّن المؤسسات من الامتثال لإطار إدارة مخاطر الذكاء الاصطناعي (AI RMF) التابع للمعهد الوطني للمعايير والتكنولوجيا (NIST) من خلال تأمين بيانات المؤسسة، وتمكين المؤسسات من زيادة قيمة البيانات إلى أقصى حد، والوفاء بالتزامات المؤسسة فيما يتعلق بأمن البيانات ، data privacy ، وأمن الذكاء الاصطناعي وحوكمته ، والامتثال .

بالإضافة إلى ذلك، Securiti تُزيل مجموعة Genstack AI Suite من GenStack التعقيدات والمخاطر الكامنة في دورة حياة الذكاء الاصطناعي العام، مما يُمكّن المؤسسات من استخدام بياناتها المنظمة وغير المنظمة بسرعة وأمان في أي مكان مع أي نظام ذكاء اصطناعي وأنظمة إدارة التعلم. توفر المجموعة ميزات مثل استيعاب البيانات واستخراجها بشكل آمن، وإخفاء البيانات، وإخفاء الهوية، والتنقيح، بالإضافة إلى إمكانيات الفهرسة والاسترجاع. كما تُسهّل المجموعة تهيئة أنظمة إدارة التعلم للأسئلة والأجوبة، وضوابط البيانات المدمجة للحوكمة والخصوصية والأمان، وجدران الحماية لأنظمة إدارة التعلم لتمكين التبني الآمن للذكاء الاصطناعي العام.

اطلب عرضًا توضيحيًا لتشاهد بنفسك Securiti أثناء العمل.

قم بتحليل هذه المقالة باستخدام الذكاء الاصطناعي

تظهر المطالبات في أدوات الذكاء الاصطناعي التابعة لجهات خارجية.
انضم إلى قائمتنا البريدية

احصل على أحدث المعلومات والتحديثات القانونية والمزيد مباشرةً في بريدك الإلكتروني



قصص أخرى قد تهمك
مقاطع فيديو
عرض المزيد
ريحان جليل، من شركة Veeam، يتحدث عن Agent Commander: theCUBE + NYSE Wired: قادة الأمن السيبراني
بعد استحواذ شركة Veeam على Securiti يمثل إطلاق برنامج Agent Commander خطوة هامة نحو مساعدة المؤسسات على تبني وكلاء الذكاء الاصطناعي بثقة أكبر. في...
عرض المزيد
تخفيف مخاطر قائمة OWASP لأهم 10 مخاطر لتطبيقات ماجستير القانون 2025
أحدث الذكاء الاصطناعي التوليدي (GenAI) تحولاً جذرياً في طريقة عمل الشركات وتوسعها ونموها. يوجد تطبيق للذكاء الاصطناعي لكل غرض، بدءاً من زيادة إنتاجية الموظفين وصولاً إلى تبسيط العمليات...
عرض المزيد
أفضل 6 DSPM حالات الاستخدام
مع ظهور الذكاء الاصطناعي التوليدي (GenAI)، أصبحت البيانات أكثر ديناميكية. يتم توليد بيانات جديدة بوتيرة أسرع من أي وقت مضى، ونقلها إلى أنظمة وتطبيقات متنوعة...
عرض المزيد
قانون الخصوصية في كولورادو (CPA)
ما هو قانون خصوصية كولورادو؟ قانون خصوصية كولورادو هو قانون شامل لحماية الخصوصية، تم توقيعه في 7 يوليو 2021. وقد وضع معايير جديدة لحماية البيانات الشخصية...
عرض المزيد
Securiti لمساعد الطيار في البرمجيات كخدمة (SaaS)
تسريع اعتماد Copilot بأمان وثقة: تتطلع المؤسسات إلى اعتماد Microsoft 365 Copilot لزيادة الإنتاجية والكفاءة. ومع ذلك، تظل المخاوف الأمنية، مثل حماية البيانات...
عرض المزيد
أهم عشرة اعتبارات لاستخدام البيانات غير المهيكلة بأمان مع الذكاء الاصطناعي العام
نسبة مذهلة تصل إلى 90% من بيانات المؤسسات غير منظمة. وتُستخدم هذه البيانات بسرعة لتغذية تطبيقات الذكاء الاصطناعي من الجيل الجديد، مثل روبوتات الدردشة والبحث المدعوم بالذكاء الاصطناعي.
عرض المزيد
جينكور للذكاء الاصطناعي: بناء أنظمة ذكاء اصطناعي آمنة وعالية الجودة للمؤسسات في دقائق
مع تبني المؤسسات للذكاء الاصطناعي التوليدي، تواجه فرق البيانات والذكاء الاصطناعي العديد من العقبات: ربط مصادر البيانات غير المهيكلة والمهيكلة بشكل آمن، والحفاظ على الضوابط والحوكمة المناسبة،...
عرض المزيد
كيفية التعامل مع قانون حماية خصوصية المستهلك في كاليفورنيا: رؤى أساسية للشركات
ما هو قانون حقوق الخصوصية في كاليفورنيا (CPRA)؟ هو تشريع ولاية كاليفورنيا الذي يهدف إلى حماية خصوصية سكانها الرقمية. وقد دخل حيز التنفيذ في يناير...
عرض المزيد
التكيف مع التحول: الانتقال إلى معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS) الإصدار 4.0
ما هو معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS)؟ هو مجموعة من معايير الأمان لضمان المعالجة والتخزين الآمنين للبيانات، و...
عرض المزيد
تأمين البيانات والذكاء الاصطناعي: دليل إدارة الثقة والمخاطر والأمن (TRiSM)
أثارت المخاطر الأمنية المتزايدة للذكاء الاصطناعي قلق 48% من مسؤولي أمن المعلومات حول العالم. انضموا إلى هذه الجلسة الرئيسية للتعرف على دليل عملي لتمكين الثقة في الذكاء الاصطناعي، وإدارة المخاطر،...

جلسات حوارية مميزة

تسليط الضوء
الاستعداد للمستقبل لمحترفي الخصوصية
شاهد الآن منظر
تسليط الضوء 50:52
من البيانات إلى النشر: حماية الذكاء الاصطناعي المؤسسي من خلال الأمن والحوكمة
شاهد الآن منظر
تسليط الضوء 11:29
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
شاهد الآن منظر
تسليط الضوء 11:18
إعادة هيكلة تمويل العقارات - كيف تُجري شركة ووكر آند دنلوب تحديثًا لمحفظتها الاستثمارية البالغة 135 مليار دولار أمريكي بالاعتماد على البيانات أولاً
شاهد الآن منظر
تسليط الضوء 13:38
تسريع المعجزات - كيف تُدمج شركة سانوفي الذكاء الاصطناعي لتقليص مدة تطوير الأدوية بشكل كبير
صورة مصغرة لشركة سانوفي
شاهد الآن منظر
تسليط الضوء 10:35
حدث تحول جوهري في مركز ثقل البيانات
شاهد الآن منظر
تسليط الضوء 14:21
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
شاهد الآن منظر
تسليط الضوء 12:!3
لا يمكنك بناء خطوط الأنابيب أو المستودعات أو منصات الذكاء الاصطناعي بدون معرفة تجارية
شاهد الآن منظر
تسليط الضوء 47:42
الأمن السيبراني – حيث يقوم القادة بالشراء والبناء والشراكة
ريحان جليل
شاهد الآن منظر
تسليط الضوء 27:29
بناء ذكاء اصطناعي آمن باستخدام Databricks و Gencore
ريحان جليل
شاهد الآن منظر
أحدث
عرض المزيد
بناء ذكاء اصطناعي سيادي باستخدام HPE Private Cloud AI و Veeam Securiti Gencore AI
كيف تُساهم تقنيات الذكاء الاصطناعي في السحابة الخاصة من HPE، وتسريع NVIDIA، وVeeam؟ Securiti يدعم نظام Gencore AI الذكاء الاصطناعي الآمن والمُدار للمؤسسات مع تطبيق السياسات عبر سير العمل RAG والمساعدين والوكلاء.
عرض المزيد
Securiti أعلنت شركة .ai عن اختيار شركة أكسنتشر كشريك العام لعام 2025
في إطار الاحتفال المستمر بالتعاون المؤثر في DataAI Security ، Securiti منحت شركة .ai، التابعة لشركة Veeam، شركة Accenture لقب شريك العام لعام 2025....
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ قانون حماية خصوصية المستهلك في كاليفورنيا؟ عرض المزيد
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ القانون؟
يمكن للشركات أن تستفيد من بعض الدروس الحيوية من أكبر إجراء إنفاذي تم اتخاذه مؤخراً في تاريخ قانون خصوصية المستهلك في كاليفورنيا (CCPA). Securiti مدونة 's تغطي جميع التفاصيل المهمة التي يجب معرفتها.
عرض المزيد
الذكاء الاصطناعي وقانون HIPAA: ما يعنيه وكيفية أتمتة الامتثال
تعرّف على كيفية تطبيق قانون قابلية نقل التأمين الصحي والمساءلة (HIPAA) على الذكاء الاصطناعي في تأمين المعلومات الصحية المحمية. تعلّم كيف...
عرض المزيد
الذكاء الاصطناعي الوكيل والخصوصية: إدارة وكلاء الذكاء الاصطناعي المستقلين في المؤسسات
تعرّف على كيفية إدارة الذكاء الاصطناعي الوكيل في المؤسسة. إدارة مخاطر الخصوصية، والتحكم في الوصول إلى البيانات، وإنفاذ السياسات، وضمان الامتثال لوكلاء الذكاء الاصطناعي المستقلين.
عرض المزيد
خيارات الانسحاب الدائمة: سحب الموافقة عبر التسويق، والبرمجيات كخدمة، والذكاء الاصطناعي العام
Securiti تقدم الورقة البيضاء الخاصة بـ [اسم الشركة] نظرة عامة مفصلة حول متطلبات سحب الموافقة المختلفة في مجالات التسويق، والبرمجيات كخدمة (SaaS)، والذكاء الاصطناعي العام (GenAI). اقرأ الآن لمعرفة المزيد.
عرض المزيد
ROT Data Minimization
التخلص من البيانات الزائدة والقديمة والتافهة (ROT) لتحسين دقة الذكاء الاصطناعي، وتقليل تكاليف التخزين، وتقليل مخاطر الأمن والامتثال على نطاق واسع.
عرض المزيد
قائد العملاء: ملخص الحل
تعرّف على كيفية قيام Agent Commander باكتشاف وكلاء الذكاء الاصطناعي، وحماية بيانات المؤسسة من خلال ضوابط التشغيل، وتصحيح أخطاء الذكاء الاصطناعي - مما يتيح اعتماد الذكاء الاصطناعي بشكل آمن ومتوافق مع المعايير في...
عرض المزيد
تخلص من مخاطر البيانات في الذكاء الاصطناعي
تعرف على كيفية إعداد بيانات المؤسسة لاعتماد Gemini Enterprise بشكل آمن من خلال الحوكمة الأولية، واكتشاف البيانات الحساسة، وضوابط سياسة ما قبل الفهرسة.
عرض المزيد
دليل الحصول على شهادة HITRUST
Securiti يُعد الكتاب الإلكتروني دليلاً عملياً للحصول على شهادة HITRUST، ويغطي كل شيء بدءاً من اختيار i1 مقابل r2 ونطاق الأنظمة وصولاً إلى إدارة خطط العمل والتخطيط...
ما هو
جديد