الإعلان عن Agent Commander - أول حل متكامل من Veeam + Securiti .ai تمكين توسيع نطاق وكلاء الذكاء الاصطناعي الآمنين

منظر

جولة فيمون 2026 - البيانات والذكاء الاصطناعي يتلاقيان من أجل عصر الوكلاء

منظر

ما يجب أن تعرفه عن ميثاق الإمارات العربية المتحدة لتطوير واستخدام الذكاء الاصطناعي

دليل الامتثال للوائح البيانات في القطاع المالي في دولة الإمارات العربية المتحدة
المساهمون

أنس بيج

مدير تسويق المنتجات في Securiti

سلمى خان

Data Privacy محلل في Securiti

CIPP/آسيا

سيدة إيمان غارديزي

شريك Data Privacy محلل في Securiti

نُشر في 19 نوفمبر 2024

يهدف ميثاق دولة الإمارات العربية المتحدة لتطوير واستخدام الذكاء الاصطناعي إلى أن يكون بمثابة إطار عمل يحمي حقوق مجتمع دولة الإمارات العربية المتحدة أثناء نمو وتطبيق تكنولوجيا الذكاء الاصطناعي.

يُعد هذا الميثاق جزءًا من استراتيجية الإمارات العربية المتحدة الوطنية الأوسع نطاقًا للذكاء الاصطناعي 2031 ، والتي تهدف إلى الارتقاء بدولة الإمارات العربية المتحدة لتصبح مركزًا عالميًا وقائدًا لتطوير الذكاء الاصطناعي من خلال ضمان دمجه المستدام في مختلف القطاعات.

تؤكد المبادئ العامة الاثنا عشر الواردة في هذا الميثاق على أهمية الشفافية والشمولية والأخلاقيات في تطوير الذكاء الاصطناعي. وبالتالي، ستكون جميع التقنيات التي يتم تطويرها تحت مظلته مبتكرة وعادلة وآمنة وخاضعة للمساءلة.

تابع القراءة لمعرفة المزيد عن هذه المبادئ وكيف يمكن للمؤسسة أن تتكيف معها على أفضل وجه في عمليات تطوير الذكاء الاصطناعي الخاصة بها.

المبادئ العامة للميثاق

المبادئ العامة الـ 12 لهذا الميثاق هي كالتالي:

1. تعزيز العلاقات بين الإنسان والآلة

تسعى دولة الإمارات العربية المتحدة إلى تعزيز علاقة تعاونية بين الذكاء الاصطناعي والبشر من خلال ضمان أن تعطي أي تطورات في مجال الذكاء الاصطناعي الأولوية لرفاهية الإنسان.

2. السلامة

يجب أن تكون السلامة في صدارة أولويات تطوير الذكاء الاصطناعي. يجب أن تتوافق جميع أنظمة الذكاء الاصطناعي مع أعلى المعايير الوطنية والدولية، مع إمكانية التحسين في حال تم تحديد أي مخاطر.

3. التحيز الخوارزمي

يُعدّ التحيز الخوارزمي أحد أبرز التحديات التي تواجه تطوير خوارزميات الذكاء الاصطناعي. ولذا، فإن رؤية دولة الإمارات العربية المتحدة لتطوير الذكاء الاصطناعي بشكل مسؤول ترتكز على ابتكار تقنيات شاملة ومتاحة للجميع وداعمة للتنوع. ومن شأن ذلك أن يضمن استفادة الجميع من الذكاء الاصطناعي دون تمييز.

4. Data Privacy

وفقًا لموقف دولة الإمارات العربية المتحدة بشأن حقوق الخصوصية، يجب وضع ضمانات مناسبة ضمن تطوير الذكاء الاصطناعي لضمان بقاء خصوصية جميع أفراد المجتمع سليمة دون الحد من الابتكار في مجال الذكاء الاصطناعي.

5. الشفافية

ينبغي أن تكون عمليات صنع القرار لأنظمة الذكاء الاصطناعي شفافة تمامًا وسهلة الفهم، مما يعزز الثقة ويؤسس سلسلة واضحة للمساءلة في استخدام هذه التقنيات.

6. الرقابة البشرية

يجب الحفاظ على الحكم البشري والإشراف على الذكاء الاصطناعي لضمان الحفاظ على القيم الأخلاقية والمعايير الاجتماعية مع توفير وسيلة للتخفيف من الأخطاء والتحيزات.

7. الحوكمة والمساءلة

تبنت دولة الإمارات العربية المتحدة نهجاً استباقياً في التعامل مع الذكاء الاصطناعي وإدارته، مع التركيز على أهمية الرقابة والمسؤولية لضمان استخدام هذه التقنيات بشكل مسؤول وشفاف.

8. التميز التكنولوجي

يمكن للتطورات في مجال الذكاء الاصطناعي أن تسهل طموحات دولة الإمارات العربية المتحدة في أن تصبح رائدة عالمية في هذه المجالات من خلال دفع الابتكار، وتوسيع القدرة التنافسية، وتحسين جودة الحياة بشكل عام لأفراد المجتمع.

9. الالتزام الإنساني

ينبغي أن تخدم جميع الجهود المتعلقة بتطوير الذكاء الاصطناعي الصالح العام. ويجب أن تركز على تعزيز رفاهية الأفراد، وحماية الحقوق الأساسية، ووضع القيم الإنسانية في صدارة الابتكار التكنولوجي لضمان تأثير إيجابي ودائم على المجتمع.

10. التعايش السلمي مع الذكاء الاصطناعي

إن مستقبل التعايش السلمي مع الذكاء الاصطناعي أمر بالغ الأهمية لتمكين التقدم دون المساس بسلامتهم وحقوقهم الأساسية.

11. الترويج AI Governance من أجل مستقبل شامل

يجب ضمان الوصول المناسب إلى تكنولوجيا الذكاء الاصطناعي لخلق مستقبل شامل يستفيد فيه المجتمع ككل من هذه القفزات في تقدم الذكاء الاصطناعي.

12. الالتزام بالمعاهدات والقوانين السارية

عند تطوير واستخدام تقنيات الذكاء الاصطناعي، يجب الالتزام بجميع المعاهدات الدولية والقوانين الأخرى المعمول بها، سواء المحلية أو الدولية.

كيف Securiti يمكن المساعدة

Securiti هو رائد في Data Command Center منصة مركزية تُمكّن من الاستخدام الآمن للبيانات والذكاء الاصطناعي العام. توفر هذه المنصة ذكاءً موحدًا للبيانات، وضوابط، وتنسيقًا عبر بيئات سحابية هجينة متعددة. وتعتمد عليها العديد من الشركات العالمية المرموقة. Securiti 's Data Command Center لأغراض أمن البيانات والخصوصية والحوكمة والامتثال.

تُغطي وحدة AI Security & Governance جميع الاحتياجات الرئيسية المتعلقة بـ AI governance والأمن الذي قد تمتلكه المنظمة، بما يتجاوز تقييمات المخاطر الأساسية.

تشمل هذه المهام، على سبيل المثال لا الحصر، اكتشاف وتصنيف جميع نماذج الذكاء الاصطناعي التي قد تمتلكها المؤسسة في بيئاتها السحابية العامة والخاصة، بالإضافة إلى تطبيقات البرمجيات كخدمة (SaaS). علاوة على ذلك، يتم تقييم كل نموذج ذكاء اصطناعي مكتشف بحثًا عن المخاطر ذات الصلة، مثل التحيز والسمية والمعلومات المضللة، مع رسم خرائط لها في الوقت الفعلي لتتبعها إلى مصدرها الأصلي.

اطلب عرضًا تجريبيًا وتعرف على المزيد حول كيفية Securiti يمكن أن تساعد مؤسستك على تكييف الذكاء الاصطناعي ضمن عملياتها بطريقة تتوافق مع جميع اللوائح الرئيسية المتعلقة بالذكاء الاصطناعي في جميع أنحاء العالم.

قم بتحليل هذه المقالة باستخدام الذكاء الاصطناعي

تظهر المطالبات في أدوات الذكاء الاصطناعي التابعة لجهات خارجية.
انضم إلى قائمتنا البريدية

احصل على أحدث المعلومات والتحديثات القانونية والمزيد مباشرةً في بريدك الإلكتروني



قصص أخرى قد تهمك
مقاطع فيديو
عرض المزيد
ريحان جليل، من شركة Veeam، يتحدث عن Agent Commander: theCUBE + NYSE Wired: قادة الأمن السيبراني
بعد استحواذ شركة Veeam على Securiti يمثل إطلاق برنامج Agent Commander خطوة هامة نحو مساعدة المؤسسات على تبني وكلاء الذكاء الاصطناعي بثقة أكبر. في...
عرض المزيد
تخفيف مخاطر قائمة OWASP لأهم 10 مخاطر لتطبيقات ماجستير القانون 2025
أحدث الذكاء الاصطناعي التوليدي (GenAI) تحولاً جذرياً في طريقة عمل الشركات وتوسعها ونموها. يوجد تطبيق للذكاء الاصطناعي لكل غرض، بدءاً من زيادة إنتاجية الموظفين وصولاً إلى تبسيط العمليات...
عرض المزيد
أفضل 6 DSPM حالات الاستخدام
مع ظهور الذكاء الاصطناعي التوليدي (GenAI)، أصبحت البيانات أكثر ديناميكية. يتم توليد بيانات جديدة بوتيرة أسرع من أي وقت مضى، ونقلها إلى أنظمة وتطبيقات متنوعة...
عرض المزيد
قانون الخصوصية في كولورادو (CPA)
ما هو قانون خصوصية كولورادو؟ قانون خصوصية كولورادو هو قانون شامل لحماية الخصوصية، تم توقيعه في 7 يوليو 2021. وقد وضع معايير جديدة لحماية البيانات الشخصية...
عرض المزيد
Securiti لمساعد الطيار في البرمجيات كخدمة (SaaS)
تسريع اعتماد Copilot بأمان وثقة: تتطلع المؤسسات إلى اعتماد Microsoft 365 Copilot لزيادة الإنتاجية والكفاءة. ومع ذلك، تظل المخاوف الأمنية، مثل حماية البيانات...
عرض المزيد
أهم عشرة اعتبارات لاستخدام البيانات غير المهيكلة بأمان مع الذكاء الاصطناعي العام
نسبة مذهلة تصل إلى 90% من بيانات المؤسسات غير منظمة. وتُستخدم هذه البيانات بسرعة لتغذية تطبيقات الذكاء الاصطناعي من الجيل الجديد، مثل روبوتات الدردشة والبحث المدعوم بالذكاء الاصطناعي.
عرض المزيد
جينكور للذكاء الاصطناعي: بناء أنظمة ذكاء اصطناعي آمنة وعالية الجودة للمؤسسات في دقائق
مع تبني المؤسسات للذكاء الاصطناعي التوليدي، تواجه فرق البيانات والذكاء الاصطناعي العديد من العقبات: ربط مصادر البيانات غير المهيكلة والمهيكلة بشكل آمن، والحفاظ على الضوابط والحوكمة المناسبة،...
عرض المزيد
كيفية التعامل مع قانون حماية خصوصية المستهلك في كاليفورنيا: رؤى أساسية للشركات
ما هو قانون حقوق الخصوصية في كاليفورنيا (CPRA)؟ هو تشريع ولاية كاليفورنيا الذي يهدف إلى حماية خصوصية سكانها الرقمية. وقد دخل حيز التنفيذ في يناير...
عرض المزيد
التكيف مع التحول: الانتقال إلى معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS) الإصدار 4.0
ما هو معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS)؟ هو مجموعة من معايير الأمان لضمان المعالجة والتخزين الآمنين للبيانات، و...
عرض المزيد
تأمين البيانات والذكاء الاصطناعي: دليل إدارة الثقة والمخاطر والأمن (TRiSM)
أثارت المخاطر الأمنية المتزايدة للذكاء الاصطناعي قلق 48% من مسؤولي أمن المعلومات حول العالم. انضموا إلى هذه الجلسة الرئيسية للتعرف على دليل عملي لتمكين الثقة في الذكاء الاصطناعي، وإدارة المخاطر،...

جلسات حوارية مميزة

تسليط الضوء
الاستعداد للمستقبل لمحترفي الخصوصية
شاهد الآن منظر
تسليط الضوء 50:52
من البيانات إلى النشر: حماية الذكاء الاصطناعي المؤسسي من خلال الأمن والحوكمة
شاهد الآن منظر
تسليط الضوء 11:29
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
شاهد الآن منظر
تسليط الضوء 11:18
إعادة هيكلة تمويل العقارات - كيف تُجري شركة ووكر آند دنلوب تحديثًا لمحفظتها الاستثمارية البالغة 135 مليار دولار أمريكي بالاعتماد على البيانات أولاً
شاهد الآن منظر
تسليط الضوء 13:38
تسريع المعجزات - كيف تُدمج شركة سانوفي الذكاء الاصطناعي لتقليص مدة تطوير الأدوية بشكل كبير
صورة مصغرة لشركة سانوفي
شاهد الآن منظر
تسليط الضوء 10:35
حدث تحول جوهري في مركز ثقل البيانات
شاهد الآن منظر
تسليط الضوء 14:21
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
شاهد الآن منظر
تسليط الضوء 12:!3
لا يمكنك بناء خطوط الأنابيب أو المستودعات أو منصات الذكاء الاصطناعي بدون معرفة تجارية
شاهد الآن منظر
تسليط الضوء 47:42
الأمن السيبراني – حيث يقوم القادة بالشراء والبناء والشراكة
ريحان جليل
شاهد الآن منظر
تسليط الضوء 27:29
بناء ذكاء اصطناعي آمن باستخدام Databricks و Gencore
ريحان جليل
شاهد الآن منظر
أحدث
عرض المزيد
بناء ذكاء اصطناعي سيادي باستخدام HPE Private Cloud AI و Veeam Securiti Gencore AI
كيف تُساهم تقنيات الذكاء الاصطناعي في السحابة الخاصة من HPE، وتسريع NVIDIA، وVeeam؟ Securiti يدعم نظام Gencore AI الذكاء الاصطناعي الآمن والمُدار للمؤسسات مع تطبيق السياسات عبر سير العمل RAG والمساعدين والوكلاء.
عرض المزيد
Securiti أعلنت شركة .ai عن اختيار شركة أكسنتشر كشريك العام لعام 2025
في إطار الاحتفال المستمر بالتعاون المؤثر في DataAI Security ، Securiti منحت شركة .ai، التابعة لشركة Veeam، شركة Accenture لقب شريك العام لعام 2025....
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ قانون حماية خصوصية المستهلك في كاليفورنيا؟ عرض المزيد
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ القانون؟
يمكن للشركات أن تستفيد من بعض الدروس الحيوية من أكبر إجراء إنفاذي تم اتخاذه مؤخراً في تاريخ قانون خصوصية المستهلك في كاليفورنيا (CCPA). Securiti مدونة 's تغطي جميع التفاصيل المهمة التي يجب معرفتها.
عرض المزيد
الذكاء الاصطناعي وقانون HIPAA: ما يعنيه وكيفية أتمتة الامتثال
تعرّف على كيفية تطبيق قانون قابلية نقل التأمين الصحي والمساءلة (HIPAA) على الذكاء الاصطناعي في تأمين المعلومات الصحية المحمية. تعلّم كيف...
التنقل العالمي AI Governance دليل شامل للامتثال المؤسسي عرض المزيد
التنقل العالمي AI Governance دليل شامل للامتثال المؤسسي
Securiti تُقدّم أحدث ورقة بحثية للمنظمة شرحاً وافياً للتحدي المعقد المتمثل في التنقل في العالم AI governance التحديات. اقرأ الآن للاستفادة من هذه الأفكار.
عرض المزيد
قلل من المعلومات التي تكشفها: ضوابط الخصوصية للذكاء الاصطناعي Agents and Copilots
تقليل انكشاف البيانات في الذكاء الاصطناعي agents and copilots قم بتطبيق ضوابط حماية الخصوصية مثل تقليل البيانات، وضوابط الوصول، وإخفاء البيانات، وإنفاذ السياسات لمنع التسريب و...
عرض المزيد
قائد العملاء: ملخص الحل
تعرّف على كيفية قيام Agent Commander باكتشاف وكلاء الذكاء الاصطناعي، وحماية بيانات المؤسسة من خلال ضوابط التشغيل، وتصحيح أخطاء الذكاء الاصطناعي - مما يتيح اعتماد الذكاء الاصطناعي بشكل آمن ومتوافق مع المعايير في...
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti عرض المزيد
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti
التزم بتعديلات قانون خصوصية المستهلك في كاليفورنيا لعام 2026 باستخدام Securiti وتشمل هذه المتطلبات تحديث متطلبات الموافقة، وتوسيع تعريفات البيانات الحساسة، وتعزيز حقوق المستهلك، وتقييمات الجاهزية.
عرض المزيد
تخلص من مخاطر البيانات في الذكاء الاصطناعي
تعرف على كيفية إعداد بيانات المؤسسة لاعتماد Gemini Enterprise بشكل آمن من خلال الحوكمة الأولية، واكتشاف البيانات الحساسة، وضوابط سياسة ما قبل الفهرسة.
عرض المزيد
دليل الحصول على شهادة HITRUST
Securiti يُعد الكتاب الإلكتروني دليلاً عملياً للحصول على شهادة HITRUST، ويغطي كل شيء بدءاً من اختيار i1 مقابل r2 ونطاق الأنظمة وصولاً إلى إدارة خطط العمل والتخطيط...
ما هو
جديد