الإعلان عن Agent Commander - أول حل متكامل من Veeam + Securiti .ai تمكين توسيع نطاق وكلاء الذكاء الاصطناعي الآمنين

منظر

اجتياز متاهة التنظيمات المتعلقة بالذكاء الاصطناعي: دليل للشركات في عام 2026

المساهمون

أنس بيج

مدير تسويق المنتجات في Securiti

عمر عمران مالك

Data Privacy مدير الشؤون القانونية، Securiti

FIP، CIPT، CIPM، CIPP/US

نُشر في 1 يناير 2024

لقد ساهم ظهور الذكاء الاصطناعي، وتحديداً الذكاء الاصطناعي التوليدي، في الارتقاء بالتكنولوجيا إلى مستويات غير مسبوقة، حيث تجاوزت حدود الخيال لتصبح واقعاً ملموساً. فمن تشغيل المساعدين الافتراضيين والسيارات ذاتية القيادة إلى تحسين التشخيص الطبي، يُساعد الذكاء الاصطناعي مختلف القطاعات على تخطي الحدود واستكشاف آفاق جديدة.

مع استمرار الذكاء الاصطناعي في دعم الصناعات، يجب على الشركات أن تتعلم كيف تستغل إمكاناته مع التنقل بأمان في متاهة لوائح الذكاء الاصطناعي المعقدة.

يسعى قادة العالم جاهدين على مستوى العالم إلى سنّ قوانين خاصة بالذكاء الاصطناعي لضبط هذه التقنية المتطورة باستمرار وضمان استخدامها الآمن. ونتيجة لذلك، يجب على الشركات فهم هذه القوانين فهماً دقيقاً لتجنب العقوبات القانونية الباهظة، والأضرار التي تلحق بسمعتها، وضياع الفرص.

تابع القراءة لمعرفة المزيد حول أهمية الامتثال للوائح الذكاء الاصطناعي العالمية وما تحتاج الشركات إلى معرفته حول القوانين المقترحة أو التي تم سنها حتى الآن.

أهمية الامتثال التنظيمي للذكاء الاصطناعي بالنسبة للشركات

يُعدّ الذكاء الاصطناعي أروع إنجاز تكنولوجي شهدناه خلال العقود الماضية. ومع ذلك، وفي خضمّ هذا التطور، لا ينبغي للشركات أن تتجاهل الجانب الأكثر أهمية: الامتثال للوائح التنظيمية المتعلقة بالذكاء الاصطناعي. ولا تقتصر أهمية هذا الامتثال على تجنّب الغرامات فحسب، بل تتجاوز ذلك بكثير.

تجنب الغرامات والعقوبات التنظيمية

إلى جانب الفرص والابتكارات اللامحدودة، أثارت تقنيات الذكاء الاصطناعي العديد من المخاوف الأمنية والخصوصية والأخلاقية. فعلى سبيل المثال، قد ينتج الذكاء الاصطناعي محتوى متحيزًا نتيجةً لنقص بيانات التدريب. ومع اعتماد الموظفين على الذكاء الاصطناعي في مهامهم اليومية، أصبح تبادل البيانات الحساسة أو بيانات الملكية الفكرية مع أنظمة الذكاء الاصطناعي مصدر قلق بالغ. وقد دفعت هذه المشكلات قادة العالم إلى اقتراح لوائح وأطر عمل قوية للذكاء الاصطناعي لتنظيم استخدامه.

تُفرض عقوبات على المخالفات أو عدم الامتثال للسياسات التنظيمية، مما قد يُعرّض الشركات لخسائر مالية وتشويه لسمعتها. لذا، يجب على الشركات الالتزام باللوائح المعمول بها لتجنب العقوبات والتبعات.

تحسين ثقة العملاء

الممارسات الجيدة تعزز الثقة، والثقة بدورها أساس نجاح الأعمال. وقد ساهمت التطورات التقنية في زيادة وعي العملاء بمحيطهم أكثر من أي وقت مضى. وبينما يدرك العملاء مدى فائدة الاستفادة من الذكاء الاصطناعي، فإنهم يعلمون أيضاً أن استخدامه غير الخاضع للإشراف أو غير السليم قد يؤدي إلى مخاطر عديدة، مثل التحيز، وتسريب البيانات ، أو كشف بيانات الملكية الفكرية.

يُعدّ الامتثال للوائح التنظيمية الطريقة الأمثل لإظهار مدى اهتمام شركتك بأمن البيانات وسلامتها وخصوصيتها. كما أنه يعكس التزامك بالاستخدام الأخلاقي للذكاء الاصطناعي والتقنيات ذات الصلة، والأهم من ذلك، الشفافية.

الوصول إلى الأسواق الدولية

تحتاج الشركات الناجحة إلى الوصول إلى الأسواق الدولية لتنمو وتصبح مؤسسات متعددة الجنسيات. ومع ذلك، لتحقيق ذلك، يجب على الشركات أولاً تلبية المتطلبات التنظيمية في تلك الأسواق. وبشكل عام، لا تقتصر اللوائح على مناطق محددة. في الواقع، لكل دولة قوانينها التنظيمية التي يجب على الشركات الالتزام بها لممارسة عملياتها، وخاصة قواعد نقل البيانات عبر الحدود . يمكن لاستراتيجية تنظيمية قوية للذكاء الاصطناعي أن تساعد الشركات على تبسيط عملياتها المتعلقة بالخصوصية، لا سيما فيما يتعلق بـ data mapping ونقل البيانات عبر الحدود، للوصول إلى الأسواق العالمية.

قيادة الابتكارات بأمان

لا تُعيق اللوائح الابتكارات أو تُعرقلها. بل على العكس، صُممت قوانين مثل لوائح الذكاء الاصطناعي لتعزيز الابتكار بمسؤولية وأمان وأخلاقية. تُساعد اللوائح الشركات على وضع حدود لحماية خصوصية العملاء وحقوقهم، وشفافية ممارساتها التجارية، وتعزيز إجراءات أمن البيانات، على سبيل المثال لا الحصر. من خلال إثبات الامتثال، يُمكن للشركات العمل على استكشاف مجالات وابتكارات وفرص جديدة دون القلق بشأن المخاطر المرتبطة بالامتثال.

اللوائح العالمية المتعلقة بالذكاء الاصطناعي في عام 2023 وما بعده

مع ظهور تقنيات الذكاء الاصطناعي من الجيل الأول مثل ChatGPT شهدت السنوات الأخيرة ارتفاعاً ملحوظاً في تطوير تطبيقات الذكاء الاصطناعي الجديدة، فضلاً عن القوانين المتعلقة به. لذا، يتعين على الشركات أن تكون استباقية في فهم العناصر الأساسية لهذه القوانين، وأن تبدأ بالاستعداد لمواكبة التطورات.

فيما يلي لمحة موجزة عن بعض التطورات الأخيرة في المشهد التنظيمي للذكاء الاصطناعي:

القانون البرازيلي رقم 2338

في مايو 2023، قدّم مجلس الشيوخ البرازيلي مشروع القانون رقم 2338/2023 . ولا يزال هذا المشروع قيد الدراسة من قبل المجلس التشريعي، ويقترح وضع ضوابط لحماية إمكانية الوصول إلى الذكاء الاصطناعي وحقوق خصوصية المستخدمين. وبمجرد إقراره، سيسري هذا القانون على الأفراد والكيانات التي توظف أو تستخدم أنظمة الذكاء الاصطناعي أو تزودها، ويُشار إليها مجتمعةً باسم "وكلاء الذكاء الاصطناعي". وفيما يلي بعض أبرز ملامح القانون المقترح:

حقوق الأفراد المتأثرين بأنظمة الذكاء الاصطناعي

أولاً، يمنح مشروع القانون المستخدمين المتأثرين بأنظمة الذكاء الاصطناعي صلاحيات أوسع. data privacy حقوق، مثل:

  • الحق في الحصول على المعلومات السابقة المتعلقة بتفاعل المستخدمين مع الذكاء الاصطناعي.
  • الحق في الحصول على تفسير لأي نوع من القرارات أو الاقتراحات التي يوصي بها الذكاء الاصطناعي.
  • الحق في الطعن في هذه القرارات أو التوصيات.
  • الحق في التدخل البشري أو تحديد القرارات المتعلقة بالذكاء الاصطناعي.
  • الحق في الخصوصية وحماية البيانات الشخصية.

كما يُمنح الأفراد الحق في الحصول، قبل التعاقد أو استخدام النظام، على معلومات واضحة حول مستخدم نظام الذكاء الاصطناعي، ووصفه، ومشغل الذكاء الاصطناعي المرتبط به، وفئات البيانات الشخصية المستخدمة لتدريب الذكاء الاصطناعي، وأمن أو موثوقية نظام الذكاء الاصطناعي.

تقييم تصنيف المخاطر

يتعين على موردي أنظمة وتطبيقات الذكاء الاصطناعي إجراء تقييم أولي شامل للمخاطر قبل طرح النظام في السوق أو تشغيله. وبناءً على هذا التقييم، يُصنف نظام الذكاء الاصطناعي إما كنظام ذي مخاطر عالية أو نظام ذي مخاطر مفرطة.

مخاطرة مفرطة

تشمل فئة المخاطر المفرطة أنظمة الذكاء الاصطناعي التي تستخدم تقنيات لا شعورية تؤثر على الأفراد بطريقة ضارة بصحتهم أو سلامتهم، أو الأنظمة التي تستغل أي نقاط ضعف لدى مجموعة معينة من الأفراد، مثل الصحة العقلية، وما إلى ذلك.

خطر مرتفع

تشمل فئة المخاطر العالية أنظمة الذكاء الاصطناعي التي تستخدم لأغراض مثل أجهزة السلامة للبنى التحتية الحيوية، والتعرف البيومتري، والتحقيق الجنائي، والتدريب التعليمي أو المهني، والتوظيف، والمركبات ذاتية القيادة، على سبيل المثال لا الحصر.

AI Governance إرشادات

يشترط النظام على وكلاء الذكاء الاصطناعي (الموردين والمشغلين) وضع إطار حوكمة مع التأكد من أنه يتضمن سياسات وإجراءات لضمان ما يلي:

  • شفافية تفاعل نظام الذكاء الاصطناعي مع الأفراد.
  • الشفافية فيما يتعلق بتدابير الحوكمة المرتبطة بتطوير واستخدام أنظمة الذكاء الاصطناعي.
  • معالجة البيانات بما يتوافق مع القوانين واللوائح المعمول بها.
  • اعتماد تدابير أمنية .
  • تدابير إضافية مناسبة تتعلق بأنظمة الذكاء الاصطناعي عالية المخاطر.

تقييم الأثر الخوارزمي

يجب على وكلاء الذكاء الاصطناعي إجراء تقييم لأثر الخوارزميات على أنظمة الذكاء الاصطناعي عالية المخاطر. ويجب أن يُجرى هذا التقييم بواسطة فريق من المختصين ذوي المعرفة القانونية والتقنية، وذلك لدراسة وتسجيل المخاطر المعروفة والمتوقعة لنظام الذكاء الاصطناعي، بالإضافة إلى تحديد تدابير التخفيف المناسبة.

المسؤوليات المدنية

تتحمل أنظمة الذكاء الاصطناعي مسؤولية إصلاح أي أضرار ناجمة عن أنظمة الذكاء الاصطناعي عالية الخطورة. أما بالنسبة لأنظمة الذكاء الاصطناعي غير عالية الخطورة، فيُعتبر النظام المتسبب بالضرر مُذنباً، ويقع عبء الإثبات على عاتق الضحية.

قانون الذكاء الاصطناعي للاتحاد الأوروبي

لا يتوانى الاتحاد الأوروبي أبدًا عن حماية حقوق مواطنيه وخصوصيتهم. فقد اقترحت المفوضية الأوروبية قانون الذكاء الاصطناعي في أبريل 2021، بهدف ضمان تطوير واستخدام تقنيات الذكاء الاصطناعي بشكل منظم وآمن. وعلى عكس اللائحة العامة لحماية البيانات (GDPR)، يتبنى قانون الذكاء الاصطناعي نهجًا قائمًا على تقييم المخاطر لتنظيم تطوير ونشر الذكاء الاصطناعي، حيث تتفاوت شدة الأحكام والعقوبات المترتبة على المخالفات تبعًا لفئة المخاطر.

مخاطرة غير مقبولة

تشمل هذه الفئة من المخاطر أنظمة الذكاء الاصطناعي التي تُعتبر تهديدًا للأفراد أو سبل عيشهم أو خصوصيتهم. ولذلك، يحظر قانون الذكاء الاصطناعي تمامًا هذه الأنظمة التي تندرج ضمن فئة المخاطر غير المقبولة. وتشمل هذه الأنظمة ما يلي:

  • تؤثر على السلوك الإدراكي للأفراد، مثل الألعاب التي تعمل بالصوت، وما إلى ذلك.
  • قم بتصنيف الأفراد وفقًا لخصائصهم الشخصية أو السلوكية.
  • توفير التعرف البيومتري في الوقت الفعلي.

عالي الخطورة

تُصنّف أدوات أو تطبيقات الذكاء الاصطناعي التي تؤثر سلبًا على حقوق الأفراد أو سلامتهم ضمن الأنظمة عالية المخاطر. وتنقسم هذه الفئة من المخاطر إلى فئتين فرعيتين:

  • أنظمة الذكاء الاصطناعي المستخدمة كمكونات أمان في المنتجات الخاضعة لتقييم المطابقة المسبق من قبل طرف ثالث.
  • أنظمة الذكاء الاصطناعي التي تندرج تحت ثمانية مجالات محددة مدرجة في الملحق الثالث لقانون الذكاء الاصطناعي، مثل تحديد الهوية البيومترية، وإدارة البنية التحتية الحيوية، والتدريب التعليمي، والتوظيف، وما إلى ذلك.

مخاطر منخفضة أو ضئيلة

تشمل هذه الفئة أنظمة الذكاء الاصطناعي التي لا تشكل مخاطر تُذكر على سلامة مستخدميها، مثل ألعاب الفيديو المدعومة بالذكاء الاصطناعي أو برامج تصفية البريد العشوائي. وتخضع هذه الأنظمة لمتطلبات الشفافية فقط.

تختلف شدة الأحكام والعقوبات باختلاف نوع فئة المخاطر. ومع ذلك، ينص قانون الذكاء الاصطناعي بوضوح على أن من يثبت انتهاكه للقانون سيواجه غرامات تصل إلى 30 مليون يورو أو 6% من الأرباح العالمية.

قانون الذكاء الاصطناعي في ولاية كونيتيكت

في 7 يونيو 2023، وقّع حاكم ولاية كونيتيكت، نيد لامونت، على مشروع قانون مجلس الشيوخ رقم 1103 - قانون يتعلق بالذكاء الاصطناعي، واتخاذ القرارات الآلية، والشخصية Data Privacy (القانون). ينشئ القانون فريق عمل معني بالذكاء الاصطناعي ومكتبًا للذكاء الاصطناعي لاقتراح مشروع قانون لحقوق الذكاء الاصطناعي.

ينص القانون أيضاً على إلزام إدارة الخدمات الإدارية بإنشاء قائمة بجميع أنظمة الذكاء الاصطناعي المستخدمة من قبل أي وكالة حكومية. يجب أن تتضمن القائمة المعلومات التالية:

  • اسم البائع ونظام الذكاء الاصطناعي.
  • معلومات تتعلق بقدراتها العامة.
  • الوضع المتعلق بأي تقييم للأثر تم إجراؤه على النظام.

كما يكلف مشروع القانون إدارة الخدمات الإدارية بإجراء تقييمات مستمرة لأثر الأنظمة التي تستخدم الذكاء الاصطناعي لضمان عدم تسبب النظام في أي تمييز غير قانوني أو تأثير غير متناسب غير قانوني على الأفراد.

قانون إلينوي للمقابلات المصورة بالذكاء الاصطناعي

في يناير 2020، أصدرت ولاية إلينوي الأمريكية قانون المقابلات المرئية باستخدام الذكاء الاصطناعي . وهو قانون موجز يتعلق بالذكاء الاصطناعي ويستهدف تحديداً أصحاب العمل الذين يستخدمون أنظمة الذكاء الاصطناعي لإجراء وتحليل المقابلات المرئية للمرشحين.

يلزم هذا النظام أصحاب العمل في ولاية إلينوي بإخطار المتقدمين للوظائف قبل المقابلة باستخدام الذكاء الاصطناعي في المقابلات المرئية. كما يجب إبلاغ المتقدمين بكيفية عمل الذكاء الاصطناعي وكيفية مساعدته في تقييم المقابلة. والأهم من ذلك، لا يجوز لأصحاب العمل إجراء المقابلة المرئية باستخدام الذكاء الاصطناعي دون موافقة صريحة من المتقدم.

يقيّد قانون المقابلات المرئية المدعومة بالذكاء الاصطناعي أصحاب العمل من مشاركة تسجيلات المقابلات المرئية مع أي شخص إلا إذا كان خبيرًا في تقييم المقابلات. وفي حال طلب المتقدم للوظيفة حذف التسجيل، يجب على أصحاب العمل الاستجابة للطلب وحذف الفيديو خلال 30 يومًا من تاريخ استلامه.

الإدارة الصينية للتوليف العميق الآلي

لا تملك جمهورية الصين الشعبية تنظيماً خاصاً بالذكاء الاصطناعي. مع ذلك، قد تتضمن إدارة خدمات المعلومات القائمة على الإنترنت، والتي تعتمد على التوليف العميق، أحكاماً تتعلق باستخدام خدمات التوليف العميق، بما في ذلك أمثلة مثل التزييف العميق والمحتوى المماثل الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي.

يمكن تصنيف الأحكام المتعلقة بتوظيف أو استخدام خدمات الذكاء الاصطناعي التركيبي العميق إلى ثلاثة مكونات:

أحكام عامة

يحظر النظام استخدام خدمات التركيب العميق للذكاء الاصطناعي التي تُنتج أي محتوى محظور بموجب قوانين جمهورية الصين الشعبية أو يُهدد الأمن القومي أو الاقتصاد. ويُحظر على هذه الخدمات إنتاج أي أخبار كاذبة، ويجب إدارتها بمسؤولية.

إدارة البيانات والتكنولوجيا

يجب على مقدمي هذه الخدمات تعزيز إدارة بيانات التدريب المستخدمة في التركيب العميق، ويجب عليهم الالتزام بقوانين حماية البيانات ذات الصلة إذا كانت بيانات التدريب تتضمن معلومات شخصية.

في حال مخالفة أي بند من بنود القانون، تفرض أجهزة الأمن العام العقوبات أو الجزاءات المناسبة. وفي حال وقوع أي نشاط إجرامي، تُجرى تحقيقات متعلقة بالجريمة.

لوائح شنغهاي

يتعين على جميع الشركات التي تستخدم تقنيات الذكاء الاصطناعي في عملياتها التجارية بمنطقة شنغهاي الالتزام بلوائح الذكاء الاصطناعي في شنغهاي. وتشمل هذه اللوائح نطاقاً واسعاً من الأنشطة، بما في ذلك على سبيل المثال لا الحصر، الحوكمة والتطوير الصناعي، والابتكارات في مجال علوم وتكنولوجيا الذكاء الاصطناعي.

تُعدّ إدارات الاقتصاد والمعلومات في البلديات المحلية الجهات الرئيسية المسؤولة عن تخطيط وتنفيذ اللوائح والتطورات في صناعة الذكاء الاصطناعي. ويهدف نظام شنغهاي للذكاء الاصطناعي إلى تعزيز الجيل الجديد من موارد العلوم والتكنولوجيا في مجال الذكاء الاصطناعي، وتشجيع التكامل الدقيق لتقنيات الذكاء الاصطناعي.

لوائح الذكاء الاصطناعي في شنتشن

يركز تنظيم الذكاء الاصطناعي في شنتشن على تعزيز تطوير الصناعات القائمة على الذكاء الاصطناعي في المنطقة، وخاصة في منطقة شنتشن الاقتصادية الخاصة. وكما هو الحال في قانون الذكاء الاصطناعي للاتحاد الأوروبي ، يتبنى تنظيم الذكاء الاصطناعي في شنتشن نهجًا قائمًا على المخاطر لإدارة استخدام الذكاء الاصطناعي. فعلى سبيل المثال، تتطلب أنظمة الذكاء الاصطناعي عالية المخاطر إجراء تقييمات لتحديد المخاطر في المراحل المبكرة من تشغيل النظام. أما فئتا المخاطر المتوسطة والمنخفضة فتشملان أنظمة الذكاء الاصطناعي التي يجب أن تلتزم بأحكام الإفصاح المسبق والتتبع اللاحق. علاوة على ذلك، يُسمح لأنظمة الذكاء الاصطناعي المصنفة ضمن فئة المخاطر المنخفضة بإجراء تجارب واختبارات دون التقيد بالمعايير المحلية إذا كانت متوافقة مع المعايير الدولية.

مشروع قانون حماية البيانات والمعلومات الرقمية في المملكة المتحدة (رقم 2)

قُدِّم مشروع قانون حماية البيانات والمعلومات الرقمية (رقم 2) في المملكة المتحدة (مشروع القانون) في مارس 2023، واجتاز جلسته الثانية في أبريل 2023. يقترح مشروع القانون تعديلات على اللائحة العامة لحماية البيانات في المملكة المتحدة (GDPR)، مع تضمين أحكام تتعلق بالذكاء الاصطناعي واتخاذ القرارات الآلية. ومن بين الاعتبارات والاقتراحات الرئيسية الأخرى، يوصي مشروع القانون أيضًا بأحكام لمعالجة المخاطر المرتبطة باتخاذ القرارات الآلية المدعومة بالذكاء الاصطناعي، وتحديد ضوابط حماية البيانات المطلوبة.

قانون الذكاء الاصطناعي والبيانات الكندي (AIDA)

في يونيو 2022، اقترحت الحكومة الكندية قانون الذكاء الاصطناعي والبيانات (AIDA) كجزء من مشروع القانون C-27. ويهدف قانون الذكاء الاصطناعي والبيانات إلى وضع تدابير جديدة لتنظيم التجارة الدولية وبين المقاطعات في أنظمة الذكاء الاصطناعي، ووضع متطلبات مشتركة لتصميم وتطوير واستخدام أنظمة الذكاء الاصطناعي.

في حال إقرار القانون، سيُطبّق على الجهات التي تُصمّم أو تُطوّر أو تُتيح استخدام أنظمة الذكاء الاصطناعي. ويهدف هذا النظام بالدرجة الأولى إلى تنظيم أنظمة الذكاء الاصطناعي ذات التأثير الكبير، وينص على عدد من التزامات الامتثال للجهات المشمولة، مع التركيز على تحديد أي مخاطر محتملة قد تُلحق الضرر بالمستهلكين، والتخفيف من حدّتها، والإبلاغ عنها. وتشمل بعض الالتزامات الرئيسية للجهات المشمولة متطلبات الإفصاح، وإخفاء هوية البيانات، وتقييم المخاطر، ومتطلبات الإبلاغ عن أي ضرر مادي تُسبّبه أنظمة الذكاء الاصطناعي.

كيف Securiti يمكن المساعدة

مع تزايد تطبيقات وتقنيات الذكاء الاصطناعي، ستزداد المخاوف الأمنية ومخاوف الخصوصية. لذا، من المنطقي الاعتقاد بأن الشركات ستشهد المزيد من القوانين واللوائح المتعلقة بالذكاء الاصطناعي في السنوات القادمة.

مبني على Data Command Center إطار عمل (UDC)، Securiti 's Data Command Center تم تصميمها لمساعدة المؤسسات على تمكين الاستخدام المسؤول للذكاء الاصطناعي من خلال رؤى البيانات السياقية وضوابط البيانات الموحدة.

من خلال مركز قيادة البيانات الواحد، يمكن للمؤسسات الحصول على رؤى سياقية أعمق حول البيانات الحساسة، وتمكين تصنيف البيانات بدقة عالية، وإنشاء ضوابط دقيقة حول الوصول إلى البيانات الحساسة، وتعزيز مشاركة البيانات الآمنة مع الخصوصية التفاضلية، وتبسيط أتمتة الامتثال مع معلومات تنظيمية متكاملة.

الأسئلة الشائعة (FAQs)

بعض الأسئلة الأكثر شيوعاً هي كالتالي:

يشير تنظيم الذكاء الاصطناعي إلى القوانين واللوائح التي تنظم كيفية قيام الشركات ببناء واستخدام ونشر الذكاء الاصطناعي بطريقة مسؤولة. ويركز هذا التنظيم على المساءلة، وإمكانية التفسير، والإشراف البشري، والخصوصية، والحد من المخاطر.

يتطور الذكاء الاصطناعي بسرعة، وتسعى الجهات التنظيمية إلى منع الضرر والتحيز وسوء الاستخدام والقرارات غير الآمنة. لذا، يتعين على الشركات البدء بالاستعداد الآن لتجنب الغرامات ومشاكل الامتثال والإضرار بسمعتها.

"تتطلب معظم اللوائح ما يلي:

- مزيد من الشفافية

- نظام رقابة وحوكمة قوي

- توثيق واضح وعمليات تدقيق منتظمة

- تقييمات المخاطر

- ضوابط حماية البيانات والخصوصية

يُعدّ الذكاء الاصطناعي معقداً نظراً لاستخدامه مجموعات بيانات ضخمة، ونماذج مختلفة، وسرعة التغييرات. وبدون الأتمتة والحوكمة الرشيدة، يصعب رصد المخاطر، وضمان عدالة النظام، والتحكم في انكشاف البيانات، والامتثال للقوانين في مختلف المناطق.

قم بتحليل هذه المقالة باستخدام الذكاء الاصطناعي

تظهر المطالبات في أدوات الذكاء الاصطناعي التابعة لجهات خارجية.
انضم إلى قائمتنا البريدية

احصل على أحدث المعلومات والتحديثات القانونية والمزيد مباشرةً في بريدك الإلكتروني



قصص أخرى قد تهمك
مقاطع فيديو
عرض المزيد
ريحان جليل، من شركة Veeam، يتحدث عن Agent Commander: theCUBE + NYSE Wired: قادة الأمن السيبراني
بعد استحواذ شركة Veeam على Securiti يمثل إطلاق برنامج Agent Commander خطوة هامة نحو مساعدة المؤسسات على تبني وكلاء الذكاء الاصطناعي بثقة أكبر. في...
عرض المزيد
تخفيف مخاطر قائمة OWASP لأهم 10 مخاطر لتطبيقات ماجستير القانون 2025
أحدث الذكاء الاصطناعي التوليدي (GenAI) تحولاً جذرياً في طريقة عمل الشركات وتوسعها ونموها. يوجد تطبيق للذكاء الاصطناعي لكل غرض، بدءاً من زيادة إنتاجية الموظفين وصولاً إلى تبسيط العمليات...
عرض المزيد
أفضل 6 DSPM حالات الاستخدام
مع ظهور الذكاء الاصطناعي التوليدي (GenAI)، أصبحت البيانات أكثر ديناميكية. يتم توليد بيانات جديدة بوتيرة أسرع من أي وقت مضى، ونقلها إلى أنظمة وتطبيقات متنوعة...
عرض المزيد
قانون الخصوصية في كولورادو (CPA)
ما هو قانون خصوصية كولورادو؟ قانون خصوصية كولورادو هو قانون شامل لحماية الخصوصية، تم توقيعه في 7 يوليو 2021. وقد وضع معايير جديدة لحماية البيانات الشخصية...
عرض المزيد
Securiti لمساعد الطيار في البرمجيات كخدمة (SaaS)
تسريع اعتماد Copilot بأمان وثقة: تتطلع المؤسسات إلى اعتماد Microsoft 365 Copilot لزيادة الإنتاجية والكفاءة. ومع ذلك، تظل المخاوف الأمنية، مثل حماية البيانات...
عرض المزيد
أهم عشرة اعتبارات لاستخدام البيانات غير المهيكلة بأمان مع الذكاء الاصطناعي العام
نسبة مذهلة تصل إلى 90% من بيانات المؤسسات غير منظمة. وتُستخدم هذه البيانات بسرعة لتغذية تطبيقات الذكاء الاصطناعي من الجيل الجديد، مثل روبوتات الدردشة والبحث المدعوم بالذكاء الاصطناعي.
عرض المزيد
جينكور للذكاء الاصطناعي: بناء أنظمة ذكاء اصطناعي آمنة وعالية الجودة للمؤسسات في دقائق
مع تبني المؤسسات للذكاء الاصطناعي التوليدي، تواجه فرق البيانات والذكاء الاصطناعي العديد من العقبات: ربط مصادر البيانات غير المهيكلة والمهيكلة بشكل آمن، والحفاظ على الضوابط والحوكمة المناسبة،...
عرض المزيد
كيفية التعامل مع قانون حماية خصوصية المستهلك في كاليفورنيا: رؤى أساسية للشركات
ما هو قانون حقوق الخصوصية في كاليفورنيا (CPRA)؟ هو تشريع ولاية كاليفورنيا الذي يهدف إلى حماية خصوصية سكانها الرقمية. وقد دخل حيز التنفيذ في يناير...
عرض المزيد
التكيف مع التحول: الانتقال إلى معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS) الإصدار 4.0
ما هو معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS)؟ هو مجموعة من معايير الأمان لضمان المعالجة والتخزين الآمنين للبيانات، و...
عرض المزيد
تأمين البيانات والذكاء الاصطناعي: دليل إدارة الثقة والمخاطر والأمن (TRiSM)
أثارت المخاطر الأمنية المتزايدة للذكاء الاصطناعي قلق 48% من مسؤولي أمن المعلومات حول العالم. انضموا إلى هذه الجلسة الرئيسية للتعرف على دليل عملي لتمكين الثقة في الذكاء الاصطناعي، وإدارة المخاطر،...

جلسات حوارية مميزة

تسليط الضوء
الاستعداد للمستقبل لمحترفي الخصوصية
شاهد الآن منظر
تسليط الضوء 50:52
من البيانات إلى النشر: حماية الذكاء الاصطناعي المؤسسي من خلال الأمن والحوكمة
شاهد الآن منظر
تسليط الضوء 11:29
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
شاهد الآن منظر
تسليط الضوء 11:18
إعادة هيكلة تمويل العقارات - كيف تُجري شركة ووكر آند دنلوب تحديثًا لمحفظتها الاستثمارية البالغة 135 مليار دولار أمريكي بالاعتماد على البيانات أولاً
شاهد الآن منظر
تسليط الضوء 13:38
تسريع المعجزات - كيف تُدمج شركة سانوفي الذكاء الاصطناعي لتقليص مدة تطوير الأدوية بشكل كبير
صورة مصغرة لشركة سانوفي
شاهد الآن منظر
تسليط الضوء 10:35
حدث تحول جوهري في مركز ثقل البيانات
شاهد الآن منظر
تسليط الضوء 14:21
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
شاهد الآن منظر
تسليط الضوء 12:!3
لا يمكنك بناء خطوط الأنابيب أو المستودعات أو منصات الذكاء الاصطناعي بدون معرفة تجارية
شاهد الآن منظر
تسليط الضوء 47:42
الأمن السيبراني – حيث يقوم القادة بالشراء والبناء والشراكة
ريحان جليل
شاهد الآن منظر
تسليط الضوء 27:29
بناء ذكاء اصطناعي آمن باستخدام Databricks و Gencore
ريحان جليل
شاهد الآن منظر
أحدث
عرض المزيد
بناء ذكاء اصطناعي سيادي باستخدام HPE Private Cloud AI و Veeam Securiti Gencore AI
كيف تُساهم تقنيات الذكاء الاصطناعي في السحابة الخاصة من HPE، وتسريع NVIDIA، وVeeam؟ Securiti يدعم نظام Gencore AI الذكاء الاصطناعي الآمن والمُدار للمؤسسات مع تطبيق السياسات عبر سير العمل RAG والمساعدين والوكلاء.
عرض المزيد
Securiti أعلنت شركة .ai عن اختيار شركة أكسنتشر كشريك العام لعام 2025
في إطار الاحتفال المستمر بالتعاون المؤثر في DataAI Security ، Securiti منحت شركة .ai، التابعة لشركة Veeam، شركة Accenture لقب شريك العام لعام 2025....
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ قانون حماية خصوصية المستهلك في كاليفورنيا؟ عرض المزيد
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ القانون؟
يمكن للشركات أن تستفيد من بعض الدروس الحيوية من أكبر إجراء إنفاذي تم اتخاذه مؤخراً في تاريخ قانون خصوصية المستهلك في كاليفورنيا (CCPA). Securiti مدونة 's تغطي جميع التفاصيل المهمة التي يجب معرفتها.
عرض المزيد
الذكاء الاصطناعي وقانون HIPAA: ما يعنيه وكيفية أتمتة الامتثال
تعرّف على كيفية تطبيق قانون قابلية نقل التأمين الصحي والمساءلة (HIPAA) على الذكاء الاصطناعي في تأمين المعلومات الصحية المحمية. تعلّم كيف...
عرض المزيد
قلل من المعلومات التي تكشفها: ضوابط الخصوصية للذكاء الاصطناعي Agents and Copilots
تقليل انكشاف البيانات في الذكاء الاصطناعي agents and copilots قم بتطبيق ضوابط حماية الخصوصية مثل تقليل البيانات، وضوابط الوصول، وإخفاء البيانات، وإنفاذ السياسات لمنع التسريب و...
عرض المزيد
من وضوح البيانات إلى سرعة الذكاء الاصطناعي
اطلع على الورقة البيضاء واكتشف كيف يتم توحيد DataAI security يحوّل إدارة البيانات إلى عامل تمكين للأعمال، ويعزز ابتكار الذكاء الاصطناعي من خلال الشفافية والامتثال وإدارة المخاطر...
عرض المزيد
قائد العملاء: ملخص الحل
تعرّف على كيفية قيام Agent Commander باكتشاف وكلاء الذكاء الاصطناعي، وحماية بيانات المؤسسة من خلال ضوابط التشغيل، وتصحيح أخطاء الذكاء الاصطناعي - مما يتيح اعتماد الذكاء الاصطناعي بشكل آمن ومتوافق مع المعايير في...
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti عرض المزيد
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti
التزم بتعديلات قانون خصوصية المستهلك في كاليفورنيا لعام 2026 باستخدام Securiti وتشمل هذه المتطلبات تحديث متطلبات الموافقة، وتوسيع تعريفات البيانات الحساسة، وتعزيز حقوق المستهلك، وتقييمات الجاهزية.
عرض المزيد
تخلص من مخاطر البيانات في الذكاء الاصطناعي
تعرف على كيفية إعداد بيانات المؤسسة لاعتماد Gemini Enterprise بشكل آمن من خلال الحوكمة الأولية، واكتشاف البيانات الحساسة، وضوابط سياسة ما قبل الفهرسة.
عرض المزيد
دليل الحصول على شهادة HITRUST
Securiti يُعد الكتاب الإلكتروني دليلاً عملياً للحصول على شهادة HITRUST، ويغطي كل شيء بدءاً من اختيار i1 مقابل r2 ونطاق الأنظمة وصولاً إلى إدارة خطط العمل والتخطيط...
ما هو
جديد