الإعلان عن Agent Commander - أول حل متكامل من Veeam + Securiti .ai تمكين توسيع نطاق وكلاء الذكاء الاصطناعي الآمنين

منظر

ما هو الذكاء الاصطناعي الأخلاقي وكيف يمكن تمكين استخدامه المسؤول

مؤلف

أنس بيج

مدير تسويق المنتجات في Securiti

نُشر في 6 يونيو 2024

إن الوعي الأخلاقي هو ما يدفع البشر لبناء مجتمع أفضل وأكثر أماناً. ولكن ماذا يعني أن يتمتع نظام الذكاء الاصطناعي بالوعي الأخلاقي؟

لطالما اعتمدت الشركات على البيانات في اتخاذ القرارات لتحسين عملياتها وتعزيز الابتكار. وقد ساهم ظهور الذكاء الاصطناعي التوليدي (GenAI) في نقل هذا التوجه إلى مستوى جديد، مما أدى إلى زيادة السرعة والكفاءة. والجدير بالذكر أن هذا ليس الإنجاز الوحيد الذي حققه الذكاء الاصطناعي في السنوات الأخيرة، بل جلب معه أيضاً مخاطر غير مسبوقة.

على سبيل المثال، اضطرت شركة تجارة إلكترونية عالمية عملاقة إلى إيقاف مشروعها الخاص بأداة توظيف تعتمد على الذكاء الاصطناعي، بعد أن أظهرت مؤشرات على التمييز ضد المتقدمات من النساء، حيث فضّلت الرجال عليهن. وبالمثل، في عام 2019، حققت هيئة تنظيمية في نيويورك مع شركة رعاية صحية أمريكية لتطويرها نموذج ذكاء اصطناعي قدّم توصيات متحيزة تُعطي الأولوية للمرضى بناءً على لون بشرتهم.

هنا تبرز أهمية أخلاقيات الذكاء الاصطناعي. فبعد أن كانت مقتصرة على النقاشات الأكاديمية وبعض محاضرات تيد، بات الذكاء الاصطناعي الأخلاقي يحظى باهتمام عالمي واسع. ولعلّ أهم ما تعلمته المؤسسات في السنوات الأخيرة حول مناقشة الذكاء الاصطناعي واستخدامه هو أنها لا تستطيع تحمل مخاطر الفشل في استخدام البيانات والذكاء الاصطناعي بشكل آمن وأخلاقي، لأن المخاطر جسيمة للغاية.

ما هو الذكاء الاصطناعي الأخلاقي - التعريف والأهمية

الذكاء الاصطناعي الأخلاقي هو إطار عمل أو منهج أو مجموعة من المبادئ التوجيهية التي تُركز على القيم الإنسانية والمجتمعية عند تبني أو تطوير نماذج الذكاء الاصطناعي. بعبارة أخرى، لا تقتصر أخلاقيات أنظمة الذكاء الاصطناعي على تحديد مشروعية استخدامها فحسب، بل تشمل أيضاً سلامتها وشفافيتها وعدالتها وقابليتها للتفسير ومساءلتها وجدارتها بالثقة.

تقدم شركة غارتنر تعريفاً مشابهاً للذكاء الاصطناعي الأخلاقي ضمن فئة الذكاء الاصطناعي المسؤول، حيث تشير إليه على النحو التالي:

"مصطلح شامل لجوانب اتخاذ الخيارات التجارية والأخلاقية المناسبة عند تبني الذكاء الاصطناعي. وتشمل هذه الجوانب القيمة التجارية والمجتمعية، والمخاطر، والثقة، والشفافية، والإنصاف، والحد من التحيز، وقابلية التفسير، والاستدامة، والمساءلة، والسلامة، والخصوصية، والامتثال التنظيمي."

تُعدّ تقنية الذكاء الاصطناعي، التي تتبوأ مكانةً مرموقةً في عالم التطورات التكنولوجية، مصدراً غنياً بالفوائد. إلا أن هذه التقنية تنطوي على جوانب إيجابية وسلبية. فبإمكانها أن تُفيد المؤسسات من خلال إنتاج منتجات أفضل وأكثر نظافة، وتحسين كفاءة العمليات، وتعزيز إجراءات الرعاية الصحية، ومضاعفة وتيرة الابتكار، والمساهمة في إحداث أثر بيئي إيجابي. في المقابل، إذا لم تُصمّم هذه التقنية وتُدرّب وفقاً للمعايير الأخلاقية منذ البداية، فقد تُلحق أضراراً جسيمة على الصعيد السياسي والبيئي والاجتماعي.

المخاطر والتحديات الأخلاقية في الذكاء الاصطناعي

إنّ مسار الابتكار باستخدام الذكاء الاصطناعي محفوفٌ بتحديات أخلاقية عديدة. وما لم تتغلب المؤسسات على هذه التحديات استراتيجياً، فقد تواجه تعقيدات ومخاطر كبيرة عند إتاحة البيانات والذكاء الاصطناعي للجميع. دعونا نلقي نظرة فاحصة على بعض التحديات الأخلاقية الشائعة التي تواجهها المؤسسات عند استخدام الذكاء الاصطناعي أو تبنيه.

شرح

تُشبه خوارزميات الذكاء الاصطناعي الصناديق السوداء، إذ يصعب تفسير القرارات التي تتخذها بعضها. ولكن عندما تخطئ هذه الخوارزميات أو تشوب قراراتها تحيزات، يصبح من الضروري فهم سبب اتخاذ النظام لهذا القرار. لذا، لا بد من وجود مخطط منطقي للعملية، أشبه بدليل يُرشد أصحاب المصلحة إلى مصدر المشكلة. وهنا تبرز أهمية الذكاء الاصطناعي القابل للتفسير.

يشير الذكاء الاصطناعي القابل للتفسير إلى المنهج المنطقي لفهم عملية اتخاذ القرار في خوارزمية الذكاء الاصطناعي. وبمجرد فهم هذه العملية، يصبح بإمكان الجهات الفاعلة في مجال الذكاء الاصطناعي الوثوق بمخرجات التطبيق. ويُعدّ تبسيط قابلية التفسير أو التتبع أمرًا بالغ الأهمية لتمكين الجهات الفاعلة في مجال الذكاء الاصطناعي من تحديد مصدر المشكلة واقتراح الإجراءات التصحيحية.

بالإضافة إلى ذلك، فإن قابلية التفسير تعزز الشفافية والمساءلة في استخدام وتطوير واعتماد الذكاء الاصطناعي.

التحيز والتمييز

إن إزالة الظلم من الذكاء الاصطناعي لا تقل صعوبة عن إزالة التحيز والتمييز الناتج عنه في العالم الحقيقي. ويُمكن تعريف التحيز في الذكاء الاصطناعي بأنه أي انحراف عن الدقة، مما يؤدي إلى تحيز اجتماعي واقتصادي.

على سبيل المثال، إذا تم تدريب خوارزمية الذكاء الاصطناعي للتوظيف باستخدام سير ذاتية أو مجموعات بيانات يهيمن عليها الذكور فقط، فقد يصبح النظام متحيزًا وغير مواتٍ للمتقدمات من النساء، مما يؤدي في النهاية إلى التمييز. وعندما يُترك هذا التحيز دون رادع أو حل، فإنه غالبًا ما يُلحق ضررًا بالمجتمع والبيئة. والجدير بالذكر أن الشركات التي تستخدم تطبيقات ذكاء اصطناعي متحيزة قد تعاني من نتائج مشوهة قد تؤدي في نهاية المطاف إلى الإضرار بسمعتها أو فقدان ثقة العملاء.

يمكن إدخال التحيز إلى نموذج الذكاء الاصطناعي في أي مرحلة من مراحل دورة حياته. على سبيل المثال، قد ينتج ذلك عن مجموعة بيانات تالفة تحتوي على تحيز أو تمييز ضد جنس أو عرق أو إثنية أو دين معين. وقد ينتج أيضًا عن نموذج ذكاء اصطناعي ضعيف التدريب يعجز عن اكتشاف التحيز بدقة.

الخصوصية والأمان

يعتمد أداء وكفاءة نماذج اللغة الكبيرة (LLM) على البيانات التي تُدرَّب عليها. ومن الجدير بالذكر أن تريليونات البايتات من البيانات تُستخدم لتغذية هذه النماذج، مما يُنتج تطبيقات الذكاء الاصطناعي المذهلة المنتشرة على الإنترنت. ومع ذلك، يبرز القلق عندما تُجمع البيانات وتُستخدم وتُعالَج دون موافقة أصحابها. تُعرِّض هذه المخاوف المتعلقة بالخصوصية الشركات لمخاطر قانونية جسيمة.

خذ على سبيل المثال شركة Lensa AI ، التي تعرضت لانتقادات من قبل الهيئات التنظيمية العالمية لاستخدامها أعمال الفنانين الرقميين لتغذية نماذج الذكاء الاصطناعي الخاصة بها دون موافقة صريحة من الأفراد.

وبالمثل، تصدّرت حالات تسريب البيانات الحساسة عناوين الأخبار، حيث تم اكتشاف استخدام الموظفين لبيانات حساسة كمدخلات دون إدراكهم للعواقب الوخيمة على الخصوصية والأمن. وبمجرد تدريب نظام التعلم القائم على التعلم (LLM) باستخدام بيانات حساسة، لا يمكن برمجته لإلغاء تدريبه. وتُعرّض حالات تسريب البيانات الحساسة هذه المؤسسات لمخاطر الذكاء الاصطناعي الناشئة، مثل هجمات تسريب البيانات.

سمية الذكاء الاصطناعي

حققت نماذج اللغة الكبيرة تقدماً ملحوظاً في مجال روبوتات الدردشة المدعومة بالذكاء الاصطناعي. وقد أثبتت هذه الروبوتات قدرتها على تمكين الشركات من تحسين تجربة العملاء وجعلها أكثر تفاعلية ومتعة. ومع ذلك، من الأهمية بمكان أن تحافظ الشركات على شبكة روبوتات دردشة آمنة تعتمد على الذكاء الاصطناعي، وهو أمر بالغ الصعوبة بالنسبة لنماذج اللغة الكبيرة التي تعتمد بشكل كبير على التوجيهات واستفسارات المستخدمين لتدريبها.

يشير مصطلح "السمية" إلى احتمالية إنتاج نموذج عمل ينشر خطاب كراهية أو ازدراء أو إساءة أو محتوى سام. إن نشر الإساءة وخطاب الكراهية أمر غير أخلاقي في حد ذاته. بل إن امتلاك نموذج عمل ينشر السمية قد يكون غير قانوني ويعرض سمعة المؤسسة للخطر.

يُعدّ روبوت الدردشة الذكي "تاي" مثالاً مثالياً لتوضيح نموذج التسويق السام. صُمّم هذا الروبوت ليكون "تجربة حوارية" حيث يتم تدريبه باستمرار من خلال "محادثات ودية ومرحة". إلا أن التجربة لم تسر كما هو مخطط لها، إذ بدأ عدد كبير من المستخدمين بمضايقة الروبوت بتعليقات معادية للنساء وكراهية.

الدور المهم لأطر الذكاء الاصطناعي الأخلاقية

مع ظهور المخاطر المحتملة للذكاء الاصطناعي، كما هو موضح في معظم حالات "الذكاء الاصطناعي الذي خرج عن السيطرة"، أقرّ قادة العالم وعمالقة التكنولوجيا بضرورة اقتراح لوائح غير مسبوقة، ولا سيما أطر إدارة مخاطر الذكاء الاصطناعي. تهدف أطر تقييم المخاطر إلى مساعدة المؤسسات التي تركز على تطوير الذكاء الاصطناعي في تحديد وتقييم وتخفيف المخاطر في أنظمة الذكاء الاصطناعي لضمان الاستخدام والتطوير المسؤولين لتقنيات الذكاء الاصطناعي.

دعونا نلقي نظرة سريعة على بعض الأطر الشائعة للحصول على نظرة عامة عالية المستوى حول كيفية مساعدة أطر مخاطر الذكاء الاصطناعي في تطوير أنظمة ذكاء اصطناعي جديرة بالثقة.

إطار إدارة مخاطر الذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتكنولوجيا

أطلق المعهد الوطني للمعايير والتكنولوجيا (NIST) النسخة الأولية من إطار إدارة مخاطر الذكاء الاصطناعي ( AI RMF 1.0 ) في يناير 2023. ويهدف هذا الإطار إلى تزويد الوكالات الحكومية والشركات الخاصة بمجموعة من المبادئ التوجيهية الاستراتيجية حول تحديد مخاطر الذكاء الاصطناعي والتخفيف من حدتها مع تمكين تطويرها واستخدامها بشكل مسؤول.

ينقسم هذا الإطار إلى جزأين أساسيين. يُعرّف الجزء الأول المؤسسات بأنواع الأضرار التي قد تنشأ عن استخدام أو تطبيق أنظمة الذكاء الاصطناعي، مثل الضرر الذي يلحق بالأفراد، والضرر الذي يلحق بالمؤسسة، والضرر الذي يلحق بالنظام البيئي. ويتناول هذا الجزء أيضًا التحديات المختلفة التي قد تواجهها المؤسسات عند تطبيق هذا الإطار، مثل تحديات قياس المخاطر، ومستوى تقبّل المخاطر، وتحديد أولوياتها.

يتناول الجزء الثاني من الإطار مفهوم "الجوهر". ويُعرّفه الإطار بأنه مجموعة من الوظائف المتميزة التي تُمكّن المؤسسات من معالجة مخاطر الذكاء الاصطناعي. وتتمثل وظائف الجوهر في: الحوكمة، والتخطيط، والقياس، والإدارة. تُطبّق وظيفة الحوكمة بشكل شامل على إطار إدارة المخاطر بأكمله في المؤسسة، بينما يمكن الاستفادة من باقي الوظائف بشكل خاص لأنظمة الذكاء الاصطناعي أو أي مرحلة من مراحل دورة حياة الذكاء الاصطناعي.

تعرّف على المزيد حول إطار إدارة المخاطر للذكاء الاصطناعي NIST AI RMF 1.0

إطار عمل بريسيديو للذكاء الاصطناعي

ال AI Governance قدم التحالف (AIGA) إطار عمل Presidio AI في الاجتماع السنوي الرابع والخمسين في دافوس-كلوسترز من قبل المنتدى الاقتصادي العالمي (WEF) في يناير 2024. ويهدف إطار العمل إلى توفير منهجية قياسية لتنظيم إدارة دورة حياة نماذج الذكاء الاصطناعي التوليدي.

يوفر إطار عمل Presidio للذكاء الاصطناعي مجموعة شاملة من المبادئ التوجيهية التي تهدف إلى أن تكون أكثر من مجرد استراتيجية ثابتة، بل رؤية شاملة لتوجيه المبادئ والقيم الأخلاقية التي تقود تطوير قدرات الذكاء الاصطناعي المستقبلية.

تستند هذه المبادئ التوجيهية إلى ثلاثة مبادئ أساسية: دورة حياة الذكاء الاصطناعي الموسعة، وضوابط المخاطر الشاملة، ومنهجية التحول إلى اليسار.

يوفر كل من هذه الاعتبارات التشغيلية والوظيفية والفلسفية الحيوية لتطوير الذكاء الاصطناعي لضمان اتباع نهج دقيق واستباقي دون المساس بالابتكار والموثوقية.

علاوة على ذلك، فإن اعتماد هذه الاعتبارات الثلاثة الحاسمة يُمكّن من بذل جهد تعاوني أكبر داخل المنظمة، مما يسمح بتعاون ديناميكي بين مختلف الفرق وأصحاب المصلحة، وهو ما لا يقتصر فقط على دمج وجهات نظر وخبرات متنوعة، بل يعزز أيضًا المسؤولية المشتركة والمساءلة.

تعرّف على المزيد حول إطار عمل Presidio للذكاء الاصطناعي

قانون الذكاء الاصطناعي للاتحاد الأوروبي

قانون الاتحاد الأوروبي للذكاء الاصطناعي، المعروف أيضًا باسم قانون الذكاء الاصطناعي للاتحاد الأوروبي ، هو تشريع شامل يهدف إلى تحقيق التوازن بين الابتكار والاعتبارات الأخلاقية، متناولًا تحديات وفرص تقنيات الذكاء الاصطناعي. ويهدف القانون إلى ضمان سلامة أنظمة الذكاء الاصطناعي في الاتحاد الأوروبي، وحماية الحقوق الأساسية، وتعزيز الوضوح القانوني للاستثمار والابتكار في مجال الذكاء الاصطناعي، وتحسين الحوكمة والإنفاذ، وإنشاء سوق موحدة للذكاء الاصطناعي الموثوق ، ومنع تشتت السوق. ويحدد القانون التزامات الجهات الفاعلة في مجال الذكاء الاصطناعي - بما في ذلك مقدمي الخدمات، والمطورين، والمستوردين، والموزعين، والمصنعين - مما يضمن المساءلة طوال دورة حياة نظام الذكاء الاصطناعي. كما ينطبق القانون على الكيانات غير الأوروبية، مثل تلك الموجودة في سويسرا، إذا كان مُخرج نظام الذكاء الاصطناعي الخاص بها مُعدًا للاستخدام في الاتحاد الأوروبي.

يتبنى القانون نهجاً قائماً على المخاطر لإدارة أنظمة الذكاء الاصطناعي طوال دورة حياتها. وتشمل هذه الفئات: الاستخدام غير المقبول للذكاء الاصطناعي، وأنظمة الذكاء الاصطناعي عالية المخاطر، والأنظمة ذات المخاطر المحدودة، والأنظمة ذات المخاطر الدنيا أو المعدومة.

بموجب قانون الاتحاد الأوروبي للذكاء الاصطناعي، يجب على مزودي أنظمة الذكاء الاصطناعي ضمان إلمام موظفيهم بالذكاء الاصطناعي والالتزام ببروتوكولات الامتثال، بما في ذلك توثيق تقييمات الذكاء الاصطناعي وتسجيلها في قواعد بيانات الاتحاد الأوروبي. أما بالنسبة لأنظمة الذكاء الاصطناعي عالية المخاطر، فتشمل الالتزامات الإضافية وضع علامات واضحة، والحفاظ على الوثائق، وتطبيق أنظمة إدارة الجودة، وإجراء تقييمات المطابقة. يجب على القائمين على تشغيل الأنظمة ضمان استخدامها بشكل صحيح وتقييم المخاطر، بينما يُطلب من المستوردين والموزعين التحقق من الامتثال والتعامل بمسؤولية مع الأنظمة غير المتوافقة.

تنص المادة 70 من القانون على أن تقوم كل دولة عضو في الاتحاد الأوروبي بإنشاء أو تعيين سلطة إخطار واحدة على الأقل وسلطة مراقبة سوق واحدة على الأقل كسلطات وطنية مختصة.

بموجب قانون الذكاء الاصطناعي، تشمل عقوبات المخالفات غرامات تصل إلى 35 مليون يورو أو 7% من الإيرادات السنوية العالمية للمخالفات الجسيمة، وتصل إلى 15 مليون يورو أو 3% لعدم الامتثال لأنظمة الذكاء الاصطناعي عالية المخاطر، وتصل إلى 7.5 مليون يورو أو 1% لتقديم معلومات مضللة. وتدفع الشركات الصغيرة والمتوسطة المبلغ الأقل المطبق.

تعرّف أكثر على أطر إدارة مخاطر الذكاء الاصطناعي العالمية

أفضل الممارسات لضمان الذكاء الاصطناعي الأخلاقي

إدارة الثقة والمخاطر والأمان في نماذج الذكاء الاصطناعي باستخدام أداة Gartner's AI TRiSM

طوّر خبراء الصناعة أطرًا متينة لإدارة مخاطر الذكاء الاصطناعي لمعالجة التعقيدات المحيطة AI governance . ومن هذه الأطر التي ينبغي على المؤسسات تبنيها إطار عمل "الذكاء الاصطناعي TRiSM" من غارتنر، وهو اختصار لـ "إدارة الثقة والمخاطر والأمن في الذكاء الاصطناعي". وقد طُوّر هذا الإطار لمساعدة المؤسسات على اكتساب رؤية شاملة وفهم كامل لكيفية عمل نماذج الذكاء الاصطناعي الخاصة بها، ومدى توافقها مع الغرض أو الهدف الأصلي، والنتائج المتوقعة. وفيما يلي ركائزه الأساسية.

قابلية التفسير/مراقبة النموذج

تُعدّ الشفافية أساسيةً لتطوير نماذج الذكاء الاصطناعي أو تطبيقات الذكاء الاصطناعي من الجيل الجديد واستخدامها بأمان. ومن الضروري امتلاك فهم شامل لوظائف أنظمة الذكاء الاصطناعي وكيفية معالجتها للمعلومات واستخدامها في اتخاذ القرارات. كما تُمكّن قابلية تفسير نماذج الذكاء الاصطناعي المؤسسات من تلبية المتطلبات القانونية للشفافية المنصوص عليها في مختلف لوائح حماية البيانات والذكاء الاصطناعي.

عمليات النموذج

بفضل حوكمة وتصنيف أنظمة الذكاء الاصطناعي، تستطيع المؤسسات تحسين نموذج الذكاء الاصطناعي طوال دورة حياته. كما توفر عمليات النموذج (ModelOps) للفرق رؤية أفضل لكيفية تحسين النماذج وضبطها بعد نشرها.

أمن تطبيقات الذكاء الاصطناعي

تعتمد نماذج الذكاء الاصطناعي على كميات هائلة من مجموعات البيانات، والتي تتضمن معلومات تعريفية شخصية ، بما في ذلك البيانات الحساسة . لذا، من الضروري حماية النموذج نفسه من الوصول غير المصرح به أو التلاعب به، بالإضافة إلى حماية البيانات المستخدمة في تدريب نماذج الذكاء الاصطناعي أو ضبطها.

خصوصية النموذج

يتعين على الشركات وضع سياسات وإجراءات تُمكّن من جمع البيانات وتخزينها واستخدامها بشكل آمن لتدريب نماذج الذكاء الاصطناعي أو تحسينها. ومع توجه الحكومات في جميع أنحاء العالم نحو سنّ قوانين صارمة بشأن الذكاء الاصطناعي لتحسين التحكم في تطوير أنظمة الذكاء الاصطناعي واستخدامها، يصبح من الضروري وجود سياسات وضوابط فعّالة لإثبات الامتثال وتعزيز الثقة.

تمكين الاستخدام المسؤول للذكاء الاصطناعي من خلال AI Security & Governance حل

لضمان تصميم وتطوير واستخدام أنظمة الذكاء الاصطناعي بشكل أخلاقي من قبل المؤسسات، Securiti يقترح الخطوات الخمس الأساسية.

  1. اكتشف نماذج الذكاء الاصطناعي : اكتشف وقم بتصنيف نماذج الذكاء الاصطناعي (المعتمدة وغير المعتمدة) التي تعمل عبر السحابات العامة والخاصة وبيئات SaaS الخاصة بك.
  2. تقييم مخاطر نماذج الذكاء الاصطناعي : تقييم المخاطر المرتبطة بنماذج الذكاء الاصطناعي الخاصة بك والبيانات ذات الصلة من بيئتك وتصنيف النماذج وفقًا للقوانين والمعايير العالمية.
  3. تدفقات بيانات الخرائط والذكاء الاصطناعي : مراقبة تدفق البيانات باستمرار من خلال ربط النماذج بالعمليات والسياسات والموردين والمخاطر.
  4. تطبيق ضوابط البيانات والذكاء الاصطناعي : وضع ضوابط الخصوصية والحوكمة والأمن والامتثال على مدخلات ومخرجات النموذج.
  5. الامتثال للوائح العالمية : إجراء تقييمات للامتثال للأطر العالمية، مثل إطار إدارة المخاطر للذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتكنولوجيا، وما إلى ذلك.

أمن الذكاء الاصطناعي وحوكمته، وهو تكامل بين Securiti Data Command Center تُمكّن حلولنا المؤسسات من إتاحة البيانات والذكاء الاصطناعي للجميع بطريقة أخلاقية ومسؤولة من خلال دمج البيانات السياقية مع الذكاء الاصطناعي والضوابط الآلية. يتوافق حلنا تمامًا مع أفضل مناهج وأطر إدارة المخاطر في هذا القطاع، مثل AI TRiSM وNIST AI RMF، مما يوفر للمؤسسات ما يلي:

  • رؤية شاملة لبيئة الذكاء الاصطناعي الخاصة بهم.
  • رؤى معمقة حول المخاطر المرتبطة بأنظمة الذكاء الاصطناعي والبيانات.
  • تفاصيل حول معالجة البيانات باستخدام الذكاء الاصطناعي.
  • توفير حماية كافية حول نماذج الذكاء الاصطناعي.
  • الامتثال للوائح والأطر العالمية المتعلقة بالذكاء الاصطناعي.

قم بتحليل هذه المقالة باستخدام الذكاء الاصطناعي

تظهر المطالبات في أدوات الذكاء الاصطناعي التابعة لجهات خارجية.
انضم إلى قائمتنا البريدية

احصل على أحدث المعلومات والتحديثات القانونية والمزيد مباشرةً في بريدك الإلكتروني



قصص أخرى قد تهمك
مقاطع فيديو
عرض المزيد
ريحان جليل، من شركة Veeam، يتحدث عن Agent Commander: theCUBE + NYSE Wired: قادة الأمن السيبراني
بعد استحواذ شركة Veeam على Securiti يمثل إطلاق برنامج Agent Commander خطوة هامة نحو مساعدة المؤسسات على تبني وكلاء الذكاء الاصطناعي بثقة أكبر. في...
عرض المزيد
تخفيف مخاطر قائمة OWASP لأهم 10 مخاطر لتطبيقات ماجستير القانون 2025
أحدث الذكاء الاصطناعي التوليدي (GenAI) تحولاً جذرياً في طريقة عمل الشركات وتوسعها ونموها. يوجد تطبيق للذكاء الاصطناعي لكل غرض، بدءاً من زيادة إنتاجية الموظفين وصولاً إلى تبسيط العمليات...
عرض المزيد
أفضل 6 DSPM حالات الاستخدام
مع ظهور الذكاء الاصطناعي التوليدي (GenAI)، أصبحت البيانات أكثر ديناميكية. يتم توليد بيانات جديدة بوتيرة أسرع من أي وقت مضى، ونقلها إلى أنظمة وتطبيقات متنوعة...
عرض المزيد
قانون الخصوصية في كولورادو (CPA)
ما هو قانون خصوصية كولورادو؟ قانون خصوصية كولورادو هو قانون شامل لحماية الخصوصية، تم توقيعه في 7 يوليو 2021. وقد وضع معايير جديدة لحماية البيانات الشخصية...
عرض المزيد
Securiti لمساعد الطيار في البرمجيات كخدمة (SaaS)
تسريع اعتماد Copilot بأمان وثقة: تتطلع المؤسسات إلى اعتماد Microsoft 365 Copilot لزيادة الإنتاجية والكفاءة. ومع ذلك، تظل المخاوف الأمنية، مثل حماية البيانات...
عرض المزيد
أهم عشرة اعتبارات لاستخدام البيانات غير المهيكلة بأمان مع الذكاء الاصطناعي العام
نسبة مذهلة تصل إلى 90% من بيانات المؤسسات غير منظمة. وتُستخدم هذه البيانات بسرعة لتغذية تطبيقات الذكاء الاصطناعي من الجيل الجديد، مثل روبوتات الدردشة والبحث المدعوم بالذكاء الاصطناعي.
عرض المزيد
جينكور للذكاء الاصطناعي: بناء أنظمة ذكاء اصطناعي آمنة وعالية الجودة للمؤسسات في دقائق
مع تبني المؤسسات للذكاء الاصطناعي التوليدي، تواجه فرق البيانات والذكاء الاصطناعي العديد من العقبات: ربط مصادر البيانات غير المهيكلة والمهيكلة بشكل آمن، والحفاظ على الضوابط والحوكمة المناسبة،...
عرض المزيد
كيفية التعامل مع قانون حماية خصوصية المستهلك في كاليفورنيا: رؤى أساسية للشركات
ما هو قانون حقوق الخصوصية في كاليفورنيا (CPRA)؟ هو تشريع ولاية كاليفورنيا الذي يهدف إلى حماية خصوصية سكانها الرقمية. وقد دخل حيز التنفيذ في يناير...
عرض المزيد
التكيف مع التحول: الانتقال إلى معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS) الإصدار 4.0
ما هو معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS)؟ هو مجموعة من معايير الأمان لضمان المعالجة والتخزين الآمنين للبيانات، و...
عرض المزيد
تأمين البيانات والذكاء الاصطناعي: دليل إدارة الثقة والمخاطر والأمن (TRiSM)
أثارت المخاطر الأمنية المتزايدة للذكاء الاصطناعي قلق 48% من مسؤولي أمن المعلومات حول العالم. انضموا إلى هذه الجلسة الرئيسية للتعرف على دليل عملي لتمكين الثقة في الذكاء الاصطناعي، وإدارة المخاطر،...

جلسات حوارية مميزة

تسليط الضوء
الاستعداد للمستقبل لمحترفي الخصوصية
شاهد الآن منظر
تسليط الضوء 50:52
من البيانات إلى النشر: حماية الذكاء الاصطناعي المؤسسي من خلال الأمن والحوكمة
شاهد الآن منظر
تسليط الضوء 11:29
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
شاهد الآن منظر
تسليط الضوء 11:18
إعادة هيكلة تمويل العقارات - كيف تُجري شركة ووكر آند دنلوب تحديثًا لمحفظتها الاستثمارية البالغة 135 مليار دولار أمريكي بالاعتماد على البيانات أولاً
شاهد الآن منظر
تسليط الضوء 13:38
تسريع المعجزات - كيف تُدمج شركة سانوفي الذكاء الاصطناعي لتقليص مدة تطوير الأدوية بشكل كبير
صورة مصغرة لشركة سانوفي
شاهد الآن منظر
تسليط الضوء 10:35
حدث تحول جوهري في مركز ثقل البيانات
شاهد الآن منظر
تسليط الضوء 14:21
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
شاهد الآن منظر
تسليط الضوء 12:!3
لا يمكنك بناء خطوط الأنابيب أو المستودعات أو منصات الذكاء الاصطناعي بدون معرفة تجارية
شاهد الآن منظر
تسليط الضوء 47:42
الأمن السيبراني – حيث يقوم القادة بالشراء والبناء والشراكة
ريحان جليل
شاهد الآن منظر
تسليط الضوء 27:29
بناء ذكاء اصطناعي آمن باستخدام Databricks و Gencore
ريحان جليل
شاهد الآن منظر
أحدث
عرض المزيد
بناء ذكاء اصطناعي سيادي باستخدام HPE Private Cloud AI و Veeam Securiti Gencore AI
كيف تُساهم تقنيات الذكاء الاصطناعي في السحابة الخاصة من HPE، وتسريع NVIDIA، وVeeam؟ Securiti يدعم نظام Gencore AI الذكاء الاصطناعي الآمن والمُدار للمؤسسات مع تطبيق السياسات عبر سير العمل RAG والمساعدين والوكلاء.
عرض المزيد
Securiti أعلنت شركة .ai عن اختيار شركة أكسنتشر كشريك العام لعام 2025
في إطار الاحتفال المستمر بالتعاون المؤثر في DataAI Security ، Securiti منحت شركة .ai، التابعة لشركة Veeam، شركة Accenture لقب شريك العام لعام 2025....
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ قانون حماية خصوصية المستهلك في كاليفورنيا؟ عرض المزيد
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ القانون؟
يمكن للشركات أن تستفيد من بعض الدروس الحيوية من أكبر إجراء إنفاذي تم اتخاذه مؤخراً في تاريخ قانون خصوصية المستهلك في كاليفورنيا (CCPA). Securiti مدونة 's تغطي جميع التفاصيل المهمة التي يجب معرفتها.
عرض المزيد
الذكاء الاصطناعي وقانون HIPAA: ما يعنيه وكيفية أتمتة الامتثال
تعرّف على كيفية تطبيق قانون قابلية نقل التأمين الصحي والمساءلة (HIPAA) على الذكاء الاصطناعي في تأمين المعلومات الصحية المحمية. تعلّم كيف...
عرض المزيد
قلل من المعلومات التي تكشفها: ضوابط الخصوصية للذكاء الاصطناعي Agents and Copilots
تقليل انكشاف البيانات في الذكاء الاصطناعي agents and copilots قم بتطبيق ضوابط حماية الخصوصية مثل تقليل البيانات، وضوابط الوصول، وإخفاء البيانات، وإنفاذ السياسات لمنع التسريب و...
عرض المزيد
من وضوح البيانات إلى سرعة الذكاء الاصطناعي
اطلع على الورقة البيضاء واكتشف كيف يتم توحيد DataAI security يحوّل إدارة البيانات إلى عامل تمكين للأعمال، ويعزز ابتكار الذكاء الاصطناعي من خلال الشفافية والامتثال وإدارة المخاطر...
عرض المزيد
قائد العملاء: ملخص الحل
تعرّف على كيفية قيام Agent Commander باكتشاف وكلاء الذكاء الاصطناعي، وحماية بيانات المؤسسة من خلال ضوابط التشغيل، وتصحيح أخطاء الذكاء الاصطناعي - مما يتيح اعتماد الذكاء الاصطناعي بشكل آمن ومتوافق مع المعايير في...
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti عرض المزيد
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti
التزم بتعديلات قانون خصوصية المستهلك في كاليفورنيا لعام 2026 باستخدام Securiti وتشمل هذه المتطلبات تحديث متطلبات الموافقة، وتوسيع تعريفات البيانات الحساسة، وتعزيز حقوق المستهلك، وتقييمات الجاهزية.
عرض المزيد
تخلص من مخاطر البيانات في الذكاء الاصطناعي
تعرف على كيفية إعداد بيانات المؤسسة لاعتماد Gemini Enterprise بشكل آمن من خلال الحوكمة الأولية، واكتشاف البيانات الحساسة، وضوابط سياسة ما قبل الفهرسة.
عرض المزيد
دليل الحصول على شهادة HITRUST
Securiti يُعد الكتاب الإلكتروني دليلاً عملياً للحصول على شهادة HITRUST، ويغطي كل شيء بدءاً من اختيار i1 مقابل r2 ونطاق الأنظمة وصولاً إلى إدارة خطط العمل والتخطيط...
ما هو
جديد