الإعلان عن Agent Commander - أول حل متكامل من Veeam + Securiti .ai تمكين توسيع نطاق وكلاء الذكاء الاصطناعي الآمنين

منظر

نموذج سنغافورة AI Governance نطاق

المساهمون

أنس بيج

مدير تسويق المنتجات في Securiti

سلمى خان

Data Privacy محلل في Securiti

CIPP/آسيا

سيدة إيمان غارديزي

شريك Data Privacy محلل في Securiti

نُشر في 8 أكتوبر 2024

في عام ٢٠١٩، كانت سنغافورة من أوائل الدول التي نشرت استراتيجيتها الوطنية للذكاء الاصطناعي . تبع ذلك إصدار النسخة المحدثة من إطار AI Governance النموذجي في عام ٢٠٢٠. تهدف هذه الوثائق التأسيسية إلى توفير إرشادات لنشر وتطوير تقنيات الذكاء الاصطناعي بشكل أخلاقي ومسؤول في مختلف القطاعات. وقد وضع إطار AI Governance النموذجي للذكاء الاصطناعي التوليدي (إطار GenAI) الذي صدر مؤخرًا في سنغافورة معيارًا جديدًا AI governance .

أصدرت هيئة تطوير الإعلام والاتصالات (IMDA) ومؤسسة التحقق من الذكاء الاصطناعي إطار عمل الجيل الجديد للذكاء الاصطناعي في 30 مايو 2024. ويتضمن هذا الإطار أحدث التطورات التكنولوجية والمبادئ الناشئة والقضايا المتعلقة بالجيل الجديد للذكاء الاصطناعي. ومن خلال نهج منهجي ومتوازن، صُمم هذا الإطار لتعزيز الابتكار المسؤول في مجال الذكاء الاصطناعي وحماية المصلحة العامة والمعايير الأخلاقية.

يشمل هذا الإطار تسعة أبعاد رئيسية يجب تقييمها بشكل شامل لبناء منظومة موثوقة. ويدعو إلى تضافر جهود جميع الجهات المعنية الرئيسية، بما في ذلك واضعي السياسات، وقادة الصناعة، والباحثين، والجمهور، للتعاون في هذا المسعى. ومن خلال هذا النهج، تسعى سنغافورة إلى ضمان أن يلتزم تطوير ونشر تقنيات الذكاء الاصطناعي التوليدي بمبادئ أساسية كالشفافية والمساءلة والأمن والعدالة. تابع القراءة لاستكشاف هذه الجوانب بمزيد من التفصيل.

9 أبعاد للنموذج AI Governance إطار عمل للذكاء الاصطناعي العام

يُحدد إطار عمل GenAI تسعة أبعاد رئيسية ينبغي مراعاتها بشكل شامل لتعزيز بيئة موثوقة. وتشمل هذه الأبعاد ما يلي:

1. المساءلة

يُعدّ ضمان المساءلة أمرًا أساسيًا لعمل أنظمة الذكاء الاصطناعي، إذ يُسهم في بناء بيئة ذكاء اصطناعي موثوقة. يجب أن يكون جميع المشاركين في عملية تطوير الذكاء الاصطناعي، بمن فيهم مطورو النماذج، ومطورو التطبيقات، ومزودو الخدمات السحابية، مسؤولين أمام المستخدمين النهائيين.

يتضمن الذكاء الاصطناعي التوليدي طبقات متعددة في البنية التقنية، على غرار تطوير البرمجيات التقليدية. وكأفضل ممارسة، تتطلب الاستراتيجية الشاملة تحديد المسؤوليات طوال عملية التطوير (مسبقاً) وتتضمن إرشادات حول كيفية طلب التعويض في حال ظهور مشاكل لاحقاً (بعد حدوثها).

  • التخطيط المسبق - التخصيص المسبق : ينبغي تحديد المسؤولية بناءً على مستوى تحكم كل جهة معنية في عملية تطوير الذكاء الاصطناعي التوليدي، بما يضمن قدرة من يملكون القدرة على اتخاذ الإجراءات اللازمة لحماية المستخدمين النهائيين. ويمكن الاستفادة من نماذج المسؤولية المشتركة في قطاع الحوسبة السحابية، وينبغي للمطورين، الأكثر فهمًا لهذه المنتجات، قيادة هذه المبادرة لتعزيز بيئة ذكاء اصطناعي أكثر أمانًا.
  • بعد وقوع المشكلة - شبكات الأمان : تُعدّ نماذج المسؤولية المشتركة أساسيةً لترسيخ المساءلة وتوفير الوضوح بشأن سبل الانتصاف عند ظهور المشكلات، ولكنها قد لا تُغطي جميع السيناريوهات، لا سيما المخاطر غير المتوقعة. ولمعالجة هذه الثغرات، ينبغي النظر في تدابير إضافية مثل التعويض والتأمين. ويُقرّ بعض المطورين بالفعل بمسؤوليتهم عن نماذج الذكاء الاصطناعي الخاصة بهم، بما في ذلك مخاطر مثل مطالبات حقوق النشر من أطراف ثالثة.

2. البيانات

تؤثر البيانات بشكل مباشر على جودة مخرجات النموذج، مما يجعلها أساسية لتطويره. ومن الضروري ضمان استخدام مصادر بيانات موثوقة وعالية الجودة. كما يُعدّ الحفاظ على معاملة عادلة للبيانات وإدارتها بشكل عملي، وتوفير الشفافية المؤسسية عند استخدام البيانات الحساسة، مثل المحتوى الخاص أو المحمي بحقوق الطبع والنشر، أمرًا بالغ الأهمية.

لضمان احترام الذكاء الاصطناعي التوليدي للحقوق الفردية، ينبغي لواضعي السياسات توضيح كيفية تطبيق قواعد البيانات الشخصية الحالية على الذكاء الاصطناعي التوليدي. ويشمل ذلك تحديد شروط الموافقة، وحقوق الخصوصية، وأي استثناءات ذات صلة، وتوجيه ممارسات استخدام البيانات الأخلاقية في الذكاء الاصطناعي.

علاوة على ذلك، يمكن لتقنيات تعزيز الخصوصية أن تساعد في حماية سرية البيانات أثناء تدريب النماذج. كما أن استخدام المواد المحمية بحقوق الطبع والنشر في مجموعات بيانات التدريب يثير تساؤلات حول الموافقة والاستخدام العادل، لا سيما عندما تُنتج النماذج محتوىً يُحاكي أساليب المُبدعين. لذا، يبقى تحقيق التوازن بين مخاوف حقوق الطبع والنشر وإمكانية الوصول إلى البيانات أمرًا بالغ الأهمية لتطوير الذكاء الاصطناعي بشكل مسؤول.

ينبغي على مطوري الذكاء الاصطناعي تبني data quality يجب تطبيق آليات الرقابة واتباع أفضل الممارسات في إدارة البيانات، بما في ذلك ضمان ترقيم مجموعات البيانات وتنظيفها باستمرار. وعلى الصعيد الدولي، يُمكن لتوسيع نطاق مجموعات البيانات الموثوقة - لا سيما لأغراض المقارنة المعيارية والتمثيل الثقافي - أن يُعزز موثوقية النماذج. كما يُمكن للحكومات أن تُساعد في تنظيم مجموعات البيانات التي تُراعي السياقات المحلية، مما يُحسّن من توافر البيانات.

3. التطوير والنشر الموثوق بهما

يُعدّ تطوير النماذج ونشر التطبيقات عنصرين أساسيين للابتكار القائم على الذكاء الاصطناعي. يجب على المطورين والمنفذين ضمان الشفافية فيما يتعلق بالسلامة والنظافة، وتبني أفضل الممارسات في التطوير والتقييم، وتوفير شفافية وإفصاحات مماثلة لتلك الموجودة على ملصقات الأغذية في مجالات مثل استخدام البيانات والتقييم والنتائج والمخاطر.

ينبغي لمطوري النماذج ومطوري التطبيقات تطبيق أفضل ممارسات السلامة طوال دورة حياة تطوير الذكاء الاصطناعي. فبعد التدريب المسبق، يمكن لأساليب مثل التعلم المعزز من خلال التغذية الراجعة البشرية (RLHF) والضبط الدقيق باستخدام مرشحات الإدخال/الإخراج أن تقلل من المخرجات الضارة، بينما تُحسّن أساليب مثل التوليد المُعزز بالاسترجاع (RAG) والتعلم باستخدام عدد قليل من الأمثلة الدقة عن طريق تقليل الأخطاء. علاوة على ذلك، يُعد إجراء تقييم للمخاطر بناءً على سياق حالة الاستخدام أمرًا بالغ الأهمية لضمان السلامة.

من المهم أيضًا ملاحظة أنه على الرغم من أن الذكاء الاصطناعي التوليدي يُقيّم عادةً من خلال المقارنة المعيارية واختبارات الاختراق، إلا أن هذه الأساليب غالبًا ما تتجاهل المخاطر الكامنة في البنية التحتية. لذا، ثمة حاجة إلى نهج أكثر توحيدًا يتضمن اختبارات سلامة أساسية وتقييمات خاصة بكل مجال. وبالتالي، يجب على قطاع الصناعة وصناع السياسات التعاون لتعزيز معايير السلامة وضمان تقييم دقيق وشامل لجميع القطاعات.

4. الإبلاغ عن الحوادث

لا يوجد برنامج، بما في ذلك الذكاء الاصطناعي، خالٍ تمامًا من العيوب، حتى مع إجراءات التطوير والحماية المتطورة. يُعدّ الإبلاغ عن الحوادث أمرًا بالغ الأهمية للإبلاغ الفوري والمعالجة الفورية. كما أن وضع آليات لرصد الأحداث والإبلاغ عنها أمر حيوي، إذ يُسهم في التحسين المستمر لأنظمة الذكاء الاصطناعي. علاوة على ذلك، يجب أن يكون الإبلاغ متناسبًا، بحيث يجمع بين الشمولية والفعالية، لضمان أن تكون التقارير غنية بالمعلومات دون أن تُثقل كاهل المستخدم.

الإبلاغ عن الثغرات الأمنية - حافز لاتخاذ إجراءات استباقية

ينبغي على مالكي منتجات البرمجيات تطبيق الإبلاغ عن الثغرات الأمنية كاستراتيجية أمنية استباقية. ويُفضل أن يستعينوا بخبراء أمن المعلومات أو باحثين مستقلين لاكتشاف هذه الثغرات. وعادةً ما يشجعون هذه الجهود من خلال برامج مكافآت اكتشاف الثغرات. وبمجرد اكتشاف ثغرة أمنية، يُمنح مالك المنتج عادةً 90 يومًا لإصلاح البرنامج والإبلاغ عن المشكلة، مما يتيح لكل من المالكين والمستخدمين تحسين مستوى الأمان.

الإبلاغ عن الحوادث

بعد وقوع الحوادث، يجب أن تمتلك المؤسسات بروتوكولات داخلية للإبلاغ عن المشكلة بسرعة لضمان إخطار الجمهور ومعالجتها في الوقت المناسب. إذا كان الذكاء الاصطناعي مُستخدماً بشكل كبير، فقد تحتاج المؤسسة إلى إبلاغ كل من الجمهور والسلطات الحكومية، وذلك بحسب تأثير الحادث. لذا، يُعدّ تحديد "حوادث الذكاء الاصطناعي الخطيرة" أو وضع معايير للإبلاغ الإلزامي أمراً بالغ الأهمية.

5. الاختبار والضمان

يُعدّ اختبار وضمان الجودة من قِبل جهات خارجية أمرًا بالغ الأهمية لبناء منظومة موثوقة، تُضاهي العمليات المتبعة في القطاعين المالي والصحي (آلية الاعتماد). ورغم أن اختبار الذكاء الاصطناعي لا يزال في طور التطور، إلا أنه يتعين على الشركات تبني هذه الممارسات لبناء الثقة مع المستخدمين النهائيين. كما يُعدّ وضع معايير عالمية لاختبار الذكاء الاصطناعي أمرًا حيويًا لضمان الجودة والاتساق.

يتطلب تعزيز بيئة اختبار الطرف الثالث التركيز على جانبين رئيسيين:

  • كيفية الاختبار : وضع أسلوب اختبار فعال وموحد مع تحديد نطاق الاختبار لتعزيز المبادرات الداخلية.
  • من يجب اختباره : اختيار منظمات مستقلة لإجراء الفحص لضمان العدالة.

لتحسين اختبار الذكاء الاصطناعي، ينبغي التركيز بشكل أكبر على تطوير معايير وأساليب عالمية. ويمكن دعم ذلك بتوفير أدوات قياسية لتسهيل الاختبار عبر نماذج أو تطبيقات متعددة. أما في المجالات الأكثر تقدماً، فقد يتم توحيد اختبار الذكاء الاصطناعي مستقبلاً من قبل منظمات مثل ISO/IEC وIEEE، مما يتيح إجراء اختبارات أكثر اتساقاً ودقة من قبل جهات خارجية. ومع مرور الوقت، يمكن إنشاء "آلية اعتماد" لضمان كل من الاستقلالية والكفاءة.

6. الأمن

يُقدّم الذكاء الاصطناعي التوليدي أساليب تهديد جديدة تتجاوز مخاطر أمن البرمجيات التقليدية. ورغم أن هذا المجال لا يزال قيد التطوير، إلا أنه يجب تحديث أطر أمن المعلومات الحالية، ووضع تقنيات اختبار جديدة للتصدي لهذه المخاطر.

تكييف الأمن بالتصميم

يجب على المؤسسات تبني مفهوم "الأمن بالتصميم" - وهو مفهوم أساسي يتضمن دمج الأمن في كل مرحلة من مراحل دورة حياة تطوير الأنظمة (SDLC) لتقليل الثغرات الأمنية وتقليص مساحة الهجوم. تشمل مراحل دورة حياة تطوير الأنظمة المهمة التطوير والتقييم والتشغيل والصيانة. بالإضافة إلى ذلك، يلزم تطوير أدوات جديدة لتعزيز الأمن، بما في ذلك:

  • مرشحات الإدخال : أدوات تقوم بتصفية المدخلات عن طريق الكشف عن المطالبات الخطرة، مثل حظر البرامج الضارة. يجب برمجة هذه الأدوات لمعالجة المخاطر الخاصة بكل مجال.
  • أدوات التحليل الجنائي الرقمي للذكاء الاصطناعي التوليدي : يجب تطوير أدوات لفحص البيانات الرقمية لإعادة بناء أحداث الأمن السيبراني. كما يجب ابتكار تقنيات تحليل جنائي جديدة لتحديد وإزالة البرامج الضارة المحتملة المخفية في نماذج الذكاء الاصطناعي التوليدي.

7. مصدر المحتوى

قد يُسهم المحتوى المُولّد بالذكاء الاصطناعي في انتشار المعلومات المُضللة نظرًا لسهولة إنتاجه. ومن الأمثلة البارزة على ذلك تقنية التزييف العميق، التي تنطوي على مخاطر متزايدة كالمعلومات المُضللة. لذا، فإن الشفافية بشأن مصدر المعلومات وآلية إنتاجها تُساعد الأفراد على اتخاذ قرارات مدروسة. وتُجري الحكومات أبحاثًا حول حلول تقنية مثل العلامات المائية الرقمية والتشفير، والتي ينبغي استخدامها على النحو الأمثل، حالما يتم الانتهاء منها، لمواجهة المخاطر المُتغيرة.

يُعدّ التعاون مع الجهات المعنية الرئيسية، مثل الناشرين، أمرًا بالغ الأهمية لدعم العلامات المائية الرقمية وتفاصيل المصدر. ونظرًا لأن معظم المحتوى يُستهلك عبر وسائل التواصل الاجتماعي والإعلام، يلعب الناشرون دورًا محوريًا في التحقق من صحة المحتوى. علاوة على ذلك، فإن توحيد معايير تصنيف تعديلات الذكاء الاصطناعي من شأنه أن يُساعد المستخدمين على التمييز بين المحتوى المُعدّ بالذكاء الاصطناعي والمحتوى غير المُعدّ به.

8. البحث والتطوير في مجال السلامة والمحاذاة

لا تُغطي تدابير السلامة الحالية للنماذج جميع المخاطر، مما يستدعي استثمارًا أسرع في البحث والتطوير لتحسين توافق النماذج مع الأهداف والقيم الإنسانية. ويركز أحد مجالات البحث على إنشاء نماذج أكثر توافقًا باستخدام مناهج مثل التعلم المعزز من خلال التغذية الراجعة للذكاء الاصطناعي (RLAIF)، والذي يهدف إلى تعزيز التغذية الراجعة والإشراف. ويتضمن مجال آخر تقييم النماذج بعد التدريب لتحديد المخاطر، مثل القدرات الخطيرة، واستخدام التفسير الآلي لتتبع مصدر السلوكيات الإشكالية.

على الرغم من أن معظم أبحاث التوافق تُجرى بواسطة شركات الذكاء الاصطناعي، فإن إنشاء معاهد بحث وتطوير متخصصة في سلامة الذكاء الاصطناعي في دول مثل المملكة المتحدة والولايات المتحدة واليابان وسنغافورة يُعد خطوة إيجابية. إضافةً إلى ذلك، يُعد التعاون العالمي بين منظمات أبحاث سلامة الذكاء الاصطناعي أمرًا بالغ الأهمية لتعظيم الاستفادة من الموارد ومواكبة التطور السريع في قدرات النماذج المدفوعة بالمصالح التجارية.

9. الذكاء الاصطناعي من أجل الصالح العام

لا يقتصر مفهوم الذكاء الاصطناعي المسؤول على مجرد تخفيف المخاطر، بل يتعداه إلى تمكين الأفراد والمؤسسات من الازدهار في مستقبل يعتمد على الذكاء الاصطناعي. ويشمل ذلك أربعة مجالات رئيسية للتأثير:

  1. إتاحة الوصول إلى التكنولوجيا للجميع: ضمان حصول جميع الأفراد على وصول موثوق إلى الذكاء الاصطناعي التوليدي، بدعم من مبادرات محو الأمية الرقمية.
  2. تقديم الخدمات العامة : تعزيز الخدمات العامة من خلال التكامل الفعال للذكاء الاصطناعي، مع تنسيق الموارد وتبادل البيانات بشكل مسؤول.
  3. تطوير القوى العاملة : رفع مستوى مهارات القوى العاملة للتكيف مع تقنيات الذكاء الاصطناعي، مع التركيز على كل من الكفاءات التقنية والأساسية.
  4. الاستدامة : معالجة التأثير البيئي للذكاء الاصطناعي من خلال تطوير تقنيات موفرة للطاقة وتتبع البصمة الكربونية.

علاوة على ذلك، فإن التعاون بين الحكومات والصناعة والمؤسسات التعليمية أمر ضروري لتحقيق أقصى قدر من الآثار الإيجابية للذكاء الاصطناعي.

كيف Securiti يمكن المساعدة

Securiti هو رائد في Data Command Center منصة مركزية تُمكّن من الاستخدام الآمن للبيانات والذكاء الاصطناعي العام. توفر هذه المنصة ذكاءً موحدًا للبيانات، وضوابط، وتنسيقًا عبر بيئات سحابية هجينة متعددة. وتعتمد عليها كبرى الشركات العالمية. Securiti 's Data Command Center لأغراض أمن البيانات والخصوصية والحوكمة والامتثال.

Securiti تُزيل مجموعة Genstack AI Suite من GenStack التعقيدات والمخاطر الكامنة في دورة حياة الذكاء الاصطناعي العام، مما يُمكّن المؤسسات من استخدام بياناتها المنظمة وغير المنظمة بسرعة وأمان في أي مكان مع أي نظام ذكاء اصطناعي وأنظمة إدارة التعلم. توفر المجموعة ميزات مثل استيعاب البيانات واستخراجها بشكل آمن، وإخفاء البيانات، وإخفاء الهوية، والتنقيح، وفهرسة البيانات واسترجاعها. بالإضافة إلى ذلك، تُسهّل المجموعة إعداد أنظمة إدارة التعلم للأسئلة والأجوبة، وضوابط البيانات المدمجة للحوكمة والخصوصية والأمان، وجدران الحماية لأنظمة إدارة التعلم لتمكين التبني الآمن للذكاء الاصطناعي العام.

اطلب عرضًا توضيحيًا لمعرفة المزيد.

قم بتحليل هذه المقالة باستخدام الذكاء الاصطناعي

تظهر المطالبات في أدوات الذكاء الاصطناعي التابعة لجهات خارجية.
انضم إلى قائمتنا البريدية

احصل على أحدث المعلومات والتحديثات القانونية والمزيد مباشرةً في بريدك الإلكتروني



قصص أخرى قد تهمك
مقاطع فيديو
عرض المزيد
ريحان جليل، من شركة Veeam، يتحدث عن Agent Commander: theCUBE + NYSE Wired: قادة الأمن السيبراني
بعد استحواذ شركة Veeam على Securiti يمثل إطلاق برنامج Agent Commander خطوة هامة نحو مساعدة المؤسسات على تبني وكلاء الذكاء الاصطناعي بثقة أكبر. في...
عرض المزيد
تخفيف مخاطر قائمة OWASP لأهم 10 مخاطر لتطبيقات ماجستير القانون 2025
أحدث الذكاء الاصطناعي التوليدي (GenAI) تحولاً جذرياً في طريقة عمل الشركات وتوسعها ونموها. يوجد تطبيق للذكاء الاصطناعي لكل غرض، بدءاً من زيادة إنتاجية الموظفين وصولاً إلى تبسيط العمليات...
عرض المزيد
أفضل 6 DSPM حالات الاستخدام
مع ظهور الذكاء الاصطناعي التوليدي (GenAI)، أصبحت البيانات أكثر ديناميكية. يتم توليد بيانات جديدة بوتيرة أسرع من أي وقت مضى، ونقلها إلى أنظمة وتطبيقات متنوعة...
عرض المزيد
قانون الخصوصية في كولورادو (CPA)
ما هو قانون خصوصية كولورادو؟ قانون خصوصية كولورادو هو قانون شامل لحماية الخصوصية، تم توقيعه في 7 يوليو 2021. وقد وضع معايير جديدة لحماية البيانات الشخصية...
عرض المزيد
Securiti لمساعد الطيار في البرمجيات كخدمة (SaaS)
تسريع اعتماد Copilot بأمان وثقة: تتطلع المؤسسات إلى اعتماد Microsoft 365 Copilot لزيادة الإنتاجية والكفاءة. ومع ذلك، تظل المخاوف الأمنية، مثل حماية البيانات...
عرض المزيد
أهم عشرة اعتبارات لاستخدام البيانات غير المهيكلة بأمان مع الذكاء الاصطناعي العام
نسبة مذهلة تصل إلى 90% من بيانات المؤسسات غير منظمة. وتُستخدم هذه البيانات بسرعة لتغذية تطبيقات الذكاء الاصطناعي من الجيل الجديد، مثل روبوتات الدردشة والبحث المدعوم بالذكاء الاصطناعي.
عرض المزيد
جينكور للذكاء الاصطناعي: بناء أنظمة ذكاء اصطناعي آمنة وعالية الجودة للمؤسسات في دقائق
مع تبني المؤسسات للذكاء الاصطناعي التوليدي، تواجه فرق البيانات والذكاء الاصطناعي العديد من العقبات: ربط مصادر البيانات غير المهيكلة والمهيكلة بشكل آمن، والحفاظ على الضوابط والحوكمة المناسبة،...
عرض المزيد
كيفية التعامل مع قانون حماية خصوصية المستهلك في كاليفورنيا: رؤى أساسية للشركات
ما هو قانون حقوق الخصوصية في كاليفورنيا (CPRA)؟ هو تشريع ولاية كاليفورنيا الذي يهدف إلى حماية خصوصية سكانها الرقمية. وقد دخل حيز التنفيذ في يناير...
عرض المزيد
التكيف مع التحول: الانتقال إلى معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS) الإصدار 4.0
ما هو معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS)؟ هو مجموعة من معايير الأمان لضمان المعالجة والتخزين الآمنين للبيانات، و...
عرض المزيد
تأمين البيانات والذكاء الاصطناعي: دليل إدارة الثقة والمخاطر والأمن (TRiSM)
أثارت المخاطر الأمنية المتزايدة للذكاء الاصطناعي قلق 48% من مسؤولي أمن المعلومات حول العالم. انضموا إلى هذه الجلسة الرئيسية للتعرف على دليل عملي لتمكين الثقة في الذكاء الاصطناعي، وإدارة المخاطر،...

جلسات حوارية مميزة

تسليط الضوء 50:52
من البيانات إلى النشر: حماية الذكاء الاصطناعي المؤسسي من خلال الأمن والحوكمة
شاهد الآن منظر
تسليط الضوء 11:29
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
شاهد الآن منظر
تسليط الضوء 11:18
إعادة هيكلة تمويل العقارات - كيف تُجري شركة ووكر آند دنلوب تحديثًا لمحفظتها الاستثمارية البالغة 135 مليار دولار أمريكي بالاعتماد على البيانات أولاً
شاهد الآن منظر
تسليط الضوء 13:38
تسريع المعجزات - كيف تُدمج شركة سانوفي الذكاء الاصطناعي لتقليص مدة تطوير الأدوية بشكل كبير
صورة مصغرة لشركة سانوفي
شاهد الآن منظر
تسليط الضوء 10:35
حدث تحول جوهري في مركز ثقل البيانات
شاهد الآن منظر
تسليط الضوء 14:21
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
شاهد الآن منظر
تسليط الضوء 12:!3
لا يمكنك بناء خطوط الأنابيب أو المستودعات أو منصات الذكاء الاصطناعي بدون معرفة تجارية
شاهد الآن منظر
تسليط الضوء 47:42
الأمن السيبراني – حيث يقوم القادة بالشراء والبناء والشراكة
ريحان جليل
شاهد الآن منظر
تسليط الضوء 27:29
بناء ذكاء اصطناعي آمن باستخدام Databricks و Gencore
ريحان جليل
شاهد الآن منظر
تسليط الضوء 46:02
بناء ذكاء اصطناعي آمن للمؤسسات: خارطة طريق عملية
شاهد الآن منظر
أحدث
عرض المزيد
نقدم لكم قائد العملاء
إن وعود وكلاء الذكاء الاصطناعي مذهلة - فالأنظمة الذكية التي تتخذ القرارات، وتستخدم الأدوات، وتؤتمت سير العمل المعقد، تعمل كمضاعفات قوة لكل معرفة...
عزل المخاطر: أكبر مشكلة في الذكاء الاصطناعي لا تتحدث عنها مجالس الإدارة عرض المزيد
عزل المخاطر: أكبر مشكلة في الذكاء الاصطناعي لا تتحدث عنها مجالس الإدارة
تتابع مجالس الإدارة نقاش الذكاء الاصطناعي، لكن هناك نقطة عمياء لم تُشر إليها العديد من المؤسسات بعد: وهي عزلة أقسام إدارة المخاطر. الجميع متفقون على ذلك. AI governance ...
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ قانون حماية خصوصية المستهلك في كاليفورنيا؟ عرض المزيد
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ القانون؟
يمكن للشركات أن تستفيد من بعض الدروس الحيوية من أكبر إجراء إنفاذي تم اتخاذه مؤخراً في تاريخ قانون خصوصية المستهلك في كاليفورنيا (CCPA). Securiti مدونة 's تغطي جميع التفاصيل المهمة التي يجب معرفتها.
عرض المزيد
الذكاء الاصطناعي وقانون HIPAA: ما يعنيه وكيفية أتمتة الامتثال
تعرّف على كيفية تطبيق قانون قابلية نقل التأمين الصحي والمساءلة (HIPAA) على الذكاء الاصطناعي في تأمين المعلومات الصحية المحمية. تعلّم كيف...
عرض المزيد
من وضوح البيانات إلى سرعة الذكاء الاصطناعي
اطلع على الورقة البيضاء واكتشف كيف يتم توحيد DataAI security يحوّل إدارة البيانات إلى عامل تمكين للأعمال، ويعزز ابتكار الذكاء الاصطناعي من خلال الشفافية والامتثال وإدارة المخاطر...
عرض المزيد
دليل تنفيذ قانون بيانات الاتحاد الأوروبي: التعامل مع طلبات الوصول إلى البيانات، ومشاركة البيانات، والتحويل السحابي
Securiti توفر الورقة البيضاء الخاصة بـ دليل تنفيذ مفصل لتحقيق الامتثال لقانون البيانات، مما يجعلها قراءة أساسية للشركات التي تعمل بالبيانات في الاتحاد الأوروبي.
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti عرض المزيد
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti
التزم بتعديلات قانون خصوصية المستهلك في كاليفورنيا لعام 2026 باستخدام Securiti وتشمل هذه المتطلبات تحديث متطلبات الموافقة، وتوسيع تعريفات البيانات الحساسة، وتعزيز حقوق المستهلك، وتقييمات الجاهزية.
عرض المزيد
أين تنتهك الخصوصية: الذكاء الاصطناعي الوكيل في المؤسسات
يُحدث الذكاء الاصطناعي الآلي تحولاً جذرياً في المؤسسات، ولكن ما هو ثمن ذلك على الخصوصية؟ اكتشف أهم 10 مخاطر، والضوابط الرئيسية، وكيفية التعامل معها. Securiti يُمكّن من تحقيق الأمان والتوسع...
عرض المزيد
تخلص من مخاطر البيانات في الذكاء الاصطناعي
تعرف على كيفية إعداد بيانات المؤسسة لاعتماد Gemini Enterprise بشكل آمن من خلال الحوكمة الأولية، واكتشاف البيانات الحساسة، وضوابط سياسة ما قبل الفهرسة.
عرض المزيد
دليل الحصول على شهادة HITRUST
Securiti يُعد الكتاب الإلكتروني دليلاً عملياً للحصول على شهادة HITRUST، ويغطي كل شيء بدءاً من اختيار i1 مقابل r2 ونطاق الأنظمة وصولاً إلى إدارة خطط العمل والتخطيط...
ما هو
جديد