الإعلان عن Agent Commander - أول حل متكامل من Veeam + Securiti .ai تمكين توسيع نطاق وكلاء الذكاء الاصطناعي الآمنين

منظر

ما هي سلامة الذكاء الاصطناعي؟

المساهمون

أنس بيج

مدير تسويق المنتجات في Securiti

ماريا خان

Data Privacy مدير الشؤون القانونية في Securiti

FIP، CIPT، CIPM، CIPP/E

نُشر في 11 مارس 2024

أصبحت سلامة الذكاء الاصطناعي مصدر قلق بالغ الأهمية للعاملين في مجال تطوير وتصميم ونشر الذكاء الاصطناعي. وتهدف سلامة الذكاء الاصطناعي، التي تشمل مجموعة من الممارسات التشغيلية والفلسفات والآليات، إلى ضمان عمل أي أنظمة ونماذج ذكاء اصطناعي مطورة بالطريقة التي تصورها المطورون في الأصل، دون التسبب في أي عواقب أو أضرار غير مقصودة.

وللقيام بذلك، يجب على المطورين المشاركين في تطوير هذه النماذج والأنظمة اتخاذ التدابير ذات الصلة لضمان سلامة الخوارزميات، وأمن البيانات المناسب، والامتثال التنظيمي.

في السياق الأوسع للذكاء الاصطناعي التوليدي (GenAI)، يكتسب نطاق وأهمية سلامة الذكاء الاصطناعي درجة أعلى من الأهمية نظرًا للتصميم المستقل جذريًا لنماذج وأنظمة الذكاء الاصطناعي التوليدي.

لطالما شكّلت القفزات التكنولوجية السريعة والتعقيد المتزايد عنصرين أساسيين في تطوير الذكاء الاصطناعي من الجيل الأول. وليست المخاوف بشأن سلامة الذكاء الاصطناعي بجديدة، فقد كانت في البداية نظرية إلى حد كبير، حيث تركزت معظم المخاوف حول احتمالية إساءة استخدام أي من تطورات الذكاء الاصطناعي. إلا أنه مع تزايد اندماج وظائف الذكاء الاصطناعي من الجيل الأول في الاستخدامات التجارية والمنزلية، باتت التحديات الأخلاقية والاجتماعية والتقنية الواسعة التي يطرحها الذكاء الاصطناعي تمثل تحديًا وجوديًا.

علاوة على ذلك، يُبرز هذا الإمكانات الهائلة للذكاء الاصطناعي في التأثير المباشر على جميع جوانب الحياة البشرية تقريبًا. وهذا وحده يؤكد على ضرورة التفكير واتخاذ الإجراءات اللازمة لضمان سلامة الذكاء الاصطناعي.

تُعدّ سلامة الخوارزميات وأمن البيانات والامتثال التنظيمي من الاعتبارات الحيوية التي يجب على المؤسسات مراعاتها عند وضع استراتيجيات وأساليب لتطوير خوارزميات الذكاء الاصطناعي العام الخالية من التحيز والقادرة على إنتاج نتائج موثوقة. والأهم من ذلك، ضرورة الموازنة الدقيقة بين كل هذه الاعتبارات نظرًا للالتزامات المتعددة المتعلقة AI governance .

في ضوء كل هذا، يتضح أن سلامة الذكاء الاصطناعي عملية شاملة، ديناميكية وتعاونية بطبيعتها. يجب إشراك جهات معنية متعددة، بما في ذلك واضعي السياسات، ومطوري الذكاء الاصطناعي، والمستخدمين، وخبراء الامتثال، بشكل مناسب في هذه العملية لضمان اليقظة المستمرة، والابتكار، والالتزام بالمبادئ الأخلاقية التي ستكون أساسية لضمان أن يؤدي تطوير الذكاء الاصطناعي إلى إسهام إيجابي في المجتمع.

لماذا تُعدّ سلامة الذكاء الاصطناعي مهمة؟

تتجلى أهمية سلامة الذكاء الاصطناعي المناسبة من خلال المخاطر والعواقب التي قد تنجم بسهولة عن تطوير الذكاء الاصطناعي غير المنظم. وقد كرست المنظمات العاملة في تطوير وتصميم وتنفيذ نماذج وأنظمة الذكاء الاصطناعي موارد مادية وبشرية كبيرة لتعزيز القدرات الوظيفية لهذه الأنظمة.

مع ازدياد هذه القدرات، يزداد احتمال تسببها في نتائج غير متوقعة وضارة بشكل متناسب. وإذا تُركت دون رادع، فقد تؤدي هذه النتائج إلى تفاقم أوجه عدم المساواة الاجتماعية القائمة، ومخاطر الخصوصية والأمن ، فضلاً عن استخدامها لتقويض العمليات الديمقراطية.

لذا، يتحمل مطورو الذكاء الاصطناعي مسؤولية أخلاقية وعملية تتمثل في وضع اعتبارات سلامة الذكاء الاصطناعي في صميم عملية تطويرهم. ولتحقيق ذلك، يجب عليهم إجراء تقييم شامل للآثار الأوسع نطاقًا لعملهم، فضلًا عن احتمالية إساءة استخدامه. وتهدف هذه العملية إلى تعزيز الشعور بالمسؤولية تجاه تطوير الذكاء الاصطناعي، لا سيما في الحالات التي يرتفع فيها احتمال أن تؤدي قرارات الذكاء الاصطناعي إلى نتائج سلبية.

علاوة على ذلك، ونظرًا للتأثير الاقتصادي والثقافي والتكنولوجي الواسع النطاق للذكاء الاصطناعي، فإنه يمتلك القدرة على إحداث تحول جذري في طبيعة العمل، والتفاعلات بين الإنسان والآلة، والتفاوتات الاقتصادية العالمية، والأخلاقيات الرقمية. ومع كل قفزة تكنولوجية في وظائف الذكاء الاصطناعي، تتحول هذه الإمكانية إلى حقيقة شبه مؤكدة.

وبالتالي، سيكون للذكاء الاصطناعي تأثير عميق على المجتمع والحوكمة على المدى البعيد، حيث ستشهد ديناميكيات القوة والمعايير الثقافية والأطر الأخلاقية تحولاً جذرياً. لذا، فإن ضمان سلامة الذكاء الاصطناعي لن يكون أمراً بالغ الأهمية لمنع الضرر التشغيلي المباشر فحسب، بل سيساهم أيضاً في رسم مستقبل المجتمع كما نعرفه.

مناقشة مخاطر الذكاء الاصطناعي

يمكن تصنيف مخاطر الذكاء الاصطناعي على نطاق واسع. ويشكل كل منها تحدياً فريداً للمؤسسات، نظراً لاختلاف درجات سرعة حدوثها وحجم الضرر المحتمل الذي يمكن أن تسببه.

مخاطر نماذج الذكاء الاصطناعي

تكمن المخاطر الأكثر إلحاحاً المتعلقة بالذكاء الاصطناعي في نموذج الذكاء الاصطناعي نفسه. وتشمل هذه المخاطر ما يلي:

تسميم النماذج

تُعدّ عملية تعلّم نموذج الذكاء الاصطناعي عمليةً بالغة الأهمية، إذ تُحدّد قدرة أي نموذج على تقديم نتائج دقيقة وموثوقة. وقد يُعرّض مُهاجمون هذه العملية للخطر عن طريق إدخال بيانات خاطئة ومُضلّلة في مجموعة بيانات التدريب. ونتيجةً لذلك، سيتعلّم النموذج هذه الأنماط الخاطئة ويتكيّف معها، ممّا سيؤثّر على النتائج المُولّدة.

تحيز

نتيجةً لتسميم النموذج، قد يُنتج نموذج الذكاء الاصطناعي مخرجاتٍ مبنيةً على بياناتٍ وافتراضاتٍ تمييزيةٍ كانت جزءًا من مجموعة البيانات المُخترقة التي دُرِّب عليها. قد تكون هذه الافتراضات عنصريةً أو اجتماعيةً اقتصاديةً أو سياسيةً أو جنسانيةً. يمكن أن تؤدي هذه المخرجات المتحيزة إلى عواقب وخيمة، لا سيما في الحالات التي يُستخدم فيها نموذج الذكاء الاصطناعي المُخترق لأغراض اتخاذ قراراتٍ حاسمةٍ مثل التوظيف، وتقييم الجدارة الائتمانية، والعدالة الجنائية.

هلوسة

يشير مصطلح الهلوسة إلى مخرجات ينتجها نموذج الذكاء الاصطناعي، وتكون إما خاطئة تمامًا أو مشوهة. ومع ذلك، نظرًا لأن هذه المخرجات متماسكة وقد تتبع سلسلة من المخرجات غير الخاطئة، فقد يصعب رصدها وتحديدها.

الاستخدام السريع

قد تشكل المطالبات الخاصة بنماذج وأنظمة الذكاء الاصطناعي مخاطر متنوعة لكل من المؤسسات ومستخدميها، بما في ذلك ما يلي:

الحقن الفوري

يتم التلاعب بمدخلات النموذج بهدف التأثير على مخرجاته. وفي حال نجاح هذه العملية، سيؤدي إدخال هذه المدخلات إلى استجابات خاطئة ومتحيزة ومضللة من النموذج، وذلك لأن مجموعة بيانات التدريب التي تم تدريبه عليها ستكون قد تم التلاعب بها لتحقيق هذه النتيجة.

هجوم حجب الخدمة الفوري

يمكن شنّ هجوم حجب الخدمة (DoS) على نموذج ذكاء اصطناعي لتعطيله. ويتم ذلك عن طريق إطلاق استجابة آلية داخل النموذج الذي تم تدريبه على مجموعة بيانات مُعدّلة. ويمكن إطلاق هذه الاستجابة باستخدام موجه أوامر مُخترق يهدف إلى بدء سلسلة من الأحداث تؤدي في النهاية إلى تحميل زائد وتعطيل النموذج.

مخاطر التسرب

تشير مخاطر تسريب البيانات إلى قدرة الجهات الخبيثة على استغلال كلمات وعبارات ومصطلحات معينة لإجراء هندسة عكسية وتسريب بيانات التدريب. ويمكن استخدام المعلومات المستخرجة من هذه الهندسة العكسية لاستغلال بيانات حساسة محتملة. ويمكن لهذه الجهات استخدام مزيج من عمليات الحقن الفوري وهجمات حجب الخدمة لتحقيق هذا الهدف.

مخاطر أخرى

تتضمن بعض المخاطر الهامة الأخرى التي يجب أخذها في الاعتبار ما يلي:

تسريب البيانات

يشير تسريب البيانات إلى حالةٍ تجد فيها بيانات اختبارية، لم يكن من المفترض أن تكون جزءًا من مجموعة بيانات تدريب نموذج الذكاء الاصطناعي، نفسها جزءًا من هذه المجموعة، مما يؤثر بالتالي على مخرجات النموذج. ومن بين التحديات التشغيلية المتعددة التي قد يطرحها هذا التسريب، يمكن أن يؤدي أيضًا إلى data privacy - القضايا المتعلقة بالمعلومات السرية التي قد تتعرض للخطر.

الامتثال غير التنظيمي

بدأت الحكومات في جميع أنحاء العالم تدرك أهمية التنظيم لترسيخ فكرة التطوير المسؤول للذكاء الاصطناعي، بالإضافة إلى إنشاء هيئات متخصصة تُعنى بتقديم أفضل الممارسات لضمان استخدام أكثر أمانًا ومسؤولية للذكاء الاصطناعي. ويُعدّ معهد سلامة الذكاء الاصطناعي الأمريكي ( USAISI )، الذي أنشأه مؤخرًا المعهد الوطني للمعايير والتكنولوجيا ( NIST )، مثالًا حديثًا على ذلك.

بالطبع، فإن عدم وجود إطار عمل موحد يمكن أن يكون بمثابة مخطط فعلي يعني أن معظم الحكومات لا تزال في مرحلة التجربة والخطأ لتحديد أفضل نهج.

بالنسبة للمؤسسات، يعني هذا ضرورة تعديل عملياتها ووظائف تطوير الذكاء الاصطناعي لضمان الامتثال للوائح المختلفة التي قد تدخل حيز التنفيذ عالميًا. ورغم تشابه معظم هذه اللوائح في مبادئها، إلا أنها قد تختلف في جوانب جوهرية، مما يستلزم من المؤسسات التعامل مع كل لائحة على حدة. وقد يؤدي عدم الالتزام بذلك إلى تعريض المؤسسة لعقوبات قانونية وتنظيمية، ما قد يُلحق بها مزيدًا من الضرر بسمعتها على المدى البعيد.

إطار عمل لسلامة الذكاء الاصطناعي وحوكمته

يُعدّ تحديد المخاطر بدقة جزءًا أساسيًا من وضع سلامة الذكاء الاصطناعي في صميم عملية تطويره الشاملة. ومع ذلك، يجب أن يتبع ذلك خطوات عملية تهدف إلى الحدّ من المخاطر التي تُشكّلها قدرات الذكاء الاصطناعي المطوّرة بشكل فعّال.

ولتحقيق هذه الغاية، يجب على المؤسسات أن تتبنى إطار AI governance يمكنه إدارة عمليات الذكاء الاصطناعي بفعالية مع توفير الكفاءة التشغيلية والامتثال للمعايير التنظيمية.

يمكن أن يتضمن إطار الحوكمة هذا القدرات التالية:

اكتشاف نماذج الذكاء الاصطناعي

للتعامل الأمثل مع المخاطر التي تشكلها نماذج وأنظمة الذكاء الاصطناعي، ينبغي أن تمتلك المؤسسة فهمًا شفافًا وشاملاً لبنيتها التحتية للذكاء الاصطناعي. ويتحقق ذلك تحديدًا من خلال فهرسة جميع النماذج المستخدمة عبر سحاباتها العامة وتطبيقاتها السحابية وبيئاتها الخاصة.

بمجرد تحديد جميع نماذج الذكاء الاصطناعي المعتمدة وغير المعتمدة وتصنيفها، يمكن تصنيفها بدقة وفقًا للاحتياجات والالتزامات الفريدة للمنظمة، بالإضافة إلى خطط تخفيف المخاطر الشاملة.

تقييم مخاطر نموذج الذكاء الاصطناعي

بفضل نظرة عامة محدّثة على جميع نماذج وأنظمة الذكاء الاصطناعي المستخدمة، تستطيع المؤسسات تقييم كل منها بشكل مناسب لتحديد المخاطر الفريدة التي قد تُعرّض المؤسسة لها. وبالتالي، يمكن تحديد المخاطر الأكثر إلحاحاً التي تواجه المؤسسة، بما في ذلك التحيز، والبيانات المحمية بحقوق الطبع والنشر، والمعلومات المضللة، وأوجه القصور مثل الاستهلاك المفرط للطاقة.

البيانات + الذكاء الاصطناعي: رسم الخرائط والمراقبة

بمجرد أن تكتشف المنظمة وتقيّم جميع نماذج وأنظمة الذكاء الاصطناعي المستخدمة، يمكنها المضي قدماً في ربطها بمصادر البيانات والعمليات والبائعين والمخاطر المحتملة والتزامات الامتثال ذات الصلة لتوفير سياق غني حول نماذج الذكاء الاصطناعي.

البيانات + ضوابط الذكاء الاصطناعي

يمكن للمؤسسات استخدام ضوابط قوية للبيانات المضمنة والذكاء الاصطناعي، مثل إخفاء هوية البيانات قبل تقديمها إلى نماذج الذكاء الاصطناعي، وضوابط الاستحقاق، وجدران الحماية الخاصة بإدارة دورة حياة البيانات، لفرض الامتثال لسياسات الأمن والخصوصية والحوكمة، وتأمين البيانات الحساسة طوال دورة حياتها.

كيف Securiti يمكن المساعدة

مع استمرار توسع الذكاء الاصطناعي من حيث القدرات والتعقيدات، تصبح سلامة الذكاء الاصطناعي أكثر أهمية بشكل كبير.

Securiti ، شركة رائدة عالمياً في سوق المؤسسات data privacy يمكن لحلول الأمن والامتثال والحوكمة أن تساعد بشكل كبير في تمكين المؤسسات من تبني قدرات الذكاء الاصطناعي في عملياتها مع ضمان الامتثال التنظيمي المناسب. وذلك بفضل Data Command Center ، وهو حل مؤسسي قائم على إطار عمل موحد للتحكم في البيانات، يمكنه تمكين المؤسسات من تحسين إشرافها والتزامها بالالتزامات التنظيمية المختلفة المتعلقة بالبيانات والذكاء الاصطناعي.

بالإضافة إلى، Securiti يقدم دورة AI Governance مصممة لتزويد الملتحقين بها بفهم شامل للمفاهيم الأساسية في الذكاء الاصطناعي العام، واللوائح العالمية المتعلقة بالذكاء الاصطناعي، والتزامات الامتثال، وإدارة مخاطر الذكاء الاصطناعي، و AI governance أطر الابتكار المسؤول.

اطلب عرضًا تجريبيًا اليوم وتعرف على المزيد حول كيفية Securiti يمكننا مساعدة مؤسستك في تنفيذ التدابير اللازمة لضمان سلامة الذكاء الاصطناعي ضمن عملياتك الداخلية.

الأسئلة الشائعة (FAQs)

فيما يلي بعض الأسئلة الشائعة التي قد تتبادر إلى ذهنك فيما يتعلق بأمان الذكاء الاصطناعي:

يشير مفهوم سلامة الذكاء الاصطناعي إلى مختلف الأساليب والآليات التي تتبناها المؤسسات لضمان تشغيل أنظمة الذكاء الاصطناعي بأمان ووفقًا للغرض المنشود، مما يقلل من احتمالية حدوث ضرر أو عواقب غير مقصودة. من جهة أخرى، تشير أخلاقيات الذكاء الاصطناعي إلى المبادئ والفلسفات الأخلاقية الأوسع التي تحكم تطوير واستخدام الذكاء الاصطناعي داخل المؤسسة، بما في ذلك جوانب الإنصاف والخصوصية والعدالة، فضلًا عن الأثر المجتمعي لتقنيات الذكاء الاصطناعي. 

 

من خلال دمج مبادئ الذكاء الاصطناعي الأخلاقية مباشرةً في دورة تطوير الذكاء الاصطناعي، بدءًا من التصميم وحتى النشر، يستطيع المطورون ضمان الالتزام بهذه المبادئ في جميع نماذج وأنظمة الذكاء الاصطناعي التي يطورونها. تشمل العمليات الدقيقة في هذه الدورة إجراء تقييمات الأثر الأخلاقي، وضمان شفافية أنظمة الذكاء الاصطناعي وقابليتها للتفسير، واحترام خصوصية المستخدمين، بالإضافة إلى المراقبة المستمرة التي تضمن مراعاة وجهات نظر جميع أصحاب المصلحة وآرائهم بشكل فعال عند تطوير تطبيقات وقدرات الذكاء الاصطناعي. 

تشمل بعض المخاطر الأكثر شيوعًا المتعلقة بالامتثال والمرتبطة بالذكاء الاصطناعي انتهاكات data privacy تشمل المخاطر التي تواجه الذكاء الاصطناعي: القوانين، والتمييز والتحيز في عمليات صنع القرار، وانعدام الشفافية والمساءلة، وانتهاكات حقوق الملكية الفكرية. يقوم مطورو الذكاء الاصطناعي وغيرهم من الجهات المعنية بتخفيف هذه المخاطر بإجراء اختبارات وتقييمات دقيقة لضمان المساءلة العادلة ومعالجة أي مخاطر يتم تحديدها بشكل مناسب.

الذكاء الاصطناعي القابل للتفسير (XAI) مفهوم ناشئ في مجال الذكاء الاصطناعي، يركز على الشفافية وسهولة الفهم في عملية اتخاذ القرار. ولا يقتصر دوره على حماية أنظمة الذكاء الاصطناعي من الهجمات فحسب، بل يسهل أيضاً دمج الاعتبارات الأخلاقية بشكل مباشر في خوارزميات الذكاء الاصطناعي.

بالإضافة إلى ذلك، تلعب تقنيات التعلم الآلي المتطورة، مثل التعلم المعزز والتعلم الموحد، دورًا هامًا في تطوير نماذج وأنظمة ذكاء اصطناعي أكثر أمانًا. يكمن التركيز على التعلم المعزز في مجال أمان الذكاء الاصطناعي في قدرته على تدريب نماذج قادرة على تعلم السلوكيات الآمنة من خلال التجربة والخطأ في بيئات محاكاة أو خاضعة للتحكم. يسمح التعلم الموحد بتدريب نماذج الذكاء الاصطناعي عبر أجهزة أو خوادم متعددة تحتوي على عينات بيانات محلية، دون الحاجة إلى تبادلها. تعزز هذه الطريقة الخصوصية والأمان، وتقلل من مخاطر اختراق البيانات الحساسة.

قم بتحليل هذه المقالة باستخدام الذكاء الاصطناعي

تظهر المطالبات في أدوات الذكاء الاصطناعي التابعة لجهات خارجية.
انضم إلى قائمتنا البريدية

احصل على أحدث المعلومات والتحديثات القانونية والمزيد مباشرةً في بريدك الإلكتروني



قصص أخرى قد تهمك
مقاطع فيديو
عرض المزيد
ريحان جليل، من شركة Veeam، يتحدث عن Agent Commander: theCUBE + NYSE Wired: قادة الأمن السيبراني
بعد استحواذ شركة Veeam على Securiti يمثل إطلاق برنامج Agent Commander خطوة هامة نحو مساعدة المؤسسات على تبني وكلاء الذكاء الاصطناعي بثقة أكبر. في...
عرض المزيد
تخفيف مخاطر قائمة OWASP لأهم 10 مخاطر لتطبيقات ماجستير القانون 2025
أحدث الذكاء الاصطناعي التوليدي (GenAI) تحولاً جذرياً في طريقة عمل الشركات وتوسعها ونموها. يوجد تطبيق للذكاء الاصطناعي لكل غرض، بدءاً من زيادة إنتاجية الموظفين وصولاً إلى تبسيط العمليات...
عرض المزيد
أفضل 6 DSPM حالات الاستخدام
مع ظهور الذكاء الاصطناعي التوليدي (GenAI)، أصبحت البيانات أكثر ديناميكية. يتم توليد بيانات جديدة بوتيرة أسرع من أي وقت مضى، ونقلها إلى أنظمة وتطبيقات متنوعة...
عرض المزيد
قانون الخصوصية في كولورادو (CPA)
ما هو قانون خصوصية كولورادو؟ قانون خصوصية كولورادو هو قانون شامل لحماية الخصوصية، تم توقيعه في 7 يوليو 2021. وقد وضع معايير جديدة لحماية البيانات الشخصية...
عرض المزيد
Securiti لمساعد الطيار في البرمجيات كخدمة (SaaS)
تسريع اعتماد Copilot بأمان وثقة: تتطلع المؤسسات إلى اعتماد Microsoft 365 Copilot لزيادة الإنتاجية والكفاءة. ومع ذلك، تظل المخاوف الأمنية، مثل حماية البيانات...
عرض المزيد
أهم عشرة اعتبارات لاستخدام البيانات غير المهيكلة بأمان مع الذكاء الاصطناعي العام
نسبة مذهلة تصل إلى 90% من بيانات المؤسسات غير منظمة. وتُستخدم هذه البيانات بسرعة لتغذية تطبيقات الذكاء الاصطناعي من الجيل الجديد، مثل روبوتات الدردشة والبحث المدعوم بالذكاء الاصطناعي.
عرض المزيد
جينكور للذكاء الاصطناعي: بناء أنظمة ذكاء اصطناعي آمنة وعالية الجودة للمؤسسات في دقائق
مع تبني المؤسسات للذكاء الاصطناعي التوليدي، تواجه فرق البيانات والذكاء الاصطناعي العديد من العقبات: ربط مصادر البيانات غير المهيكلة والمهيكلة بشكل آمن، والحفاظ على الضوابط والحوكمة المناسبة،...
عرض المزيد
كيفية التعامل مع قانون حماية خصوصية المستهلك في كاليفورنيا: رؤى أساسية للشركات
ما هو قانون حقوق الخصوصية في كاليفورنيا (CPRA)؟ هو تشريع ولاية كاليفورنيا الذي يهدف إلى حماية خصوصية سكانها الرقمية. وقد دخل حيز التنفيذ في يناير...
عرض المزيد
التكيف مع التحول: الانتقال إلى معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS) الإصدار 4.0
ما هو معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS)؟ هو مجموعة من معايير الأمان لضمان المعالجة والتخزين الآمنين للبيانات، و...
عرض المزيد
تأمين البيانات والذكاء الاصطناعي: دليل إدارة الثقة والمخاطر والأمن (TRiSM)
أثارت المخاطر الأمنية المتزايدة للذكاء الاصطناعي قلق 48% من مسؤولي أمن المعلومات حول العالم. انضموا إلى هذه الجلسة الرئيسية للتعرف على دليل عملي لتمكين الثقة في الذكاء الاصطناعي، وإدارة المخاطر،...

جلسات حوارية مميزة

تسليط الضوء
الاستعداد للمستقبل لمحترفي الخصوصية
شاهد الآن منظر
تسليط الضوء 50:52
من البيانات إلى النشر: حماية الذكاء الاصطناعي المؤسسي من خلال الأمن والحوكمة
شاهد الآن منظر
تسليط الضوء 11:29
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
شاهد الآن منظر
تسليط الضوء 11:18
إعادة هيكلة تمويل العقارات - كيف تُجري شركة ووكر آند دنلوب تحديثًا لمحفظتها الاستثمارية البالغة 135 مليار دولار أمريكي بالاعتماد على البيانات أولاً
شاهد الآن منظر
تسليط الضوء 13:38
تسريع المعجزات - كيف تُدمج شركة سانوفي الذكاء الاصطناعي لتقليص مدة تطوير الأدوية بشكل كبير
صورة مصغرة لشركة سانوفي
شاهد الآن منظر
تسليط الضوء 10:35
حدث تحول جوهري في مركز ثقل البيانات
شاهد الآن منظر
تسليط الضوء 14:21
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
شاهد الآن منظر
تسليط الضوء 12:!3
لا يمكنك بناء خطوط الأنابيب أو المستودعات أو منصات الذكاء الاصطناعي بدون معرفة تجارية
شاهد الآن منظر
تسليط الضوء 47:42
الأمن السيبراني – حيث يقوم القادة بالشراء والبناء والشراكة
ريحان جليل
شاهد الآن منظر
تسليط الضوء 27:29
بناء ذكاء اصطناعي آمن باستخدام Databricks و Gencore
ريحان جليل
شاهد الآن منظر
أحدث
عرض المزيد
بناء ذكاء اصطناعي سيادي باستخدام HPE Private Cloud AI و Veeam Securiti Gencore AI
كيف تُساهم تقنيات الذكاء الاصطناعي في السحابة الخاصة من HPE، وتسريع NVIDIA، وVeeam؟ Securiti يدعم نظام Gencore AI الذكاء الاصطناعي الآمن والمُدار للمؤسسات مع تطبيق السياسات عبر سير العمل RAG والمساعدين والوكلاء.
عرض المزيد
Securiti أعلنت شركة .ai عن اختيار شركة أكسنتشر كشريك العام لعام 2025
في إطار الاحتفال المستمر بالتعاون المؤثر في DataAI Security ، Securiti منحت شركة .ai، التابعة لشركة Veeam، شركة Accenture لقب شريك العام لعام 2025....
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ قانون حماية خصوصية المستهلك في كاليفورنيا؟ عرض المزيد
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ القانون؟
يمكن للشركات أن تستفيد من بعض الدروس الحيوية من أكبر إجراء إنفاذي تم اتخاذه مؤخراً في تاريخ قانون خصوصية المستهلك في كاليفورنيا (CCPA). Securiti مدونة 's تغطي جميع التفاصيل المهمة التي يجب معرفتها.
عرض المزيد
الذكاء الاصطناعي وقانون HIPAA: ما يعنيه وكيفية أتمتة الامتثال
تعرّف على كيفية تطبيق قانون قابلية نقل التأمين الصحي والمساءلة (HIPAA) على الذكاء الاصطناعي في تأمين المعلومات الصحية المحمية. تعلّم كيف...
عرض المزيد
قلل من المعلومات التي تكشفها: ضوابط الخصوصية للذكاء الاصطناعي Agents and Copilots
تقليل انكشاف البيانات في الذكاء الاصطناعي agents and copilots قم بتطبيق ضوابط حماية الخصوصية مثل تقليل البيانات، وضوابط الوصول، وإخفاء البيانات، وإنفاذ السياسات لمنع التسريب و...
عرض المزيد
من وضوح البيانات إلى سرعة الذكاء الاصطناعي
اطلع على الورقة البيضاء واكتشف كيف يتم توحيد DataAI security يحوّل إدارة البيانات إلى عامل تمكين للأعمال، ويعزز ابتكار الذكاء الاصطناعي من خلال الشفافية والامتثال وإدارة المخاطر...
عرض المزيد
قائد العملاء: ملخص الحل
تعرّف على كيفية قيام Agent Commander باكتشاف وكلاء الذكاء الاصطناعي، وحماية بيانات المؤسسة من خلال ضوابط التشغيل، وتصحيح أخطاء الذكاء الاصطناعي - مما يتيح اعتماد الذكاء الاصطناعي بشكل آمن ومتوافق مع المعايير في...
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti عرض المزيد
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti
التزم بتعديلات قانون خصوصية المستهلك في كاليفورنيا لعام 2026 باستخدام Securiti وتشمل هذه المتطلبات تحديث متطلبات الموافقة، وتوسيع تعريفات البيانات الحساسة، وتعزيز حقوق المستهلك، وتقييمات الجاهزية.
عرض المزيد
تخلص من مخاطر البيانات في الذكاء الاصطناعي
تعرف على كيفية إعداد بيانات المؤسسة لاعتماد Gemini Enterprise بشكل آمن من خلال الحوكمة الأولية، واكتشاف البيانات الحساسة، وضوابط سياسة ما قبل الفهرسة.
عرض المزيد
دليل الحصول على شهادة HITRUST
Securiti يُعد الكتاب الإلكتروني دليلاً عملياً للحصول على شهادة HITRUST، ويغطي كل شيء بدءاً من اختيار i1 مقابل r2 ونطاق الأنظمة وصولاً إلى إدارة خطط العمل والتخطيط...
ما هو
جديد