الإعلان عن Agent Commander - أول حل متكامل من Veeam + Securiti .ai تمكين توسيع نطاق وكلاء الذكاء الاصطناعي الآمنين

منظر

جولة فيمون 2026 - البيانات والذكاء الاصطناعي يتلاقيان من أجل عصر الوكلاء

منظر

لمحة عامة عن إطار عمل أستراليا لضمان استخدام الذكاء الاصطناعي في الحكومة

المساهمون

أنس بيج

مدير تسويق المنتجات في Securiti

سيدة إيمان غارديزي

شريك Data Privacy محلل في Securiti

سلمى خان

Data Privacy محلل في Securiti

CIPP/آسيا

نُشر في 17 نوفمبر 2024

تشهد أستراليا تطورات سريعة في جميع أنحاء data privacy في ظل التطورات المتسارعة للذكاء الاصطناعي وتأثيره الثوري على تقديم الخدمات العامة، وتعزيز الرفاه الاجتماعي والاقتصادي والبيئي، تبرز أهمية إدراك المخاطر المصاحبة له ومعالجتها. إن تحقيق التوازن بين الابتكار والمسؤولية يضمن استفادة المجتمع من هذه التطورات مع الحد من آثارها السلبية المحتملة.

يشكل التوسع في استخدام الذكاء الاصطناعي مخاطر كبيرة، لا سيما مع استخدامه حاليًا من قبل الحكومات في جميع أنحاء أستراليا. وتشمل هذه المخاطر مخاوف تتعلق بالأمن والخصوصية والجوانب القانونية والأخلاقية، بما في ذلك التحيز والإنصاف. علاوة على ذلك، وكما أشارت وزارة رئيس الوزراء ومجلس الوزراء، هناك أيضًا انخفاض في ثقة الجمهور بالذكاء الاصطناعي. ولمعالجة هذه التحديات، أصدرت أستراليا إطار عمل متينًا.

يُقدّم "الإطار الوطني الأسترالي لضمان استخدام الذكاء الاصطناعي في الحكومة " (الإطار) نهجًا وطنيًا موحدًا لضمان استخدام الذكاء الاصطناعي في القطاع الحكومي. وقد أُصدر هذا الإطار في 21 يونيو 2024 من قِبل اجتماع وزراء البيانات والرقمنة ، وهو اجتماع يضم وزراء من مختلف الولايات والأقاليم الأسترالية. ويهدف الإطار في المقام الأول إلى توحيد معايير استخدام أنظمة الذكاء الاصطناعي في القطاع العام.

مع إطلاق هذا الإطار، تسعى الحكومة الأسترالية إلى تعزيز ثقة الجمهور في أنظمة الذكاء الاصطناعي. ويضع هذا الإطار نهجاً متسقاً وأخلاقياً وقانونياً، استناداً إلى مبادئ أخلاقيات الذكاء الاصطناعي الأسترالية، لتوجيه تطوير ونشر الذكاء الاصطناعي بشكل آمن ومسؤول في القطاع العام.

يتناول هذا الدليل تفاصيل الإطار، موضحاً كيف يضع المعايير والتوقعات السياسية للقطاع العام. كما ينبغي على القطاع الخاص أن يضمن بشكل استباقي امتثال ممارساته التجارية لهذا الإطار.

ما هو نظام الذكاء الاصطناعي؟

في نوفمبر 2023، وافقت الدول الأعضاء في منظمة التعاون الاقتصادي والتنمية (OECD) على هذا التعريف المنقح لنظام الذكاء الاصطناعي:

"نظام قائم على الآلة، يستنتج من المدخلات التي يتلقاها، لأهداف صريحة أو ضمنية، كيفية توليد مخرجات مثل التنبؤات أو المحتوى أو التوصيات أو القرارات التي يمكن أن تؤثر على البيئات المادية أو الافتراضية. وتختلف أنظمة الذكاء الاصطناعي المختلفة في مستويات استقلاليتها وقدرتها على التكيف بعد النشر."

وبالتالي، بعبارة أبسط، يأخذ نظام الذكاء الاصطناعي المدخلات لإنتاج المخرجات، مثل التنبؤات والتوصيات التي يمكن أن تساعد الأفراد على اتخاذ القرارات.

تطبيق مبادئ أخلاقيات الذكاء الاصطناعي في الحكومة الأسترالية

يُرسّخ الإطار الوطني لضمان استخدام الذكاء الاصطناعي في الحكومة نهجاً موحداً على مستوى الدولة لضمان الاستخدام الأمثل للذكاء الاصطناعي في الأنشطة الحكومية. ويركز هذا الإطار على المبادئ الأساسية بدلاً من التفاصيل التقنية، مما يُمكّن الجهات المعنية من وضع سياسات وتوجيهات محددة تتناسب مع سياقاتها التشريعية والسياسية والتشغيلية.

لمحة عامة عن إطار عمل أستراليا

تتوافق الممارسات التالية مع مبادئ أخلاقيات الذكاء الاصطناعي الثمانية في أستراليا، المصممة لضمان سلامة وأمان وموثوقية الذكاء الاصطناعي. وتوضح هذه الممارسات كيفية تطبيق الحكومات لهذه المبادئ عمليًا في ضمان سلامة الذكاء الاصطناعي. علاوة على ذلك، يختلف التطبيق باختلاف الأنظمة القضائية وحالات الاستخدام المحددة، والتي تنطوي على مخاطر مختلفة وقد تتطلب مستويات متفاوتة من الضمان. وذلك لأنه ليس من الضروري في جميع حالات استخدام الذكاء الاصطناعي تطبيق جميع الممارسات بالتفصيل لاعتبارها آمنة ومسؤولة.

ينبغي على الحكومات النظر في وضع أسس راسخة لممارسات ضمان الجودة لديها من أجل تطبيق مبادئ أخلاقيات الذكاء الاصطناعي بشكل فعال. وقد تشمل هذه الأسس ما يلي: AI governance ، وحوكمة البيانات، واعتماد نهج قائم على المخاطر.

1. الرفاه البشري والمجتمعي والبيئي

ينبغي أن تعود أنظمة الذكاء الاصطناعي بالنفع على الأفراد والبيئة في كل مرحلة من مراحل دورة حياة الذكاء الاصطناعي. ولتحقيق ذلك، ينبغي على الحكومات ما يلي:

نوايا الوثيقة

ينبغي للحكومات أن تحدد بوضوح وتوثق الغرض من استخدام الذكاء الاصطناعي وأهدافه ونتائجه المتوقعة على الأفراد والمجتمعات والبيئة. كما ينبغي لها تقييم المخاطر، وتحديد ما إذا كان الذكاء الاصطناعي هو الخيار الأمثل، وضمان تحقيق منفعة عامة واضحة، والنظر في البدائل غير القائمة على الذكاء الاصطناعي.

التشاور مع أصحاب المصلحة

ينبغي على الحكومات التشاور مع أصحاب المصلحة، بمن فيهم الخبراء والمجموعات المتضررة، في وقت مبكر من العملية لتحديد المخاطر والتخفيف من حدتها بشكل فعال.

تقييم الأثر

ينبغي للحكومات تقييم الآثار المحتملة لاستخدام الذكاء الاصطناعي على الأفراد والمجتمعات والبيئة لضمان تفوق الفوائد على المخاطر. كما ينبغي لها إدارة هذه الآثار باستخدام أساليب مثل التقييمات الخوارزمية وتقييمات الأثر على أصحاب المصلحة.

2. القيم التي تتمحور حول الإنسان

ينبغي لأنظمة الذكاء الاصطناعي أن تدعم حقوق الإنسان، وأن تُقدّر التنوع، وأن تحافظ على استقلالية الأفراد. ولتحقيق ذلك، ينبغي للحكومات ما يلي:

الالتزام بحماية الحقوق

ينبغي للحكومات ضمان توافق استخدام الذكاء الاصطناعي مع الحماية القانونية لحقوق الإنسان، بما في ذلك التشريعات والالتزامات الدولية والدساتير والقانون العام. كما ينبغي أن يتماشى استخدام الذكاء الاصطناعي مع سياسات القطاع العام وأماكن العمل والتنوع. علاوة على ذلك، قد تساعد تقييمات أثر الذكاء الاصطناعي على حقوق الإنسان ومشورة الخبراء في تحديد المخاطر والتخفيف من حدتها.

دمج وجهات نظر متنوعة

ينبغي للحكومات إشراك الأفراد ذوي التجارب الحياتية المتنوعة طوال دورة حياة استخدام الذكاء الاصطناعي. وهذا يضمن وجهات نظر مستنيرة ويمنع إهمال العوامل الأساسية. لذا، ينبغي أن يشمل التمثيل الأشخاص ذوي الإعاقة، والمجتمعات متعددة الثقافات والأديان، والخلفيات الاجتماعية والاقتصادية المختلفة، والهويات الجنسية والجندرية المتنوعة، وسكان أستراليا الأصليين وسكان جزر مضيق توريس.

ضمان الشمول الرقمي

ينبغي للحكومات الالتزام بمعايير الخدمات الرقمية والشمول، مع مراعاة احتياجات المستخدمين الفردية وسياقهم وتجاربهم طوال دورة حياة استخدام الذكاء الاصطناعي. إضافةً إلى ذلك، ينبغي عليها ضمان استخدام التقنيات المساعدة لدعم الأشخاص ذوي الإعاقة.

3. الإنصاف

ينبغي لأنظمة الذكاء الاصطناعي أن تعطي الأولوية للشمولية وسهولة الوصول، لضمان عدم تسببها في التمييز غير العادل ضد الأفراد أو المجتمعات أو الجماعات، أو المساهمة فيه. ولتحقيق ذلك، ينبغي للحكومات ما يلي:

عرّف الإنصاف في سياقه

ينبغي على الحكومات تقييم الفوائد المتوقعة والآثار المحتملة ونقاط الضعف لدى المجموعات المتأثرة لقياس "عدالة" حالة استخدام الذكاء الاصطناعي.

الالتزام بواجبات مكافحة التمييز

ينبغي للحكومات ضمان توافق استخدام الذكاء الاصطناعي مع قوانين وإرشادات مكافحة التمييز فيما يتعلق بخصائص مثل العمر، والإعاقة، والعرق، والدين، والجنس، والحالة الجنسية، والهوية الجنسية، والميول الجنسية. كما ينبغي تدريب الموظفين على تحديد مخرجات الذكاء الاصطناعي المتحيزة والإبلاغ عنها وحلها، مع ضرورة طلب المشورة من الخبراء عند الحاجة.

ضمان جودة البيانات والتصميم

ينبغي للحكومات الحفاظ على جودة عالية للبيانات والتصميم الخوارزمي. إجراء عمليات تدقيق لمدخلات ومخرجات الذكاء الاصطناعي للكشف عن أي تحيزات، باستخدام data quality يمكن أن تساعد البيانات، وتطبيق ممارسات حوكمة البيانات القوية، في تحديد وتقليل التحيز في أنظمة الذكاء الاصطناعي.

4. حماية الخصوصية والأمان

ينبغي لأنظمة الذكاء الاصطناعي احترام حقوق خصوصية الأفراد وحمايتها، وضمان حماية البيانات. ولتحقيق ذلك، ينبغي للحكومات ما يلي:

الالتزام بواجبات الخصوصية

ينبغي للحكومات ضمان توافق استخدام الذكاء الاصطناعي مع القوانين والسياسات المتعلقة بالموافقة، وجمع البيانات الشخصية، وتخزينها، واستخدامها، والإفصاح عنها، والاحتفاظ بها. ويشمل ذلك إبلاغ الأفراد عند جمع بياناتهم أو استخدامها في تدريب الذكاء الاصطناعي. كما ينبغي تطبيق مبدأ "الخصوصية بالتصميم" لتعزيز حماية البيانات، وذلك من خلال دمج تدابير الخصوصية في عملية التطوير منذ البداية. ويضمن هذا المبدأ مراعاة الخصوصية في كل مرحلة من مراحل المشروع، بدءًا من التخطيط وحتى التنفيذ، مما يساعد على حماية المعلومات الشخصية للمستخدمين. إضافةً إلى ذلك، يمكن أن يساعد إجراء تقييمات أثر الخصوصية - وهي تقييمات منهجية لكيفية تأثير المشروع على خصوصية الأفراد - في تحديد مخاطر الخصوصية ومعالجتها. علاوة على ذلك، يُعد طلب المشورة من الخبراء عند الحاجة أمرًا ضروريًا للامتثال الفعال.

تقليل المعلومات الشخصية وحمايتها

ينبغي للحكومات تقييم مدى ضرورة ومعقولية وتناسب جمع المعلومات الشخصية واستخدامها والإفصاح عنها في كل حالة استخدام للذكاء الاصطناعي. كما ينبغي لها النظر في استخدام تقنيات تعزيز الخصوصية، مثل البيانات الاصطناعية وإخفاء الهوية والتشفير والتجميع الآمن، لتحقيق نتائج مماثلة مع تقليل مخاطر انتهاك الخصوصية. ويجب التعامل مع المعلومات الحساسة بحذر شديد.

أنظمة وبيانات آمنة

ينبغي للحكومات ضمان توافق استخدامات الذكاء الاصطناعي مع قوانين وسياسات وتوجيهات الأمن وحماية البيانات في جميع مراحل سلسلة التوريد. علاوة على ذلك، يجب أن تتوافق التدابير الأمنية مع استراتيجيات الأمن السيبراني ذات الصلة. وينبغي تقييد الوصول إلى الأنظمة والبيانات على الموظفين المصرح لهم فقط، حسب الحاجة لأداء مهامهم، مع ضرورة طلب المشورة من الخبراء عند الضرورة.

5. الموثوقية والسلامة

هذا يعني أن أنظمة الذكاء الاصطناعي يجب أن تعمل بكفاءة وموثوقية وفقًا للغرض المقصود منها طوال دورة حياتها. ولتحقيق ذلك، ينبغي على الحكومات ما يلي:

استخدم مجموعات البيانات المناسبة

ينبغي على الحكومات ضمان تدريب أنظمة الذكاء الاصطناعي والتحقق من صحتها على مجموعات بيانات دقيقة وممثلة وموثقة وموثوقة ومصممة خصيصًا لحالات استخدام محددة.

إجراء دراسات تجريبية

ينبغي للحكومات اختبار أنظمة الذكاء الاصطناعي في مشاريع تجريبية صغيرة النطاق لتحديد المشكلات ومعالجتها قبل التوسع في استخدامها. كما ينبغي لها الموازنة بين الحوكمة والفعالية، إذ قد لا تكشف البيئات شديدة التحكم عن جميع المخاطر والفرص، بينما قد تُشكّل البيئات الأقل تحكماً تحديات في مجال الحوكمة.

اختبر وتحقق

ينبغي على الحكومات اختبار أداء أنظمة الذكاء الاصطناعي والتحقق منه باستخدام أساليب مثل فرق الاختبار الأحمر، وتقييمات المطابقة، وتعزيز التغذية الراجعة البشرية، والمقاييس، واختبار الأداء.

مراقبة وتقييم

ينبغي للحكومات تقييم أنظمة الذكاء الاصطناعي بشكل مستمر لضمان تشغيلها بأمان وموثوقية وأخلاقية. ويشمل ذلك تقييم أداء النظام، وتفاعلات المستخدمين، وتأثيراته على الأفراد والمجتمع والبيئة، مع الأخذ في الاعتبار ملاحظات المتأثرين بنتائج الذكاء الاصطناعي.

كن مستعداً للانسحاب

ينبغي على الحكومات أن تكون مستعدة لإيقاف نظام الذكاء الاصطناعي بسرعة وأمان في حال ظهور مشكلة مستعصية، مثل اختراق البيانات، أو الوصول غير المصرح به، أو اختراق النظام. يجب تضمين هذه السيناريوهات في خطط استمرارية الأعمال، وخطط اختراق البيانات، وخطط الاستجابة الأمنية.

6. الشفافية وقابلية التفسير

هذا يعني ضرورة وجود شفافية وإفصاح مسؤول لضمان إدراك الأفراد لتأثير الذكاء الاصطناعي عليهم بشكل كبير. إضافةً إلى ذلك، ينبغي أن يعلموا متى يتفاعل نظام الذكاء الاصطناعي معهم. ولتحقيق ذلك، ينبغي على الحكومات ما يلي:

الإفصاح عن استخدام الذكاء الاصطناعي

ينبغي على الحكومات أن تتحلى بالشفافية في استخدام الذكاء الاصطناعي، وأن تُطلع المستخدمين والمتأثرين به. إضافةً إلى ذلك، ينبغي عليها الاحتفاظ بسجل يوضح متى يُستخدم الذكاء الاصطناعي، وأهدافه، وتطبيقاته المقصودة، وأي قيود عليه.

الحفاظ على أصول البيانات والمعلومات الموثوقة

ينبغي على الحكومات الالتزام بالقوانين والسياسات والمعايير المتعلقة بحفظ سجلات موثوقة لقرارات الذكاء الاصطناعي واختباراته وأصول البيانات. وهذا يضمن الشفافية، ويتيح الرقابة من قبل الجهات الداخلية والخارجية، ويعزز المساءلة واستمرارية المعرفة.

قدّم شروحات واضحة

ينبغي للحكومات أن توضح بوضوح كيف تصل أنظمة الذكاء الاصطناعي إلى النتائج، مع تفصيل المدخلات والمتغيرات ونتائج الاختبارات والإشراف البشري. وعندما تكون إمكانية التفسير محدودة، ينبغي عليها الموازنة بين فوائد الذكاء الاصطناعي وهذه القيود، وفي حال المضي قدمًا، توثيق الأسباب وتطبيق إشراف مُشدد. وفي صنع القرارات الإدارية، يجب أن تكون القرارات المتأثرة بالذكاء الاصطناعي قابلة للتفسير، ويجب محاسبة البشر عليها.

تقديم الدعم والتمكين للموظفين في الخطوط الأمامية

ينبغي للحكومات تدريب ودعم موظفيها في الخطوط الأمامية لشرح نتائج استخدام الذكاء الاصطناعي للمستخدمين شرحاً وافياً. ويجب التأكيد على أهمية العلاقات الإنسانية المباشرة، لا سيما مع الأفراد الأكثر ضعفاً، وذوي الاحتياجات المعقدة، والذين يشعرون بعدم الارتياح لاستخدام الذكاء الاصطناعي في القطاع الحكومي.

7. قابلية التنافس

هذا يعني أنه عندما يؤثر نظام الذكاء الاصطناعي بشكل كبير على فرد أو مجتمع أو جماعة أو بيئة، ينبغي أن تكون هناك آلية تُمكّن الأفراد من الاعتراض على استخدامه أو نتائجه في الوقت المناسب. ولتمكين ذلك، ينبغي على الحكومات ما يلي:

ينبغي للحكومات ضمان توافق استخدام الذكاء الاصطناعي في صنع القرارات الإدارية مع القوانين والسياسات والتوجيهات، مع الالتزام بمبادئ الشرعية والنزاهة والمنطق والشفافية. كما ينبغي لها توفير إمكانية الوصول إلى المراجعات وتسوية المنازعات والتحقيقات. علاوة على ذلك، ينبغي لها طلب المشورة لفهم التزاماتها والاستخدام المقترح للذكاء الاصطناعي.

التواصل بوضوح بشأن الحقوق والحماية

ينبغي للحكومات أن تُعلم الأفراد بوضوح بحقوقهم وحمايتهم فيما يتعلق بكل استخدام للذكاء الاصطناعي، وأن توفر لهم سبلًا للتعبير عن مخاوفهم واعتراضاتهم والسعي إلى إيجاد حلول. كما ينبغي لها أن توضح بوضوح القنوات التي يمكن استخدامها للطعن في استخدام الذكاء الاصطناعي أو نتائجه، مع وجود آليات شفافة للتغذية الراجعة والاستجابة تضمن مراجعة بشرية في الوقت المناسب طوال دورة حياة الذكاء الاصطناعي.

8. المساءلة

هذا يعني أنه ينبغي تحديد المسؤولين عن مختلف مراحل دورة حياة نظام الذكاء الاصطناعي ومساءلتهم عن نتائج هذه الأنظمة. إضافةً إلى ذلك، ينبغي تيسير الإشراف البشري على أنظمة الذكاء الاصطناعي. ولتحقيق ذلك، ينبغي على الحكومات ما يلي:

تحديد الأدوار والمسؤوليات بوضوح

ينبغي للحكومات إدارة استخدامها للذكاء الاصطناعي من خلال تحديد أدوار وخطوط مساءلة واضحة. ويشمل ذلك تعيين قيادة عليا وتحديد مسؤوليات محددة في مجالات معينة، ومعالجة الأمن، وحوكمة البيانات، والخصوصية، والالتزامات الأخرى، ودمج الإشراف على الذكاء الاصطناعي مع ممارسات الحوكمة القائمة وأطر إدارة المخاطر.

تدريب الموظفين وترسيخ القدرات

ينبغي على الحكومات وضع سياسات وإجراءات وبرامج تدريبية لضمان فهم الموظفين لواجباتهم وقيود النظام وممارسات ضمان الذكاء الاصطناعي.

ترسيخ ثقافة المخاطرة الإيجابية

ينبغي للحكومات تعزيز ثقافة إيجابية لإدارة المخاطر من خلال تشجيع الإدارة الاستباقية والشفافة لمخاطر الذكاء الاصطناعي كممارسة يومية. يشجع هذا النهج الحوار المفتوح حول أوجه عدم اليقين والفرص، ويتيح للموظفين التعبير عن مخاوفهم، ويضمن وجود آليات لتصعيد المشكلات إلى الجهات المسؤولة ذات الصلة.

تجنب الاعتماد المفرط

تتحمل الحكومات مسؤولية جميع مخرجات الذكاء الاصطناعي، وعليها تحديد ومعالجة المخرجات غير الصحيحة. ينبغي عليها النظر في مدى اعتمادها على الذكاء الاصطناعي، والمخاطر المرتبطة به، وقضايا المساءلة الناجمة عنه، إذ قد يؤدي الاعتماد المفرط إلى قبول مخرجات متحيزة أو غير دقيقة، مما يُهدد استمرارية الأعمال.

خاتمة

يُذكّر الإطار الوطني الأسترالي لضمان أنظمة الذكاء الاصطناعي في القطاع العام القطاع الخاص بأهمية وجود أسس واضحة للاستخدام الآمن والمسؤول للذكاء الاصطناعي. ومن خلال تحديد معايير واضحة وتوقعات سياسية محددة، يُعزز هذا الإطار المساءلة والشفافية داخل المؤسسات العامة، ويشجع الشركات الخاصة على تبني ممارسات مماثلة. وبهذه الطريقة، يُحفز الإطار الابتكار مع إيلاء الأولوية للسلامة والاعتبارات الأخلاقية، مما يمهد الطريق لنمو مستدام ونشر مسؤول للذكاء الاصطناعي في جميع القطاعات.

كيف Securiti يمكن المساعدة

Securiti هو رائد في Data Command Center منصة مركزية تُمكّن من الاستخدام الآمن للبيانات والذكاء الاصطناعي العام. توفر هذه المنصة ذكاءً موحدًا للبيانات، وضوابط، وتنسيقًا عبر بيئات سحابية هجينة متعددة. وتعتمد عليها كبرى الشركات العالمية. Securiti 's Data Command Center لأغراض أمن البيانات والخصوصية والحوكمة والامتثال.

Securiti وقد حظيت الشركة بالتقدير من خلال العديد من جوائز الصناعة والتحليل، بما في ذلك جائزة "الشركة الناشئة الأكثر ابتكارًا" من RSA، وجائزة "أفضل 25 شركة ناشئة في مجال التعلم الآلي" من Forbes، وجائزة "الشركات الأكثر ابتكارًا في مجال الذكاء الاصطناعي" من CB Insights، وجائزة "البائع المتميز في أمن البيانات" من Gartner، وجائزة "الشركة الرائدة في إدارة الخصوصية" من Forrester.

Securiti تُزيل مجموعة Genstack AI Suite من GenStack التعقيدات والمخاطر الكامنة في دورة حياة الذكاء الاصطناعي العام، مما يُمكّن المؤسسات من استخدام بياناتها المنظمة وغير المنظمة بسرعة وأمان في أي مكان مع أي نظام ذكاء اصطناعي وأنظمة إدارة التعلم. توفر المجموعة ميزات مثل استيعاب البيانات واستخراجها بشكل آمن، وإخفاء البيانات، وإخفاء الهوية، والتنقيح، بالإضافة إلى إمكانيات الفهرسة والاسترجاع. علاوة على ذلك، تُسهّل المجموعة تهيئة أنظمة إدارة التعلم للأسئلة والأجوبة، وضوابط البيانات المدمجة للحوكمة والخصوصية والأمان، وجدران الحماية لأنظمة إدارة التعلم لتمكين التبني الآمن للذكاء الاصطناعي العام.

اطلب عرضًا توضيحيًا لمعرفة المزيد.

قم بتحليل هذه المقالة باستخدام الذكاء الاصطناعي

تظهر المطالبات في أدوات الذكاء الاصطناعي التابعة لجهات خارجية.
انضم إلى قائمتنا البريدية

احصل على أحدث المعلومات والتحديثات القانونية والمزيد مباشرةً في بريدك الإلكتروني



قصص أخرى قد تهمك
مقاطع فيديو
عرض المزيد
ريحان جليل، من شركة Veeam، يتحدث عن Agent Commander: theCUBE + NYSE Wired: قادة الأمن السيبراني
بعد استحواذ شركة Veeam على Securiti يمثل إطلاق برنامج Agent Commander خطوة هامة نحو مساعدة المؤسسات على تبني وكلاء الذكاء الاصطناعي بثقة أكبر. في...
عرض المزيد
تخفيف مخاطر قائمة OWASP لأهم 10 مخاطر لتطبيقات ماجستير القانون 2025
أحدث الذكاء الاصطناعي التوليدي (GenAI) تحولاً جذرياً في طريقة عمل الشركات وتوسعها ونموها. يوجد تطبيق للذكاء الاصطناعي لكل غرض، بدءاً من زيادة إنتاجية الموظفين وصولاً إلى تبسيط العمليات...
عرض المزيد
أفضل 6 DSPM حالات الاستخدام
مع ظهور الذكاء الاصطناعي التوليدي (GenAI)، أصبحت البيانات أكثر ديناميكية. يتم توليد بيانات جديدة بوتيرة أسرع من أي وقت مضى، ونقلها إلى أنظمة وتطبيقات متنوعة...
عرض المزيد
قانون الخصوصية في كولورادو (CPA)
ما هو قانون خصوصية كولورادو؟ قانون خصوصية كولورادو هو قانون شامل لحماية الخصوصية، تم توقيعه في 7 يوليو 2021. وقد وضع معايير جديدة لحماية البيانات الشخصية...
عرض المزيد
Securiti لمساعد الطيار في البرمجيات كخدمة (SaaS)
تسريع اعتماد Copilot بأمان وثقة: تتطلع المؤسسات إلى اعتماد Microsoft 365 Copilot لزيادة الإنتاجية والكفاءة. ومع ذلك، تظل المخاوف الأمنية، مثل حماية البيانات...
عرض المزيد
أهم عشرة اعتبارات لاستخدام البيانات غير المهيكلة بأمان مع الذكاء الاصطناعي العام
نسبة مذهلة تصل إلى 90% من بيانات المؤسسات غير منظمة. وتُستخدم هذه البيانات بسرعة لتغذية تطبيقات الذكاء الاصطناعي من الجيل الجديد، مثل روبوتات الدردشة والبحث المدعوم بالذكاء الاصطناعي.
عرض المزيد
جينكور للذكاء الاصطناعي: بناء أنظمة ذكاء اصطناعي آمنة وعالية الجودة للمؤسسات في دقائق
مع تبني المؤسسات للذكاء الاصطناعي التوليدي، تواجه فرق البيانات والذكاء الاصطناعي العديد من العقبات: ربط مصادر البيانات غير المهيكلة والمهيكلة بشكل آمن، والحفاظ على الضوابط والحوكمة المناسبة،...
عرض المزيد
كيفية التعامل مع قانون حماية خصوصية المستهلك في كاليفورنيا: رؤى أساسية للشركات
ما هو قانون حقوق الخصوصية في كاليفورنيا (CPRA)؟ هو تشريع ولاية كاليفورنيا الذي يهدف إلى حماية خصوصية سكانها الرقمية. وقد دخل حيز التنفيذ في يناير...
عرض المزيد
التكيف مع التحول: الانتقال إلى معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS) الإصدار 4.0
ما هو معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS)؟ هو مجموعة من معايير الأمان لضمان المعالجة والتخزين الآمنين للبيانات، و...
عرض المزيد
تأمين البيانات والذكاء الاصطناعي: دليل إدارة الثقة والمخاطر والأمن (TRiSM)
أثارت المخاطر الأمنية المتزايدة للذكاء الاصطناعي قلق 48% من مسؤولي أمن المعلومات حول العالم. انضموا إلى هذه الجلسة الرئيسية للتعرف على دليل عملي لتمكين الثقة في الذكاء الاصطناعي، وإدارة المخاطر،...

جلسات حوارية مميزة

تسليط الضوء
الاستعداد للمستقبل لمحترفي الخصوصية
شاهد الآن منظر
تسليط الضوء 50:52
من البيانات إلى النشر: حماية الذكاء الاصطناعي المؤسسي من خلال الأمن والحوكمة
شاهد الآن منظر
تسليط الضوء 11:29
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
شاهد الآن منظر
تسليط الضوء 11:18
إعادة هيكلة تمويل العقارات - كيف تُجري شركة ووكر آند دنلوب تحديثًا لمحفظتها الاستثمارية البالغة 135 مليار دولار أمريكي بالاعتماد على البيانات أولاً
شاهد الآن منظر
تسليط الضوء 13:38
تسريع المعجزات - كيف تُدمج شركة سانوفي الذكاء الاصطناعي لتقليص مدة تطوير الأدوية بشكل كبير
صورة مصغرة لشركة سانوفي
شاهد الآن منظر
تسليط الضوء 10:35
حدث تحول جوهري في مركز ثقل البيانات
شاهد الآن منظر
تسليط الضوء 14:21
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
شاهد الآن منظر
تسليط الضوء 12:!3
لا يمكنك بناء خطوط الأنابيب أو المستودعات أو منصات الذكاء الاصطناعي بدون معرفة تجارية
شاهد الآن منظر
تسليط الضوء 47:42
الأمن السيبراني – حيث يقوم القادة بالشراء والبناء والشراكة
ريحان جليل
شاهد الآن منظر
تسليط الضوء 27:29
بناء ذكاء اصطناعي آمن باستخدام Databricks و Gencore
ريحان جليل
شاهد الآن منظر
أحدث
عرض المزيد
بناء ذكاء اصطناعي سيادي باستخدام HPE Private Cloud AI و Veeam Securiti Gencore AI
كيف تُساهم تقنيات الذكاء الاصطناعي في السحابة الخاصة من HPE، وتسريع NVIDIA، وVeeam؟ Securiti يدعم نظام Gencore AI الذكاء الاصطناعي الآمن والمُدار للمؤسسات مع تطبيق السياسات عبر سير العمل RAG والمساعدين والوكلاء.
عرض المزيد
Securiti أعلنت شركة .ai عن اختيار شركة أكسنتشر كشريك العام لعام 2025
في إطار الاحتفال المستمر بالتعاون المؤثر في DataAI Security ، Securiti منحت شركة .ai، التابعة لشركة Veeam، شركة Accenture لقب شريك العام لعام 2025....
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ قانون حماية خصوصية المستهلك في كاليفورنيا؟ عرض المزيد
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ القانون؟
يمكن للشركات أن تستفيد من بعض الدروس الحيوية من أكبر إجراء إنفاذي تم اتخاذه مؤخراً في تاريخ قانون خصوصية المستهلك في كاليفورنيا (CCPA). Securiti مدونة 's تغطي جميع التفاصيل المهمة التي يجب معرفتها.
عرض المزيد
الذكاء الاصطناعي وقانون HIPAA: ما يعنيه وكيفية أتمتة الامتثال
تعرّف على كيفية تطبيق قانون قابلية نقل التأمين الصحي والمساءلة (HIPAA) على الذكاء الاصطناعي في تأمين المعلومات الصحية المحمية. تعلّم كيف...
عرض المزيد
الذكاء الاصطناعي الوكيل والخصوصية: إدارة وكلاء الذكاء الاصطناعي المستقلين في المؤسسات
تعرّف على كيفية إدارة الذكاء الاصطناعي الوكيل في المؤسسة. إدارة مخاطر الخصوصية، والتحكم في الوصول إلى البيانات، وإنفاذ السياسات، وضمان الامتثال لوكلاء الذكاء الاصطناعي المستقلين.
عرض المزيد
خيارات الانسحاب الدائمة: سحب الموافقة عبر التسويق، والبرمجيات كخدمة، والذكاء الاصطناعي العام
Securiti تقدم الورقة البيضاء الخاصة بـ [اسم الشركة] نظرة عامة مفصلة حول متطلبات سحب الموافقة المختلفة في مجالات التسويق، والبرمجيات كخدمة (SaaS)، والذكاء الاصطناعي العام (GenAI). اقرأ الآن لمعرفة المزيد.
عرض المزيد
ROT Data Minimization
التخلص من البيانات الزائدة والقديمة والتافهة (ROT) لتحسين دقة الذكاء الاصطناعي، وتقليل تكاليف التخزين، وتقليل مخاطر الأمن والامتثال على نطاق واسع.
عرض المزيد
قائد العملاء: ملخص الحل
تعرّف على كيفية قيام Agent Commander باكتشاف وكلاء الذكاء الاصطناعي، وحماية بيانات المؤسسة من خلال ضوابط التشغيل، وتصحيح أخطاء الذكاء الاصطناعي - مما يتيح اعتماد الذكاء الاصطناعي بشكل آمن ومتوافق مع المعايير في...
عرض المزيد
تخلص من مخاطر البيانات في الذكاء الاصطناعي
تعرف على كيفية إعداد بيانات المؤسسة لاعتماد Gemini Enterprise بشكل آمن من خلال الحوكمة الأولية، واكتشاف البيانات الحساسة، وضوابط سياسة ما قبل الفهرسة.
عرض المزيد
دليل الحصول على شهادة HITRUST
Securiti يُعد الكتاب الإلكتروني دليلاً عملياً للحصول على شهادة HITRUST، ويغطي كل شيء بدءاً من اختيار i1 مقابل r2 ونطاق الأنظمة وصولاً إلى إدارة خطط العمل والتخطيط...
ما هو
جديد