الإعلان عن Agent Commander - أول حل متكامل من Veeam + Securiti .ai تمكين توسيع نطاق وكلاء الذكاء الاصطناعي الآمنين

منظر

إدارة الخصوصية في عصر البيانات والذكاء الاصطناعي التوليدي في نيوزيلندا

المساهمون

أنس بيج

مدير تسويق المنتجات في Securiti

أمان ريحان

Data Privacy المحلل

نُشر في 24 يونيو 2024

قد يكون الذكاء الاصطناعي التوليدي (GenAI) أهم تطور في العصر الحديث. تبدو تطبيقاته لا حصر لها، مما يُبرز قيمته بشكل أكبر. وبناءً على إمكانياته وحدها، يُمكنه إحداث ثورة في كل ما نعرفه عن العمل والإنتاجية.

ومع ذلك، فبينما ستجلب قدرات الذكاء الاصطناعي من الجيل الجديد كفاءات تشغيلية غير مسبوقة وابتكارًا لا مثيل له، فإنها تثير تساؤلات مثيرة للقلق تتعلق data privacy وأمنها.

تعتمد قدرات الذكاء الاصطناعي العام على تدفق مستمر من البيانات المدخلة لتمكين بعض الوظائف الأساسية التي تجعله أداة بالغة الأهمية. ويتمثل التحدي الرئيسي المتعلق بالذكاء الاصطناعي عمومًا في كيفية الاستفادة من هذه القدرات دون التضحية بمبادئ خصوصية المستخدم.

سعت الحكومات في جميع أنحاء العالم إلى معالجة هذه المسألة. وقد فعلت حكومة نيوزيلندا ذلك من خلال دليلها المؤقت للذكاء الاصطناعي التوليدي في الخدمة العامة . ويقدم هذا الدليل، بحسب وصفها، نصائح من قادة البيانات والتقنيات الرقمية والخصوصية والمشتريات وأنظمة الأمن حول استخدام أدوات الذكاء الاصطناعي التوليدي في الخدمة العامة.

توفر الإرشادات ضوابط لتعزيز النشر الآمن لأدوات الذكاء الاصطناعي من الجيل الجديد، مع تقديم توصيات بشأن الممارسات التي يجب على الشركات تجنبها إذا كانت ترغب في الاستفادة من هذه الأدوات دون انتهاك ثقة المستخدمين وخصوصيتهم، فضلاً عن المتطلبات التنظيمية.

الضرورة فوق كل شيء

يجب على المنظمات التي تقدم خدمات الذكاء الاصطناعي العام التأكد من أن المنتج/الخدمة التي تقدمها توفر فائدة عامة. والأهم من ذلك، يجب أن تكون هناك حاجة ماسة لهذه الخدمات. ومن بين الاعتبارات التي يجب على المنظمات مراعاتها ما يلي:

  • الكفاءة والإنتاجية : يجب أن يمثل المنتج/الخدمة المقدمة ترقية للخيارات الحالية من خلال تبسيط وأتمتة العمليات المعنية.
  • تحسين تصميم وتقديم الخدمة : يجب أن يوفر المنتج/الخدمة المقدمة للعملاء درجة أكبر من خيارات التخصيص والتعديل الشخصي.
  • المراقبة الإلكترونية المحسّنة : يجب أن يوفر المنتج/الخدمة المقدمة حماية أفضل بكثير عبر الإنترنت من خلال استخدام التقنيات الحديثة مثل التحليل التنبؤي وتقييم الثغرات الأمنية واكتشاف التهديدات.
  • الابتكار : يجب أن يمثل المنتج/الخدمة المقدمة تحسناً ملحوظاً عن أي منتج/خدمة موجودة في السوق من خلال رؤى تستند إلى البيانات الضخمة.
  • تحسين نشر السياسات : يجب أن يمكّن المنتج/الخدمة المقدمة المستخدمين من الحصول على تحليل شامل في الوقت الفعلي لجميع السياسات المعمول بها لتمكين التحسينات المستقبلية.

توصيات هامة

تُقدّم الإرشادات المؤقتة بعض التوصيات المتعلقة بالممارسات التي ينبغي على المؤسسات تشجيعها وتجنبها لتعزيز فرص الاستخدام الآمن للذكاء الاصطناعي من الجيل الجديد. وتشمل هذه التوصيات ما يلي:

لا تستخدم GenAI للبيانات الحساسة

تُؤكد الإرشادات المؤقتة بوضوح على ضرورة امتناع المؤسسات عن استخدام أي مجموعات بيانات تحتوي على بيانات حساسة لتدريب أدوات الذكاء الاصطناعي المستخدمة. إضافةً إلى ذلك، ينبغي على المؤسسات اتخاذ تدابير استباقية للحصول على رؤى دقيقة حول هذه المجموعات لتجنب استخدامها عن طريق الخطأ، حيث تفوق المخاطر المحتملة الفوائد المرجوة.

إدارة البيانات الشخصية

على غرار البيانات الحساسة، توصي الإرشادات بتجنب استخدام البيانات الشخصية لتدريب أدوات الذكاء الاصطناعي العام إذا كانت هذه الأدوات تطبيقات تابعة لجهات خارجية. إذا وافق المستخدمون صراحةً على معالجة بياناتهم لاستخدامها في هذه التطبيقات، فيجوز للمؤسسة المضي قدمًا في ذلك، ولكن بشرط أن يقتصر الاستخدام على تطبيقات الذكاء الاصطناعي العام داخل الشبكة الداخلية للمؤسسة.

بالإضافة إلى ذلك، ينبغي على المنظمات تجنب استخدام أي مجموعات بيانات قد لا تفي تمامًا بمعايير الاستخدام المنصوص عليها في قانون المعلومات الرسمية، لأن ذلك قد يؤدي إلى تدهور ثقة الجمهور.

لا تستخدم الذكاء الاصطناعي العام في اتخاذ القرارات الحاسمة

يواجه استخدام الذكاء الاصطناعي العام تحديات فريدة عديدة. أحد هذه التحديات هو أن نماذج الذكاء الاصطناعي العام تُنتج مخرجات غير دقيقة أو ناقصة، أو حتى خاطئة تمامًا في بعض الحالات. وهذا يزيد من احتمالية انتشار المعلومات المضللة والتحيز. وبينما يواصل المطورون تطوير أفضل الاستراتيجيات للتخفيف من هذه التحديات، يُنصح المؤسسات بتجنب الاعتماد على مخرجات الذكاء الاصطناعي العام عند اتخاذ قرارات تجارية أو قرارات عامة حاسمة.

ردع تكنولوجيا المعلومات الخفية

يجب على المؤسسات تبني نهج موحد لاستخدام الذكاء الاصطناعي العام داخليًا. قد يؤدي عدم القدرة على ذلك إلى استخدام فرق مختلفة لأدوات الذكاء الاصطناعي العام المختلفة، مما يُعرّضها لمخاطر وتحديات أمنية وبيانات وخصوصية متباينة. وقد يكون تخفيف هذه المخاطر مُرهقًا للموارد التي يُمكن استغلالها بشكل أفضل في مجالات أخرى.

أقر بالمخاطر

تزايد عدد أدوات الذكاء الاصطناعي العام المتاحة في السوق بوتيرة مذهلة. ومع ذلك، لا تتساوى جميع هذه الأدوات. فإلى جانب جودة مخرجاتها، تختلف فيما بينها من حيث المخاطر التي تنطوي عليها، وذلك بسبب افتقار الأدوات المجانية إلى بروتوكولات موثوقة للخصوصية والأمان. هذا لا يعني أن الأدوات المدفوعة خالية من المخاطر، إذ تُقدم كل أداة مجموعة مختلفة من المخاطر والتحديات. يجب على المؤسسات فهم هذا الأمر والاعتراف به في استراتيجياتها الشاملة. AI governance نطاق.

احترام معاهدة وايتانغي

يتعين على المنظمات العاملة في نيوزيلندا والتي تتعامل مع بيانات النيوزيلنديين اتخاذ احتياطات إضافية في هذا الشأن. هذه التوصية ذات طابع أخلاقي أكثر منها عملي، إذ تدعو المنظمات التي تستخدم أدوات الذكاء الاصطناعي العام إلى التعاون الوثيق مع قبائل الماوري عند استخدام بياناتهم بطريقة قد تؤثر عليهم. ونظرًا لحساسية هذه المسألة، توصي الإرشادات بفهم أعمق لسياق العلاقة بين الماوري والتاج البريطاني. أما فيما يتعلق بالتدابير الدقيقة، فقد توفر حوكمة بيانات الماوري المعلومات اللازمة.

بالإضافة إلى ذلك، يوفر نهج العلاقة الحالي بين الماوري والتاج نموذجًا لمشاركة العلاقات يمكن للمنظمة وشركائها في معاهدة وايتانغي استخدامه عند اتخاذ القرارات المتعلقة ببيانات الماوري.

خطوات عملية لنشر الذكاء الاصطناعي بشكل آمن ومسؤول

تتعدد فوائد الذكاء الاصطناعي، وعند استخدامه بالشكل الأمثل، تستطيع المؤسسات تعظيم إنتاجيتها الحالية. مع ذلك، ثمة مخاطر عديدة مرتبطة باستخدام قدرات الجيل الجديد من الذكاء الاصطناعي. فإذا لم يُستخدم ويُدار بشكل سليم، قد تُلحق هذه المخاطر ضرراً بالغاً بثقة الجمهور في مصداقية المؤسسة وسمعتها.

للتخفيف من هذه المخاطر، يقدم الدليل المؤقت بعض الإرشادات العملية. وهي عبارة عن تدابير عملية يمكن للمؤسسات اتخاذها فيما يتعلق بنشر قدرات الذكاء الاصطناعي في الخدمة العامة:

بناء إطار عمل قوي لحوكمة البيانات

يجب على المؤسسات أن تضع تطوير إطار حوكمة بيانات قوي وموثوق في صدارة أولوياتها الشاملة AI governance تعتمد استراتيجية الذكاء الاصطناعي على البيانات التي تُدخلها المؤسسة، إذ أن أي مخرجات تُنتجها هذه الأنظمة ستعتمد على البيانات التي تُوفرها المؤسسة. ويتضمن إطار عمل شامل من هذا النوع عدة تدابير متعلقة بالحوكمة تُمكّن المؤسسة من استخدام موارد بياناتها بطريقة متوافقة مع القوانين واللوائح. ومن بين التدابير الأساسية التي يُمكن اعتمادها ما يلي:

  • تقليل البيانات : ينبغي جمع ومعالجة واستخدام وتخزين البيانات الضرورية فقط. وهذا لا يحدّ من احتمالية جمع بيانات غير ضرورية فحسب، بل يقلل أيضاً من الضرر المحتمل في حال حدوث اختراق للبيانات.
  • تحديد الغرض : تتمثل الخطوة الأولى في الحد من جمع البيانات ومعالجتها واستخدامها. ويجب أن يتبع ذلك ضمان تحديد أسباب واضحة للقيام بذلك. ستؤدي الأسباب الملموسة إلى أهداف شفافة، مما يسمح باتخاذ تدابير امتثال أكثر مباشرة في هذا الصدد.
  • الاحتفاظ بالبيانات : يُعدّ التخلص من البيانات بعد انتهاء الغرض منها جانبًا بالغ الأهمية في تحديد الغرض منها. لذا، ينبغي تطبيق تدابير وبروتوكولات أمنية مناسبة تتيح حذف البيانات وإتلافها بسلاسة بمجرد انتفاء الحاجة إليها.
  • Data Quality وإمكانية الوصول إليها : كلما كانت أعلى data quality كلما كانت دقة البيانات وملاءمتها وجودتها أفضل، كان الناتج الذي تُنتجه نماذج الذكاء الاصطناعي أفضل. إنها معادلة بسيطة، حيث أن ضمان دقة البيانات وملاءمتها وجودتها ينعكس مباشرةً على جودة الناتج. لذا، يجب اتخاذ التدابير المناسبة لضمان إمكانية الوصول إلى أي بيانات مُجمّعة وتصحيحها عند الضرورة.

التعليم والتدريب المستمر

قد تبدو هذه خطوة بسيطة، لكن على المؤسسات إيلاء اهتمام بالغ لضمان وجود برامج تدريبية وموارد تعليمية داخلية مستمرة تُبقي موظفيها على اطلاع بأفضل الممارسات المتعلقة بالاستخدام المسؤول للذكاء الاصطناعي. يُمكن لهذا أن يُقلل من خطر كبير تُعاني منه معظم المؤسسات، ألا وهو التهديدات الداخلية. ويمكن أن تتضمن هذه البرامج التدريبية والموارد التعليمية ما يلي:

  • التدريب المُخصَّص للأدوار الوظيفية : يُعدّ مصطلح "الموظفين" مصطلحاً واسعاً إلى حدٍّ ما. لذا، فإنّ تخصيص موارد التدريب المناسبة للأدوار الوظيفية المختلفة، بما يتوافق مع مسؤولياتها، واستخدامها الأمثل لموارد الذكاء الاصطناعي، يُمكن المؤسسات من ضمان تزويد جميع موظفيها بالمهارات والمعرفة اللازمة لاستخدام قدرات الذكاء الاصطناعي بمسؤولية.
  • تحديثات دورية : تُعدّ اللوائح المتعلقة بالخصوصية والذكاء الاصطناعي مجالًا شديد التطور. ونظرًا للتطورات شبه المستمرة، يجب تحديث هذه اللوائح باستمرار لمواكبة هذه التطورات. لذا، من الضروري تقييم وتحديث موارد التدريب المخصصة لتوعية الموظفين بكيفية استخدام قدرات الذكاء الاصطناعي بمسؤولية بشكل دوري.

المشاركة العامة والشفافية

أصبح المستهلك العصري أكثر وعياً بحقوقه من أي وقت مضى. وينطبق الأمر نفسه على استخدام بياناته بالتزامن مع تقنيات الذكاء الاصطناعي من قبل المؤسسات التي تقدم له منتجاتها وخدماتها. ويمكن لشفافية المؤسسات في هذا الشأن، من خلال توفير الموارد اللازمة لتبديد مخاوف الجمهور، أن تسهم بشكل كبير في بناء علاقة ثقة متينة. ومن الخطوات التي يمكن اتخاذها في هذا الصدد ما يلي:

  • المشاورات العامة : ينبغي أن يكون المستهلكون أولوية قصوى للمنظمات التي تهدف إلى استخدام الذكاء الاصطناعي بمسؤولية، ليس فقط لأغراض تنظيمية ولكن أيضًا للتعرف بشكل مباشر على التأثير المجتمعي المحتمل الذي يمكن أن يحدثه استخدام الذكاء الاصطناعي ومعالجة أي شكاوى بشكل مباشر.
  • تقارير الشفافية : بالإضافة إلى المشاورات العامة، يمكن نشر تقارير الشفافية الدورية التي تتضمن تفاصيل ومعلومات شاملة تتعلق باستخدام المنظمة لقدرات الذكاء الاصطناعي، والمخرجات التي تم إنشاؤها، والمنهجيات المستخدمة، والأهم من ذلك، كيف ساعدهم إطار الحوكمة المذكور أعلاه على الاستفادة من الذكاء الاصطناعي بشكل مسؤول.
  • قنوات التواصل مع أصحاب المصلحة : عند استخدام الذكاء الاصطناعي والبيانات معًا، ستتعامل المؤسسة مع عدد كبير من أصحاب المصلحة. من الضروري الحصول على رؤية دقيقة لهذا التفاعل، لا سيما مع الفئات المهمشة، لضمان اتخاذ قرارات شاملة واستخدام الذكاء الاصطناعي على النحو الأمثل.

تطوير الذكاء الاصطناعي الأخلاقي

يُتوقع أن يكون للذكاء الاصطناعي، بشكله الحالي، تأثير كبير على الأعمال والمجتمع والاتصالات كما نعرفها. وسيزداد هذا التأثير مع تطور قدرات الذكاء الاصطناعي. ويقع على عاتق المؤسسات التي تُطوّر وتُفعّل هذه القدرات مسؤولية اتخاذ التدابير اللازمة لضمان استخدام الذكاء الاصطناعي ضمن المعايير الأخلاقية. وتشمل هذه التدابير ما يلي:

  • الحد من التحيز : يُعدّ التحيز مصدر قلق بالغ عند استخدام قدرات الذكاء الاصطناعي. وقد ينشأ لأسباب عديدة، وقد يكون اكتشافه عملية معقدة. مع ذلك، يمكن للتقنيات المناسبة أن تكشف بشكل استباقي عن العناصر التي قد تؤدي إلى التحيز في مجموعات البيانات المدخلة، وأن تحدّ من تأثيرها، مما يضمن العدالة طوال دورة حياة استخدام الذكاء الاصطناعي.
  • قابلية التفسير : برز الذكاء الاصطناعي القابل للتفسير (XAI) كتحدٍّ بالغ الأهمية في استخدام الذكاء الاصطناعي داخل المؤسسات. فبينما يُحقق الذكاء الاصطناعي فوائد جمة وقفزات نوعية في الإنتاجية، غالبًا ما تحتاج المؤسسات إلى فهم أعمق لكيفية اتخاذ نماذج الذكاء الاصطناعي المُستخدمة لقراراتها. لذا، لا بد من اتخاذ خطوات لتوفير رؤية أوضح لكلٍّ من المستخدمين والموظفين الداخليين لعملية اتخاذ القرار في نماذج الذكاء الاصطناعي، وذلك لتعزيز المساءلة وضمان الامتثال لمتطلبات التوثيق ذات الصلة.
  • التدقيق الأخلاقي : يتضمن التدقيق الأخلاقي تقييمًا دقيقًا لإجراءات حوكمة المنظمة لضمان الامتثال للاعتبارات والمعايير الأخلاقية ذات الصلة. وتُسلط هذه التدقيقات الضوء على الثغرات المحتملة ومجالات التحسين.

الاستفادة من نقاط البيع الإلكترونية

لطالما كانت الخصوصية وستظل مصدر قلق رئيسي لمعظم العملاء. بل قد تزداد أهميتها في ظل استخدامات الذكاء الاصطناعي الحديثة وقدراته. لذا، ولتخفيف هذه المخاوف دون المساس بفوائد الذكاء الاصطناعي، يتعين على المؤسسات تبني إجراءات حماية البيانات الشخصية (PETs) بشكل استباقي ضمن عملياتها. وقد تشمل هذه الإجراءات ما يلي:

التشفير : لطالما اعتُبر التشفير المتطور الوسيلة الأكثر موثوقية وفعالية التي يمكن للمؤسسات استخدامها لضمان خصوصية جميع البيانات التي يتم جمعها. ولا يزال هذا الأمر ساريًا عند حماية البيانات في سياق استخدام الذكاء الاصطناعي. يمكن استخدام بروتوكولات تشفير متقدمة لضمان حماية جميع البيانات المخزنة، والمنقولة، والمستخدمة بشكل مناسب من التلاعب والوصول غير المصرح به.

الخصوصية التفاضلية : تُعدّ الخصوصية التفاضلية مفهومًا حديثًا نسبيًا في مجال أمن البيانات، إلا أنها أثبتت نجاحًا باهرًا للمؤسسات التي طبّقتها. تستطيع تقنيات الخصوصية التفاضلية إخفاء جميع مجموعات البيانات المُجمّعة على مستوى كل نقطة بيانات على حدة.

عمليات التدقيق والتقييم والتحقق من الامتثال

يُعدّ تطبيق جميع التدابير والتوصيات المذكورة آنفًا الخطوة الأولى. ومن الضروري تقييم قدرة هذه التدابير على الاستمرار في تحقيق أهدافها المرجوة في الوقت الفعلي. وبناءً على ذلك، تُعدّ التقييمات والتدقيقات وفحوصات الامتثال الدورية ضرورية. وتشمل هذه ما يلي:

  • عمليات التدقيق التكنولوجي : من خلال التدقيق التكنولوجي، يمكن للمؤسسات إجراء تقييم شامل ودقيق لجميع أنظمة الذكاء الاصطناعي المستخدمة داخل بنيتها التحتية لضمان استخدامها وفقًا للوائح ذات الصلة والاعتبارات الأخلاقية.
  • تدقيق الحوكمة : على غرار تدقيق التكنولوجيا، يتيح تدقيق الحوكمة تقييمًا مماثلًا لهيكل الحوكمة والعمليات والسياسات والآليات المطبقة حاليًا داخل المؤسسة. تُسلط هذه الممارسة الضوء على أي نقاط ضعف أو ثغرات محتملة، مما يسمح باتخاذ تدابير تصحيحية استباقية وفورية.
  • مراجعات الجهات الخارجية : بمجرد أن تتأكد المؤسسة من اتخاذها جميع الخطوات اللازمة لضمان توافق استخدامها لقدرات الذكاء الاصطناعي مع المتطلبات التنظيمية، يمكنها الاستعانة بمدققين مستقلين لإجراء عمليات تدقيق مماثلة. لا يُسهم ذلك في تعزيز الشفافية والثقة فحسب، بل يُزوّد ​​المؤسسة أيضًا برؤى قيّمة يمكن الاستفادة منها في عمليات التدقيق المستقبلية.

كيف Securiti يمكن المساعدة

تُقدّم التوجيهات المؤقتة للجيل القادم من الذكاء الاصطناعي، التي تم شرحها سابقاً، رؤى بالغة الأهمية حول التوجهات والأدوات والاستراتيجيات العامة التي يُتوقع من المؤسسات تبنيها لضمان الامتثال للوائح المستقبلية في هذا الشأن. وباتباع النهج الأمثل، ستتمكن المؤسسات من تحقيق أقصى استفادة من التطورات الهائلة في مجال الذكاء الاصطناعي، مع الحدّ من أي مخاطر محتملة.

هذا هو المكان Securiti يمكن أن يساعد ذلك مثل هذه المنظمات.

Securiti هو رائد في Data Command Center منصة مركزية تُمكّن من الاستخدام الآمن للبيانات والذكاء الاصطناعي العام. توفر هذه المنصة ذكاءً موحدًا للبيانات، وضوابط، وتنسيقًا عبر بيئات سحابية هجينة متعددة. وتعتمد عليها كبرى الشركات العالمية. Securiti 's Data Command Center لأغراض أمن البيانات والخصوصية والحوكمة والامتثال.

ال Data Command Center يضم مركز التحكم الرقمي (DCC) العديد من الوحدات والحلول المصممة لضمان الامتثال التنظيمي لأي التزامات متعلقة بالبيانات والذكاء الاصطناعي قد تخضع لها المؤسسة. لا تتميز هذه الحلول بسهولة استخدامها ونشرها فحسب، بل تتيح أيضًا إجراء تقييمات فورية لأنشطة المؤسسة، مما يُمكّن من التدخل الاستباقي عند الضرورة.

بالإضافة إلى مركز التحكم الرقمي، Securiti يوفر مسارًا من 5 خطوات إلى AI Governance يهدف ذلك إلى تمكين المؤسسات من اكتشاف وتقييم ورسم خرائط جميع نماذج وأنظمة الذكاء الاصطناعي المستخدمة مع تسهيل الضوابط المناسبة وتدابير الامتثال.

اطلب عرضًا تجريبيًا اليوم وتواصل معنا Securiti لمعرفة المزيد حول كيفية البقاء في طليعة المنافسة في الامتثال لمتطلبات البيانات والذكاء الاصطناعي التنظيمية ذات الصلة في نيوزيلندا.

اقتراح عنوان بديل

إدارة البيانات والخصوصية في عصر الذكاء الاصطناعي التوليدي في نيوزيلندا

قم بتحليل هذه المقالة باستخدام الذكاء الاصطناعي

تظهر المطالبات في أدوات الذكاء الاصطناعي التابعة لجهات خارجية.
انضم إلى قائمتنا البريدية

احصل على أحدث المعلومات والتحديثات القانونية والمزيد مباشرةً في بريدك الإلكتروني



قصص أخرى قد تهمك
مقاطع فيديو
عرض المزيد
ريحان جليل، من شركة Veeam، يتحدث عن Agent Commander: theCUBE + NYSE Wired: قادة الأمن السيبراني
بعد استحواذ شركة Veeam على Securiti يمثل إطلاق برنامج Agent Commander خطوة هامة نحو مساعدة المؤسسات على تبني وكلاء الذكاء الاصطناعي بثقة أكبر. في...
عرض المزيد
تخفيف مخاطر قائمة OWASP لأهم 10 مخاطر لتطبيقات ماجستير القانون 2025
أحدث الذكاء الاصطناعي التوليدي (GenAI) تحولاً جذرياً في طريقة عمل الشركات وتوسعها ونموها. يوجد تطبيق للذكاء الاصطناعي لكل غرض، بدءاً من زيادة إنتاجية الموظفين وصولاً إلى تبسيط العمليات...
عرض المزيد
أفضل 6 DSPM حالات الاستخدام
مع ظهور الذكاء الاصطناعي التوليدي (GenAI)، أصبحت البيانات أكثر ديناميكية. يتم توليد بيانات جديدة بوتيرة أسرع من أي وقت مضى، ونقلها إلى أنظمة وتطبيقات متنوعة...
عرض المزيد
قانون الخصوصية في كولورادو (CPA)
ما هو قانون خصوصية كولورادو؟ قانون خصوصية كولورادو هو قانون شامل لحماية الخصوصية، تم توقيعه في 7 يوليو 2021. وقد وضع معايير جديدة لحماية البيانات الشخصية...
عرض المزيد
Securiti لمساعد الطيار في البرمجيات كخدمة (SaaS)
تسريع اعتماد Copilot بأمان وثقة: تتطلع المؤسسات إلى اعتماد Microsoft 365 Copilot لزيادة الإنتاجية والكفاءة. ومع ذلك، تظل المخاوف الأمنية، مثل حماية البيانات...
عرض المزيد
أهم عشرة اعتبارات لاستخدام البيانات غير المهيكلة بأمان مع الذكاء الاصطناعي العام
نسبة مذهلة تصل إلى 90% من بيانات المؤسسات غير منظمة. وتُستخدم هذه البيانات بسرعة لتغذية تطبيقات الذكاء الاصطناعي من الجيل الجديد، مثل روبوتات الدردشة والبحث المدعوم بالذكاء الاصطناعي.
عرض المزيد
جينكور للذكاء الاصطناعي: بناء أنظمة ذكاء اصطناعي آمنة وعالية الجودة للمؤسسات في دقائق
مع تبني المؤسسات للذكاء الاصطناعي التوليدي، تواجه فرق البيانات والذكاء الاصطناعي العديد من العقبات: ربط مصادر البيانات غير المهيكلة والمهيكلة بشكل آمن، والحفاظ على الضوابط والحوكمة المناسبة،...
عرض المزيد
كيفية التعامل مع قانون حماية خصوصية المستهلك في كاليفورنيا: رؤى أساسية للشركات
ما هو قانون حقوق الخصوصية في كاليفورنيا (CPRA)؟ هو تشريع ولاية كاليفورنيا الذي يهدف إلى حماية خصوصية سكانها الرقمية. وقد دخل حيز التنفيذ في يناير...
عرض المزيد
التكيف مع التحول: الانتقال إلى معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS) الإصدار 4.0
ما هو معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS)؟ هو مجموعة من معايير الأمان لضمان المعالجة والتخزين الآمنين للبيانات، و...
عرض المزيد
تأمين البيانات والذكاء الاصطناعي: دليل إدارة الثقة والمخاطر والأمن (TRiSM)
أثارت المخاطر الأمنية المتزايدة للذكاء الاصطناعي قلق 48% من مسؤولي أمن المعلومات حول العالم. انضموا إلى هذه الجلسة الرئيسية للتعرف على دليل عملي لتمكين الثقة في الذكاء الاصطناعي، وإدارة المخاطر،...

جلسات حوارية مميزة

تسليط الضوء 50:52
من البيانات إلى النشر: حماية الذكاء الاصطناعي المؤسسي من خلال الأمن والحوكمة
شاهد الآن منظر
تسليط الضوء 11:29
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
شاهد الآن منظر
تسليط الضوء 11:18
إعادة هيكلة تمويل العقارات - كيف تُجري شركة ووكر آند دنلوب تحديثًا لمحفظتها الاستثمارية البالغة 135 مليار دولار أمريكي بالاعتماد على البيانات أولاً
شاهد الآن منظر
تسليط الضوء 13:38
تسريع المعجزات - كيف تُدمج شركة سانوفي الذكاء الاصطناعي لتقليص مدة تطوير الأدوية بشكل كبير
صورة مصغرة لشركة سانوفي
شاهد الآن منظر
تسليط الضوء 10:35
حدث تحول جوهري في مركز ثقل البيانات
شاهد الآن منظر
تسليط الضوء 14:21
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
شاهد الآن منظر
تسليط الضوء 12:!3
لا يمكنك بناء خطوط الأنابيب أو المستودعات أو منصات الذكاء الاصطناعي بدون معرفة تجارية
شاهد الآن منظر
تسليط الضوء 47:42
الأمن السيبراني – حيث يقوم القادة بالشراء والبناء والشراكة
ريحان جليل
شاهد الآن منظر
تسليط الضوء 27:29
بناء ذكاء اصطناعي آمن باستخدام Databricks و Gencore
ريحان جليل
شاهد الآن منظر
تسليط الضوء 46:02
بناء ذكاء اصطناعي آمن للمؤسسات: خارطة طريق عملية
شاهد الآن منظر
أحدث
عرض المزيد
نقدم لكم قائد العملاء
إن وعود وكلاء الذكاء الاصطناعي مذهلة - فالأنظمة الذكية التي تتخذ القرارات، وتستخدم الأدوات، وتؤتمت سير العمل المعقد، تعمل كمضاعفات قوة لكل معرفة...
عزل المخاطر: أكبر مشكلة في الذكاء الاصطناعي لا تتحدث عنها مجالس الإدارة عرض المزيد
عزل المخاطر: أكبر مشكلة في الذكاء الاصطناعي لا تتحدث عنها مجالس الإدارة
تتابع مجالس الإدارة نقاش الذكاء الاصطناعي، لكن هناك نقطة عمياء لم تُشر إليها العديد من المؤسسات بعد: وهي عزلة أقسام إدارة المخاطر. الجميع متفقون على ذلك. AI governance ...
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ قانون حماية خصوصية المستهلك في كاليفورنيا؟ عرض المزيد
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ القانون؟
يمكن للشركات أن تستفيد من بعض الدروس الحيوية من أكبر إجراء إنفاذي تم اتخاذه مؤخراً في تاريخ قانون خصوصية المستهلك في كاليفورنيا (CCPA). Securiti مدونة 's تغطي جميع التفاصيل المهمة التي يجب معرفتها.
عرض المزيد
الذكاء الاصطناعي وقانون HIPAA: ما يعنيه وكيفية أتمتة الامتثال
تعرّف على كيفية تطبيق قانون قابلية نقل التأمين الصحي والمساءلة (HIPAA) على الذكاء الاصطناعي في تأمين المعلومات الصحية المحمية. تعلّم كيف...
عرض المزيد
من وضوح البيانات إلى سرعة الذكاء الاصطناعي
اطلع على الورقة البيضاء واكتشف كيف يتم توحيد DataAI security يحوّل إدارة البيانات إلى عامل تمكين للأعمال، ويعزز ابتكار الذكاء الاصطناعي من خلال الشفافية والامتثال وإدارة المخاطر...
عرض المزيد
دليل تنفيذ قانون بيانات الاتحاد الأوروبي: التعامل مع طلبات الوصول إلى البيانات، ومشاركة البيانات، والتحويل السحابي
Securiti توفر الورقة البيضاء الخاصة بـ دليل تنفيذ مفصل لتحقيق الامتثال لقانون البيانات، مما يجعلها قراءة أساسية للشركات التي تعمل بالبيانات في الاتحاد الأوروبي.
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti عرض المزيد
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti
التزم بتعديلات قانون خصوصية المستهلك في كاليفورنيا لعام 2026 باستخدام Securiti وتشمل هذه المتطلبات تحديث متطلبات الموافقة، وتوسيع تعريفات البيانات الحساسة، وتعزيز حقوق المستهلك، وتقييمات الجاهزية.
عرض المزيد
أين تنتهك الخصوصية: الذكاء الاصطناعي الوكيل في المؤسسات
يُحدث الذكاء الاصطناعي الآلي تحولاً جذرياً في المؤسسات، ولكن ما هو ثمن ذلك على الخصوصية؟ اكتشف أهم 10 مخاطر، والضوابط الرئيسية، وكيفية التعامل معها. Securiti يُمكّن من تحقيق الأمان والتوسع...
عرض المزيد
تخلص من مخاطر البيانات في الذكاء الاصطناعي
تعرف على كيفية إعداد بيانات المؤسسة لاعتماد Gemini Enterprise بشكل آمن من خلال الحوكمة الأولية، واكتشاف البيانات الحساسة، وضوابط سياسة ما قبل الفهرسة.
عرض المزيد
دليل الحصول على شهادة HITRUST
Securiti يُعد الكتاب الإلكتروني دليلاً عملياً للحصول على شهادة HITRUST، ويغطي كل شيء بدءاً من اختيار i1 مقابل r2 ونطاق الأنظمة وصولاً إلى إدارة خطط العمل والتخطيط...
ما هو
جديد