الإعلان عن Agent Commander - أول حل متكامل من Veeam + Securiti .ai تمكين توسيع نطاق وكلاء الذكاء الاصطناعي الآمنين

منظر

جولة فيمون 2026 - البيانات والذكاء الاصطناعي يتلاقيان من أجل عصر الوكلاء

منظر

التعامل مع خصوصية الذكاء الاصطناعي التوليدي: التحديات ونصائح الحماية

المساهمون

أنس بيج

مدير تسويق المنتجات في Securiti

عمر عمران مالك

Data Privacy مدير الشؤون القانونية، Securiti

FIP، CIPT، CIPM، CIPP/US

نُشر في ٢١ سبتمبر ٢٠٢٣ / تم التحديث في ٧ مارس ٢٠٢٤

مقدمة

لقد أدى ظهور الذكاء الاصطناعي التوليدي إلى ظهور حقبة جديدة من الابتكار في المشهد التكنولوجي المتطور باستمرار والذي يدفع حدود ما يمكن للآلات تحقيقه من خلال التعلم عن المحتوى أو الأشياء من بيانات الإدخال الخاصة بها واستخدامها لتوليد بيانات جديدة تمامًا وأصلية بالكامل.

تشير أحدث دراسات ماكينزي إلى أن تأثير الذكاء الاصطناعي التوليدي على الإنتاجية قد يُضيف ما بين 2.6 تريليون دولار و4.4 تريليون دولار سنويًا إلى الاقتصاد العالمي. وتمثل هذه القيمة الهائلة استفادة مختلف القطاعات من قوة الذكاء الاصطناعي التوليدي.

يُعزى هذا التقدم الهائل إلى البيانات، حيث تقوم المؤسسات بتجميع كميات هائلة منها في الحوسبة السحابية لتشغيل تطبيقات فائقة التوسع مصممة خصيصاً للعمل على السحابة. وتتوقع مؤسسة غارتنر أن تصل نسبة الذكاء الاصطناعي التوليدي إلى 10% من إجمالي البيانات المنتجة بحلول عام 2025، مقارنةً بأقل من 1% اليوم.

مع تزايد حجم البيانات وتحول الذكاء الاصطناعي التوليدي لطريقة تعاملنا مع الابتكار وحل المشكلات، من الضروري معالجة جانب حاسم غالباً ما يتم تجاهله وسط الإمكانيات المذهلة – data privacy و data privacy حماية.

يستكشف هذا الدليل التقاطع الرائع بين الذكاء الاصطناعي التوليدي وحماية الخصوصية، وتحدياته، ونصائح الحماية التي يمكن أن تساعد المؤسسات على التنقل بمسؤولية في هذه المناطق المجهولة.

مخاوف الخصوصية في عصر الذكاء الاصطناعي التوليدي

رغم أن الذكاء الاصطناعي التوليدي يبشر بتطورات هائلة، إلا أنه لا يخلو من التحديات. وتُعدّ الخصوصية من أبرز هذه التحديات. فعندما لا تُدرَّب النماذج باستخدام خوارزميات تحافظ على الخصوصية، فإنها تصبح عرضةً للعديد من المخاطر والهجمات المتعلقة بالخصوصية.

يُنتج الذكاء الاصطناعي التوليدي بيانات جديدة، تُشابه في سياقها بيانات التدريب، مما يجعل من الضروري ضمان خلو بيانات التدريب من المعلومات الحساسة. مع ذلك، يبقى احتمال توليد محتوى ينتهك خصوصية الأفراد، لا سيما البيانات الحساسة، قائماً، إذ تتعلم نماذج الذكاء الاصطناعي من بيانات التدريب - وهي قواعد بيانات ضخمة مُستقاة من مصادر متعددة تحتوي على بيانات شخصية، غالباً دون موافقة صريحة من الأفراد.

تُدرَّب نماذج اللغة الضخمة، وهي فرع من الذكاء الاصطناعي التوليدي، على تريليونات الكلمات عبر العديد من مهام اللغة الطبيعية. ورغم نجاحها، تشير الدراسات إلى أن هذه النماذج الضخمة تُشكّل مخاطر على الخصوصية نظرًا لقدرتها على حفظ كميات هائلة من بيانات التدريب، بما في ذلك البيانات الحساسة، والتي قد تُكشف عن طريق الخطأ ويستخدمها المهاجمون لأغراض خبيثة.

إن قدرة أنظمة إدارة البيانات على الحفظ والربط تجعلها قادرة على إنتاج نتائج دقيقة للغاية، لكنها تشكل في الوقت نفسه تهديدًا كبيرًا للخصوصية عند كشف البيانات الحساسة . تُعرف قدرة هذه الأنظمة على حفظ البيانات الشخصية بالحفظ، بينما يُعرف ربط البيانات الشخصية للفرد بصاحبها بالربط.

تُؤدي الخصائص الفريدة للذكاء الاصطناعي التوليدي إلى ظهور أساليب هجوم جديدة تستهدف البيانات الحساسة. وتشمل تطبيقات الذكاء الاصطناعي التوليدي ما يلي: ChatGPT وقد أدى ازدياد قبولها إلى ظهور العديد من المخاوف المتعلقة بالخصوصية عندما تستجيب بعض المطالبات بمعلومات تتضمن بيانات حساسة كجزء من الردود.

تزيد هجمات تسريب البيانات من تفاقم الوضع. تُشير الأبحاث إلى كيفية استخدام هذه الهجمات لسرقة بيانات التدريب. على سبيل المثال، قد يصل شخص غير مُصرَّح له إلى مجموعة بيانات التدريب ويسرق البيانات أو ينقلها أو يُحوّلها. بالإضافة إلى ذلك، مع ازدياد قابلية التنبؤ بالنماذج، قد تؤدي بعض المطالبات إلى الكشف عن بيانات أكثر مما كان مُخططًا له في الأصل، مثل البيانات الحساسة.

بالإضافة إلى ذلك، من خلال دمج التطبيقات غير المعتمدة التي تستخدم الذكاء الاصطناعي التوليدي في أنظمة الأعمال الحيوية، فإن المؤسسات تخاطر بانتهاكات الامتثال واختراقات البيانات، مما يستلزم الحاجة إلى إجراء تقييمات دورية للمخاطر، وتدابير فعالة لحماية الخصوصية، والحصول على موافقة مستنيرة، وتنفيذ تدابير إخفاء هوية البيانات.

أدى صعود الذكاء الاصطناعي التوليدي إلى زيادة التركيز على الآثار الأخلاقية والقانونية لاستخدام الذكاء الاصطناعي. يجب أن تلتزم معالجة البيانات الشخصية بإرشادات صارمة تحددها جهات معينة. data privacy قوانين مثل اللائحة العامة لحماية البيانات (GDPR) وقانون حقوق الخصوصية في كاليفورنيا (CPRA) وقوانين خاصة بالذكاء الاصطناعي مثل قانون الذكاء الاصطناعي للاتحاد الأوروبي (قانون الذكاء الاصطناعي للاتحاد الأوروبي) .

يُعرّض الذكاء الاصطناعي التوليدي هوية الأفراد للخطر من خلال البيانات المُنتجة، مما يُصعّب الامتثال للقوانين التي تُنظّم استخدام الذكاء الاصطناعي. ويُثير تحقيق التوازن بين التقدّم التكنولوجي والامتثال تساؤلاً هاماً: هل سيكون الذكاء الاصطناعي التوليدي ابتكاراً ثورياً يُفيد المستخدمين أم سيُصبح مصدر قلق في المستقبل؟

ليس سراً أننا نعيش في عصر ما بعد اللائحة العامة لحماية البيانات (GDPR)، حيث تتسابق دول العالم لتطبيق قوانينها الخاصة. data privacy تشريعات مماثلة للالتزامات المنصوص عليها في اللائحة العامة لحماية البيانات (GDPR) للاتحاد الأوروبي. ولذلك، تُعدّ الموافقة الجانب الأكثر أهمية، حيث يجب على النماذج الحصول على موافقة مستنيرة وصريحة، وضمان شفافية أنشطة معالجة البيانات ، واحترام حقوق أصحاب البيانات.

بالإضافة إلى ذلك، يمكن للمواد المُولَّدة بواسطة الذكاء الاصطناعي أن تتجاوز الحدود الوطنية بسهولة، مما يُثير نزاعات بين مختلف الأنظمة القانونية وقواعد الملكية الفكرية، ويُؤدي إلى تحديات قضائية. وهذا يستلزم وجود بنود تعاقدية قياسية وقواعد ملزمة للشركات عند انتقال محتوى الذكاء الاصطناعي عبر الحدود. علاوة على ذلك، قد يكون تحديد ملكية وحقوق المحتوى المُولَّد بواسطة الذكاء الاصطناعي مُربكًا عندما يتلاشى الفاصل بين الإبداع البشري والآلي، مما يُسبب تضاربًا في المصالح.

تتزايد قوانين الذكاء الاصطناعي وقوانين حماية البيانات على مستوى العالم. إليكم قائمة بالقوانين واللوائح الخاصة بالذكاء الاصطناعي التي تنظم الاستخدام الآمن لنماذج الذكاء الاصطناعي التوليدي:

التعامل مع خصوصية الذكاء الاصطناعي التوليدي | التحديات ونصائح الحماية

النداء المتزايد لـ Data Privacy في الذكاء الاصطناعي التوليدي

تأتي الإمكانات الهائلة للذكاء الاصطناعي التوليدي مصحوبة بآثار معقدة، لا سيما فيما يتعلق data privacy والأخلاقيات والأطر القانونية. قد يكون لعدم ضمان خصوصية البيانات الحساسة آثارٌ بعيدة المدى. يجب على التطبيقات التي تستخدم الذكاء الاصطناعي التوليدي الالتزام بجميع القوانين واللوائح المعمول بها، لا سيما في قطاعات مثل الرعاية الصحية، حيث يتم التعامل مع كميات هائلة من البيانات الحساسة.

تتزايد خروقات البيانات من حيث التكرار والتعقيد، مما يستلزم من المؤسسات اتباع نهج استباقي في التعامل مع البيانات بشكل آمن. ويمكن أن تترتب على هذه المخاطر عواقب وخيمة، تتراوح بين الخسائر المالية وتشويه السمعة وصولاً إلى الغرامات التنظيمية.

في 27 يوليو، فرضت لجنة حماية المعلومات الشخصية في كوريا الجنوبية غرامة قدرها 3.6 مليون وون على شركة OpenAI، المشغلة لـ ChatGPT ، وذلك لكشفه البيانات الشخصية لـ 687 مواطنًا من كوريا الجنوبية. بالإضافة إلى ذلك، في 20 مارس 2023، ChatGPT واجهت الشركة خللاً برمجياً مكّن بعض المستخدمين من الاطلاع على ملخصات لمحادثات المستخدمين الآخرين من الشريط الجانبي لسجل الدردشة، مما دفعها إلى إيقاف برنامج الدردشة الآلي مؤقتاً. وقد كشف هذا الخلل عن بيانات متعلقة بالدفع تخص 1.2% من إجمالي المستخدمين. ChatGPT للمشتركين المميزين.

نصائح لحماية الأطفال Data Privacy حماية

يتطلب حماية البيانات في عصر الذكاء الاصطناعي التوليدي نهجاً متعدد الأوجه يوازن بين الابتكار والخصوصية.

  • ضمان الامتثال التنظيمي : يختلف الإطار التنظيمي للذكاء الاصطناعي التوليدي باختلاف الاختصاص القضائي. ففي الاتحاد الأوروبي، يفرض النظام الأوروبي العام لحماية البيانات (GDPR) لوائح صارمة بشأن معالجة البيانات الشخصية، بما في ذلك المعلومات التي تنتجها أو تعالجها أنظمة الذكاء الاصطناعي. ويتعين على المؤسسات التي تستخدم الذكاء الاصطناعي التوليدي في الاتحاد الأوروبي اتباع المبادئ التوجيهية للنظام الأوروبي العام لحماية البيانات، والتي تشمل تقليل البيانات، والحصول على الموافقة، والحق في التوضيح. بالإضافة إلى ذلك، تنص المادة 22 من النظام الأوروبي العام لحماية البيانات على أن لصاحب البيانات الحق في عدم الخضوع لقرار يستند فقط إلى معالجة آلية، بما في ذلك التنميط ، والذي ينتج عنه آثار قانونية تتعلق به أو تؤثر عليه بشكل مماثل. أما في الولايات المتحدة، فيمنح قانون حماية خصوصية المستهلك في كاليفورنيا (CPRA) الأفراد الحق في رفض اتخاذ القرارات الآلية، حيث يمكن لسكان كاليفورنيا رفض استخدام بياناتهم الشخصية والبيانات الشخصية الحساسة للتوصل إلى استنتاجات آلية، مثل التنميط لأغراض الإعلانات السلوكية المستهدفة. علاوة على ذلك، يحق لسكان كاليفورنيا أيضًا معرفة المزيد عن عملية اتخاذ القرارات الآلية، حيث يمكنهم طلب معلومات حول كيفية عمل تقنيات اتخاذ القرارات الآلية ونتائجها المحتملة. بموجب قانون الذكاء الاصطناعي والبيانات الكندي (AIDA)، إذا كان الشخص مسؤولاً عن نظام ذي تأثير كبير، فعليه، وفقًا للوائح، وضع تدابير لتحديد وتقييم وتخفيف مخاطر الضرر أو المخرجات المتحيزة التي قد تنتج عن استخدام النظام.
  • موافقة المستخدم والشفافية : عند الضرورة، يجب الحصول على موافقة صريحة من المستخدم قبل استخدام بياناته لأغراض الذكاء الاصطناعي التوليدي. يجب منح أصحاب البيانات الحق في رفض استخدام بياناتهم الشخصية من قبل أنظمة الذكاء الاصطناعي (أو الموافقة أو سحب الموافقة) عند جمع بياناتهم الشخصية. يجب ضمان الشفافية من خلال إبلاغ المستخدمين بالاستخدام المقصود لبياناتهم والإجراءات الأمنية المطبقة لضمان خصوصية وأمان بياناتهم، بالإضافة إلى مصدر بيانات التدريب.
  • تقليل البيانات : يجب الحصول على الحد الأدنى من البيانات الضرورية لتدريب الذكاء الاصطناعي والاحتفاظ بها فقط. يساهم الحد من كمية البيانات الحساسة في تقليل المخاطر المحتملة المرتبطة باختراقات البيانات أو الكشف غير المقصود عنها.
  • تصنيف أنظمة الذكاء الاصطناعي وتقييم المخاطر : اكتشف جميع نماذج الذكاء الاصطناعي المستخدمة وقم بإعداد قائمة بها. قيّم مخاطر نموذج الذكاء الاصطناعي الخاص بك في مراحل ما قبل التطوير، والتطوير، وما بعد التطوير، ووثّق إجراءات التخفيف من هذه المخاطر. يجب عليك أيضًا تصنيف نظام الذكاء الاصطناعي الخاص بك، وإجراء تحليل للتحيزات، وما إلى ذلك.
  • إخفاء الهوية وإزالة البيانات التعريفية : استخدم تقنيات إخفاء هوية قوية لإزالة البيانات التعريفية الشخصية من البيانات قبل إدخالها إلى النماذج التوليدية. الخصوصية التفاضلية مفهوم راسخ في مجال الخصوصية، يوفر ضمانات قوية لخصوصية السجلات الفردية في مجموعة بيانات التدريب. وهذا يمنع المواد المولدة بواسطة الذكاء الاصطناعي من كشف بيانات حساسة عن أشخاص محددين.
  • تخزين البيانات ونقلها بشكل آمن : احرص على استخدام تقنيات التشفير وإجراءات الحماية المناسبة لتخزين البيانات اللازمة لتدريب النماذج التوليدية وتحسينها. استخدم قنوات مشفرة لنقل البيانات بين الأنظمة لمنع الوصول غير المصرح به.
  • التحكم في الوصول : تطبيق ضوابط وصول صارمة وفرض نموذج وصول بأقل الامتيازات للحد من إمكانية الوصول إلى نماذج الذكاء الاصطناعي التوليدية والبيانات التي تولدها واستخدامها. يضمن الوصول القائم على الأدوار أن الأفراد المصرح لهم فقط هم من يمكنهم التفاعل مع البيانات الحساسة.
  • المراجعة الأخلاقية : وضع إجراء للمراجعة الأخلاقية لتقييم الآثار المحتملة للمحتوى الذي ينتجه الذكاء الاصطناعي. ينبغي أن يركز هذا التقييم على مخاوف الخصوصية لضمان امتثال المادة للمعايير الأخلاقية وقوانين حماية البيانات .
  • نشر إشعارات الخصوصية : تطوير ونشر سياسات شاملة لحوكمة البيانات تحدد كيفية جمع البيانات واستخدامها وتخزينها والتخلص منها، إلى جانب شرح العوامل التي سيتم استخدامها في اتخاذ القرارات الآلية، والمنطق المستخدم، والحقوق المتاحة لأصحاب البيانات.
  • خوارزميات الذكاء الاصطناعي الشفافة : استخدم خوارزميات ذكاء اصطناعي توليدية شفافة ومفهومة. يُمكّن هذا من اكتشاف كيفية إنتاج النموذج للمحتوى وتحديد أي مشكلات محتملة تتعلق بالخصوصية. أضف وحدةً للكشف عن وجود بيانات حساسة في النص الناتج. في حال اكتشافها، يجب على النموذج رفض الإجابة أو إخفاء أي بيانات حساسة تم اكتشافها.
  • التدقيق الدوري : إجراء عمليات تدقيق دورية لمراقبة المحتوى المُنشأ بواسطة الذكاء الاصطناعي بحثًا عن مخاطر تتعلق بالخصوصية. تطبيق آليات لتحديد ومعالجة أي حالات قد تتعرض فيها البيانات الحساسة للخطر.

تتطلب خصوصية الذكاء الاصطناعي التوليدي مركز قيادة البيانات

مع استمرار تطور الذكاء الاصطناعي التوليدي، ستظل تحديات حماية الخصوصية قائمة. وسيتحدد مستقبل الذكاء الاصطناعي التوليدي من خلال تحقيق توازن فعال بين التقدم التكنولوجي وضمان حماية الخصوصية.

من المهم إدراك أن البيانات تُعدّ مدخلاً أساسياً للذكاء الاصطناعي التوليدي. فبمجرد إدخال بيانات حساسة إلى نموذج التدريب، لا يستطيع النموذج التخلص منها، مما يسمح للمهاجمين باستخدام تقنيات تسريب البيانات المختلفة لكشفها.

Securiti Data Command Center يمكن أن يساعد في تطبيق استراتيجية للتحكم في البيانات تُمكّنك من ضمان عدم انتهاك بيانات تدريب النموذج لمتطلبات الخصوصية. وهو يساعد في:

  • جرد شامل للبيانات الموجودة؛
  • تصنيف البيانات السياقية لتحديد البيانات الحساسة/البيانات السرية؛
  • الامتثال للوائح التي تنطبق على البيانات التي يتم إدخالها إلى نموذج التدريب، بما في ذلك تلبية متطلبات الموافقة على البيانات والإقامة والاحتفاظ بها؛
  • جرد لجميع نماذج الذكاء الاصطناعي التي يتم تغذية البيانات إليها عبر مسارات البيانات المختلفة؛
  • إدارة حقوق الوصول إلى البيانات من خلال ضوابط وصول دقيقة، أو إخفاء ديناميكي، أو تقنيات الخصوصية التفاضلية؛ و
  • تمكين data security posture management لضمان بقاء البيانات آمنة في جميع الأوقات.

اطلب عرضًا تجريبيًا اليوم لتشاهد بنفسك Securiti أثناء العمل.


أهم النقاط الرئيسية:

  1. الأثر الاقتصادي للذكاء الاصطناعي التوليدي: تشير تقديرات ماكينزي إلى أن الذكاء الاصطناعي التوليدي يمكن أن يضيف ما بين 2.6 إلى 4.4 تريليون دولار سنوياً إلى الاقتصاد العالمي، مما يسلط الضوء على إمكاناته الكبيرة في مختلف الصناعات.
  2. تحديات Data Privacy : على الرغم من إمكانات الذكاء الاصطناعي التوليدي، إلا أنه يثير مخاوف كبيرة data privacy ، لا سيما عندما يتم تدريب النماذج بدون خوارزميات تحافظ على الخصوصية، مما يعرض للخطر الكشف عن المعلومات الشخصية الحساسة.
  3. مخاطر الخصوصية مع نماذج اللغة الكبيرة (LLMs): تشكل نماذج اللغة الكبيرة، وهي مجموعة فرعية من الذكاء الاصطناعي التوليدي، مخاطر على الخصوصية من خلال إمكانية حفظ البيانات الحساسة من مجموعات بيانات التدريب الخاصة بها وكشفها، مما يؤدي إلى انتهاكات الخصوصية.
  4. هجمات تسريب البيانات: نماذج الذكاء الاصطناعي التوليدي عرضة لهجمات تسريب البيانات، حيث يمكن للأفراد غير المصرح لهم الوصول إلى بيانات التدريب وسرقتها، بما في ذلك المعلومات الحساسة.
  5. الاعتبارات القانونية والأخلاقية: يجب أن يتوافق استخدام الذكاء الاصطناعي التوليدي مع data privacy قوانين مثل اللائحة العامة لحماية البيانات (GDPR) وقانون حماية خصوصية المستهلك في كاليفورنيا (CPRA) وقانون الذكاء الاصطناعي للاتحاد الأوروبي، مع التركيز على الموافقة المستنيرة والشفافية وحقوق أصحاب البيانات.
  6. التعامل مع الخصوصية في الذكاء الاصطناعي التوليدي: يجب على المؤسسات ضمان الامتثال التنظيمي، والحصول على موافقة المستخدم، وممارسة تقليل البيانات، وإخفاء هوية البيانات، وتأمين تخزين البيانات ونقلها، وإجراء عمليات تدقيق منتظمة لحماية الخصوصية في عصر الذكاء الاصطناعي التوليدي.
  7. نصائح للحماية: نصائح لحماية الآخرين data privacy وتشمل هذه الإجراءات ضمان الامتثال التنظيمي، والحصول على موافقة صريحة من المستخدم، وتقليل جمع البيانات، وتطبيق تقنيات إخفاء الهوية، وتنفيذ ضوابط تخزين البيانات والوصول إليها بشكل آمن.
  8. حماية الخصوصية باستخدام الذكاء الاصطناعي التوليدي مع Data Command Center Securiti : Securiti تقدم حلولاً لمساعدة المؤسسات على إدارة تحديات الخصوصية المرتبطة بالذكاء الاصطناعي التوليدي، بما في ذلك قوائم جرد البيانات الشاملة، وتصنيف البيانات السياقي، والامتثال للوائح البيانات، وجرد نماذج الذكاء الاصطناعي، وإدارة الحقوق، و data security posture management .
  9. أهمية اتباع نهج استباقي: نظراً لتزايد وتيرة وتعقيد اختراقات البيانات، فإن اتباع نهج استباقي لـ data privacy والأمن أمر ضروري للمؤسسات التي تستفيد من تقنيات الذكاء الاصطناعي التوليدي.
  10. اللوائح والامتثال العالمي للذكاء الاصطناعي: مع التركيز العالمي المتزايد على لوائح الذكاء الاصطناعي وقوانين حماية البيانات، يجب على المؤسسات التي تستخدم الذكاء الاصطناعي التوليدي أن تتنقل في بيئة قانونية معقدة، مما يضمن الامتثال لكل من لوائح حماية البيانات العامة والقوانين الخاصة بالذكاء الاصطناعي.

قم بتحليل هذه المقالة باستخدام الذكاء الاصطناعي

تظهر المطالبات في أدوات الذكاء الاصطناعي التابعة لجهات خارجية.
انضم إلى قائمتنا البريدية

احصل على أحدث المعلومات والتحديثات القانونية والمزيد مباشرةً في بريدك الإلكتروني



قصص أخرى قد تهمك
مقاطع فيديو
عرض المزيد
ريحان جليل، من شركة Veeam، يتحدث عن Agent Commander: theCUBE + NYSE Wired: قادة الأمن السيبراني
بعد استحواذ شركة Veeam على Securiti يمثل إطلاق برنامج Agent Commander خطوة هامة نحو مساعدة المؤسسات على تبني وكلاء الذكاء الاصطناعي بثقة أكبر. في...
عرض المزيد
تخفيف مخاطر قائمة OWASP لأهم 10 مخاطر لتطبيقات ماجستير القانون 2025
أحدث الذكاء الاصطناعي التوليدي (GenAI) تحولاً جذرياً في طريقة عمل الشركات وتوسعها ونموها. يوجد تطبيق للذكاء الاصطناعي لكل غرض، بدءاً من زيادة إنتاجية الموظفين وصولاً إلى تبسيط العمليات...
عرض المزيد
أفضل 6 DSPM حالات الاستخدام
مع ظهور الذكاء الاصطناعي التوليدي (GenAI)، أصبحت البيانات أكثر ديناميكية. يتم توليد بيانات جديدة بوتيرة أسرع من أي وقت مضى، ونقلها إلى أنظمة وتطبيقات متنوعة...
عرض المزيد
قانون الخصوصية في كولورادو (CPA)
ما هو قانون خصوصية كولورادو؟ قانون خصوصية كولورادو هو قانون شامل لحماية الخصوصية، تم توقيعه في 7 يوليو 2021. وقد وضع معايير جديدة لحماية البيانات الشخصية...
عرض المزيد
Securiti لمساعد الطيار في البرمجيات كخدمة (SaaS)
تسريع اعتماد Copilot بأمان وثقة: تتطلع المؤسسات إلى اعتماد Microsoft 365 Copilot لزيادة الإنتاجية والكفاءة. ومع ذلك، تظل المخاوف الأمنية، مثل حماية البيانات...
عرض المزيد
أهم عشرة اعتبارات لاستخدام البيانات غير المهيكلة بأمان مع الذكاء الاصطناعي العام
نسبة مذهلة تصل إلى 90% من بيانات المؤسسات غير منظمة. وتُستخدم هذه البيانات بسرعة لتغذية تطبيقات الذكاء الاصطناعي من الجيل الجديد، مثل روبوتات الدردشة والبحث المدعوم بالذكاء الاصطناعي.
عرض المزيد
جينكور للذكاء الاصطناعي: بناء أنظمة ذكاء اصطناعي آمنة وعالية الجودة للمؤسسات في دقائق
مع تبني المؤسسات للذكاء الاصطناعي التوليدي، تواجه فرق البيانات والذكاء الاصطناعي العديد من العقبات: ربط مصادر البيانات غير المهيكلة والمهيكلة بشكل آمن، والحفاظ على الضوابط والحوكمة المناسبة،...
عرض المزيد
كيفية التعامل مع قانون حماية خصوصية المستهلك في كاليفورنيا: رؤى أساسية للشركات
ما هو قانون حقوق الخصوصية في كاليفورنيا (CPRA)؟ هو تشريع ولاية كاليفورنيا الذي يهدف إلى حماية خصوصية سكانها الرقمية. وقد دخل حيز التنفيذ في يناير...
عرض المزيد
التكيف مع التحول: الانتقال إلى معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS) الإصدار 4.0
ما هو معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS)؟ هو مجموعة من معايير الأمان لضمان المعالجة والتخزين الآمنين للبيانات، و...
عرض المزيد
تأمين البيانات والذكاء الاصطناعي: دليل إدارة الثقة والمخاطر والأمن (TRiSM)
أثارت المخاطر الأمنية المتزايدة للذكاء الاصطناعي قلق 48% من مسؤولي أمن المعلومات حول العالم. انضموا إلى هذه الجلسة الرئيسية للتعرف على دليل عملي لتمكين الثقة في الذكاء الاصطناعي، وإدارة المخاطر،...

جلسات حوارية مميزة

تسليط الضوء
الاستعداد للمستقبل لمحترفي الخصوصية
شاهد الآن منظر
تسليط الضوء 50:52
من البيانات إلى النشر: حماية الذكاء الاصطناعي المؤسسي من خلال الأمن والحوكمة
شاهد الآن منظر
تسليط الضوء 11:29
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
شاهد الآن منظر
تسليط الضوء 11:18
إعادة هيكلة تمويل العقارات - كيف تُجري شركة ووكر آند دنلوب تحديثًا لمحفظتها الاستثمارية البالغة 135 مليار دولار أمريكي بالاعتماد على البيانات أولاً
شاهد الآن منظر
تسليط الضوء 13:38
تسريع المعجزات - كيف تُدمج شركة سانوفي الذكاء الاصطناعي لتقليص مدة تطوير الأدوية بشكل كبير
صورة مصغرة لشركة سانوفي
شاهد الآن منظر
تسليط الضوء 10:35
حدث تحول جوهري في مركز ثقل البيانات
شاهد الآن منظر
تسليط الضوء 14:21
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
شاهد الآن منظر
تسليط الضوء 12:!3
لا يمكنك بناء خطوط الأنابيب أو المستودعات أو منصات الذكاء الاصطناعي بدون معرفة تجارية
شاهد الآن منظر
تسليط الضوء 47:42
الأمن السيبراني – حيث يقوم القادة بالشراء والبناء والشراكة
ريحان جليل
شاهد الآن منظر
تسليط الضوء 27:29
بناء ذكاء اصطناعي آمن باستخدام Databricks و Gencore
ريحان جليل
شاهد الآن منظر
أحدث
عرض المزيد
بناء ذكاء اصطناعي سيادي باستخدام HPE Private Cloud AI و Veeam Securiti Gencore AI
كيف تُساهم تقنيات الذكاء الاصطناعي في السحابة الخاصة من HPE، وتسريع NVIDIA، وVeeam؟ Securiti يدعم نظام Gencore AI الذكاء الاصطناعي الآمن والمُدار للمؤسسات مع تطبيق السياسات عبر سير العمل RAG والمساعدين والوكلاء.
عرض المزيد
Securiti أعلنت شركة .ai عن اختيار شركة أكسنتشر كشريك العام لعام 2025
في إطار الاحتفال المستمر بالتعاون المؤثر في DataAI Security ، Securiti منحت شركة .ai، التابعة لشركة Veeam، شركة Accenture لقب شريك العام لعام 2025....
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ قانون حماية خصوصية المستهلك في كاليفورنيا؟ عرض المزيد
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ القانون؟
يمكن للشركات أن تستفيد من بعض الدروس الحيوية من أكبر إجراء إنفاذي تم اتخاذه مؤخراً في تاريخ قانون خصوصية المستهلك في كاليفورنيا (CCPA). Securiti مدونة 's تغطي جميع التفاصيل المهمة التي يجب معرفتها.
عرض المزيد
الذكاء الاصطناعي وقانون HIPAA: ما يعنيه وكيفية أتمتة الامتثال
تعرّف على كيفية تطبيق قانون قابلية نقل التأمين الصحي والمساءلة (HIPAA) على الذكاء الاصطناعي في تأمين المعلومات الصحية المحمية. تعلّم كيف...
عرض المزيد
الذكاء الاصطناعي الوكيل والخصوصية: إدارة وكلاء الذكاء الاصطناعي المستقلين في المؤسسات
تعرّف على كيفية إدارة الذكاء الاصطناعي الوكيل في المؤسسة. إدارة مخاطر الخصوصية، والتحكم في الوصول إلى البيانات، وإنفاذ السياسات، وضمان الامتثال لوكلاء الذكاء الاصطناعي المستقلين.
عرض المزيد
خيارات الانسحاب الدائمة: سحب الموافقة عبر التسويق، والبرمجيات كخدمة، والذكاء الاصطناعي العام
Securiti تقدم الورقة البيضاء الخاصة بـ [اسم الشركة] نظرة عامة مفصلة حول متطلبات سحب الموافقة المختلفة في مجالات التسويق، والبرمجيات كخدمة (SaaS)، والذكاء الاصطناعي العام (GenAI). اقرأ الآن لمعرفة المزيد.
عرض المزيد
ROT Data Minimization
التخلص من البيانات الزائدة والقديمة والتافهة (ROT) لتحسين دقة الذكاء الاصطناعي، وتقليل تكاليف التخزين، وتقليل مخاطر الأمن والامتثال على نطاق واسع.
عرض المزيد
قائد العملاء: ملخص الحل
تعرّف على كيفية قيام Agent Commander باكتشاف وكلاء الذكاء الاصطناعي، وحماية بيانات المؤسسة من خلال ضوابط التشغيل، وتصحيح أخطاء الذكاء الاصطناعي - مما يتيح اعتماد الذكاء الاصطناعي بشكل آمن ومتوافق مع المعايير في...
عرض المزيد
تخلص من مخاطر البيانات في الذكاء الاصطناعي
تعرف على كيفية إعداد بيانات المؤسسة لاعتماد Gemini Enterprise بشكل آمن من خلال الحوكمة الأولية، واكتشاف البيانات الحساسة، وضوابط سياسة ما قبل الفهرسة.
عرض المزيد
دليل الحصول على شهادة HITRUST
Securiti يُعد الكتاب الإلكتروني دليلاً عملياً للحصول على شهادة HITRUST، ويغطي كل شيء بدءاً من اختيار i1 مقابل r2 ونطاق الأنظمة وصولاً إلى إدارة خطط العمل والتخطيط...
ما هو
جديد