الإعلان عن Agent Commander - أول حل متكامل من Veeam + Securiti .ai تمكين توسيع نطاق وكلاء الذكاء الاصطناعي الآمنين

منظر

جولة فيمون 2026 - البيانات والذكاء الاصطناعي يتلاقيان من أجل عصر الوكلاء

منظر

الاستخدام الآمن للمعلومات الشخصية في كوريا الجنوبية في عصر التوجيه بالذكاء الاصطناعي

المساهمون

أنس بيج

مدير تسويق المنتجات في Securiti

محمد فيصل ستار

مدير الشؤون القانونية للمنتجات والامتثال العالمي للبيانات

FIP، CIPT، CIPM، CIPP/آسيا

نُشر في 6 نوفمبر 2023

أصدرت لجنة حماية المعلومات الشخصية (PIPC) إرشاداتها بشأن الاستخدام الآمن للمعلومات الشخصية في عصر الذكاء الاصطناعي في 3 أغسطس 2023. وتناولت الوثيقة الصادرة العديد من المخاوف الأخلاقية المتعلقة باستخدام الذكاء الاصطناعي بالتزامن مع المعلومات الشخصية.

تهدف هذه الإرشادات إلى تقديم تعليمات مناسبة لجميع أصحاب المصلحة المعنيين، سواء على الصعيد المحلي أو الدولي، حول كيفية تقليل مخاطر انتهاكات الخصوصية والبيانات.

بالإضافة إلى ذلك، يقدم الدليل قواعد واعتبارات يجب مراعاتها عند تفسير قانون حماية المعلومات الشخصية ( PIPA ) فيما يتعلق بتطوير ونشر الذكاء الاصطناعي.

وأخيراً، يقدم التوجيه معلومات بالغة الأهمية حول كيفية تخطيط كوريا الجنوبية للتعامل مع لوائح الذكاء الاصطناعي، مع التركيز على التعاون بين القطاعين العام والخاص والمبادئ الاستراتيجية لقطاعات وصناعات محددة.

1. نظام قائم على المبادئ

يُقرّ الدليل بالنمو السريع لقطاع الذكاء الاصطناعي ككل، وبنطاق تأثيره المباشر وغير المباشر الواسع في حياة البشر. وانطلاقًا من ذلك، أوصت لجنة حماية الملكية الفكرية بإنشاء نظام انضباطي قائم على المبادئ. وهذا أمر بالغ الأهمية، لأن الدليل ينص صراحةً على أنه سيتبع نهجًا قائمًا على المبادئ بدلًا من النهج التنظيمي.

وبناءً على هذا المبدأ، سيتم إنشاء "فريق خصوصية الذكاء الاصطناعي" الذي سيلعب الدور الفعال كطرف استشاري رئيسي لجميع المنظمات داخل كوريا الجنوبية التي تسعى للحصول على المشورة بشأن المسائل التالية:

  • تطوير ودمج نماذج وخدمات الذكاء الاصطناعي؛
  • تقديم تفسيرات قانونية لإرشادات معالجة المعلومات الشخصية؛
  • مراجعة تطبيق البيئات التجريبية التنظيمية.

سيعمل "فريق خصوصية الذكاء الاصطناعي" وفق نظام مراجعة من المتوقع إطلاقه عام 2023. ويتمثل الغرض الرئيسي من هذا النظام في تحليل العمليات التجارية للمؤسسة والمساعدة في إعداد توصيات امتثال لقانون حماية المعلومات الشخصية (PIPA). مع ذلك، لن يمتلك هذا الفريق أي صلاحيات لاتخاذ إجراءات إدارية تتعلق بنتائج هذا التحليل.

2. إرشادات لكل قطاع من خلال التعاون بين القطاعين العام والخاص

لا تمثل المبادئ التوجيهية الحالية بشأن الذكاء الاصطناعي سوى المعايير والمبادئ الأساسية. وسيكون التعاون والتنسيق مع القطاع الخاص ضرورياً لوضع خطة أكثر شمولاً تلبي احتياجات جميع الأطراف المعنية.

ولتحقيق هذه الغاية، سيتم إنشاء "مجلس سياسات الخصوصية بين القطاعين العام والخاص في مجال الذكاء الاصطناعي" ليكون بمثابة منصة حوار مشتركة لشركات الذكاء الاصطناعي والمطورين والأكاديميين والمحامين والمنظمات المدنية للتعبير عن آرائهم ومخاوفهم وتوصياتهم. وسيعمل هذا المجلس أيضاً بالتعاون مع لجنة سياسات الخصوصية بين القطاعين العام والخاص لوضع معايير لمعالجة البيانات في بيئات الذكاء الاصطناعي لكل قطاع على حدة.

سيقدم المجلس أيضاً المساعدة في توسيع قدرات البحث والتطوير لتفعيل تقنية تعزيز الخصوصية. علاوة على ذلك، في الحالات التي يوجد فيها غموض في تطبيق تقنية تعزيز الخصوصية أو الحاجة إلى التحقق، يمكن إجراء تطوير التقنية والتحقق منها ضمن "منطقة آمنة للمعلومات الشخصية" مخصصة تضمن الأمن والسلامة.

أخيرًا، سيتم إعداد "نموذج لتقييم مخاطر الذكاء الاصطناعي " يتمتع بالقدرة على تقييم المخاطر المتعلقة بالذكاء الاصطناعي بدقة. سيسهل هذا النموذج تصميم لوائح مُخصصة بناءً على مستوى مخاطر الذكاء الاصطناعي. ولإنشاء نظام تقييم مخاطر فعال كهذا، من الضروري إجراء تجارب ومبادرات متنوعة. لذا، تخطط لجنة حماية البيانات الشخصية (PIPC) للاستفادة من "بيئة تجريبية تنظيمية" لتجميع مجموعة من حالات الذكاء الاصطناعي، ومن ثم تحديد المخاطر باستخدام هذه الحالات من خلال تحليل أدائها التشغيلي وعوامل الخطر.

3. تعزيز نظام التعاون الدولي

سيتم تطبيق نظام تعاوني عالمي لتشكيل معيار رقمي دولي للذكاء الاصطناعي. واستناداً إلى مبادرة باريس، يأمل مركز PIPC في إرساء مستوى جديد من النظام الرقمي داخل كوريا الجنوبية.

الذكاء الاصطناعي و Data Privacy كان المؤتمر الدولي الذي عُقد في سيول في يونيو 2023 الخطوة الأولى في هذا الاتجاه. وقد انخرطت اللجنة في مناقشات مع ممثلين عن الهيئات التنظيمية والإشرافية، واستعرضت مجموعة واسعة من القوانين والسياسات والقضايا من مختلف البلدان فيما يتعلق بالانتهاكات والمخالفات المتعلقة بالمعلومات الشخصية الناجمة عن الذكاء الاصطناعي.

علاوة على ذلك، تخطط لجنة حماية الخصوصية في كوريا الجنوبية (PIPC) لاستضافة الجمعية العالمية للخصوصية في عام 2025 لمناقشة قضايا الخصوصية الجديدة التي ستظهر في قطاع الذكاء الاصطناعي بحلول ذلك الوقت. وتأمل اللجنة في ترسيخ مكانة كوريا الجنوبية كفاعل دولي رئيسي في إنشاء نظام دولي موحد من خلال استضافة هذا الحدث. كما تأمل في تشجيع تعاون أكبر بين الشركات الكورية الجنوبية ومشغلي الذكاء الاصطناعي العالميين مثل OpenAI وGoogle وMeta.

4. معايير معالجة المعلومات الشخصية لمرحلة تطوير وتقديم خدمات الذكاء الاصطناعي

يُقرّ هذا الدليل بعدم وجود معايير واضحة لإدارة المعلومات الشخصية في سياق تطوير خدمات الذكاء الاصطناعي. ويهدف مجلس حماية المعلومات الشخصية إلى معالجة هذه الثغرة ضمن إطار "قانون حماية المعلومات الشخصية" الحالي.

يتمثل الهدف الرئيسي في وضع مبادئ ومعايير واضحة ومحددة لتوجيه كل مرحلة من مراحل العملية، بما في ذلك تطوير الذكاء الاصطناعي، وجمع البيانات، وتدريب الذكاء الاصطناعي، وتقديم الخدمات. ويهدف هذا النهج إلى تسهيل تقييم أكثر شفافية ودقة لمعالجة المعلومات الشخصية ضمن الإرشادات المذكورة.

أ. مرحلة التخطيط

  • يُنصح المنظمات بتبني مبدأ تصميم يركز على الخصوصية أو مبدأ الخصوصية بالتصميم عند التخطيط لنماذج وخدمات الذكاء الاصطناعي الخاصة بها.
  • ينبغي أن تنعكس مبادئ التصميم التي تركز على حماية المعلومات الشخصية (الخصوصية بالتصميم) أثناء عمليات النمذجة والتعلم والتشغيل لتقليل مخاطر انتهاك المعلومات الشخصية.
  • ينبغي على المطورين ومديري حماية البيانات الشخصية التعاون بشكل مناسب لتحديد المخاطر المحتملة، وتصميم وتطبيق وإدارة جميع التدابير المضادة ذات الصلة، وبناء إطار حوكمة يضمن التعاون مع مسؤولي الخصوصية ويتعامل مع تدابير الاستجابة.

ب. مرحلة جمع البيانات

  • خلال عملية جمع البيانات، ينبغي أن يكون لدى المنظمات، من الناحية المثالية، تقسيمات واضحة لمبادئ المعالجة الخاصة بالمعلومات الشخصية العامة، والمعلومات العامة، ومعلومات الفيديو، والمعلومات البيومترية.
  • عند تطوير نماذج لغوية واسعة النطاق، قد يصبح استخدام المعلومات المتاحة للجمهور ضروريًا، وفي مثل هذه الحالات، تم تحديد الأسس والاعتبارات القانونية لمعالجة المعلومات العامة.
  • عندما تحتوي البيانات على معلومات من معدات الفيديو المحمولة مثل الطائرات بدون طيار والسيارات ذاتية القيادة، يُنصح المنظمات بالنظر في التعديلات القادمة في قانون حماية المعلومات الشخصية المتعلقة بالطائرات بدون طيار والمركبات ذاتية القيادة.

ج. مرحلة تعلم الذكاء الاصطناعي

  • يجب إخفاء هوية جميع المعلومات الشخصية لتسهيل أبحاث وتطوير الذكاء الاصطناعي دون الحاجة إلى موافقة منفصلة. يُوصى باستخدام تقنيات تعزيز الخصوصية، مثل البيانات الاصطناعية.
  • يجب على المنظمات أيضاً اتخاذ تدابير صارمة لمنع المخاطر التي قد تحدث قبل هذه المرحلة وبعدها، مثل إعادة تحديد الهوية من خلال الربط والدمج مع معلومات أخرى.
  • بما أن هذه المخاطر لا يمكن القضاء عليها تمامًا، فإن مستوى تطبيق التدابير الوقائية سيتحدد بناءً على مدى الجهد المبذول لتقليلها. إضافةً إلى ذلك، يُوصى بالاستخدام الفعال لتقنيات تعزيز الخصوصية، مثل البيانات الاصطناعية، لتعزيز الخصوصية وتخفيف المخاطر في تطبيقات الذكاء الاصطناعي.

د. مرحلة خدمة الذكاء الاصطناعي

  • لحماية حقوق أصحاب البيانات وضمان الشفافية الآمنة خلال مراحل تطوير نموذج الذكاء الاصطناعي والتسويق التجاري اللاحق للخدمة.
  • ستقوم لجنة حماية البيانات الشخصية بإعداد المزيد من المبادئ التوجيهية بعد مراجعة كافية للنطاق المحدد وطريقة الإفصاح وسبل ممارسة الحقوق؛
  • حتى عند استخدام واجهات برمجة التطبيقات من نماذج الذكاء الاصطناعي أو المكونات الإضافية الموجودة مسبقًا، يجب على المؤسسات توجيه المستخدمين بنشاط من خلال توفير إرشادات استخدام مفصلة ووثائق تقنية حتى يتمكنوا من الامتثال لتدابير الخصوصية.

كيف Securiti يمكن المساعدة

تُدرك المؤسسات التحديات والفرص الهائلة التي يُتيحها الذكاء الاصطناعي. فعند استخدامه بالشكل الأمثل، يُمكن أن يُؤدي إلى زيادة كبيرة في الإنتاجية والكفاءة. ومع ذلك، يجب التعامل مع استخدامه بمسؤولية، وذلك لأسباب من بينها الكم الهائل من المعلومات والبيانات الشخصية للمستخدمين.

إن تحقيق التوازن الصحيح بين الاستخدام المسؤول للبيانات والاستفادة القصوى من قدرات الذكاء الاصطناعي يمكن أن يشكل عقبة استراتيجية وتشغيلية للمؤسسات.

هذا هو المكان Securiti يمكن أن يساعد.

بـ Data Command Center ، وهي منصة مركزية تُمكّن من الاستخدام الآمن للبيانات والذكاء الاصطناعي العام، Securiti يوفر ذكاءً موحداً للبيانات، وضوابط، وتنسيقاً عبر بيئات السحابة المتعددة الهجينة. Securiti 's Data Command Center تتمتع الشركة بسجل حافل في توفير أمن البيانات والخصوصية والحوكمة والامتثال لمختلف المؤسسات ذات الأحجام والصناعات المختلفة.

مع Data Command Center يمكن للمؤسسات أن تتبنى نهجاً استباقياً للوفاء بالتزاماتها التنظيمية فيما يتعلق data privacy مع الاستفادة القصوى من استخدام الذكاء الاصطناعي.

اطلب عرضًا تجريبيًا اليوم لمعرفة المزيد حول كيفية Securiti يمكننا مساعدتك في الامتثال لقانون حماية المعلومات الشخصية في كوريا الجنوبية وغيره من القوانين العالمية data privacy أنظمة.

قم بتحليل هذه المقالة باستخدام الذكاء الاصطناعي

تظهر المطالبات في أدوات الذكاء الاصطناعي التابعة لجهات خارجية.
انضم إلى قائمتنا البريدية

احصل على أحدث المعلومات والتحديثات القانونية والمزيد مباشرةً في بريدك الإلكتروني



قصص أخرى قد تهمك
مقاطع فيديو
عرض المزيد
ريحان جليل، من شركة Veeam، يتحدث عن Agent Commander: theCUBE + NYSE Wired: قادة الأمن السيبراني
بعد استحواذ شركة Veeam على Securiti يمثل إطلاق برنامج Agent Commander خطوة هامة نحو مساعدة المؤسسات على تبني وكلاء الذكاء الاصطناعي بثقة أكبر. في...
عرض المزيد
تخفيف مخاطر قائمة OWASP لأهم 10 مخاطر لتطبيقات ماجستير القانون 2025
أحدث الذكاء الاصطناعي التوليدي (GenAI) تحولاً جذرياً في طريقة عمل الشركات وتوسعها ونموها. يوجد تطبيق للذكاء الاصطناعي لكل غرض، بدءاً من زيادة إنتاجية الموظفين وصولاً إلى تبسيط العمليات...
عرض المزيد
أفضل 6 DSPM حالات الاستخدام
مع ظهور الذكاء الاصطناعي التوليدي (GenAI)، أصبحت البيانات أكثر ديناميكية. يتم توليد بيانات جديدة بوتيرة أسرع من أي وقت مضى، ونقلها إلى أنظمة وتطبيقات متنوعة...
عرض المزيد
قانون الخصوصية في كولورادو (CPA)
ما هو قانون خصوصية كولورادو؟ قانون خصوصية كولورادو هو قانون شامل لحماية الخصوصية، تم توقيعه في 7 يوليو 2021. وقد وضع معايير جديدة لحماية البيانات الشخصية...
عرض المزيد
Securiti لمساعد الطيار في البرمجيات كخدمة (SaaS)
تسريع اعتماد Copilot بأمان وثقة: تتطلع المؤسسات إلى اعتماد Microsoft 365 Copilot لزيادة الإنتاجية والكفاءة. ومع ذلك، تظل المخاوف الأمنية، مثل حماية البيانات...
عرض المزيد
أهم عشرة اعتبارات لاستخدام البيانات غير المهيكلة بأمان مع الذكاء الاصطناعي العام
نسبة مذهلة تصل إلى 90% من بيانات المؤسسات غير منظمة. وتُستخدم هذه البيانات بسرعة لتغذية تطبيقات الذكاء الاصطناعي من الجيل الجديد، مثل روبوتات الدردشة والبحث المدعوم بالذكاء الاصطناعي.
عرض المزيد
جينكور للذكاء الاصطناعي: بناء أنظمة ذكاء اصطناعي آمنة وعالية الجودة للمؤسسات في دقائق
مع تبني المؤسسات للذكاء الاصطناعي التوليدي، تواجه فرق البيانات والذكاء الاصطناعي العديد من العقبات: ربط مصادر البيانات غير المهيكلة والمهيكلة بشكل آمن، والحفاظ على الضوابط والحوكمة المناسبة،...
عرض المزيد
كيفية التعامل مع قانون حماية خصوصية المستهلك في كاليفورنيا: رؤى أساسية للشركات
ما هو قانون حقوق الخصوصية في كاليفورنيا (CPRA)؟ هو تشريع ولاية كاليفورنيا الذي يهدف إلى حماية خصوصية سكانها الرقمية. وقد دخل حيز التنفيذ في يناير...
عرض المزيد
التكيف مع التحول: الانتقال إلى معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS) الإصدار 4.0
ما هو معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS)؟ هو مجموعة من معايير الأمان لضمان المعالجة والتخزين الآمنين للبيانات، و...
عرض المزيد
تأمين البيانات والذكاء الاصطناعي: دليل إدارة الثقة والمخاطر والأمن (TRiSM)
أثارت المخاطر الأمنية المتزايدة للذكاء الاصطناعي قلق 48% من مسؤولي أمن المعلومات حول العالم. انضموا إلى هذه الجلسة الرئيسية للتعرف على دليل عملي لتمكين الثقة في الذكاء الاصطناعي، وإدارة المخاطر،...

جلسات حوارية مميزة

تسليط الضوء
الاستعداد للمستقبل لمحترفي الخصوصية
شاهد الآن منظر
تسليط الضوء 50:52
من البيانات إلى النشر: حماية الذكاء الاصطناعي المؤسسي من خلال الأمن والحوكمة
شاهد الآن منظر
تسليط الضوء 11:29
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
شاهد الآن منظر
تسليط الضوء 11:18
إعادة هيكلة تمويل العقارات - كيف تُجري شركة ووكر آند دنلوب تحديثًا لمحفظتها الاستثمارية البالغة 135 مليار دولار أمريكي بالاعتماد على البيانات أولاً
شاهد الآن منظر
تسليط الضوء 13:38
تسريع المعجزات - كيف تُدمج شركة سانوفي الذكاء الاصطناعي لتقليص مدة تطوير الأدوية بشكل كبير
صورة مصغرة لشركة سانوفي
شاهد الآن منظر
تسليط الضوء 10:35
حدث تحول جوهري في مركز ثقل البيانات
شاهد الآن منظر
تسليط الضوء 14:21
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
شاهد الآن منظر
تسليط الضوء 12:!3
لا يمكنك بناء خطوط الأنابيب أو المستودعات أو منصات الذكاء الاصطناعي بدون معرفة تجارية
شاهد الآن منظر
تسليط الضوء 47:42
الأمن السيبراني – حيث يقوم القادة بالشراء والبناء والشراكة
ريحان جليل
شاهد الآن منظر
تسليط الضوء 27:29
بناء ذكاء اصطناعي آمن باستخدام Databricks و Gencore
ريحان جليل
شاهد الآن منظر
أحدث
عرض المزيد
بناء ذكاء اصطناعي سيادي باستخدام HPE Private Cloud AI و Veeam Securiti Gencore AI
كيف تُساهم تقنيات الذكاء الاصطناعي في السحابة الخاصة من HPE، وتسريع NVIDIA، وVeeam؟ Securiti يدعم نظام Gencore AI الذكاء الاصطناعي الآمن والمُدار للمؤسسات مع تطبيق السياسات عبر سير العمل RAG والمساعدين والوكلاء.
عرض المزيد
Securiti أعلنت شركة .ai عن اختيار شركة أكسنتشر كشريك العام لعام 2025
في إطار الاحتفال المستمر بالتعاون المؤثر في DataAI Security ، Securiti منحت شركة .ai، التابعة لشركة Veeam، شركة Accenture لقب شريك العام لعام 2025....
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ قانون حماية خصوصية المستهلك في كاليفورنيا؟ عرض المزيد
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ القانون؟
يمكن للشركات أن تستفيد من بعض الدروس الحيوية من أكبر إجراء إنفاذي تم اتخاذه مؤخراً في تاريخ قانون خصوصية المستهلك في كاليفورنيا (CCPA). Securiti مدونة 's تغطي جميع التفاصيل المهمة التي يجب معرفتها.
عرض المزيد
الذكاء الاصطناعي وقانون HIPAA: ما يعنيه وكيفية أتمتة الامتثال
تعرّف على كيفية تطبيق قانون قابلية نقل التأمين الصحي والمساءلة (HIPAA) على الذكاء الاصطناعي في تأمين المعلومات الصحية المحمية. تعلّم كيف...
عرض المزيد
خيارات الانسحاب الدائمة: سحب الموافقة عبر التسويق، والبرمجيات كخدمة، والذكاء الاصطناعي العام
Securiti تقدم الورقة البيضاء الخاصة بـ [اسم الشركة] نظرة عامة مفصلة حول متطلبات سحب الموافقة المختلفة في مجالات التسويق، والبرمجيات كخدمة (SaaS)، والذكاء الاصطناعي العام (GenAI). اقرأ الآن لمعرفة المزيد.
عرض المزيد
التكلفة الخفية للخصوصية الناتجة عن الذكاء الاصطناعي الخفي والبيانات الخفية
قم بتنزيل الورقة البيضاء لاكتشاف مخاطر الذكاء الاصطناعي الخفي والبيانات الخفية، ولماذا تفشل الضوابط التقليدية، وكيفية بناء ذكاء اصطناعي استباقي وقابل للتطوير...
عرض المزيد
قائد العملاء: ملخص الحل
تعرّف على كيفية قيام Agent Commander باكتشاف وكلاء الذكاء الاصطناعي، وحماية بيانات المؤسسة من خلال ضوابط التشغيل، وتصحيح أخطاء الذكاء الاصطناعي - مما يتيح اعتماد الذكاء الاصطناعي بشكل آمن ومتوافق مع المعايير في...
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti عرض المزيد
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti
التزم بتعديلات قانون خصوصية المستهلك في كاليفورنيا لعام 2026 باستخدام Securiti وتشمل هذه المتطلبات تحديث متطلبات الموافقة، وتوسيع تعريفات البيانات الحساسة، وتعزيز حقوق المستهلك، وتقييمات الجاهزية.
عرض المزيد
تخلص من مخاطر البيانات في الذكاء الاصطناعي
تعرف على كيفية إعداد بيانات المؤسسة لاعتماد Gemini Enterprise بشكل آمن من خلال الحوكمة الأولية، واكتشاف البيانات الحساسة، وضوابط سياسة ما قبل الفهرسة.
عرض المزيد
دليل الحصول على شهادة HITRUST
Securiti يُعد الكتاب الإلكتروني دليلاً عملياً للحصول على شهادة HITRUST، ويغطي كل شيء بدءاً من اختيار i1 مقابل r2 ونطاق الأنظمة وصولاً إلى إدارة خطط العمل والتخطيط...
ما هو
جديد