الإعلان عن Agent Commander - أول حل متكامل من Veeam + Securiti .ai تمكين توسيع نطاق وكلاء الذكاء الاصطناعي الآمنين

منظر

تعليمات اليابان لخدمات الذكاء الاصطناعي التوليدي

المساهمون

أنس بيج

مدير تسويق المنتجات في Securiti

ماريا خان

Data Privacy مدير الشؤون القانونية في Securiti

FIP، CIPT، CIPM، CIPP/E

استمع إلى المحتوى

هذا المنشور متاح أيضاً باللغات التالية: English

يستمر الذكاء الاصطناعي التوليدي في التوسع من حيث القدرات والإمكانيات. سواء أكان الأمر يتعلق بكتابة مسرحية شكسبيرية حديثة أو إنتاج شفرة مصدرية فريدة لموقع ويب تفاعلي، يمكن إنجاز كل ذلك في غضون ثوانٍ معدودة.

رغم أن هذه الظاهرة تتيح فرصاً عديدة، إلا أن أحد التحديات الرئيسية التي تطرحها هو اعتمادها على تدفق شبه لا نهائي من البيانات. فكلما زادت البيانات التي تجمعها وتتعلمها، زادت كفاءتها وفعاليتها.

ومع ذلك، فإن جمع البيانات على هذا النطاق الواسع يُعدّ أمراً متقلباً للغاية، مع زيادة احتمالية تعرض المستخدمين للمساءلة القانونية. data privacy انتهاك الحقوق. أصبحت الحكومات في جميع أنحاء العالم أكثر نشاطاً في تنظيم جوانب مختلفة من الذكاء الاصطناعي، ولا سيما آليات جمع البيانات الخاصة به.

نبذة مختصرة عن الخلفية

في اليابان، في 20 مايو 2023، وضعت لجنة حماية المعلومات الشخصية (PPC) اعتبارات وتعليمات مهمة لجميع أصحاب المصلحة الرئيسيين فيما يتعلق بخدمات الذكاء الاصطناعي التوليدي (الخدمات التي تستخدم الذكاء الاصطناعي لتوليد الجمل والصور وما إلى ذلك، استجابةً للأسئلة وتعليمات العمل (الإدخال الفوري) وما إلى ذلك).

تشمل هذه التعليمات إرشادات لأصحاب الأعمال والجهات الإدارية والمستخدمين العاديين الذين يستخدمون خدمات الذكاء الاصطناعي التوليدي. وتهدف هذه الإرشادات إلى ضمان حقوق المستخدمين ومصالحهم من خلال التعامل السليم مع بياناتهم الشخصية بما يتوافق مع قانون حماية المعلومات الشخصية ( APPI ) في سياق خدمات الذكاء الاصطناعي التوليدي.

استنادًا إلى المادة 147 من القانون نفسه، تم إصدار تحذير شامل لجميع خدمات الذكاء الاصطناعي التوليدي، ولا سيما OpenAI التي طورت ChatGPT ، فيما يتعلق بجمع وتخزين واستخدام البيانات والمعلومات الشخصية للمستخدمين.

وأخيراً، تشير اللجنة أيضاً إلى أنه مع ظهور مخاوف جديدة في المستقبل، سيتم إصدار تدابير وتعليمات إضافية حسب الضرورة، نظراً للطبيعة الديناميكية للغاية لخدمات الذكاء الاصطناعي التوليدي وقدراتها على جمع البيانات.

إرشادات لمشغلي الأعمال الذين يتعاملون مع البيانات الشخصية

فيما يلي التعليمات الخاصة باستخدام خدمات الذكاء الاصطناعي التوليدي من قبل مشغلي الأعمال:

  • إذا كانت هناك حاجة إلى تقديم بيانات أو معلومات شخصية لخدمة الذكاء الاصطناعي التوليدي، فيجب على مشغل الأعمال التأكد من أن محتوى هذه البيانات الشخصية يقتصر على ما هو ضروري لتحقيق غرض محدد؛
  • لا يجوز تقديم أي بيانات شخصية إلى خدمة الذكاء الاصطناعي التوليدي لاستخدامها في سياق لم يوافق عليه المستخدم، لأن هذا قد يؤدي إلى انتهاك قانون حماية المعلومات الشخصية (APPI)؛
  • وبالمثل، فإن استخدام البيانات الشخصية لأي أغراض أخرى غير توليد ردود على طلب، مثل التعلم الآلي ، قد يؤدي أيضًا إلى انتهاك قانون حماية المعلومات الشخصية.

تعليمات للجهات الإدارية التي تتعامل مع البيانات الشخصية

فيما يلي التعليمات الخاصة باستخدام خدمات الذكاء الاصطناعي التوليدي من قبل الهيئات الإدارية:

  • إذا كانت هناك حاجة إلى تقديم بيانات أو معلومات شخصية لخدمة الذكاء الاصطناعي التوليدي، فيجب على الوكالة الإدارية ضمان تقديم أقل قدر ممكن من البيانات الشخصية للغرض المحدد؛
  • وكما هو مطلوب للشركات ، يجب على الوكالات الإدارية أيضاً ضمان عدم استخدام أي بيانات شخصية مقدمة إلى خدمة الذكاء الاصطناعي التوليدي لأي غرض آخر غير توليد الردود على المطالبات؛
  • يجب على الهيئات الإدارية ضمان عدم احتفاظ أي منظمة تقدم خدمات الذكاء الاصطناعي التوليدية هذه بأي بيانات أو معلومات شخصية لأغراض التعلم الآلي.

تعليمات للمستخدمين العاديين

فيما يلي بعض الاعتبارات الرئيسية المتعلقة باستخدام خدمات الذكاء الاصطناعي التوليدي من قبل عامة الناس، كما أصدرتها اللجنة:

  • قد تستخدم خدمة الذكاء الاصطناعي التوليدي المعلومات الشخصية المُقدمة لأغراض التعلم الآلي الخاصة بها. علاوة على ذلك، قد يتم ربط هذه المعلومات إحصائيًا بمعلومات ومخرجات أخرى من الخدمة، دون أي ضمان لدقة المحتوى. لذا، ينبغي على المستخدمين إدراك المخاطر المترتبة على تقديم معلوماتهم الشخصية لخدمات الذكاء الاصطناعي التوليدي.
  • قد تُنتج خدمات الذكاء الاصطناعي التوليدية استجابات تحتوي على محتوى غير دقيق، لأن الجمل التي تُولدها هذه الخدمات تعتمد على الارتباط الاحتمالي. لذا ينبغي على المستخدمين اتخاذ قرارات مناسبة بناءً على هذه المخاطر.
  • بالإضافة إلى ذلك، يجب على المستخدمين مراجعة شروط الاستخدام privacy policy والإشعارات/الإفصاحات الأخرى التي توضح بالتفصيل وظائف خدمات الذكاء الاصطناعي التوليدي لاتخاذ القرارات المناسبة بشأن المعلومات التي يجب تقديمها للخدمة.

متطلبات إضافية

فيما يلي بعض المتطلبات الإضافية التي فرضتها اللجنة على خدمات الذكاء الاصطناعي التوليدي:

  • إذا كانت هناك حاجة لجمع البيانات أو المعلومات الشخصية لأغراض التعلم الآلي، فيجب القيام بالخطوات الأربع التالية بدقة:
    • تأكد من إعفاء المعلومات الشخصية التي تتطلب عناية خاصة من المعلومات التي يتم جمعها؛
    • في أسرع وقت ممكن بعد جمع المعلومات، اتخذ التدابير اللازمة لضمان تقليل كمية المعلومات الشخصية التي تتطلب عناية خاصة قدر الإمكان؛
    • إذا تبين، حتى بعد تنفيذ التدابير المذكورة أعلاه، أن المعلومات التي تم جمعها لا تزال تحتوي على معلومات شخصية تتطلب عناية خاصة، فيجب اتخاذ إجراءات فورية لضمان حذف هذه المعلومات أو جعل من المستحيل تحديد هوية فرد معين من خلال هذه المعلومات قبل استخدامها كجزء من مجموعة بيانات التدريب؛
    • إذا طلب مستخدم أو لجنة حماية المعلومات الشخصية (PPC) أو أصدر تعليمات بوقف جمع المعلومات الشخصية من موقع معين أو طرف ثالث، فيجب الامتثال لهذه الطلبات أو التعليمات ما لم يكن هناك سبب مبرر للرفض.
  • ينبغي السماح للمستخدم بالموافقة على استخدام معلوماته الشخصية التي تتطلب عناية خاصة لأغراض التعلم الآلي . إذا لم يوافق المستخدم على الغرض المذكور أعلاه من المعالجة، فلا يجوز لخدمة الذكاء الاصطناعي التوليدي استخدام معلوماته الشخصية لهذا الغرض إلا إذا كان هناك سبب وجيه.

كيف يمكن Securiti يساعد

تعتمد خدمات الذكاء الاصطناعي التوليدي على جمع البيانات، فهي أساس هذا التطور التكنولوجي. ومع ذلك، من الأهمية بمكان أن تلتزم هذه الخدمات بواجباتها المتعلقة بجمع البيانات ومعالجتها، في ضوء كثرة تشريعات حماية البيانات على مستوى العالم.

تفرض هذه القوانين التزامات مختلفة على الجهات التي تجمع البيانات وتعالجها. ونظرًا لتوقع ازدياد القوانين واللوائح الخاصة بالذكاء الاصطناعي في المستقبل، فإن الأتمتة تُعدّ أفضل وسيلة لضمان امتثال خدمات الذكاء الاصطناعي التوليدي لالتزاماتها المتعلقة بحماية البيانات.

Securiti وهي شركة رائدة في تقديم خدمات المؤسسات data privacy حلول الأمن والحوكمة والامتثال.

على سبيل المثال، يدعم PrivacyCenter.Cloud المؤسسات في رحلتها نحو الامتثال لقانون حماية البيانات الشخصية الياباني (APPI) من خلال الأتمتة، وتحسين شفافية البيانات، وربط الهويات. ولا يقتصر الأمر على تمكين الامتثال بكفاءة فحسب، بل يوفره أيضاً بطريقة سهلة الاستخدام للغاية، حيث تتميز لوحة التحكم المركزية بسهولة التصفح والاستخدام.

اطلب عرضًا تجريبيًا اليوم وتعرف على المزيد حول كيفية Securiti يمكننا مساعدتك في الامتثال لقانون حماية المعلومات الشخصية (APPI) وأي تنظيم رئيسي آخر للبيانات على مستوى العالم .

قم بتحليل هذه المقالة باستخدام الذكاء الاصطناعي

تظهر المطالبات في أدوات الذكاء الاصطناعي التابعة لجهات خارجية.
انضم إلى قائمتنا البريدية

احصل على أحدث المعلومات والتحديثات القانونية والمزيد مباشرةً في بريدك الإلكتروني


يشارك

قصص أخرى قد تهمك
مقاطع فيديو
عرض المزيد
ريحان جليل، من شركة Veeam، يتحدث عن Agent Commander: theCUBE + NYSE Wired: قادة الأمن السيبراني
بعد استحواذ شركة Veeam على Securiti يمثل إطلاق برنامج Agent Commander خطوة هامة نحو مساعدة المؤسسات على تبني وكلاء الذكاء الاصطناعي بثقة أكبر. في...
عرض المزيد
تخفيف مخاطر قائمة OWASP لأهم 10 مخاطر لتطبيقات ماجستير القانون 2025
أحدث الذكاء الاصطناعي التوليدي (GenAI) تحولاً جذرياً في طريقة عمل الشركات وتوسعها ونموها. يوجد تطبيق للذكاء الاصطناعي لكل غرض، بدءاً من زيادة إنتاجية الموظفين وصولاً إلى تبسيط العمليات...
عرض المزيد
أفضل 6 DSPM حالات الاستخدام
مع ظهور الذكاء الاصطناعي التوليدي (GenAI)، أصبحت البيانات أكثر ديناميكية. يتم توليد بيانات جديدة بوتيرة أسرع من أي وقت مضى، ونقلها إلى أنظمة وتطبيقات متنوعة...
عرض المزيد
قانون الخصوصية في كولورادو (CPA)
ما هو قانون خصوصية كولورادو؟ قانون خصوصية كولورادو هو قانون شامل لحماية الخصوصية، تم توقيعه في 7 يوليو 2021. وقد وضع معايير جديدة لحماية البيانات الشخصية...
عرض المزيد
Securiti لمساعد الطيار في البرمجيات كخدمة (SaaS)
تسريع اعتماد Copilot بأمان وثقة: تتطلع المؤسسات إلى اعتماد Microsoft 365 Copilot لزيادة الإنتاجية والكفاءة. ومع ذلك، تظل المخاوف الأمنية، مثل حماية البيانات...
عرض المزيد
أهم عشرة اعتبارات لاستخدام البيانات غير المهيكلة بأمان مع الذكاء الاصطناعي العام
نسبة مذهلة تصل إلى 90% من بيانات المؤسسات غير منظمة. وتُستخدم هذه البيانات بسرعة لتغذية تطبيقات الذكاء الاصطناعي من الجيل الجديد، مثل روبوتات الدردشة والبحث المدعوم بالذكاء الاصطناعي.
عرض المزيد
جينكور للذكاء الاصطناعي: بناء أنظمة ذكاء اصطناعي آمنة وعالية الجودة للمؤسسات في دقائق
مع تبني المؤسسات للذكاء الاصطناعي التوليدي، تواجه فرق البيانات والذكاء الاصطناعي العديد من العقبات: ربط مصادر البيانات غير المهيكلة والمهيكلة بشكل آمن، والحفاظ على الضوابط والحوكمة المناسبة،...
عرض المزيد
كيفية التعامل مع قانون حماية خصوصية المستهلك في كاليفورنيا: رؤى أساسية للشركات
ما هو قانون حقوق الخصوصية في كاليفورنيا (CPRA)؟ هو تشريع ولاية كاليفورنيا الذي يهدف إلى حماية خصوصية سكانها الرقمية. وقد دخل حيز التنفيذ في يناير...
عرض المزيد
التكيف مع التحول: الانتقال إلى معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS) الإصدار 4.0
ما هو معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS)؟ هو مجموعة من معايير الأمان لضمان المعالجة والتخزين الآمنين للبيانات، و...
عرض المزيد
تأمين البيانات والذكاء الاصطناعي: دليل إدارة الثقة والمخاطر والأمن (TRiSM)
أثارت المخاطر الأمنية المتزايدة للذكاء الاصطناعي قلق 48% من مسؤولي أمن المعلومات حول العالم. انضموا إلى هذه الجلسة الرئيسية للتعرف على دليل عملي لتمكين الثقة في الذكاء الاصطناعي، وإدارة المخاطر،...

جلسات حوارية مميزة

تسليط الضوء 50:52
من البيانات إلى النشر: حماية الذكاء الاصطناعي المؤسسي من خلال الأمن والحوكمة
شاهد الآن منظر
تسليط الضوء 11:29
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
شاهد الآن منظر
تسليط الضوء 11:18
إعادة هيكلة تمويل العقارات - كيف تُجري شركة ووكر آند دنلوب تحديثًا لمحفظتها الاستثمارية البالغة 135 مليار دولار أمريكي بالاعتماد على البيانات أولاً
شاهد الآن منظر
تسليط الضوء 13:38
تسريع المعجزات - كيف تُدمج شركة سانوفي الذكاء الاصطناعي لتقليص مدة تطوير الأدوية بشكل كبير
صورة مصغرة لشركة سانوفي
شاهد الآن منظر
تسليط الضوء 10:35
حدث تحول جوهري في مركز ثقل البيانات
شاهد الآن منظر
تسليط الضوء 14:21
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
شاهد الآن منظر
تسليط الضوء 12:!3
لا يمكنك بناء خطوط الأنابيب أو المستودعات أو منصات الذكاء الاصطناعي بدون معرفة تجارية
شاهد الآن منظر
تسليط الضوء 47:42
الأمن السيبراني – حيث يقوم القادة بالشراء والبناء والشراكة
ريحان جليل
شاهد الآن منظر
تسليط الضوء 27:29
بناء ذكاء اصطناعي آمن باستخدام Databricks و Gencore
ريحان جليل
شاهد الآن منظر
تسليط الضوء 46:02
بناء ذكاء اصطناعي آمن للمؤسسات: خارطة طريق عملية
شاهد الآن منظر
أحدث
عرض المزيد
نقدم لكم قائد العملاء
إن وعود وكلاء الذكاء الاصطناعي مذهلة - فالأنظمة الذكية التي تتخذ القرارات، وتستخدم الأدوات، وتؤتمت سير العمل المعقد، تعمل كمضاعفات قوة لكل معرفة...
عزل المخاطر: أكبر مشكلة في الذكاء الاصطناعي لا تتحدث عنها مجالس الإدارة عرض المزيد
عزل المخاطر: أكبر مشكلة في الذكاء الاصطناعي لا تتحدث عنها مجالس الإدارة
تتابع مجالس الإدارة نقاش الذكاء الاصطناعي، لكن هناك نقطة عمياء لم تُشر إليها العديد من المؤسسات بعد: وهي عزلة أقسام إدارة المخاطر. الجميع متفقون على ذلك. AI governance ...
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ قانون حماية خصوصية المستهلك في كاليفورنيا؟ عرض المزيد
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ القانون؟
يمكن للشركات أن تستفيد من بعض الدروس الحيوية من أكبر إجراء إنفاذي تم اتخاذه مؤخراً في تاريخ قانون خصوصية المستهلك في كاليفورنيا (CCPA). Securiti مدونة 's تغطي جميع التفاصيل المهمة التي يجب معرفتها.
عرض المزيد
الذكاء الاصطناعي وقانون HIPAA: ما يعنيه وكيفية أتمتة الامتثال
تعرّف على كيفية تطبيق قانون قابلية نقل التأمين الصحي والمساءلة (HIPAA) على الذكاء الاصطناعي في تأمين المعلومات الصحية المحمية. تعلّم كيف...
عرض المزيد
من وضوح البيانات إلى سرعة الذكاء الاصطناعي
اطلع على الورقة البيضاء واكتشف كيف يتم توحيد DataAI security يحوّل إدارة البيانات إلى عامل تمكين للأعمال، ويعزز ابتكار الذكاء الاصطناعي من خلال الشفافية والامتثال وإدارة المخاطر...
عرض المزيد
دليل تنفيذ قانون بيانات الاتحاد الأوروبي: التعامل مع طلبات الوصول إلى البيانات، ومشاركة البيانات، والتحويل السحابي
Securiti توفر الورقة البيضاء الخاصة بـ دليل تنفيذ مفصل لتحقيق الامتثال لقانون البيانات، مما يجعلها قراءة أساسية للشركات التي تعمل بالبيانات في الاتحاد الأوروبي.
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti عرض المزيد
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti
التزم بتعديلات قانون خصوصية المستهلك في كاليفورنيا لعام 2026 باستخدام Securiti وتشمل هذه المتطلبات تحديث متطلبات الموافقة، وتوسيع تعريفات البيانات الحساسة، وتعزيز حقوق المستهلك، وتقييمات الجاهزية.
عرض المزيد
أين تنتهك الخصوصية: الذكاء الاصطناعي الوكيل في المؤسسات
يُحدث الذكاء الاصطناعي الآلي تحولاً جذرياً في المؤسسات، ولكن ما هو ثمن ذلك على الخصوصية؟ اكتشف أهم 10 مخاطر، والضوابط الرئيسية، وكيفية التعامل معها. Securiti يُمكّن من تحقيق الأمان والتوسع...
عرض المزيد
تخلص من مخاطر البيانات في الذكاء الاصطناعي
تعرف على كيفية إعداد بيانات المؤسسة لاعتماد Gemini Enterprise بشكل آمن من خلال الحوكمة الأولية، واكتشاف البيانات الحساسة، وضوابط سياسة ما قبل الفهرسة.
عرض المزيد
دليل الحصول على شهادة HITRUST
Securiti يُعد الكتاب الإلكتروني دليلاً عملياً للحصول على شهادة HITRUST، ويغطي كل شيء بدءاً من اختيار i1 مقابل r2 ونطاق الأنظمة وصولاً إلى إدارة خطط العمل والتخطيط...
ما هو
جديد