الإعلان عن Agent Commander - أول حل متكامل من Veeam + Securiti .ai تمكين توسيع نطاق وكلاء الذكاء الاصطناعي الآمنين

منظر

جولة فيمون 2026 - البيانات والذكاء الاصطناعي يتلاقيان من أجل عصر الوكلاء

منظر

ما يجب معرفته عن المبادئ التوجيهية السعودية للذكاء الاصطناعي التوليدي

المساهمون

أنس بيج

مدير تسويق المنتجات في Securiti

سلمى خان

Data Privacy محلل في Securiti

CIPP/آسيا

نُشر في 26 مارس 2024

1. مقدمة

أصدرت الهيئة السعودية للبيانات والذكاء الاصطناعي مؤخراً " المبادئ التوجيهية للذكاء الاصطناعي التوليدي ". والهدف الرئيسي من هذه الوثيقة هو مساعدة المؤسسات التي تقوم بتطوير واستخدام نماذج وأنظمة الذكاء الاصطناعي التوليدي على فهم المخاطر المختلفة المرتبطة عادةً بتطويرها وتصميمها ونشرها.

بالإضافة إلى ذلك، تتضمن الإرشادات نظرة شاملة على مختلف الجوانب المتعلقة باستخدام أدوات الذكاء الاصطناعي التوليدي، بما في ذلك تأثيرها المحتمل على مختلف القطاعات والخدمات. وتهدف إلى زيادة الوعي بأهمية هذه الأدوات ودورها في بناء مستقبل مستدام ومثمر عند استخدامها بمسؤولية.

تابع القراءة لمعرفة المزيد عن الإرشادات، بما في ذلك المخاطر الرئيسية التي تم تسليط الضوء عليها بالإضافة إلى أفضل الممارسات للتخفيف من كل منها.

2. لمن هذه الإرشادات

أ. نطاق المواد

توفر هذه الوثيقة إرشادات كافية لكل من مطوري ومستخدمي نماذج وأنظمة الذكاء الاصطناعي التوليدي.

ب. النطاق الإقليمي

ينطبق هذا الدليل على جميع الكيانات المشاركة في تصميم أو تطوير أو نشر أو تنفيذ أو استخدام أو بأي شكل من الأشكال المتأثرة بنماذج وأنظمة الذكاء الاصطناعي العام داخل المملكة العربية السعودية.

3. تعريفات المصطلحات الرئيسية

فيما يلي بعض التعريفات الرئيسية الواردة في الإرشادات:

أ. الذكاء الاصطناعي التوليدي

يشير هذا إلى نموذج تعلّم آلي قادر على إنتاج أمثلة جديدة من مجموعة بيانات التدريب الخاصة به. يمكن أن تشمل هذه الأمثلة الجديدة نصوصًا وصورًا وأصواتًا ورموزًا ومقاطع فيديو وأنواعًا أخرى من الوسائط. تستطيع هذه النماذج أتمتة العديد من المهام البشرية التي تحاكي القدرات المعرفية، مثل الاستجابة للأوامر الشفهية أو الكتابية وصياغتها، والتعلم، وحل المشكلات.

ب. المستخدمون

يشمل ذلك أي شخص طبيعي أو اعتباري يستخدم منتجات أو خدمات تقدمها أنظمة الذكاء الاصطناعي التوليدي. ويشمل ذلك جميع الجهات المعنية، مثل الشركات والمنظمات غير الحكومية والأفراد.

ج. المطورون

يشير هذا إلى أي شخص طبيعي أو اعتباري يشارك في تطوير المنتجات أو الخدمات التي تقدمها أنظمة الذكاء الاصطناعي التوليدي. ويشمل ذلك مطوري الذكاء الاصطناعي وعلماء البيانات والباحثين.

4. إرشادات للمطورين والمستخدمين

عند التفاعل مع نماذج وأنظمة الذكاء الاصطناعي العام، يجب على المطورين والمستخدمين الالتزام بإرشادات محددة طوال دورة حياة النموذج أو النظام. ويؤدي ذلك إلى تعظيم الفوائد المحتملة وتقليل المخاطر المحتملة.

تم تطوير هذه المبادئ التوجيهية كجزء من مبادئ أخلاقيات الذكاء الاصطناعي التي أصدرتها جمعية الذكاء الاصطناعي المتقدمة (SDAIA) في 14 سبتمبر 2023، والتي تنطبق على جميع أنظمة الذكاء الاصطناعي، وليس فقط على الجيل الأول من الذكاء الاصطناعي:

أ. الإنصاف

يُطلب من جميع الجهات المعنية اتخاذ الإجراءات المناسبة للحد من التحيز والتمييز والوصم ضد الأفراد أو المجتمعات أو الجماعات في تصميم وتطوير ونشر واستخدام جميع أنظمة الذكاء الاصطناعي العام. ولضمان إنشاء أنظمة عادلة وممثلة، ينبغي تدريب جميع أنظمة الذكاء الاصطناعي العام على بيانات مُفلترة بدقة للتأكد من خلوها من التحيز، وتضم تمثيلاً كافياً للفئات المهمشة.

ولتحقيق هذه الغاية، يجب على المطورين والمستخدمين ما يلي:

  • اختبر جميع نماذج GenAI للتأكد من عدم وجود أي تحيز مضمن في الكود أو الخوارزمية عن طريق استخدام مجموعات بيانات التدريب الخالية من أي تحيز من هذا القبيل فقط؛
  • يجب أن يكون لديك فهم شامل لبيانات التدريب، بما في ذلك أصولها ومحتواها ومعايير اختيارها وكيفية إعدادها؛
  • زيادة معرفتهم بالتحيز والتنوع والشمول ومكافحة العنصرية والقيم والأخلاق لتحسين قدرتهم على التعرف على المحتوى المتحيز أو التمييزي.

ب. الموثوقية والسلامة

يجب على جميع الجهات المعنية ضمان التزام أنظمة الذكاء الاصطناعي العام بمجموعة من المواصفات المحددة مسبقًا، وأن تعمل بالطريقة المرجوة. ولا يقتصر ذلك على تعزيز موثوقية النظام فحسب، بل يضمن أيضًا عدم تشكيله أي خطر أو ضرر على المجتمع والأفراد.

ولتحقيق هذه الغاية، يجب على المطورين والمستخدمين ما يلي:

  • تصميم وتطوير أنظمة قادرة على تحمل حالات عدم اليقين وعدم الاستقرار والتقلبات الواسعة التي قد تواجهها؛
  • تطوير مجموعة مماثلة من المعايير والبروتوكولات التي تقيّم بشكل مناسب موثوقية نظام GenAI؛
  • تتضمن الأنظمة آليات داخلية تؤدي إلى إشراف بشري في حالات الطوارئ؛
  • القدرة على تحديد المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي لضمان قدرة المستخدمين على التحقق من جميع هذه المحتويات مقابل مصادر مستقلة؛
  • ضمان الجودة المستمرة لمجموعة بيانات التدريب لضمان موثوقية جميع المحتويات المنتجة؛
  • يرجى مراجعة جميع المحتويات للتأكد من دقتها وملاءمتها لمنع انتشار المعلومات المضللة.

ج. الشفافية وقابلية التفسير

يجب على جميع الجهات المعنية ضمان تصميم أنظمة الذكاء الاصطناعي العام بطريقة قابلة للتفسير بشكل مناسب، وتوفير معلومات كافية حول كيفية اتخاذ القرارات الآلية. من شأن ذلك أن يسمح بالتدخل في الوقت المناسب إذا كانت القرارات الآلية دون المستوى الأمثل.

ولتحقيق هذه الغاية، يجب على المطورين والمستخدمين ما يلي:

  • يجب إبلاغ الجمهور بوضوح عند استخدام قدرات الذكاء الاصطناعي العام؛
  • إبلاغ الجمهور عندما يتم إنشاء المحتوى بواسطة الذكاء الاصطناعي؛
  • توفير قنوات مناسبة للجمهور لاختيار بدائل لقنوات الاتصال الآلية؛
  • قم بتطبيق أدوات تساعد الجمهور على تحديد المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، مثل العلامات المائية.

د. المساءلة والمسؤولية

جميع أصحاب المصلحة المعنيين، مثل المصممين والبائعين والمشترين والمطورين والمالكين والمقيّمين لأنظمة الذكاء الاصطناعي العام، مسؤولون أخلاقياً وملزمون بالقرارات التي يتخذها نظام الذكاء الاصطناعي العام والتي تؤثر سلباً على الأفراد والمجتمعات.

علاوة على ذلك، ينطوي تبني الذكاء الاصطناعي من الجيل الجديد على العديد من التداعيات القانونية والأخلاقية، مثل خطر انتهاك حقوق الملكية الفكرية، وانتهاكات حقوق الإنسان، والمخاطر المحتملة data privacy المخالفات.

ولتحقيق هذه الغاية، يجب على المطورين والمستخدمين ما يلي:

  • ضمان الحصول على جميع بيانات التدريب وتصنيفها ومعالجتها وإتاحتها بشكل صحيح لتسهيل التدخل البشري عند الحاجة؛
  • التزم بالثبات data quality عمليات التحقق من صحة البيانات؛
  • ضمان التزام جميع أنظمة الذكاء الاصطناعي العام المطورة بشكل مناسب باللوائح ذات الصلة مثل قانون حماية البيانات الشخصية وقانون الملكية الفكرية؛
  • استشر بانتظام متخصصين قانونيين لتقييم جميع المخاطر الرئيسية المرتبطة بنشر أنظمة الذكاء الاصطناعي من الجيل الأول والقضاء عليها.

هـ. الخصوصية والأمان

يجب على جميع الجهات المعنية ضمان حماية أنظمة الذكاء الاصطناعي العام التي يجري تطويرها لخصوصية البيانات التي تجمعها بشكل مناسب. ولا يمكن تحقيق ذلك إلا من خلال تطبيق تدابير أمنية كافية لحماية البيانات ومنع اختراقاتها التي قد تؤدي إلى أنواع مختلفة من الضرر.

ولتحقيق هذه الغاية، يجب على المطورين والمستخدمين ما يلي:

  • اتخاذ تدابير الخصوصية والأمان المناسبة عند استخدام البيانات الحساسة أو المصنفة لتدريب أنظمة الذكاء الاصطناعي العام؛
  • تطبيق آليات حماية البيانات وفقًا لما تقتضيه اللوائح ذات الصلة؛
  • تقييم جميع المخاطر التي ينطوي عليها استخدام أنظمة الذكاء الاصطناعي العام وفقًا لمبادئ أخلاقيات الذكاء الاصطناعي؛
  • إجراء تقييمات منتظمة لأثر الخصوصية والمخاطر لإعادة تقييم الاعتبارات الاجتماعية والأخلاقية حسب الحاجة؛
  • قم بتطبيق إطار عمل الخصوصية والأمان بالتصميم لحماية أي نظام ذكاء اصطناعي متطور من الهجمات الخبيثة.

و. الإنسانية

يجب على جميع الجهات المعنية ضمان تطبيق منهجية أخلاقية عند تطوير نماذج الذكاء الاصطناعي العام التي تُحدث أثراً إيجابياً على الأفراد والمجتمعات على المديين القريب والبعيد. وينبغي أن تتبنى هذه النماذج تصميماً يركز على الإنسان، مما يُسهّل خياراته وقراراته.

ز. الفوائد الاجتماعية والبيئية

يجب أن تتضمن جميع نماذج الذكاء الاصطناعي من الجيل الجديد أولويات اجتماعية وبيئية تعود بالنفع على الأفراد والمجتمعات على حد سواء. ويجب ألا تتسبب أنظمة الذكاء الاصطناعي من الجيل الجديد في إلحاق الضرر بالبشر أو تسريعه، بل يجب أن تسهم في تمكين التقدم الاجتماعي والبيئي.

5. مخاطر الجيل الجديد من الذكاء الاصطناعي وتدابير التخفيف منها

تُتيح تقنيات الذكاء الاصطناعي من الجيل الجديد فرصًا وتحديات لكلٍ من المطورين والمستخدمين. فيما يلي بعض المخاطر الأكثر إلحاحًا ومباشرةً لهذه التقنيات، بالإضافة إلى التدابير الوقائية المُوصى بها لكل منها:

أ. التزييف العميق والتضليل

يمكن استغلال قدرات الذكاء الاصطناعي العام لأغراض خبيثة كالنصب والاحتيال المالي والابتزاز وسرقة الهوية المعقدة. علاوة على ذلك، يمكن استخدام البيانات الرقمية المتاحة، كالفيديوهات والصور الشخصية، والتلاعب بها لإنشاء تمثيلات رقمية مزيفة (أي التزييف العميق). ولا يقتصر الأمر على إلحاق أضرار جسيمة بالأفراد، بل قد يؤدي في بعض الحالات إلى اضطرابات سياسية واجتماعية.

تشمل أفضل الاستراتيجيات لمواجهة هذا التهديد ما يلي:

أولاً: تطبيق العلامة المائية

يجب أن تحمل جميع المحتويات المُنشأة عبر نماذج وأنظمة الذكاء الاصطناعي العام علامة مائية تشير إلى ذلك. ويمكن بعد ذلك وضع علامة على هذه البيانات إذا استُخدمت في نماذج وأنظمة أخرى للذكاء الاصطناعي العام، والتعامل معها وفقًا للوائح ذات الصلة.

ثانيًا: بروتوكولات اعرف عميلك

تتطلب معظم تقنيات التزييف العميق قدرة حاسوبية هائلة. لذا، ينبغي على المؤسسات التي توفر الأجهزة اللازمة لها، مثل وحدات معالجة الرسومات (GPUs) ووحدات معالجة الموترات (TPUs)، تطبيق عمليات تحقق مكثفة. سيسهل ذلك تحديد منشئي التزييف العميق المحتملين، ويصعّب على الجهات الخبيثة الوصول إلى هذه الأدوات من الأساس.

ثالثًا: التحقق من المخرجات

يجب تحليل جميع المحتويات المُولّدة عبر نماذج وأنظمة الذكاء الاصطناعي العام تحليلاً دقيقاً للكشف عن أي محتوى صوتي أو مرئي غير لائق. ويمكن أيضاً إجراء فحوصات إضافية، مثل استخدام صور وجوه الشخصيات العامة وعينات أصواتهم.

رابعاً: تحسين المعرفة الرقمية والسلامة على الإنترنت

يتعين على المؤسسات العامة والخاصة اتخاذ تدابير استباقية لتوعية الجمهور وتثقيفه وإقناعه بالمخاطر المحتملة لتقنية التزييف العميق، فضلاً عن توضيح تدابير حماية البيانات التي يمكنهم اتخاذها للحد من احتمالية استخدام بياناتهم لإنشاء مثل هذا المحتوى. كما أن توفير معلومات حول كيفية مساعدة هذه المؤسسات في تحديد هذا المحتوى على الإنترنت سيسهم في الحد من انتشاره.

ب. التهديدات الأمنية

يمكن استخدام أدوات الذكاء الاصطناعي العام لإنشاء محتوى متنوع. وبدون آليات ترشيح مناسبة، قد ينتج عنها محتوى يُستخدم لتهديد السلامة والأمن العام. ومن بين طرق مواجهة هذه التهديدات ما يلي:

أولاً: مراقبة المحتوى وتصفيته

من الضروري ضمان توافق المحتوى المُنتَج بواسطة نماذج وأنظمة الذكاء الاصطناعي العام مع إرشادات المحتوى الخاصة بالجهة المُقدِّمة للخدمة. ينبغي تضمين آليات قادرة على الكشف عن أي محتوى ضار مُنتَج بواسطة هذه الأنظمة، والإشارة إليه، ومنع انتشاره. ومن أمثلة هذه الآليات، الترشيح الدقيق لكلٍّ من مُدخلات المستخدم والمخرجات المُنتَجة. كما ينبغي تحديث هذه الآليات بانتظام بناءً على ملاحظات العملاء واختبارات داخلية دقيقة.

ثانياً: تصفية مجموعة البيانات

وكما هو الحال مع المحتوى المُنشأ، يجب أيضًا تصفية جميع بيانات التدريب بدقة بحثًا عن أي معلومات موجودة يمكن استخدامها للتأثير على المخرجات المُنشأة بأي شكل من الأشكال.

ثالثًا: نماذج الوصول المغلق

رغم أن النماذج والقنوات المفتوحة المصدر قد تُسهم في الحصول على العديد من مجموعات البيانات، إلا أنها قد تُثير مشاكلها الخاصة، إذ يكاد يكون من المستحيل التحقق من مصدر هذه النماذج ومجموعات البيانات. لذا، ينبغي، قدر الإمكان، السماح للمطورين باستخدام النماذج فقط بعد أن يتحققوا بأنفسهم من سلامتها ومن الأهداف المعلنة لاستخدامها.

ج. المعلومات المضللة والهلوسة

يمكن استخدام نماذج وأنظمة الذكاء الاصطناعي العام لإنشاء معلومات زائفة تبدو حقيقية. يُعرف هذا بـ"وهم الذكاء الاصطناعي"، حيث يتم خداع النموذج بطريقة ما لإنتاج مخرجات خاطئة. ومن أفضل الطرق لمواجهة ذلك ما يلي:

أولاً: التحقق من المحتوى والاستشهاد

على غرار البيانات الأكاديمية، ينبغي أن تتضمن جميع نماذج وأنظمة الذكاء الاصطناعي العام المتاحة للعموم آليات مدمجة لتقدير دقة المعلومات التي تقدمها. ومن خلال إلزام جميع هذه الأنظمة بعرض مصدر البيانات المستخدمة في إنشاء المحتوى، يمكن للمستخدمين التحقق بأنفسهم من دقة المحتوى المُنشأ. علاوة على ذلك، تتيح هذه الآلية مستوى أعلى من الدقة، فضلاً عن ضمان استخدام مصادر موثوقة لإنشاء المحتوى.

ثانياً: تصنيف المحتوى

يمكن الاستفادة من العلامات المائية في هذه الحالة أيضًا. يجب أن يحتوي كل محتوى يتم إنشاؤه بواسطة نماذج وأنظمة الذكاء الاصطناعي العام على ما يشير إلى أن هذه النماذج والأنظمة هي التي قامت بإنشائه. ويمكن تحديد هذه العلامات بناءً على نوع المحتوى الذي يتم إنشاؤه.

ثالثًا: يقظة المستخدم

يجب على المستخدمين أن يبادروا بأنفسهم إلى التحقق من دقة المحتوى الذي تُنتجه تقنيات الذكاء الاصطناعي. ويُعدّ التدقيق في المعلومات، مثل تصنيف المحتوى أو مقارنتها بمصادر موثوقة على الإنترنت، بدايةً ممتازةً لذلك.

رابعاً: زيادة الوعي

ينبغي على المستخدمين إدراك التفاوت الكبير في دقة المخرجات التي تُنتجها نماذج وأنظمة الذكاء الاصطناعي العام. لذا، يجب تثقيفهم حول عمليات التحقق من الحقائق والمحتوى القياسية لمراجعة جميع المحتويات التي يُنتجها الذكاء الاصطناعي العام بأنفسهم.

د. اختراقات البيانات

في كثير من الأحيان، قد يكشف المستخدمون معلومات حساسة عبر الإنترنت دون قصد. وينطبق الأمر نفسه عند استخدام أدوات الذكاء الاصطناعي العام. قد يؤدي استخدام موظفي المؤسسة لهذه الأدوات إلى عواقب وخيمة على مؤسساتهم، إذ يمكن أن تُكشف أي معلومات حساسة خاصة بالمؤسسة عبر هذه الأدوات لأطراف ثالثة، قد تكون منافسة أو، الأسوأ من ذلك، جهات خبيثة. ولمواجهة ذلك، يمكن للمؤسسات اتخاذ الخطوات التالية:

أولاً: بروتوكولات الاستخدام

يجب على المؤسسات تطبيق موقف صارم وحاسم فيما يتعلق بإدخال الموظفين للمعلومات السرية في أي نماذج وأدوات ذكاء اصطناعي تابعة لجهات خارجية. من الأفضل وجود مجموعة من الإرشادات التي توجه جميع الموظفين بشأن أفضل ممارسات إنشاء المحتوى واستخدامه، بالإضافة إلى الخطوات التي يمكنهم اتخاذها لدعم الاستخدام الأخلاقي لهذه التقنية. من شأن تطبيق هذه الإرشادات بشكل مناسب أن يقلل من احتمالية حدوث أي خلل في السياسة الداخلية قد يؤدي إلى اختراق كبير للبيانات.

ثانياً: تدريب الموظفين

يُعدّ تصميم سياسات الاستخدام وتطبيقها خطوة أولى جيدة. مع ذلك، يجب على المؤسسة اتخاذ جميع الخطوات اللازمة لضمان فهم موظفيها لأهمية هذه السياسات. وتُعتبر الدورات التدريبية وورش العمل التي تُغطي جوانب أخرى من نموذج الذكاء الاصطناعي العام واستخدام النظام، مثل المتطلبات القانونية الأوسع نطاقًا التي تشمل إدارة البيانات، والأمن السيبراني، وتصنيف البيانات الحكومية، وحماية البيانات الشخصية، وحقوق الملكية الفكرية، وغيرها من المجالات القانونية أو السياسية ذات الصلة، أفضل السبل لتحقيق ذلك.

ثالثًا: ضوابط الوصول

ينبغي تقييد وصول المستخدمين أو الموظفين إلى المعلومات الحساسة، مع منح امتيازات الوصول بناءً على تصنيفهم أو ضرورة الوصول إلى تلك المعلومات.

هـ. تزوير الشهادات

في الأوساط الأكاديمية، يتزايد استخدام أنظمة ونماذج الذكاء الاصطناعي في عمليات منح الشهادات البشرية، مثل الامتحانات والتقييمات المهنية. قد يُقوّض هذا الأمر بشدة موثوقية هذه الامتحانات ومصداقيتها، ويُشكّل تهديدًا مجتمعيًا لصعوبة اكتشافه باستخدام أدوات مكافحة الانتحال القياسية المتوفرة في السوق. يمكن للمؤسسات اتخاذ الخطوات التالية لمواجهة هذا التحدي:

أولاً: تقييمات أفضل

يمكن للجهات الخبيثة استغلال أدوات الذكاء الاصطناعي لتعزيز وتطوير أساليبها القائمة. وهذا يؤكد أهمية وجود عملية مراجعة شاملة لدى المؤسسات لجميع تقييماتها. وينبغي تعديل هذه التقييمات والآليات المستخدمة في إجرائها بما يتناسب مع القدرات والمنهجيات التكنولوجية المتطورة.

ولتحقيق هذه الغاية، يجب على المؤسسات ضمان امتلاك موظفيها للمهارات والمعرفة والوعي اللازمين لمواجهة أي إساءة استخدام محتملة لأدوات الذكاء الاصطناعي العام. ويمكن أن يساعد القيام بذلك بانتظام المؤسسات في الحفاظ على نزاهة وأمن هذه التقييمات.

ثانياً: التثقيف والتدريب

يجب إجراء دورات تدريبية داخلية شاملة لتعزيز الاستخدام المسؤول لأدوات الذكاء الاصطناعي العام، مع الاستفادة منها أيضاً لتحديد السلوكيات المشبوهة المحتملة التي تشير إلى الاحتيال أو إساءة استخدام الأداة.

ثالثًا: إتقان الاستعلام

ينبغي تدريب المطورين والمستخدمين على المطالبات وكيفية صياغة مطالبات يمكنها تقديم مخرجات مثالية دون التسبب في بعض المشكلات المتعلقة بالمحتوى التي نوقشت أعلاه.

رابعاً: إرشادات واضحة

يجب على كل منظمة أن تدرس وتضع مبادئ توجيهية مناسبة لاستخدام أدوات الذكاء الاصطناعي من الجيل الجديد بما يتماشى مع مبادئها الأخلاقية وقواعد السلوك الخاصة بها.

و- انتهاك حقوق الملكية الفكرية وحمايتها

تُدرَّب نماذج وأنظمة الذكاء الاصطناعي العام على مجموعة واسعة من المحتوى. وبطبيعة الحال، أدى ذلك إلى زيادة حالات الاستخدام غير المصرح به للمواد المحمية بحقوق الطبع والنشر أو الملكية الفكرية. يمكن للخطوات التالية أن تساعد في تقليل هذه الحالات:

أولاً: ترخيص الملكية الفكرية والتحقق من سلامة الإجراءات

يجب إلزام مطوري الذكاء الاصطناعي بالحصول على إذن وتراخيص قانونية لاستخدام أي ملكية فكرية في مجموعات بيانات التدريب لنماذج وأنظمة الذكاء الاصطناعي العام. من شأن ذلك أن يُرسي سلسلة من المساءلة تُسهم في الحد من استخدام المحتوى المحمي دون الحصول على الأذونات اللازمة. علاوة على ذلك، يجب منح المستخدمين فرصة طلب تأكيد ما إذا كانت أدوات الذكاء الاصطناعي العام التي يستخدمونها قد دُرِّبت باستخدام الملكية الفكرية.

ثانيًا: أذونات المُنشئ

يجب على مطوري نماذج أو أنظمة الذكاء الاصطناعي العام، أو أي امتداد لترخيص الملكية الفكرية، الحصول على إذن من صاحب الملكية الفكرية الأصلي قبل استخدام هذه البيانات ضمن مجموعات بياناتهم. وفي حال تعذر ذلك، يمكن للمطورين وضع آلية تعويض تضمن تعويضًا عادلًا للمبدعين الأصليين في كل مرة يُستخدم فيها محتواهم في مجموعات بيانات التدريب.

ز. تباين المخرجات

بخلاف الخدمات القابلة للبرمجة التقليدية، لا تعتمد نماذج وأنظمة الذكاء الاصطناعي من الجيل الجديد (GenAI) كليًا على خوارزميات محددة مسبقًا لإنتاج المخرجات. علاوة على ذلك، يمكن لهذه الأدوات تغيير طريقة تطويرها وإنتاجها للمخرجات بناءً على التحديثات والتغييرات الداخلية. لذا، ولمواجهة أي مشكلات قد تنشأ عن هذه الحالات، يمكن للمؤسسات اتخاذ الخطوات التالية:

1. مؤشر واضح على الكود المُولّد بواسطة الذكاء الاصطناعي

ينبغي على المطورين المسؤولين عن تطوير البنية البرمجية الداخلية للمؤسسة تضمين تعليقات توضيحية مفصلة ودقيقة داخل شفرة المصدر كلما استخدموا أدوات مثل ChatGPT واستخدام أداة Copilot من GitHub للإشارة إلى أن هذا الكود قد طُوّر بمساعدة هذه الأدوات. لا يُسهم ذلك في زيادة الشفافية فحسب، بل يضمن أيضًا الحفاظ على جودة الكود بشكل عام.

ثانياً: التحقق والتدقيق

يجب التحقق بانتظام وبشكل شامل من جميع التعليمات البرمجية التي تم إنشاؤها بواسطة الذكاء الاصطناعي والمحتويات الأخرى ذات الصلة، وخاصة في الحالات التي تكون فيها الدقة ذات أهمية قصوى.

ثالثًا: ابقَ على اطلاع

يجب على المطورين السعي باستمرار لمواكبة أحدث التطورات المتعلقة بنماذج وأنظمة الذكاء الاصطناعي العام. يساعدهم ذلك على البقاء على اطلاع دائم بأي تغييرات قد تطرأ على هذه الأدوات والتي تؤثر على طريقة استخدامهم لها وتفاعلهم معها.

رابعاً: بناء الخبرة

ينبغي على المطورين اكتساب فهم شامل وخبرة متعمقة في استخدام الذكاء الاصطناعي العام. ويمكن أن تكون هذه الخبرة بالغة الأهمية عند تقييم مدى صحة المخرجات التي يولدها الذكاء الاصطناعي.

6. كيف Securiti يمكن المساعدة

Securiti هو رائد في Data Command Center منصة مركزية تُمكّن من الاستخدام الآمن للبيانات والذكاء الاصطناعي العام. توفر هذه المنصة ذكاءً موحدًا للبيانات، وضوابط، وتنسيقًا عبر بيئات سحابية هجينة متعددة. وتعتمد عليها كبرى الشركات العالمية. Securiti 's Data Command Center وذلك لحلولها المتنوعة في مجال أمن البيانات والخصوصية والحوكمة والامتثال.

مع Data Command Center ستتمكن المنظمات من الوصول إلى العديد من الوحدات والحلول التي ستتيح التكامل السلس والامتثال للسياسات والتدابير المقترحة في هذا الدليل.

تعمل وحدة assessment automation على أتمتة تقارير سجلات المعالجة ( RoPA )، وتقييمات أثر الخصوصية، وتقييمات أثر حماية البيانات. وتوفر وحدة data quality معلومات فنية حول البيانات، بالإضافة إلى الاحتفاظ بقائمة بقواعد العمل المطبقة عليها. علاوة على ذلك، يتيح تصنيف البيانات الكشف عن الملفات الحساسة، مثل المستندات الطبية والمالية، مع وضع علامات تلقائية لتتبع سياسات الأمان الخاصة بهذه الملفات وتطبيقها.

وبالمثل، هناك العديد من الوحدات الأخرى التي تشكل جزءًا من Data Command Center يمكن الاستفادة منها لمواجهة المخاطر المحددة في هذا الدليل.

اطلب عرضًا تجريبيًا اليوم وتعرف على المزيد حول كيفية Securiti يمكننا مساعدتك في الامتثال لأي لوائح متعلقة بالبيانات والذكاء الاصطناعي من المملكة العربية السعودية.

قم بتحليل هذه المقالة باستخدام الذكاء الاصطناعي

تظهر المطالبات في أدوات الذكاء الاصطناعي التابعة لجهات خارجية.
انضم إلى قائمتنا البريدية

احصل على أحدث المعلومات والتحديثات القانونية والمزيد مباشرةً في بريدك الإلكتروني



قصص أخرى قد تهمك
مقاطع فيديو
عرض المزيد
ريحان جليل، من شركة Veeam، يتحدث عن Agent Commander: theCUBE + NYSE Wired: قادة الأمن السيبراني
بعد استحواذ شركة Veeam على Securiti يمثل إطلاق برنامج Agent Commander خطوة هامة نحو مساعدة المؤسسات على تبني وكلاء الذكاء الاصطناعي بثقة أكبر. في...
عرض المزيد
تخفيف مخاطر قائمة OWASP لأهم 10 مخاطر لتطبيقات ماجستير القانون 2025
أحدث الذكاء الاصطناعي التوليدي (GenAI) تحولاً جذرياً في طريقة عمل الشركات وتوسعها ونموها. يوجد تطبيق للذكاء الاصطناعي لكل غرض، بدءاً من زيادة إنتاجية الموظفين وصولاً إلى تبسيط العمليات...
عرض المزيد
أفضل 6 DSPM حالات الاستخدام
مع ظهور الذكاء الاصطناعي التوليدي (GenAI)، أصبحت البيانات أكثر ديناميكية. يتم توليد بيانات جديدة بوتيرة أسرع من أي وقت مضى، ونقلها إلى أنظمة وتطبيقات متنوعة...
عرض المزيد
قانون الخصوصية في كولورادو (CPA)
ما هو قانون خصوصية كولورادو؟ قانون خصوصية كولورادو هو قانون شامل لحماية الخصوصية، تم توقيعه في 7 يوليو 2021. وقد وضع معايير جديدة لحماية البيانات الشخصية...
عرض المزيد
Securiti لمساعد الطيار في البرمجيات كخدمة (SaaS)
تسريع اعتماد Copilot بأمان وثقة: تتطلع المؤسسات إلى اعتماد Microsoft 365 Copilot لزيادة الإنتاجية والكفاءة. ومع ذلك، تظل المخاوف الأمنية، مثل حماية البيانات...
عرض المزيد
أهم عشرة اعتبارات لاستخدام البيانات غير المهيكلة بأمان مع الذكاء الاصطناعي العام
نسبة مذهلة تصل إلى 90% من بيانات المؤسسات غير منظمة. وتُستخدم هذه البيانات بسرعة لتغذية تطبيقات الذكاء الاصطناعي من الجيل الجديد، مثل روبوتات الدردشة والبحث المدعوم بالذكاء الاصطناعي.
عرض المزيد
جينكور للذكاء الاصطناعي: بناء أنظمة ذكاء اصطناعي آمنة وعالية الجودة للمؤسسات في دقائق
مع تبني المؤسسات للذكاء الاصطناعي التوليدي، تواجه فرق البيانات والذكاء الاصطناعي العديد من العقبات: ربط مصادر البيانات غير المهيكلة والمهيكلة بشكل آمن، والحفاظ على الضوابط والحوكمة المناسبة،...
عرض المزيد
كيفية التعامل مع قانون حماية خصوصية المستهلك في كاليفورنيا: رؤى أساسية للشركات
ما هو قانون حقوق الخصوصية في كاليفورنيا (CPRA)؟ هو تشريع ولاية كاليفورنيا الذي يهدف إلى حماية خصوصية سكانها الرقمية. وقد دخل حيز التنفيذ في يناير...
عرض المزيد
التكيف مع التحول: الانتقال إلى معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS) الإصدار 4.0
ما هو معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS)؟ هو مجموعة من معايير الأمان لضمان المعالجة والتخزين الآمنين للبيانات، و...
عرض المزيد
تأمين البيانات والذكاء الاصطناعي: دليل إدارة الثقة والمخاطر والأمن (TRiSM)
أثارت المخاطر الأمنية المتزايدة للذكاء الاصطناعي قلق 48% من مسؤولي أمن المعلومات حول العالم. انضموا إلى هذه الجلسة الرئيسية للتعرف على دليل عملي لتمكين الثقة في الذكاء الاصطناعي، وإدارة المخاطر،...

جلسات حوارية مميزة

تسليط الضوء
الاستعداد للمستقبل لمحترفي الخصوصية
شاهد الآن منظر
تسليط الضوء 50:52
من البيانات إلى النشر: حماية الذكاء الاصطناعي المؤسسي من خلال الأمن والحوكمة
شاهد الآن منظر
تسليط الضوء 11:29
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
شاهد الآن منظر
تسليط الضوء 11:18
إعادة هيكلة تمويل العقارات - كيف تُجري شركة ووكر آند دنلوب تحديثًا لمحفظتها الاستثمارية البالغة 135 مليار دولار أمريكي بالاعتماد على البيانات أولاً
شاهد الآن منظر
تسليط الضوء 13:38
تسريع المعجزات - كيف تُدمج شركة سانوفي الذكاء الاصطناعي لتقليص مدة تطوير الأدوية بشكل كبير
صورة مصغرة لشركة سانوفي
شاهد الآن منظر
تسليط الضوء 10:35
حدث تحول جوهري في مركز ثقل البيانات
شاهد الآن منظر
تسليط الضوء 14:21
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
شاهد الآن منظر
تسليط الضوء 12:!3
لا يمكنك بناء خطوط الأنابيب أو المستودعات أو منصات الذكاء الاصطناعي بدون معرفة تجارية
شاهد الآن منظر
تسليط الضوء 47:42
الأمن السيبراني – حيث يقوم القادة بالشراء والبناء والشراكة
ريحان جليل
شاهد الآن منظر
تسليط الضوء 27:29
بناء ذكاء اصطناعي آمن باستخدام Databricks و Gencore
ريحان جليل
شاهد الآن منظر
أحدث
عرض المزيد
بناء ذكاء اصطناعي سيادي باستخدام HPE Private Cloud AI و Veeam Securiti Gencore AI
كيف تُساهم تقنيات الذكاء الاصطناعي في السحابة الخاصة من HPE، وتسريع NVIDIA، وVeeam؟ Securiti يدعم نظام Gencore AI الذكاء الاصطناعي الآمن والمُدار للمؤسسات مع تطبيق السياسات عبر سير العمل RAG والمساعدين والوكلاء.
عرض المزيد
Securiti أعلنت شركة .ai عن اختيار شركة أكسنتشر كشريك العام لعام 2025
في إطار الاحتفال المستمر بالتعاون المؤثر في DataAI Security ، Securiti منحت شركة .ai، التابعة لشركة Veeam، شركة Accenture لقب شريك العام لعام 2025....
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ قانون حماية خصوصية المستهلك في كاليفورنيا؟ عرض المزيد
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ القانون؟
يمكن للشركات أن تستفيد من بعض الدروس الحيوية من أكبر إجراء إنفاذي تم اتخاذه مؤخراً في تاريخ قانون خصوصية المستهلك في كاليفورنيا (CCPA). Securiti مدونة 's تغطي جميع التفاصيل المهمة التي يجب معرفتها.
عرض المزيد
الذكاء الاصطناعي وقانون HIPAA: ما يعنيه وكيفية أتمتة الامتثال
تعرّف على كيفية تطبيق قانون قابلية نقل التأمين الصحي والمساءلة (HIPAA) على الذكاء الاصطناعي في تأمين المعلومات الصحية المحمية. تعلّم كيف...
عرض المزيد
الذكاء الاصطناعي الوكيل والخصوصية: إدارة وكلاء الذكاء الاصطناعي المستقلين في المؤسسات
تعرّف على كيفية إدارة الذكاء الاصطناعي الوكيل في المؤسسة. إدارة مخاطر الخصوصية، والتحكم في الوصول إلى البيانات، وإنفاذ السياسات، وضمان الامتثال لوكلاء الذكاء الاصطناعي المستقلين.
عرض المزيد
خيارات الانسحاب الدائمة: سحب الموافقة عبر التسويق، والبرمجيات كخدمة، والذكاء الاصطناعي العام
Securiti تقدم الورقة البيضاء الخاصة بـ [اسم الشركة] نظرة عامة مفصلة حول متطلبات سحب الموافقة المختلفة في مجالات التسويق، والبرمجيات كخدمة (SaaS)، والذكاء الاصطناعي العام (GenAI). اقرأ الآن لمعرفة المزيد.
عرض المزيد
ROT Data Minimization
التخلص من البيانات الزائدة والقديمة والتافهة (ROT) لتحسين دقة الذكاء الاصطناعي، وتقليل تكاليف التخزين، وتقليل مخاطر الأمن والامتثال على نطاق واسع.
عرض المزيد
قائد العملاء: ملخص الحل
تعرّف على كيفية قيام Agent Commander باكتشاف وكلاء الذكاء الاصطناعي، وحماية بيانات المؤسسة من خلال ضوابط التشغيل، وتصحيح أخطاء الذكاء الاصطناعي - مما يتيح اعتماد الذكاء الاصطناعي بشكل آمن ومتوافق مع المعايير في...
عرض المزيد
تخلص من مخاطر البيانات في الذكاء الاصطناعي
تعرف على كيفية إعداد بيانات المؤسسة لاعتماد Gemini Enterprise بشكل آمن من خلال الحوكمة الأولية، واكتشاف البيانات الحساسة، وضوابط سياسة ما قبل الفهرسة.
عرض المزيد
دليل الحصول على شهادة HITRUST
Securiti يُعد الكتاب الإلكتروني دليلاً عملياً للحصول على شهادة HITRUST، ويغطي كل شيء بدءاً من اختيار i1 مقابل r2 ونطاق الأنظمة وصولاً إلى إدارة خطط العمل والتخطيط...
ما هو
جديد