1. مقدمة
أصدرت الهيئة السعودية للبيانات والذكاء الاصطناعي مؤخراً " المبادئ التوجيهية للذكاء الاصطناعي التوليدي ". والهدف الرئيسي من هذه الوثيقة هو مساعدة المؤسسات التي تقوم بتطوير واستخدام نماذج وأنظمة الذكاء الاصطناعي التوليدي على فهم المخاطر المختلفة المرتبطة عادةً بتطويرها وتصميمها ونشرها.
بالإضافة إلى ذلك، تتضمن الإرشادات نظرة شاملة على مختلف الجوانب المتعلقة باستخدام أدوات الذكاء الاصطناعي التوليدي، بما في ذلك تأثيرها المحتمل على مختلف القطاعات والخدمات. وتهدف إلى زيادة الوعي بأهمية هذه الأدوات ودورها في بناء مستقبل مستدام ومثمر عند استخدامها بمسؤولية.
تابع القراءة لمعرفة المزيد عن الإرشادات، بما في ذلك المخاطر الرئيسية التي تم تسليط الضوء عليها بالإضافة إلى أفضل الممارسات للتخفيف من كل منها.
2. لمن هذه الإرشادات
أ. نطاق المواد
توفر هذه الوثيقة إرشادات كافية لكل من مطوري ومستخدمي نماذج وأنظمة الذكاء الاصطناعي التوليدي.
ب. النطاق الإقليمي
ينطبق هذا الدليل على جميع الكيانات المشاركة في تصميم أو تطوير أو نشر أو تنفيذ أو استخدام أو بأي شكل من الأشكال المتأثرة بنماذج وأنظمة الذكاء الاصطناعي العام داخل المملكة العربية السعودية.
3. تعريفات المصطلحات الرئيسية
فيما يلي بعض التعريفات الرئيسية الواردة في الإرشادات:
أ. الذكاء الاصطناعي التوليدي
يشير هذا إلى نموذج تعلّم آلي قادر على إنتاج أمثلة جديدة من مجموعة بيانات التدريب الخاصة به. يمكن أن تشمل هذه الأمثلة الجديدة نصوصًا وصورًا وأصواتًا ورموزًا ومقاطع فيديو وأنواعًا أخرى من الوسائط. تستطيع هذه النماذج أتمتة العديد من المهام البشرية التي تحاكي القدرات المعرفية، مثل الاستجابة للأوامر الشفهية أو الكتابية وصياغتها، والتعلم، وحل المشكلات.
ب. المستخدمون
يشمل ذلك أي شخص طبيعي أو اعتباري يستخدم منتجات أو خدمات تقدمها أنظمة الذكاء الاصطناعي التوليدي. ويشمل ذلك جميع الجهات المعنية، مثل الشركات والمنظمات غير الحكومية والأفراد.
ج. المطورون
يشير هذا إلى أي شخص طبيعي أو اعتباري يشارك في تطوير المنتجات أو الخدمات التي تقدمها أنظمة الذكاء الاصطناعي التوليدي. ويشمل ذلك مطوري الذكاء الاصطناعي وعلماء البيانات والباحثين.
4. إرشادات للمطورين والمستخدمين
عند التفاعل مع نماذج وأنظمة الذكاء الاصطناعي العام، يجب على المطورين والمستخدمين الالتزام بإرشادات محددة طوال دورة حياة النموذج أو النظام. ويؤدي ذلك إلى تعظيم الفوائد المحتملة وتقليل المخاطر المحتملة.
تم تطوير هذه المبادئ التوجيهية كجزء من مبادئ أخلاقيات الذكاء الاصطناعي التي أصدرتها جمعية الذكاء الاصطناعي المتقدمة (SDAIA) في 14 سبتمبر 2023، والتي تنطبق على جميع أنظمة الذكاء الاصطناعي، وليس فقط على الجيل الأول من الذكاء الاصطناعي:
أ. الإنصاف
يُطلب من جميع الجهات المعنية اتخاذ الإجراءات المناسبة للحد من التحيز والتمييز والوصم ضد الأفراد أو المجتمعات أو الجماعات في تصميم وتطوير ونشر واستخدام جميع أنظمة الذكاء الاصطناعي العام. ولضمان إنشاء أنظمة عادلة وممثلة، ينبغي تدريب جميع أنظمة الذكاء الاصطناعي العام على بيانات مُفلترة بدقة للتأكد من خلوها من التحيز، وتضم تمثيلاً كافياً للفئات المهمشة.
ولتحقيق هذه الغاية، يجب على المطورين والمستخدمين ما يلي:
- اختبر جميع نماذج GenAI للتأكد من عدم وجود أي تحيز مضمن في الكود أو الخوارزمية عن طريق استخدام مجموعات بيانات التدريب الخالية من أي تحيز من هذا القبيل فقط؛
- يجب أن يكون لديك فهم شامل لبيانات التدريب، بما في ذلك أصولها ومحتواها ومعايير اختيارها وكيفية إعدادها؛
- زيادة معرفتهم بالتحيز والتنوع والشمول ومكافحة العنصرية والقيم والأخلاق لتحسين قدرتهم على التعرف على المحتوى المتحيز أو التمييزي.
ب. الموثوقية والسلامة
يجب على جميع الجهات المعنية ضمان التزام أنظمة الذكاء الاصطناعي العام بمجموعة من المواصفات المحددة مسبقًا، وأن تعمل بالطريقة المرجوة. ولا يقتصر ذلك على تعزيز موثوقية النظام فحسب، بل يضمن أيضًا عدم تشكيله أي خطر أو ضرر على المجتمع والأفراد.
ولتحقيق هذه الغاية، يجب على المطورين والمستخدمين ما يلي:
- تصميم وتطوير أنظمة قادرة على تحمل حالات عدم اليقين وعدم الاستقرار والتقلبات الواسعة التي قد تواجهها؛
- تطوير مجموعة مماثلة من المعايير والبروتوكولات التي تقيّم بشكل مناسب موثوقية نظام GenAI؛
- تتضمن الأنظمة آليات داخلية تؤدي إلى إشراف بشري في حالات الطوارئ؛
- القدرة على تحديد المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي لضمان قدرة المستخدمين على التحقق من جميع هذه المحتويات مقابل مصادر مستقلة؛
- ضمان الجودة المستمرة لمجموعة بيانات التدريب لضمان موثوقية جميع المحتويات المنتجة؛
- يرجى مراجعة جميع المحتويات للتأكد من دقتها وملاءمتها لمنع انتشار المعلومات المضللة.
ج. الشفافية وقابلية التفسير
يجب على جميع الجهات المعنية ضمان تصميم أنظمة الذكاء الاصطناعي العام بطريقة قابلة للتفسير بشكل مناسب، وتوفير معلومات كافية حول كيفية اتخاذ القرارات الآلية. من شأن ذلك أن يسمح بالتدخل في الوقت المناسب إذا كانت القرارات الآلية دون المستوى الأمثل.
ولتحقيق هذه الغاية، يجب على المطورين والمستخدمين ما يلي:
- يجب إبلاغ الجمهور بوضوح عند استخدام قدرات الذكاء الاصطناعي العام؛
- إبلاغ الجمهور عندما يتم إنشاء المحتوى بواسطة الذكاء الاصطناعي؛
- توفير قنوات مناسبة للجمهور لاختيار بدائل لقنوات الاتصال الآلية؛
- قم بتطبيق أدوات تساعد الجمهور على تحديد المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، مثل العلامات المائية.
د. المساءلة والمسؤولية
جميع أصحاب المصلحة المعنيين، مثل المصممين والبائعين والمشترين والمطورين والمالكين والمقيّمين لأنظمة الذكاء الاصطناعي العام، مسؤولون أخلاقياً وملزمون بالقرارات التي يتخذها نظام الذكاء الاصطناعي العام والتي تؤثر سلباً على الأفراد والمجتمعات.
علاوة على ذلك، ينطوي تبني الذكاء الاصطناعي من الجيل الجديد على العديد من التداعيات القانونية والأخلاقية، مثل خطر انتهاك حقوق الملكية الفكرية، وانتهاكات حقوق الإنسان، والمخاطر المحتملة data privacy المخالفات.
ولتحقيق هذه الغاية، يجب على المطورين والمستخدمين ما يلي:
- ضمان الحصول على جميع بيانات التدريب وتصنيفها ومعالجتها وإتاحتها بشكل صحيح لتسهيل التدخل البشري عند الحاجة؛
- التزم بالثبات data quality عمليات التحقق من صحة البيانات؛
- ضمان التزام جميع أنظمة الذكاء الاصطناعي العام المطورة بشكل مناسب باللوائح ذات الصلة مثل قانون حماية البيانات الشخصية وقانون الملكية الفكرية؛
- استشر بانتظام متخصصين قانونيين لتقييم جميع المخاطر الرئيسية المرتبطة بنشر أنظمة الذكاء الاصطناعي من الجيل الأول والقضاء عليها.
هـ. الخصوصية والأمان
يجب على جميع الجهات المعنية ضمان حماية أنظمة الذكاء الاصطناعي العام التي يجري تطويرها لخصوصية البيانات التي تجمعها بشكل مناسب. ولا يمكن تحقيق ذلك إلا من خلال تطبيق تدابير أمنية كافية لحماية البيانات ومنع اختراقاتها التي قد تؤدي إلى أنواع مختلفة من الضرر.
ولتحقيق هذه الغاية، يجب على المطورين والمستخدمين ما يلي:
- اتخاذ تدابير الخصوصية والأمان المناسبة عند استخدام البيانات الحساسة أو المصنفة لتدريب أنظمة الذكاء الاصطناعي العام؛
- تطبيق آليات حماية البيانات وفقًا لما تقتضيه اللوائح ذات الصلة؛
- تقييم جميع المخاطر التي ينطوي عليها استخدام أنظمة الذكاء الاصطناعي العام وفقًا لمبادئ أخلاقيات الذكاء الاصطناعي؛
- إجراء تقييمات منتظمة لأثر الخصوصية والمخاطر لإعادة تقييم الاعتبارات الاجتماعية والأخلاقية حسب الحاجة؛
- قم بتطبيق إطار عمل الخصوصية والأمان بالتصميم لحماية أي نظام ذكاء اصطناعي متطور من الهجمات الخبيثة.
و. الإنسانية
يجب على جميع الجهات المعنية ضمان تطبيق منهجية أخلاقية عند تطوير نماذج الذكاء الاصطناعي العام التي تُحدث أثراً إيجابياً على الأفراد والمجتمعات على المديين القريب والبعيد. وينبغي أن تتبنى هذه النماذج تصميماً يركز على الإنسان، مما يُسهّل خياراته وقراراته.
ز. الفوائد الاجتماعية والبيئية
يجب أن تتضمن جميع نماذج الذكاء الاصطناعي من الجيل الجديد أولويات اجتماعية وبيئية تعود بالنفع على الأفراد والمجتمعات على حد سواء. ويجب ألا تتسبب أنظمة الذكاء الاصطناعي من الجيل الجديد في إلحاق الضرر بالبشر أو تسريعه، بل يجب أن تسهم في تمكين التقدم الاجتماعي والبيئي.
5. مخاطر الجيل الجديد من الذكاء الاصطناعي وتدابير التخفيف منها
تُتيح تقنيات الذكاء الاصطناعي من الجيل الجديد فرصًا وتحديات لكلٍ من المطورين والمستخدمين. فيما يلي بعض المخاطر الأكثر إلحاحًا ومباشرةً لهذه التقنيات، بالإضافة إلى التدابير الوقائية المُوصى بها لكل منها:
أ. التزييف العميق والتضليل
يمكن استغلال قدرات الذكاء الاصطناعي العام لأغراض خبيثة كالنصب والاحتيال المالي والابتزاز وسرقة الهوية المعقدة. علاوة على ذلك، يمكن استخدام البيانات الرقمية المتاحة، كالفيديوهات والصور الشخصية، والتلاعب بها لإنشاء تمثيلات رقمية مزيفة (أي التزييف العميق). ولا يقتصر الأمر على إلحاق أضرار جسيمة بالأفراد، بل قد يؤدي في بعض الحالات إلى اضطرابات سياسية واجتماعية.
تشمل أفضل الاستراتيجيات لمواجهة هذا التهديد ما يلي:
أولاً: تطبيق العلامة المائية
يجب أن تحمل جميع المحتويات المُنشأة عبر نماذج وأنظمة الذكاء الاصطناعي العام علامة مائية تشير إلى ذلك. ويمكن بعد ذلك وضع علامة على هذه البيانات إذا استُخدمت في نماذج وأنظمة أخرى للذكاء الاصطناعي العام، والتعامل معها وفقًا للوائح ذات الصلة.
ثانيًا: بروتوكولات اعرف عميلك
تتطلب معظم تقنيات التزييف العميق قدرة حاسوبية هائلة. لذا، ينبغي على المؤسسات التي توفر الأجهزة اللازمة لها، مثل وحدات معالجة الرسومات (GPUs) ووحدات معالجة الموترات (TPUs)، تطبيق عمليات تحقق مكثفة. سيسهل ذلك تحديد منشئي التزييف العميق المحتملين، ويصعّب على الجهات الخبيثة الوصول إلى هذه الأدوات من الأساس.
ثالثًا: التحقق من المخرجات
يجب تحليل جميع المحتويات المُولّدة عبر نماذج وأنظمة الذكاء الاصطناعي العام تحليلاً دقيقاً للكشف عن أي محتوى صوتي أو مرئي غير لائق. ويمكن أيضاً إجراء فحوصات إضافية، مثل استخدام صور وجوه الشخصيات العامة وعينات أصواتهم.
رابعاً: تحسين المعرفة الرقمية والسلامة على الإنترنت
يتعين على المؤسسات العامة والخاصة اتخاذ تدابير استباقية لتوعية الجمهور وتثقيفه وإقناعه بالمخاطر المحتملة لتقنية التزييف العميق، فضلاً عن توضيح تدابير حماية البيانات التي يمكنهم اتخاذها للحد من احتمالية استخدام بياناتهم لإنشاء مثل هذا المحتوى. كما أن توفير معلومات حول كيفية مساعدة هذه المؤسسات في تحديد هذا المحتوى على الإنترنت سيسهم في الحد من انتشاره.
ب. التهديدات الأمنية
يمكن استخدام أدوات الذكاء الاصطناعي العام لإنشاء محتوى متنوع. وبدون آليات ترشيح مناسبة، قد ينتج عنها محتوى يُستخدم لتهديد السلامة والأمن العام. ومن بين طرق مواجهة هذه التهديدات ما يلي:
أولاً: مراقبة المحتوى وتصفيته
من الضروري ضمان توافق المحتوى المُنتَج بواسطة نماذج وأنظمة الذكاء الاصطناعي العام مع إرشادات المحتوى الخاصة بالجهة المُقدِّمة للخدمة. ينبغي تضمين آليات قادرة على الكشف عن أي محتوى ضار مُنتَج بواسطة هذه الأنظمة، والإشارة إليه، ومنع انتشاره. ومن أمثلة هذه الآليات، الترشيح الدقيق لكلٍّ من مُدخلات المستخدم والمخرجات المُنتَجة. كما ينبغي تحديث هذه الآليات بانتظام بناءً على ملاحظات العملاء واختبارات داخلية دقيقة.
ثانياً: تصفية مجموعة البيانات
وكما هو الحال مع المحتوى المُنشأ، يجب أيضًا تصفية جميع بيانات التدريب بدقة بحثًا عن أي معلومات موجودة يمكن استخدامها للتأثير على المخرجات المُنشأة بأي شكل من الأشكال.
ثالثًا: نماذج الوصول المغلق
رغم أن النماذج والقنوات المفتوحة المصدر قد تُسهم في الحصول على العديد من مجموعات البيانات، إلا أنها قد تُثير مشاكلها الخاصة، إذ يكاد يكون من المستحيل التحقق من مصدر هذه النماذج ومجموعات البيانات. لذا، ينبغي، قدر الإمكان، السماح للمطورين باستخدام النماذج فقط بعد أن يتحققوا بأنفسهم من سلامتها ومن الأهداف المعلنة لاستخدامها.
يمكن استخدام نماذج وأنظمة الذكاء الاصطناعي العام لإنشاء معلومات زائفة تبدو حقيقية. يُعرف هذا بـ"وهم الذكاء الاصطناعي"، حيث يتم خداع النموذج بطريقة ما لإنتاج مخرجات خاطئة. ومن أفضل الطرق لمواجهة ذلك ما يلي:
أولاً: التحقق من المحتوى والاستشهاد
على غرار البيانات الأكاديمية، ينبغي أن تتضمن جميع نماذج وأنظمة الذكاء الاصطناعي العام المتاحة للعموم آليات مدمجة لتقدير دقة المعلومات التي تقدمها. ومن خلال إلزام جميع هذه الأنظمة بعرض مصدر البيانات المستخدمة في إنشاء المحتوى، يمكن للمستخدمين التحقق بأنفسهم من دقة المحتوى المُنشأ. علاوة على ذلك، تتيح هذه الآلية مستوى أعلى من الدقة، فضلاً عن ضمان استخدام مصادر موثوقة لإنشاء المحتوى.
ثانياً: تصنيف المحتوى
يمكن الاستفادة من العلامات المائية في هذه الحالة أيضًا. يجب أن يحتوي كل محتوى يتم إنشاؤه بواسطة نماذج وأنظمة الذكاء الاصطناعي العام على ما يشير إلى أن هذه النماذج والأنظمة هي التي قامت بإنشائه. ويمكن تحديد هذه العلامات بناءً على نوع المحتوى الذي يتم إنشاؤه.
ثالثًا: يقظة المستخدم
يجب على المستخدمين أن يبادروا بأنفسهم إلى التحقق من دقة المحتوى الذي تُنتجه تقنيات الذكاء الاصطناعي. ويُعدّ التدقيق في المعلومات، مثل تصنيف المحتوى أو مقارنتها بمصادر موثوقة على الإنترنت، بدايةً ممتازةً لذلك.
رابعاً: زيادة الوعي
ينبغي على المستخدمين إدراك التفاوت الكبير في دقة المخرجات التي تُنتجها نماذج وأنظمة الذكاء الاصطناعي العام. لذا، يجب تثقيفهم حول عمليات التحقق من الحقائق والمحتوى القياسية لمراجعة جميع المحتويات التي يُنتجها الذكاء الاصطناعي العام بأنفسهم.
د. اختراقات البيانات
في كثير من الأحيان، قد يكشف المستخدمون معلومات حساسة عبر الإنترنت دون قصد. وينطبق الأمر نفسه عند استخدام أدوات الذكاء الاصطناعي العام. قد يؤدي استخدام موظفي المؤسسة لهذه الأدوات إلى عواقب وخيمة على مؤسساتهم، إذ يمكن أن تُكشف أي معلومات حساسة خاصة بالمؤسسة عبر هذه الأدوات لأطراف ثالثة، قد تكون منافسة أو، الأسوأ من ذلك، جهات خبيثة. ولمواجهة ذلك، يمكن للمؤسسات اتخاذ الخطوات التالية:
أولاً: بروتوكولات الاستخدام
يجب على المؤسسات تطبيق موقف صارم وحاسم فيما يتعلق بإدخال الموظفين للمعلومات السرية في أي نماذج وأدوات ذكاء اصطناعي تابعة لجهات خارجية. من الأفضل وجود مجموعة من الإرشادات التي توجه جميع الموظفين بشأن أفضل ممارسات إنشاء المحتوى واستخدامه، بالإضافة إلى الخطوات التي يمكنهم اتخاذها لدعم الاستخدام الأخلاقي لهذه التقنية. من شأن تطبيق هذه الإرشادات بشكل مناسب أن يقلل من احتمالية حدوث أي خلل في السياسة الداخلية قد يؤدي إلى اختراق كبير للبيانات.
ثانياً: تدريب الموظفين
يُعدّ تصميم سياسات الاستخدام وتطبيقها خطوة أولى جيدة. مع ذلك، يجب على المؤسسة اتخاذ جميع الخطوات اللازمة لضمان فهم موظفيها لأهمية هذه السياسات. وتُعتبر الدورات التدريبية وورش العمل التي تُغطي جوانب أخرى من نموذج الذكاء الاصطناعي العام واستخدام النظام، مثل المتطلبات القانونية الأوسع نطاقًا التي تشمل إدارة البيانات، والأمن السيبراني، وتصنيف البيانات الحكومية، وحماية البيانات الشخصية، وحقوق الملكية الفكرية، وغيرها من المجالات القانونية أو السياسية ذات الصلة، أفضل السبل لتحقيق ذلك.
ثالثًا: ضوابط الوصول
ينبغي تقييد وصول المستخدمين أو الموظفين إلى المعلومات الحساسة، مع منح امتيازات الوصول بناءً على تصنيفهم أو ضرورة الوصول إلى تلك المعلومات.
هـ. تزوير الشهادات
في الأوساط الأكاديمية، يتزايد استخدام أنظمة ونماذج الذكاء الاصطناعي في عمليات منح الشهادات البشرية، مثل الامتحانات والتقييمات المهنية. قد يُقوّض هذا الأمر بشدة موثوقية هذه الامتحانات ومصداقيتها، ويُشكّل تهديدًا مجتمعيًا لصعوبة اكتشافه باستخدام أدوات مكافحة الانتحال القياسية المتوفرة في السوق. يمكن للمؤسسات اتخاذ الخطوات التالية لمواجهة هذا التحدي:
أولاً: تقييمات أفضل
يمكن للجهات الخبيثة استغلال أدوات الذكاء الاصطناعي لتعزيز وتطوير أساليبها القائمة. وهذا يؤكد أهمية وجود عملية مراجعة شاملة لدى المؤسسات لجميع تقييماتها. وينبغي تعديل هذه التقييمات والآليات المستخدمة في إجرائها بما يتناسب مع القدرات والمنهجيات التكنولوجية المتطورة.
ولتحقيق هذه الغاية، يجب على المؤسسات ضمان امتلاك موظفيها للمهارات والمعرفة والوعي اللازمين لمواجهة أي إساءة استخدام محتملة لأدوات الذكاء الاصطناعي العام. ويمكن أن يساعد القيام بذلك بانتظام المؤسسات في الحفاظ على نزاهة وأمن هذه التقييمات.
ثانياً: التثقيف والتدريب
يجب إجراء دورات تدريبية داخلية شاملة لتعزيز الاستخدام المسؤول لأدوات الذكاء الاصطناعي العام، مع الاستفادة منها أيضاً لتحديد السلوكيات المشبوهة المحتملة التي تشير إلى الاحتيال أو إساءة استخدام الأداة.
ثالثًا: إتقان الاستعلام
ينبغي تدريب المطورين والمستخدمين على المطالبات وكيفية صياغة مطالبات يمكنها تقديم مخرجات مثالية دون التسبب في بعض المشكلات المتعلقة بالمحتوى التي نوقشت أعلاه.
رابعاً: إرشادات واضحة
يجب على كل منظمة أن تدرس وتضع مبادئ توجيهية مناسبة لاستخدام أدوات الذكاء الاصطناعي من الجيل الجديد بما يتماشى مع مبادئها الأخلاقية وقواعد السلوك الخاصة بها.
و- انتهاك حقوق الملكية الفكرية وحمايتها
تُدرَّب نماذج وأنظمة الذكاء الاصطناعي العام على مجموعة واسعة من المحتوى. وبطبيعة الحال، أدى ذلك إلى زيادة حالات الاستخدام غير المصرح به للمواد المحمية بحقوق الطبع والنشر أو الملكية الفكرية. يمكن للخطوات التالية أن تساعد في تقليل هذه الحالات:
أولاً: ترخيص الملكية الفكرية والتحقق من سلامة الإجراءات
يجب إلزام مطوري الذكاء الاصطناعي بالحصول على إذن وتراخيص قانونية لاستخدام أي ملكية فكرية في مجموعات بيانات التدريب لنماذج وأنظمة الذكاء الاصطناعي العام. من شأن ذلك أن يُرسي سلسلة من المساءلة تُسهم في الحد من استخدام المحتوى المحمي دون الحصول على الأذونات اللازمة. علاوة على ذلك، يجب منح المستخدمين فرصة طلب تأكيد ما إذا كانت أدوات الذكاء الاصطناعي العام التي يستخدمونها قد دُرِّبت باستخدام الملكية الفكرية.
ثانيًا: أذونات المُنشئ
يجب على مطوري نماذج أو أنظمة الذكاء الاصطناعي العام، أو أي امتداد لترخيص الملكية الفكرية، الحصول على إذن من صاحب الملكية الفكرية الأصلي قبل استخدام هذه البيانات ضمن مجموعات بياناتهم. وفي حال تعذر ذلك، يمكن للمطورين وضع آلية تعويض تضمن تعويضًا عادلًا للمبدعين الأصليين في كل مرة يُستخدم فيها محتواهم في مجموعات بيانات التدريب.
ز. تباين المخرجات
بخلاف الخدمات القابلة للبرمجة التقليدية، لا تعتمد نماذج وأنظمة الذكاء الاصطناعي من الجيل الجديد (GenAI) كليًا على خوارزميات محددة مسبقًا لإنتاج المخرجات. علاوة على ذلك، يمكن لهذه الأدوات تغيير طريقة تطويرها وإنتاجها للمخرجات بناءً على التحديثات والتغييرات الداخلية. لذا، ولمواجهة أي مشكلات قد تنشأ عن هذه الحالات، يمكن للمؤسسات اتخاذ الخطوات التالية:
1. مؤشر واضح على الكود المُولّد بواسطة الذكاء الاصطناعي
ينبغي على المطورين المسؤولين عن تطوير البنية البرمجية الداخلية للمؤسسة تضمين تعليقات توضيحية مفصلة ودقيقة داخل شفرة المصدر كلما استخدموا أدوات مثل ChatGPT واستخدام أداة Copilot من GitHub للإشارة إلى أن هذا الكود قد طُوّر بمساعدة هذه الأدوات. لا يُسهم ذلك في زيادة الشفافية فحسب، بل يضمن أيضًا الحفاظ على جودة الكود بشكل عام.
ثانياً: التحقق والتدقيق
يجب التحقق بانتظام وبشكل شامل من جميع التعليمات البرمجية التي تم إنشاؤها بواسطة الذكاء الاصطناعي والمحتويات الأخرى ذات الصلة، وخاصة في الحالات التي تكون فيها الدقة ذات أهمية قصوى.
يجب على المطورين السعي باستمرار لمواكبة أحدث التطورات المتعلقة بنماذج وأنظمة الذكاء الاصطناعي العام. يساعدهم ذلك على البقاء على اطلاع دائم بأي تغييرات قد تطرأ على هذه الأدوات والتي تؤثر على طريقة استخدامهم لها وتفاعلهم معها.
رابعاً: بناء الخبرة
ينبغي على المطورين اكتساب فهم شامل وخبرة متعمقة في استخدام الذكاء الاصطناعي العام. ويمكن أن تكون هذه الخبرة بالغة الأهمية عند تقييم مدى صحة المخرجات التي يولدها الذكاء الاصطناعي.
6. كيف Securiti يمكن المساعدة
Securiti هو رائد في Data Command Center منصة مركزية تُمكّن من الاستخدام الآمن للبيانات والذكاء الاصطناعي العام. توفر هذه المنصة ذكاءً موحدًا للبيانات، وضوابط، وتنسيقًا عبر بيئات سحابية هجينة متعددة. وتعتمد عليها كبرى الشركات العالمية. Securiti 's Data Command Center وذلك لحلولها المتنوعة في مجال أمن البيانات والخصوصية والحوكمة والامتثال.
مع Data Command Center ستتمكن المنظمات من الوصول إلى العديد من الوحدات والحلول التي ستتيح التكامل السلس والامتثال للسياسات والتدابير المقترحة في هذا الدليل.
تعمل وحدة assessment automation على أتمتة تقارير سجلات المعالجة ( RoPA )، وتقييمات أثر الخصوصية، وتقييمات أثر حماية البيانات. وتوفر وحدة data quality معلومات فنية حول البيانات، بالإضافة إلى الاحتفاظ بقائمة بقواعد العمل المطبقة عليها. علاوة على ذلك، يتيح تصنيف البيانات الكشف عن الملفات الحساسة، مثل المستندات الطبية والمالية، مع وضع علامات تلقائية لتتبع سياسات الأمان الخاصة بهذه الملفات وتطبيقها.
وبالمثل، هناك العديد من الوحدات الأخرى التي تشكل جزءًا من Data Command Center يمكن الاستفادة منها لمواجهة المخاطر المحددة في هذا الدليل.
اطلب عرضًا تجريبيًا اليوم وتعرف على المزيد حول كيفية Securiti يمكننا مساعدتك في الامتثال لأي لوائح متعلقة بالبيانات والذكاء الاصطناعي من المملكة العربية السعودية.