لا يزال الذكاء الاصطناعي التوليدي (GenAI) يطرح العديد من التحديات الكبيرة أمام المؤسسات والشركات على مستوى العالم. ومن أبرز هذه التحديات، كيفية قيام المؤسسات التي تسعى إلى الاستفادة من إمكانيات الذكاء الاصطناعي التوليدي الواسعة بذلك بطريقة أخلاقية.
سعت الحكومات والهيئات التنظيمية في جميع أنحاء العالم إلى معالجة هذه القضية من خلال توفير العديد من المبادئ التوجيهية والأطر والتوجيهات. ولا تختلف اللجنة الوطنية للمعلوماتية والحريات (CNIL) في فرنسا عن ذلك، إذ كانت من أوائل الهيئات التنظيمية التي وضعت خطة عمل للذكاء الاصطناعي تُبيّن كيفية استخدام المؤسسات لأنظمة الذكاء الاصطناعي، بما في ذلك أدوات الذكاء الاصطناعي التوليدي، مع احترام خصوصية الأفراد.
توضح هذه الإرشادات الصادرة عن الهيئة الوطنية للمعلوماتية والحريات (CNIL) كيفية قيام المؤسسات التي ترغب في استخدام الذكاء الاصطناعي التوليدي في عملياتها اليومية بذلك بشكل مسؤول. تابع القراءة لمعرفة المزيد.
تعريف الذكاء الاصطناعي التوليدي
على غرار العديد من اللوائح والهيئات الإدارية الأخرى المتعلقة بالذكاء الاصطناعي، قدمت اللجنة الوطنية للمعلوماتية والحريات (CNIL) أيضًا تعريفًا لما تعتبره "ذكاءً اصطناعيًا توليديًا". ووفقًا للجنة الوطنية للمعلوماتية والحريات، يشير الذكاء الاصطناعي التوليدي إلى الأنظمة القادرة على إنشاء محتوى بتنسيقات نصية وصوتية ومرئية وموسيقية ورموز حاسوبية.
إذا تم تصميم أنظمة الذكاء الاصطناعي العام هذه لأداء مجموعة واسعة من المهام، فيمكن الإشارة إليها باسم "أنظمة الذكاء الاصطناعي للأغراض العامة"، وهو ما ينطبق في الغالب على الأنظمة التي تدمج نماذج لغوية كبيرة (LLMs).
بإمكان هذه الأنظمة تعزيز إبداع المستخدمين وإنتاجيتهم من خلال إنشاء محتوى جديد وتحليل المحتوى الموجود وإعادة هيكلته. مع ذلك، ونظرًا لطبيعتها الاحتمالية، قد تُنتج هذه الأنظمة نتائج غير دقيقة قد تبدو منطقية.
علاوة على ذلك، يتطلب تطوير مثل هذه الأنظمة التدريب باستخدام مجموعة بيانات واسعة النطاق، والتي غالباً ما تتضمن معلومات عن الأشخاص الطبيعيين وبياناتهم الشخصية والبيانات المقدمة عند استخدام هذه الأنظمة.
لذا، من الضروري للمنظمات التي تخطط لاستخدام هذه الأنظمة في عملياتها اليومية اتخاذ العديد من التدابير الاحترازية لضمان حماية حقوق الأفراد على بياناتهم بشكل مناسب.
كيفية نشر الذكاء الاصطناعي العام
تقدم اللجنة الوطنية للمعلوماتية والحريات التوصيات التالية للمنظمات التي تفكر في نشر نظام ذكاء اصطناعي متوافق مع المعايير:
- وجود حاجة محددة - يجب على المنظمة التأكد من أن لديها دائمًا حاجة وهدفًا محددين لنشر نظام الذكاء الاصطناعي من الجيل الأول؛
- استخدامات الإطار - يجب أن يكون لدى المؤسسات قائمة واضحة بالاستخدامات المصرح بها والمحظورة لنظام GenAI الذي تقوم بنشره، مع مراعاة المخاطر المحتملة التي يشكلها هذا النظام؛
- تحديد القيود - يجب تحديد قيود نظام GenAI المراد نشره بشكل مناسب لضمان معالجة أي مخاطر على مصالح وحقوق الأشخاص بشكل مناسب؛
- اختر النظام بحكمة - عند اختيار نظام ذكاء اصطناعي توليدي، اختر نظامًا قويًا وآمنًا، مثل الأنظمة المحلية والمتخصصة. إذا لم يكن ذلك ممكنًا، فقم بتقييم ممارسات مزود الخدمة المتعلقة بالبيانات بعناية، مثل ما إذا كان قد يقوم بتخزين بيانات الإدخال أو تحليلها أو إعادة استخدامها. هذا مهم لأن بعض المزودين قد يستخدمون البيانات لتحسين نماذجهم أو لأغراض أخرى، مما قد يشكل مخاطر على الخصوصية أو الأمن. بناءً على هذا التقييم، ينبغي للمؤسسات تعديل طريقة تفاعلها مع النظام، وربما الحد من نوع البيانات التي تشاركها.
- تدريب المستخدمين النهائيين - تقع على عاتق المنظمة التي تقوم بنشر نظام GenAI مسؤولية اتخاذ الخطوات المناسبة لتدريب المستخدمين ورفع مستوى وعيهم بشأن استخداماته المحظورة والمخاطر المحتملة التي تنطوي عليها استخداماته المصرح بها؛
- تطبيق الحوكمة المسؤولة - بشكل موثوق AI governance يجب تنفيذ نظام متوافق مع متطلبات اللائحة العامة لحماية البيانات (GDPR)، مع إشراك جميع أصحاب المصلحة الآخرين الضروريين، مثل مسؤول حماية البيانات، ومدير نظم المعلومات، ومسؤول أمن المعلومات، ومديري الأعمال، وما إلى ذلك، منذ البداية.
للحصول على معلومات أكثر تفصيلاً وتحديداً حول الأسئلة التي قد تكون لدى أي منظمة، توفر اللجنة الوطنية للمعلوماتية والحريات (CNIL) معلومات مفصلة على صفحة الأسئلة الشائعة المخصصة لها هنا .
كيف Securiti يمكن المساعدة
Securiti هو رائد في Data Command Center هي منصة مركزية تُمكّن من الاستخدام الآمن للبيانات والذكاء الاصطناعي. توفر المنصة ذكاءً موحدًا للبيانات، وضوابط، وتنسيقًا عبر بيئات سحابية هجينة متعددة. وتعتمد عليها العديد من العلامات التجارية والشركات الأكثر شهرة في العالم. Securiti 's Data Command Center لتلبية احتياجاتهم المتعلقة بأمن البيانات والخصوصية والحوكمة والامتثال.
مع Data Command Center ستتمكن من الوصول إلى العديد من الوحدات والحلول المصممة لضمان الامتثال الفعال والكفء لالتزامات المنظمة.
لتحقيق متطلبات هذا التوجيه، تتيح لك إدارة privacy policy المرونة في ضمان الشفافية الكاملة مع المستخدمين فيما يتعلق بحقوقهم ومخاطر استخدام خدماتك. كما تتيح AI Security & Governance اكتشاف جميع نماذج الذكاء الاصطناعي المستخدمة في بنية المؤسسة وتصنيفها، مما يوفر رؤية شاملة، بما في ذلك الذكاء الاصطناعي الخفي.
اطلب عرضًا تجريبيًا اليوم وتعرف على المزيد حول كيفية Securiti يمكننا مساعدتك في الامتثال لتوجيهات الهيئة الوطنية الفرنسية للمعلوماتية والحريات (CNIL) بالإضافة إلى اللوائح الرئيسية الأخرى المتعلقة بالذكاء الاصطناعي من جميع أنحاء العالم.