قد يكون الذكاء الاصطناعي التوليدي (GenAI) أهم تطور في العصر الحديث. تبدو تطبيقاته لا حصر لها، مما يُبرز قيمته بشكل أكبر. وبناءً على إمكانياته وحدها، يُمكنه إحداث ثورة في كل ما نعرفه عن العمل والإنتاجية.
ومع ذلك، فبينما ستجلب قدرات الذكاء الاصطناعي من الجيل الجديد كفاءات تشغيلية غير مسبوقة وابتكارًا لا مثيل له، فإنها تثير تساؤلات مثيرة للقلق تتعلق data privacy وأمنها.
تعتمد قدرات الذكاء الاصطناعي العام على تدفق مستمر من البيانات المدخلة لتمكين بعض الوظائف الأساسية التي تجعله أداة بالغة الأهمية. ويتمثل التحدي الرئيسي المتعلق بالذكاء الاصطناعي عمومًا في كيفية الاستفادة من هذه القدرات دون التضحية بمبادئ خصوصية المستخدم.
سعت الحكومات في جميع أنحاء العالم إلى معالجة هذه المسألة. وقد فعلت حكومة نيوزيلندا ذلك من خلال دليلها المؤقت للذكاء الاصطناعي التوليدي في الخدمة العامة . ويقدم هذا الدليل، بحسب وصفها، نصائح من قادة البيانات والتقنيات الرقمية والخصوصية والمشتريات وأنظمة الأمن حول استخدام أدوات الذكاء الاصطناعي التوليدي في الخدمة العامة.
توفر الإرشادات ضوابط لتعزيز النشر الآمن لأدوات الذكاء الاصطناعي من الجيل الجديد، مع تقديم توصيات بشأن الممارسات التي يجب على الشركات تجنبها إذا كانت ترغب في الاستفادة من هذه الأدوات دون انتهاك ثقة المستخدمين وخصوصيتهم، فضلاً عن المتطلبات التنظيمية.
الضرورة فوق كل شيء
يجب على المنظمات التي تقدم خدمات الذكاء الاصطناعي العام التأكد من أن المنتج/الخدمة التي تقدمها توفر فائدة عامة. والأهم من ذلك، يجب أن تكون هناك حاجة ماسة لهذه الخدمات. ومن بين الاعتبارات التي يجب على المنظمات مراعاتها ما يلي:
- الكفاءة والإنتاجية : يجب أن يمثل المنتج/الخدمة المقدمة ترقية للخيارات الحالية من خلال تبسيط وأتمتة العمليات المعنية.
- تحسين تصميم وتقديم الخدمة : يجب أن يوفر المنتج/الخدمة المقدمة للعملاء درجة أكبر من خيارات التخصيص والتعديل الشخصي.
- المراقبة الإلكترونية المحسّنة : يجب أن يوفر المنتج/الخدمة المقدمة حماية أفضل بكثير عبر الإنترنت من خلال استخدام التقنيات الحديثة مثل التحليل التنبؤي وتقييم الثغرات الأمنية واكتشاف التهديدات.
- الابتكار : يجب أن يمثل المنتج/الخدمة المقدمة تحسناً ملحوظاً عن أي منتج/خدمة موجودة في السوق من خلال رؤى تستند إلى البيانات الضخمة.
- تحسين نشر السياسات : يجب أن يمكّن المنتج/الخدمة المقدمة المستخدمين من الحصول على تحليل شامل في الوقت الفعلي لجميع السياسات المعمول بها لتمكين التحسينات المستقبلية.
توصيات هامة
تُقدّم الإرشادات المؤقتة بعض التوصيات المتعلقة بالممارسات التي ينبغي على المؤسسات تشجيعها وتجنبها لتعزيز فرص الاستخدام الآمن للذكاء الاصطناعي من الجيل الجديد. وتشمل هذه التوصيات ما يلي:
لا تستخدم GenAI للبيانات الحساسة
تُؤكد الإرشادات المؤقتة بوضوح على ضرورة امتناع المؤسسات عن استخدام أي مجموعات بيانات تحتوي على بيانات حساسة لتدريب أدوات الذكاء الاصطناعي المستخدمة. إضافةً إلى ذلك، ينبغي على المؤسسات اتخاذ تدابير استباقية للحصول على رؤى دقيقة حول هذه المجموعات لتجنب استخدامها عن طريق الخطأ، حيث تفوق المخاطر المحتملة الفوائد المرجوة.
إدارة البيانات الشخصية
على غرار البيانات الحساسة، توصي الإرشادات بتجنب استخدام البيانات الشخصية لتدريب أدوات الذكاء الاصطناعي العام إذا كانت هذه الأدوات تطبيقات تابعة لجهات خارجية. إذا وافق المستخدمون صراحةً على معالجة بياناتهم لاستخدامها في هذه التطبيقات، فيجوز للمؤسسة المضي قدمًا في ذلك، ولكن بشرط أن يقتصر الاستخدام على تطبيقات الذكاء الاصطناعي العام داخل الشبكة الداخلية للمؤسسة.
بالإضافة إلى ذلك، ينبغي على المنظمات تجنب استخدام أي مجموعات بيانات قد لا تفي تمامًا بمعايير الاستخدام المنصوص عليها في قانون المعلومات الرسمية، لأن ذلك قد يؤدي إلى تدهور ثقة الجمهور.
لا تستخدم الذكاء الاصطناعي العام في اتخاذ القرارات الحاسمة
يواجه استخدام الذكاء الاصطناعي العام تحديات فريدة عديدة. أحد هذه التحديات هو أن نماذج الذكاء الاصطناعي العام تُنتج مخرجات غير دقيقة أو ناقصة، أو حتى خاطئة تمامًا في بعض الحالات. وهذا يزيد من احتمالية انتشار المعلومات المضللة والتحيز. وبينما يواصل المطورون تطوير أفضل الاستراتيجيات للتخفيف من هذه التحديات، يُنصح المؤسسات بتجنب الاعتماد على مخرجات الذكاء الاصطناعي العام عند اتخاذ قرارات تجارية أو قرارات عامة حاسمة.
ردع تكنولوجيا المعلومات الخفية
يجب على المؤسسات تبني نهج موحد لاستخدام الذكاء الاصطناعي العام داخليًا. قد يؤدي عدم القدرة على ذلك إلى استخدام فرق مختلفة لأدوات الذكاء الاصطناعي العام المختلفة، مما يُعرّضها لمخاطر وتحديات أمنية وبيانات وخصوصية متباينة. وقد يكون تخفيف هذه المخاطر مُرهقًا للموارد التي يُمكن استغلالها بشكل أفضل في مجالات أخرى.
أقر بالمخاطر
تزايد عدد أدوات الذكاء الاصطناعي العام المتاحة في السوق بوتيرة مذهلة. ومع ذلك، لا تتساوى جميع هذه الأدوات. فإلى جانب جودة مخرجاتها، تختلف فيما بينها من حيث المخاطر التي تنطوي عليها، وذلك بسبب افتقار الأدوات المجانية إلى بروتوكولات موثوقة للخصوصية والأمان. هذا لا يعني أن الأدوات المدفوعة خالية من المخاطر، إذ تُقدم كل أداة مجموعة مختلفة من المخاطر والتحديات. يجب على المؤسسات فهم هذا الأمر والاعتراف به في استراتيجياتها الشاملة. AI governance نطاق.
احترام معاهدة وايتانغي
يتعين على المنظمات العاملة في نيوزيلندا والتي تتعامل مع بيانات النيوزيلنديين اتخاذ احتياطات إضافية في هذا الشأن. هذه التوصية ذات طابع أخلاقي أكثر منها عملي، إذ تدعو المنظمات التي تستخدم أدوات الذكاء الاصطناعي العام إلى التعاون الوثيق مع قبائل الماوري عند استخدام بياناتهم بطريقة قد تؤثر عليهم. ونظرًا لحساسية هذه المسألة، توصي الإرشادات بفهم أعمق لسياق العلاقة بين الماوري والتاج البريطاني. أما فيما يتعلق بالتدابير الدقيقة، فقد توفر حوكمة بيانات الماوري المعلومات اللازمة.
بالإضافة إلى ذلك، يوفر نهج العلاقة الحالي بين الماوري والتاج نموذجًا لمشاركة العلاقات يمكن للمنظمة وشركائها في معاهدة وايتانغي استخدامه عند اتخاذ القرارات المتعلقة ببيانات الماوري.
خطوات عملية لنشر الذكاء الاصطناعي بشكل آمن ومسؤول
تتعدد فوائد الذكاء الاصطناعي، وعند استخدامه بالشكل الأمثل، تستطيع المؤسسات تعظيم إنتاجيتها الحالية. مع ذلك، ثمة مخاطر عديدة مرتبطة باستخدام قدرات الجيل الجديد من الذكاء الاصطناعي. فإذا لم يُستخدم ويُدار بشكل سليم، قد تُلحق هذه المخاطر ضرراً بالغاً بثقة الجمهور في مصداقية المؤسسة وسمعتها.
للتخفيف من هذه المخاطر، يقدم الدليل المؤقت بعض الإرشادات العملية. وهي عبارة عن تدابير عملية يمكن للمؤسسات اتخاذها فيما يتعلق بنشر قدرات الذكاء الاصطناعي في الخدمة العامة:
بناء إطار عمل قوي لحوكمة البيانات
يجب على المؤسسات أن تضع تطوير إطار حوكمة بيانات قوي وموثوق في صدارة أولوياتها الشاملة AI governance تعتمد استراتيجية الذكاء الاصطناعي على البيانات التي تُدخلها المؤسسة، إذ أن أي مخرجات تُنتجها هذه الأنظمة ستعتمد على البيانات التي تُوفرها المؤسسة. ويتضمن إطار عمل شامل من هذا النوع عدة تدابير متعلقة بالحوكمة تُمكّن المؤسسة من استخدام موارد بياناتها بطريقة متوافقة مع القوانين واللوائح. ومن بين التدابير الأساسية التي يُمكن اعتمادها ما يلي:
- تقليل البيانات : ينبغي جمع ومعالجة واستخدام وتخزين البيانات الضرورية فقط. وهذا لا يحدّ من احتمالية جمع بيانات غير ضرورية فحسب، بل يقلل أيضاً من الضرر المحتمل في حال حدوث اختراق للبيانات.
- تحديد الغرض : تتمثل الخطوة الأولى في الحد من جمع البيانات ومعالجتها واستخدامها. ويجب أن يتبع ذلك ضمان تحديد أسباب واضحة للقيام بذلك. ستؤدي الأسباب الملموسة إلى أهداف شفافة، مما يسمح باتخاذ تدابير امتثال أكثر مباشرة في هذا الصدد.
- الاحتفاظ بالبيانات : يُعدّ التخلص من البيانات بعد انتهاء الغرض منها جانبًا بالغ الأهمية في تحديد الغرض منها. لذا، ينبغي تطبيق تدابير وبروتوكولات أمنية مناسبة تتيح حذف البيانات وإتلافها بسلاسة بمجرد انتفاء الحاجة إليها.
- Data Quality وإمكانية الوصول إليها : كلما كانت أعلى data quality كلما كانت دقة البيانات وملاءمتها وجودتها أفضل، كان الناتج الذي تُنتجه نماذج الذكاء الاصطناعي أفضل. إنها معادلة بسيطة، حيث أن ضمان دقة البيانات وملاءمتها وجودتها ينعكس مباشرةً على جودة الناتج. لذا، يجب اتخاذ التدابير المناسبة لضمان إمكانية الوصول إلى أي بيانات مُجمّعة وتصحيحها عند الضرورة.
التعليم والتدريب المستمر
قد تبدو هذه خطوة بسيطة، لكن على المؤسسات إيلاء اهتمام بالغ لضمان وجود برامج تدريبية وموارد تعليمية داخلية مستمرة تُبقي موظفيها على اطلاع بأفضل الممارسات المتعلقة بالاستخدام المسؤول للذكاء الاصطناعي. يُمكن لهذا أن يُقلل من خطر كبير تُعاني منه معظم المؤسسات، ألا وهو التهديدات الداخلية. ويمكن أن تتضمن هذه البرامج التدريبية والموارد التعليمية ما يلي:
- التدريب المُخصَّص للأدوار الوظيفية : يُعدّ مصطلح "الموظفين" مصطلحاً واسعاً إلى حدٍّ ما. لذا، فإنّ تخصيص موارد التدريب المناسبة للأدوار الوظيفية المختلفة، بما يتوافق مع مسؤولياتها، واستخدامها الأمثل لموارد الذكاء الاصطناعي، يُمكن المؤسسات من ضمان تزويد جميع موظفيها بالمهارات والمعرفة اللازمة لاستخدام قدرات الذكاء الاصطناعي بمسؤولية.
- تحديثات دورية : تُعدّ اللوائح المتعلقة بالخصوصية والذكاء الاصطناعي مجالًا شديد التطور. ونظرًا للتطورات شبه المستمرة، يجب تحديث هذه اللوائح باستمرار لمواكبة هذه التطورات. لذا، من الضروري تقييم وتحديث موارد التدريب المخصصة لتوعية الموظفين بكيفية استخدام قدرات الذكاء الاصطناعي بمسؤولية بشكل دوري.
المشاركة العامة والشفافية
أصبح المستهلك العصري أكثر وعياً بحقوقه من أي وقت مضى. وينطبق الأمر نفسه على استخدام بياناته بالتزامن مع تقنيات الذكاء الاصطناعي من قبل المؤسسات التي تقدم له منتجاتها وخدماتها. ويمكن لشفافية المؤسسات في هذا الشأن، من خلال توفير الموارد اللازمة لتبديد مخاوف الجمهور، أن تسهم بشكل كبير في بناء علاقة ثقة متينة. ومن الخطوات التي يمكن اتخاذها في هذا الصدد ما يلي:
- المشاورات العامة : ينبغي أن يكون المستهلكون أولوية قصوى للمنظمات التي تهدف إلى استخدام الذكاء الاصطناعي بمسؤولية، ليس فقط لأغراض تنظيمية ولكن أيضًا للتعرف بشكل مباشر على التأثير المجتمعي المحتمل الذي يمكن أن يحدثه استخدام الذكاء الاصطناعي ومعالجة أي شكاوى بشكل مباشر.
- تقارير الشفافية : بالإضافة إلى المشاورات العامة، يمكن نشر تقارير الشفافية الدورية التي تتضمن تفاصيل ومعلومات شاملة تتعلق باستخدام المنظمة لقدرات الذكاء الاصطناعي، والمخرجات التي تم إنشاؤها، والمنهجيات المستخدمة، والأهم من ذلك، كيف ساعدهم إطار الحوكمة المذكور أعلاه على الاستفادة من الذكاء الاصطناعي بشكل مسؤول.
- قنوات التواصل مع أصحاب المصلحة : عند استخدام الذكاء الاصطناعي والبيانات معًا، ستتعامل المؤسسة مع عدد كبير من أصحاب المصلحة. من الضروري الحصول على رؤية دقيقة لهذا التفاعل، لا سيما مع الفئات المهمشة، لضمان اتخاذ قرارات شاملة واستخدام الذكاء الاصطناعي على النحو الأمثل.
تطوير الذكاء الاصطناعي الأخلاقي
يُتوقع أن يكون للذكاء الاصطناعي، بشكله الحالي، تأثير كبير على الأعمال والمجتمع والاتصالات كما نعرفها. وسيزداد هذا التأثير مع تطور قدرات الذكاء الاصطناعي. ويقع على عاتق المؤسسات التي تُطوّر وتُفعّل هذه القدرات مسؤولية اتخاذ التدابير اللازمة لضمان استخدام الذكاء الاصطناعي ضمن المعايير الأخلاقية. وتشمل هذه التدابير ما يلي:
- الحد من التحيز : يُعدّ التحيز مصدر قلق بالغ عند استخدام قدرات الذكاء الاصطناعي. وقد ينشأ لأسباب عديدة، وقد يكون اكتشافه عملية معقدة. مع ذلك، يمكن للتقنيات المناسبة أن تكشف بشكل استباقي عن العناصر التي قد تؤدي إلى التحيز في مجموعات البيانات المدخلة، وأن تحدّ من تأثيرها، مما يضمن العدالة طوال دورة حياة استخدام الذكاء الاصطناعي.
- قابلية التفسير : برز الذكاء الاصطناعي القابل للتفسير (XAI) كتحدٍّ بالغ الأهمية في استخدام الذكاء الاصطناعي داخل المؤسسات. فبينما يُحقق الذكاء الاصطناعي فوائد جمة وقفزات نوعية في الإنتاجية، غالبًا ما تحتاج المؤسسات إلى فهم أعمق لكيفية اتخاذ نماذج الذكاء الاصطناعي المُستخدمة لقراراتها. لذا، لا بد من اتخاذ خطوات لتوفير رؤية أوضح لكلٍّ من المستخدمين والموظفين الداخليين لعملية اتخاذ القرار في نماذج الذكاء الاصطناعي، وذلك لتعزيز المساءلة وضمان الامتثال لمتطلبات التوثيق ذات الصلة.
- التدقيق الأخلاقي : يتضمن التدقيق الأخلاقي تقييمًا دقيقًا لإجراءات حوكمة المنظمة لضمان الامتثال للاعتبارات والمعايير الأخلاقية ذات الصلة. وتُسلط هذه التدقيقات الضوء على الثغرات المحتملة ومجالات التحسين.
الاستفادة من نقاط البيع الإلكترونية
لطالما كانت الخصوصية وستظل مصدر قلق رئيسي لمعظم العملاء. بل قد تزداد أهميتها في ظل استخدامات الذكاء الاصطناعي الحديثة وقدراته. لذا، ولتخفيف هذه المخاوف دون المساس بفوائد الذكاء الاصطناعي، يتعين على المؤسسات تبني إجراءات حماية البيانات الشخصية (PETs) بشكل استباقي ضمن عملياتها. وقد تشمل هذه الإجراءات ما يلي:
التشفير : لطالما اعتُبر التشفير المتطور الوسيلة الأكثر موثوقية وفعالية التي يمكن للمؤسسات استخدامها لضمان خصوصية جميع البيانات التي يتم جمعها. ولا يزال هذا الأمر ساريًا عند حماية البيانات في سياق استخدام الذكاء الاصطناعي. يمكن استخدام بروتوكولات تشفير متقدمة لضمان حماية جميع البيانات المخزنة، والمنقولة، والمستخدمة بشكل مناسب من التلاعب والوصول غير المصرح به.
الخصوصية التفاضلية : تُعدّ الخصوصية التفاضلية مفهومًا حديثًا نسبيًا في مجال أمن البيانات، إلا أنها أثبتت نجاحًا باهرًا للمؤسسات التي طبّقتها. تستطيع تقنيات الخصوصية التفاضلية إخفاء جميع مجموعات البيانات المُجمّعة على مستوى كل نقطة بيانات على حدة.
عمليات التدقيق والتقييم والتحقق من الامتثال
يُعدّ تطبيق جميع التدابير والتوصيات المذكورة آنفًا الخطوة الأولى. ومن الضروري تقييم قدرة هذه التدابير على الاستمرار في تحقيق أهدافها المرجوة في الوقت الفعلي. وبناءً على ذلك، تُعدّ التقييمات والتدقيقات وفحوصات الامتثال الدورية ضرورية. وتشمل هذه ما يلي:
- عمليات التدقيق التكنولوجي : من خلال التدقيق التكنولوجي، يمكن للمؤسسات إجراء تقييم شامل ودقيق لجميع أنظمة الذكاء الاصطناعي المستخدمة داخل بنيتها التحتية لضمان استخدامها وفقًا للوائح ذات الصلة والاعتبارات الأخلاقية.
- تدقيق الحوكمة : على غرار تدقيق التكنولوجيا، يتيح تدقيق الحوكمة تقييمًا مماثلًا لهيكل الحوكمة والعمليات والسياسات والآليات المطبقة حاليًا داخل المؤسسة. تُسلط هذه الممارسة الضوء على أي نقاط ضعف أو ثغرات محتملة، مما يسمح باتخاذ تدابير تصحيحية استباقية وفورية.
- مراجعات الجهات الخارجية : بمجرد أن تتأكد المؤسسة من اتخاذها جميع الخطوات اللازمة لضمان توافق استخدامها لقدرات الذكاء الاصطناعي مع المتطلبات التنظيمية، يمكنها الاستعانة بمدققين مستقلين لإجراء عمليات تدقيق مماثلة. لا يُسهم ذلك في تعزيز الشفافية والثقة فحسب، بل يُزوّد المؤسسة أيضًا برؤى قيّمة يمكن الاستفادة منها في عمليات التدقيق المستقبلية.
كيف Securiti يمكن المساعدة
تُقدّم التوجيهات المؤقتة للجيل القادم من الذكاء الاصطناعي، التي تم شرحها سابقاً، رؤى بالغة الأهمية حول التوجهات والأدوات والاستراتيجيات العامة التي يُتوقع من المؤسسات تبنيها لضمان الامتثال للوائح المستقبلية في هذا الشأن. وباتباع النهج الأمثل، ستتمكن المؤسسات من تحقيق أقصى استفادة من التطورات الهائلة في مجال الذكاء الاصطناعي، مع الحدّ من أي مخاطر محتملة.
هذا هو المكان Securiti يمكن أن يساعد ذلك مثل هذه المنظمات.
Securiti هو رائد في Data Command Center منصة مركزية تُمكّن من الاستخدام الآمن للبيانات والذكاء الاصطناعي العام. توفر هذه المنصة ذكاءً موحدًا للبيانات، وضوابط، وتنسيقًا عبر بيئات سحابية هجينة متعددة. وتعتمد عليها كبرى الشركات العالمية. Securiti 's Data Command Center لأغراض أمن البيانات والخصوصية والحوكمة والامتثال.
ال Data Command Center يضم مركز التحكم الرقمي (DCC) العديد من الوحدات والحلول المصممة لضمان الامتثال التنظيمي لأي التزامات متعلقة بالبيانات والذكاء الاصطناعي قد تخضع لها المؤسسة. لا تتميز هذه الحلول بسهولة استخدامها ونشرها فحسب، بل تتيح أيضًا إجراء تقييمات فورية لأنشطة المؤسسة، مما يُمكّن من التدخل الاستباقي عند الضرورة.
بالإضافة إلى مركز التحكم الرقمي، Securiti يوفر مسارًا من 5 خطوات إلى AI Governance يهدف ذلك إلى تمكين المؤسسات من اكتشاف وتقييم ورسم خرائط جميع نماذج وأنظمة الذكاء الاصطناعي المستخدمة مع تسهيل الضوابط المناسبة وتدابير الامتثال.
اطلب عرضًا تجريبيًا اليوم وتواصل معنا Securiti لمعرفة المزيد حول كيفية البقاء في طليعة المنافسة في الامتثال لمتطلبات البيانات والذكاء الاصطناعي التنظيمية ذات الصلة في نيوزيلندا.
اقتراح عنوان بديل
إدارة البيانات والخصوصية في عصر الذكاء الاصطناعي التوليدي في نيوزيلندا