لماذا يُعد الحفاظ على حقوق البيانات أمرًا ضروريًا لنجاح الجيل القادم من الذكاء الاصطناعي
قامت شركة تأمين كبيرة بنشر Microsoft Copilot استخدموا مساعدًا رقميًا مدعومًا بتقنية الذكاء الاصطناعي العام (GenAI) على مستوى المؤسسة. وفي اليوم التالي مباشرة، اضطروا إلى إيقافه نهائيًا، إذ كشف عن تساهل مفرط في ضوابط الوصول إلى البيانات في Office 365. بدأ المستخدمون بتلقي ردود من Copilot تحتوي على بيانات بالغة الحساسية ما كان ينبغي لهم الوصول إليها أبدًا. لا تسلط هذه الحادثة الضوء على مخاطر أمن البيانات المرتبطة بأنظمة الذكاء الاصطناعي العام فحسب، بل تطرح أيضًا السؤال التالي: كيف يمكننا معالجتها؟
في استطلاع رأي حديث، أشار 71% من صانعي القرار في مجال تكنولوجيا المعلومات إلى أن الذكاء الاصطناعي العام سيُدخل تهديدات أمنية جديدة لبياناتهم . وتُعدّ هذه المخاطر الأمنية جديدة تمامًا، ويرجع ذلك أساسًا إلى أن الذكاء الاصطناعي العام غالبًا ما يعمل كصندوق أسود، مما يُصعّب معرفة البيانات التي يصل إليها ويكشفها. ولذا، تقوم العديد من المؤسسات الكبيرة حاليًا بتقييد أو حظر استخدام مساعدي الذكاء الاصطناعي العام في أماكن العمل، وذلك بشكل رئيسي بسبب انعدام الشفافية في الوصول إلى الملفات والمستندات والبيانات الحساسة التي قد يصل إليها هؤلاء المساعدون.
تخيل أن فريق التسويق لديك يُرسل طلبًا إلى نظام معرفي، متوقعًا الوصول إلى بيانات الرواتب. في غياب ضوابط وصول مناسبة، قد يسحب نظام الذكاء الاصطناعي العام هذه البيانات الحساسة لإنشاء رده. ويمكن أن تنشأ مشكلات مماثلة إذا تمكن المتدربون من الوصول إلى استراتيجيات أعمال سرية أو توقعات مالية، أو إذا اطلع المسوقون على بيانات مالية مفصلة مخصصة لفريق المالية فقط، أو إذا تمكن فريق المالية من الوصول إلى بيانات عملاء حساسة مخصصة لفريق المبيعات فقط. قد يؤدي ذلك إلى نزاعات وإساءة استخدام المعلومات الحساسة.
لا تقتصر أهمية قيود الوصول على الفرق فحسب، بل تمتد لتشمل الفرق الداخلية أيضًا. فعلى سبيل المثال، تقتصر البيانات المالية التفصيلية على المحللين الماليين والإدارة العليا. ماذا لو كشفت أنظمة الذكاء الاصطناعي العام هذه البيانات لفريق المالية بأكمله؟ وماذا سيحدث عندما تتعلم نماذج الذكاء الاصطناعي العام منها وتُسرب المعلومات لاحقًا؟
حتى عندما تقتصر صلاحيات الوصول إلى بيانات المصدر على فريق واحد أو دور واحد، فمن المرجح أن تتعرض أنظمة الذكاء الاصطناعي العام (GenAI) لكشف غير مقصود لبيانات فرق أو أدوار أخرى. في مثل هذه الحالات، يكمن الخطر الرئيسي في انتهاك السرية والخصوصية، مما قد يعطل العمليات، ويضر بثقة الموظفين، ويؤدي إلى عواقب قانونية وتنافسية وخيمة.
تقليديًا، يُمكن إدارة الامتثال من خلال ممارسات الحوكمة التي تُطبّق سياسات الوصول وتُحدّد الضوابط. مع ذلك، لا تستخدم أنظمة الذكاء الاصطناعي العام استعلامات قياسية للوصول إلى البيانات المصدرية، مما يجعل تطبيق أي ضوابط وصول تقليدية أمرًا مستحيلاً. لذا، من الضروري توخي الحذر الشديد في إدارة صلاحيات الوصول إلى البيانات في أنظمة الذكاء الاصطناعي العام.
تُعرّف غارتنر إدارة الصلاحيات بأنها تقنية تمنح صلاحيات الوصول الدقيقة، وتُحلّها، وتُطبّقها، وتُلغيها، وتُديرها. وهي تشمل سياسات الوصول إلى البيانات المهيكلة وغير المهيكلة، والخدمات، والأجهزة. بالنسبة للذكاء الاصطناعي العام، من الضروري الحفاظ على صلاحيات بيانات المصدر، وضمان تقييد الوصول إلى البيانات بالأذونات الأصلية، وانعكاس ذلك في استجابة الذكاء الاصطناعي العام.
بالنسبة للعديد من المؤسسات، لا تزال أنظمة الذكاء الاصطناعي العام في مرحلة إثبات المفهوم. وعندما تنتقل هذه الأنظمة إلى مرحلة الإنتاج، يصبح الحفاظ على حقوق استخدام البيانات المصدرية أمراً بالغ الأهمية لضمان استخدام البيانات بشكل آمن ومتوافق مع القوانين.
تحديات فهم وإنفاذ حقوق الوصول إلى البيانات
تُبرز حالة Copilot ضرورة تحديد سياسات فعّالة لإدارة الوصول إلى البيانات واتباعها بدقة، لضمان حماية البيانات من التسريب غير المقصود عند تطبيق هذه السياسات عبر أنظمة الذكاء الاصطناعي العام. مع ذلك، تنطوي هذه العملية على العديد من التحديات، ويعود معظمها إلى استخدام نماذج الذكاء الاصطناعي العام لبيانات متنوعة غير مُهيكلة لا يُمكن التحكم بها باستخدام الأدوات والتقنيات التقليدية.
- انعدام الشفافية : غالبًا ما تعمل نماذج الذكاء الاصطناعي العام كصناديق سوداء، مما يجعل من الصعب تحديد البيانات التي يتم الوصول إليها والتحكم فيها.
- غموض ملكية البيانات : يُؤدي الانتشار السريع للذكاء الاصطناعي العام إلى زيادة الحاجة المُلحة لتحديد ملكية البيانات بوضوح. غالبًا ما تكون البيانات غير المهيكلة مُعزولة وتفتقر إلى ملكية واضحة. وعادةً ما يتم إنشاؤها وإدارتها عبر أقسام مُختلفة، مما يُؤدي إلى غموض في تحديد المسؤولية. قد تقوم الشركات بعزل البيانات غير المهيكلة لأسباب مشروعة (مثل التعليقات المُرتقبة لعملية استحواذ) أو لأسباب غير مرغوب فيها (مثل الحدود السياسية بين الأقسام)، مما يزيد من تعقيد قضايا الملكية.
- مصادر بيانات متنوعة : تأتي البيانات غير المهيكلة التي تستخدمها أنظمة الذكاء الاصطناعي العام من مصادر متنوعة ومعقدة. وقد يكون ضمان تطبيق المعايير بشكل متسق عبر هذه المصادر أمرًا صعبًا.
- تحويلات البيانات المعقدة : تخضع البيانات غير المهيكلة للعديد من التحويلات المعقدة قبل إدخالها إلى نماذج الذكاء الاصطناعي العام. ويمكن أن تؤثر هذه التحويلات على تتبع الحقوق وإنفاذها.
- تطبيق ديناميكي وفوري : تصل أنظمة الذكاء الاصطناعي العام إلى البيانات بطرق ديناميكية واحتمالية، مما يجعل تتبع الصلاحيات وإدارتها أمرًا صعبًا. ويتطلب تطبيق تطبيق الصلاحيات في الوقت الفعلي في مسارات الذكاء الاصطناعي العام آليات مراقبة وتحكم متقدمة.
حقوق البيانات: البيانات المهيكلة مقابل البيانات غير المهيكلة
|
البيانات المنظمة
|
البيانات غير المهيكلة
|
| يمكن إدارة الصلاحيات بسهولة من خلال الأدوار والأذونات المحددة مسبقًا والمرتبطة بمخططات قواعد البيانات. |
تُعد إدارة الاستحقاقات عملية معقدة، حيث تختلف الصيغ، وفهم السياق أمر ضروري. |
| تُعد إدارة الاستحقاقات الآلية عملية سهلة بفضل بنية البيانات المتسقة. |
الأتمتة عملية معقدة، وغالباً ما تتطلب تقنيات الذكاء الاصطناعي والتعلم الآلي لفهم المحتوى والسياق. |
| توفر أنظمة إدارة قواعد البيانات (DBMS) ميزات قوية لإدارة حقوق البيانات. |
هناك حاجة إلى أدوات متطورة لتقييم وإنفاذ الأذونات على مستوى دقيق عبر مصادر البيانات المتنوعة. |
| يمكن توسيع نطاق سياسات الاستحقاق بسهولة عبر هياكل البيانات المماثلة. |
يُعد توسيع نطاق سياسات الاستحقاقات أمرًا صعبًا نظرًا لمزيج من تعيين الأذونات ومشاركة الملفات التقديرية. |
كيف Securiti يحافظ على الحقوق ويحدثها من أجل نجاح الجيل القادم من الذكاء الاصطناعي
من أبرز التحديات التي تواجه تطوير أنظمة الذكاء الاصطناعي العام (GenAI) كيفية الحفاظ على حقوق الوصول إلى البيانات المصدرية والتحكم في الوصول إليها أثناء نقل المعلومات إلى هذه الأنظمة. يُمكّنك Securiti من استخدام البيانات غير المهيكلة والمهيكلة بأمان مع أنظمة الذكاء الاصطناعي العام، مع الحفاظ على جميع ضوابط الوصول إلى بيانات المؤسسة. فهو يحافظ على جميع البيانات الوصفية وحقوق الوصول المرتبطة بها عند نقل البيانات من الأنظمة المصدرية إلى نماذج الذكاء الاصطناعي العام. وتلتزم أنظمة الذكاء الاصطناعي العام بهذه الحقوق من خلال تحليل الطلب، وتحديد الملفات التي تحتاج إلى الوصول إليها لبناء الاستجابة، ومطابقة حقوق المستخدم مع حقوق الوصول إلى البيانات المصدرية، ثم الوصول إلى الملفات إذا كان مسموحًا بذلك أو رفض الاستجابة.
كما كشف تبني الذكاء الاصطناعي التوليدي عن أوجه قصور في ضوابط الوصول الحالية، مما يسلط الضوء على الحاجة إلى عمليات تدقيق شاملة. Securiti تساعد حلول إدارة الوصول إلى البيانات والحوكمة (DAIG) المؤسسات على ضمان تطبيق إجراءات تحكم وصول سليمة في أنظمة البيانات الحالية. وذلك من خلال تحديث وتطبيق بروتوكولات وصول قوية، Securiti تساعد منصة DAIG المؤسسات في مواءمة أنظمة الذكاء الاصطناعي الخاصة بها مع أطر حوكمة البيانات المعمول بها، مما يقلل من مخاطر الوصول غير المصرح به مع زيادة إمكانات الذكاء الاصطناعي إلى أقصى حد.
أفضل 6 ممارسات للحفاظ على حقوق بيانات المصدر
يُمهد الحفاظ على الحقوق الطريق لحماية بياناتك في أنظمة الذكاء الاصطناعي من الجيل الجديد. باتباع أفضل الممارسات، يمكنك منع تسريب البيانات، والحفاظ على الامتثال، والاستفادة الكاملة من الإمكانات التحويلية للذكاء الاصطناعي من الجيل الجديد.
- أدرج البيانات غير المهيكلة في استراتيجية أمن بيانات مؤسستك : ضع في اعتبارك جميع جوانب الاستخدام الآمن للبيانات غير المهيكلة، وتأكد من إدراجها في استراتيجية أمن البيانات. درّب موظفيك على استخدام البيانات بأمان، لا سيما في مجال الذكاء الاصطناعي من الجيل الجديد. تشير غارتنر إلى أن 82% من اختراقات البيانات في عام 2022 كانت نتيجة لسلوكيات غير آمنة أو غير مقصودة من جانب الموظفين.
- أعطِ الأولوية لإدارة الصلاحيات: توصي غارتنر بإعطاء الأولوية للشفافية والصلاحيات عند بناء مسار بيانات الذكاء الاصطناعي . سيؤدي تحسين إدارة الصلاحيات وتوحيد الوصول إلى مسار بيانات الذكاء الاصطناعي إلى تقليل مخاطر إساءة الاستخدام بشكل كبير.
- استثمر في الأدوات المناسبة : يساعد الذكاء الاصطناعي العام على إطلاق قيمة البيانات غير المهيكلة، التي تشكل غالبية بيانات المؤسسات اليوم. اختر الأدوات التي تستخدم الذكاء الاصطناعي والتعلم الآلي لتوفير تحكم ديناميكي في مصادر بياناتك.
- ضمان استحقاقات قوية لبيانات المصدر : تنفيذ ومراجعة وتعديل استحقاقات البيانات بانتظام لتعكس التغييرات في الأدوار والمسؤوليات ومتطلبات الامتثال المحدثة.
- الاحتفاظ بسجلات التدقيق : تتبع جميع التغييرات والوصول إلى البيانات المصدرية، وتسجيلها، والاحتفاظ بها. يضمن هذا النهج الشفافية ويدعم جهود الامتثال.
- احمِ بياناتك الحساسة من خلال مراجعات الحد الأدنى من الصلاحيات : حدد أدوار المستخدمين وصلاحياتهم للبيانات الحساسة في مستودعات البيانات غير المهيكلة، وقم بربطها ببعضها. بالنسبة لأنظمة الذكاء الاصطناعي العام، تأكد من الحفاظ على هذه الصلاحيات وتطبيقها أثناء استخراج البيانات وعبر جميع مراحل المعالجة. راجع سياسات الأمان والامتثال بانتظام لتطبيق تدابير حماية البيانات المناسبة، مثل التشفير والترميز وإخفاء البيانات.
في ملخص
يُعد الحفاظ على حقوق الوصول إلى البيانات أمرًا بالغ الأهمية في مجال الذكاء الاصطناعي العام المتطور لمنع الوصول غير المصرح به وضمان الامتثال. ونظرًا لأن أنظمة الذكاء الاصطناعي العام تعتمد في الغالب على البيانات غير المهيكلة، فإن ضوابط الوصول التقليدية غالبًا ما تكون غير كافية. Securiti يمكنك الحفاظ على حقوق بيانات المصدر لحماية البيانات وتمهيد الطريق لنجاح الجيل القادم من الذكاء الاصطناعي.
تعرّف على كيفية الاستفادة من البيانات غير المهيكلة بأمان وفعالية في مجال الذكاء الاصطناعي للجيل القادم. حمّل الورقة البيضاء بعنوان "تسخير البيانات غير المهيكلة للذكاء الاصطناعي للجيل القادم: دليل تمهيدي لمديري البيانات" .