يُعدّ برنامج Copilot for Microsoft 365 أداةً قويةً للشركات في عصر الذكاء الاصطناعي. وقد أحدث برنامج الدردشة الذكي المدعوم بالذكاء الاصطناعي ضجةً كبيرةً عند إطلاقه، إذ حقق وعوداً بزيادة الإنتاجية والكفاءة وتوفير الوقت.
Microsoft Copilot تُعدّ هذه التقنية نقلة نوعية، لكنها في الوقت نفسه تُثير مجموعة جديدة من التحديات وتُفاقم التحديات القائمة. فبينما تقوم بفحص جميع بيانات مستأجر مايكروسوفت لتحليلها والاستجابة لها، قد تُعرّض البيانات الحساسة للخطر في حال عدم تطبيق ضوابط وسياسات مناسبة.
لا تُناسب ممارسات الحوكمة التقليدية إدارة البيانات وحمايتها، لا سيما البيانات غير المهيكلة، لتطبيقات الذكاء الاصطناعي من الجيل الجديد مثل مساعدي الطيارين. ومع تسارع المؤسسات في تبني هذه الأدوات، فقد آن الأوان لتطوير استراتيجية الحوكمة لديها من نهج تقليدي إلى نهج تكيفي .
تابع القراءة لمعرفة المزيد حول أهمية حوكمة الطيار المساعد، والتحديات المتعلقة بالتصنيف أو منح الأذونات الزائدة التي تواجهها، وأفضل الممارسات ذات التأثير الكبير لحوكمة البيانات القوية.
لماذا تعتبر إدارة البيانات مهمة لـ Microsoft 365 Copilot؟
تُعدّ الحوكمة عنصراً أساسياً في إدارة البيانات، إذ تُقدّم فوائد متعددة الأبعاد. فهي تُساعد المؤسسات على تبسيط عملية الحفاظ على سلامة وسرية بياناتها الأكثر أهمية، مع ضمان data quality المُحسّنة والامتثال للوائح التنظيمية.
دعونا نلقي نظرة سريعة على سبب كون إدارة البيانات أمراً لا غنى عنه من أجل اعتماد Copilot لـ Microsoft 365 بشكل آمن.
منع الوصول غير المصرح به أو كشف البيانات الحساسة
يتمتع برنامج Copilot بإمكانية الوصول إلى كمية هائلة من البيانات الموزعة عبر بيئات Microsoft 365، بما في ذلك OneDrive وExcel وPowerPoint وWord وSharePoint وOutlook. وبدون ضوابط مناسبة لإدارة البيانات، من المرجح أن يكشف برنامج الدردشة الآلي المدعوم بالذكاء الاصطناعي بيانات حساسة لمستخدمين غير مصرح لهم، مما قد يؤدي إلى عواقب وخيمة على المؤسسة.
بحسب شركة IBM ، بلغ متوسط التكلفة العالمية لاختراق البيانات 4.4 مليون دولار أمريكي في عام 2024. وتُشير رؤى اختراقات البيانات العالمية، مثل تلك التي قدمتها IBM، إلى الأثر المالي لإهمال الأمن السيبراني. فعلى سبيل المثال، قد تكشف أذونات الوصول غير المقصودة في SharePoint عن خطط الشركة للاستحواذ والاندماج لموظفين غير مُصرّح لهم، كأحد مسؤولي التسويق، وذلك عبر استجابة Copilot. وقد يُؤدي هذا الكشف غير المقصود إلى اختراقات للبيانات وعواقب قانونية.
تساعد أطر الحوكمة الفعّالة المؤسسات على اكتساب فهم أعمق لبياناتها الحساسة من خلال إجراءات مثل اكتشاف البيانات وتصنيفها، ووضع العلامات عليها، أو معلومات الوصول إليها. وتستفيد فرق الأمن من هذه المعلومات لتطبيق السياسات والضوابط المناسبة، مما يمنع وقوع الحوادث الأمنية قبل أن تتفاقم وتخرج عن السيطرة.
تجنب المخاطر التنظيمية والأضرار بالسمعة
منذ ظهور الذكاء الاصطناعي التوليدي، توسعت البيئة التنظيمية بشكل كبير. فالحدود القانونية التي كانت تقتصر على البيانات أصبحت الآن تشمل الذكاء الاصطناعي وكل ما بينهما.
مع ذلك، فإن جميع القوانين، سواءً كانت اللائحة العامة لحماية البيانات ( المادة 24 ) أو قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي ( المادة 10 )، تُلزم المؤسسات باتخاذ تدابير مناسبة لضمان الحوكمة الصارمة وأمن البيانات الخاضعة للتنظيم. فبدون ضوابط فعّالة، قد تتعرض المؤسسات لمخاطر، مثل الغرامات التنظيمية، أو اضطرابات العمليات، أو الإضرار بسمعتها.
على سبيل المثال، إذا لم تتخذ مؤسسة ما التدابير اللازمة لتحديد التحيز في البيانات والحد منه، فقد تكون بذلك تنتهك أحكام المادة 10 من قانون الذكاء الاصطناعي للاتحاد الأوروبي. وبموجب هذا القانون، يمكن تغريم المخالفين ما يصل إلى 35 مليون يورو أو 7% من الإيرادات السنوية . ومن المتوقع فرض غرامات مماثلة أو أعلى في حال انتهاك قوانين أخرى، مثل اللائحة العامة لحماية البيانات (GDPR).
بفضل تدابير الحوكمة القوية، يمكن للمنظمات أن تضمن بأمان Microsoft Copilot الامتثال. على سبيل المثال، يمكن لفرق الحوكمة فرض سياسات تصنيف مناسبة لتقييد برنامج Copilot من الكشف عن البيانات الحساسة في ردوده، وبالتالي تجنب انتهاكات الامتثال.
تخفيف المخاطر لضمان ذكاء اصطناعي مسؤول
تُجسّد حادثة مايكروسوفت تاي رسالةً لا تُنسى، وإن كانت تحذيرية، حول أهمية الذكاء الاصطناعي الأخلاقي أو المسؤول. فتطبيقات الذكاء الاصطناعي من الجيل الجديد، مثل برنامج الطيار الآلي، ليست بمنأى عن العيوب كالتّحيّز أو عدم الدقة أو المعلومات المضللة.
يتمتع Copilot بإمكانية الوصول إلى جميع التطبيقات في بيئة Microsoft 365. ونظرًا لأنه يحلل البيانات ويتعلم منها، فإنه يميل إلى توليد استجابات بناءً على البيانات التي تم تدريبه عليها. وبالتالي، إذا كانت بيانات التدريب في مستأجر Microsoft متحيزة أو غير دقيقة، فمن المرجح أن يُولّد Copilot استجابات متحيزة أو غير متسقة. وبالمثل، بدون سياسات حوكمة فعّالة حول data mapping ومع مراعاة النسب والجودة، يصبح من الصعب على المؤسسات تتبع كيفية اتخاذ الأداة لهذا القرار وحل المشكلة وفقًا لذلك.
تُعدّ إدارة البيانات ضرورية للمؤسسات لأنها تساعدها على الالتزام بمبادئ وممارسات الذكاء الاصطناعي المسؤولة. وبالتالي، لا تستطيع المؤسسات فقط معالجة التناقضات في منتجاتها، بل يمكنها أيضاً بناء ثقة المستخدمين.
إدارة Microsoft 365 Copilot: تحديات تتعلق بالأذونات والتصنيف و Data Quality
يكشف تقرير غارتنر لعام 2024 أن 6% فقط من المؤسسات تنقل مشاريعها التجريبية إلى مرحلة التطبيق الفعلي، بينما لا تزال نسبة هائلة تبلغ 60% في مرحلة التجربة. يتمتع نظام Copilot بإمكانات تحويلية هائلة، لكن العديد من المؤسسات لديها تحفظات جدية بشأنه. وتشكل هذه المخاوف تحديات أمام المؤسسات التي تفتقر إلى حوكمة بيانات فعالة.
لنأخذ على سبيل المثال مشكلات أذونات الملفات. يستطيع برنامج Copilot الوصول إلى البيانات في مستأجري Microsoft التي يملك المستخدمون أذونات لها. غالبًا ما تُمنح هذه الأذونات لملفات لا يحتاجونها. ورغم امتلاكهم أذونات الوصول إلى هذه الملفات، إلا أنهم يجهلون وجودها، إذ يمكن أن تكون هذه الملفات في أي مكان ضمن بيئة النظام. مع ذلك، وبما أن Copilot قادر على تحليل سياق ومحتوى الملفات حتى لو كانت "للعرض فقط" في أي مكان ضمن المستأجر، فإنه قد يكشف المعلومات الحساسة الموجودة داخل هذه الملفات للمستخدمين الذين لم يكونوا على دراية بها.
وبالمثل، تواجه المؤسسات تحديات متزايدة في إدارة البيانات الزائدة والقديمة وغير المهمة. ولا يُعدّ وجود هذه البيانات في بيئة Microsoft 365، أو أي بيئة أخرى، أمرًا نادرًا. إلا أن هذه البيانات تُشكّل مخاطر أمنية وخصوصية كبيرة على المؤسسات. إضافةً إلى ذلك، تُؤثر هذه البيانات سلبًا على دقة وجودة وحداثة الاستجابات التي يُولّدها Copilot بناءً على المطالبات ذات الصلة. لذا، فبدون حذف هذه البيانات أو عزلها، تُواجه المؤسسات خطر التضليل ، أو المحتوى المتحيز أو الضار، أو انتهاك حقوق النشر.
تواجه المؤسسات أيضًا تحديات تتعلق بتصنيف البيانات، مما يعيق اعتماد Copilot بشكل آمن. تفتقر حلول مايكروسوفت الأصلية إلى القدرة على تصنيف الملفات بدقة، كما أنها لا توفر تحليلات تفصيلية للملفات. علاوة على ذلك، ونظرًا للعدد المحدود من الملفات التي يمكن تصنيفها يوميًا، يصبح توسيع نطاق تصنيف البيانات الضخمة (بحجم البيتابايت) تحديًا متزايدًا.
هذه التحديات تعيق قدرة المؤسسة على إدارة البيانات بشكل فعال لبرنامج Copilot، مما يبطئ انتقالها من مرحلة التجريب إلى النشر الكامل.
ضمان إدارة فعّالة لبرنامج Microsoft 365 Copilot مع Securiti
يُعدّ برنامج Copilot أداةً تُمكّن المؤسسات من اكتساب ميزة تنافسية. لذا، من الضروري ضمان وجود إطار حوكمة قوي يُسهم في ضمان استخدامه الآمن والمسؤول. فيما يلي بعض الاعتبارات الرئيسية لتبسيط حوكمة البيانات.
Data Discovery & Classification
يُعدّ اكتشاف البيانات وتصنيفها عنصرين أساسيين في الحوكمة الرشيدة. يجب أن تمتلك فرق البيانات معرفة شاملة بجميع بياناتها في جميع بيئاتها. إضافةً إلى ذلك، يُسهم التصنيف الفعال في ضمان معالجة البيانات وفقًا لسياسات العمل الخاصة بالمؤسسة والمتطلبات التنظيمية.
Securiti Data Command Center يُحدد النظام البيانات بكفاءة عبر العديد من مستودعات البيانات، وبحيرات البيانات، والتخزين السحابي، وتطبيقات البرمجيات كخدمة (SaaS)، بما في ذلك بيئة Microsoft 365. ويمكن للفرق تصنيف البيانات الحساسة تلقائيًا بالاستفادة من مئات المصنفات الجاهزة المتقدمة. وباستخدام تقنيات متقدمة للبيانات غير المهيكلة، تستطيع فرق البيانات تصنيف البيانات بكفاءة بناءً على الحساسية أو الأهمية أو الصلة بالموضوع.
تصنيف البيانات
قد يتمكن برنامج Copilot من التقاط بيانات حساسة أو استخلاص معلومات منها أو تسريبها في استجاباته إذا لم تُطبَّق ضوابط حوكمة مناسبة. وبالمثل، نظرًا لأن ضوابط الوصول في SharePoint تقتصر على أدوار المستخدمين ومواقعهم بدلًا من محتوى البيانات وسياقها، فمن المرجح أن يقترح Copilot معلومات على مستخدمين غير مصرح لهم بمعرفتها. وبدون تصنيف فعال للبيانات الحساسة، تستمر هذه المخاطر في الظهور وتعيق استخدام Copilot.
Securiti يساعد هذا النظام المؤسسات على تصنيف الملفات والكائنات تلقائيًا بدقة عالية وعلى نطاق واسع. ويعتمد تصنيف البيانات على عوامل مثل التصنيف، والملكية، والحساسية، واللوائح، والعمر. ويمكن للمؤسسات ضمان اتساق التصنيف من خلال الاستفادة من محرك سياسات بيانات موحد وشامل. كما يمكنها حماية البيانات الحساسة عن طريق استبعاد تصنيفات محددة من استجابات Microsoft 365 Copilot.
إدارة الوصول
تتضمن إدارة الوصول مجموعة من الأدوات والممارسات التي تُمكّن المؤسسات من التحكم في وصول المستخدمين المصرح لهم فقط إلى البيانات. بعبارة أخرى، تُعد إدارة الوصول ضرورية لتمكين الفرق من الحفاظ على سياسة أذونات صارمة. كما يُنصح المؤسسات بتطبيق نموذج الوصول بأقل قدر من الامتيازات، لمنع الإفراط في كشف البيانات الحساسة. مع ذلك، قد تكون إدارة الوصول معقدة نظرًا لتعدد تركيبات الأذونات. ولضمان سياسة أذونات فعّالة، يجب أن تمتلك المؤسسات معلومات سياقية حول الوصول إلى البيانات وضوابط آلية لضمان قابلية التوسع.
Securiti يساعد هذا الحل فرق الأمن على تحديد التركيبات الضارة من الملفات والمجلدات والمستخدمين والصلاحيات. كما يوفر رؤى دقيقة حول معلومات الملفات، بما في ذلك حساسية البيانات والصلاحيات والمتطلبات التنظيمية. وبالاستفادة من هذه الرؤى و Securiti بفضل إمكانيات الأتمتة، تستطيع فرق الأمن إخطار مالكي ملفات ومواقع SharePoint بكفاءة عالية بشأن الأخطاء في التكوين والانتهاكات الأمنية. وتتيح هذه الإمكانيات القوية للمؤسسات تقليل الإرهاق الناتج عن كثرة التنبيهات من خلال تحديد أولويات الوصول إلى البيانات الحساسة.
ROT Data Minimization
لطالما شكلت بيانات ROT مصدر قلق بالغ للمؤسسات حتى قبل ظهور نظام Copilots. تُشكل هذه البيانات مخاطر أمنية ومخاطر تتعلق بالامتثال، وعند استخدامها مع نظام Copilots ، قد يكون لها تأثير بالغ على جودة ودقة الاستجابات. يكمن مفتاح تحسين استجابات Copilots في تقليل الازدواجية، وعزل البيانات المشكوك فيها، وحذف المعلومات غير الضرورية.
Securiti يُبسّط هذا ROT data minimization ، مما يسمح للمؤسسات بتنظيف بيئة بياناتها وضمان حداثة البيانات وجودتها ودقتها. يمكن لفرق البيانات حذف الملفات المكررة أو شبه المكررة بكفاءة عالية باستخدام تقنيات مثل التجميع المدعوم بالذكاء الاصطناعي والسياسات القائمة على الرسوم البيانية. كما يكشف النظام عن الملفات القديمة بناءً على معايير مختلفة، مثل ملكية الملف ومحتواه وصلاحيات الوصول إليه وتاريخه. علاوة على ذلك، يمكن للفرق استخدام تصنيف البيانات الحساسة لعزل البيانات غير الضرورية.
تُعد أفضل الممارسات المذكورة أعلاه ضرورية لحوكمة بيانات Copilot وتساعد على تعزيز الوضع الأمني والخصوصية والامتثال العام لبيئة البيانات.
الأسئلة الشائعة (FAQs)