تُعيد أنظمة الذكاء الاصطناعي المساعدة والوكلاء المدمجين في البرمجيات كخدمة (SaaS) تشكيل أساليب عمل المؤسسات بسرعة. ينظر إليها قادة الأعمال وفرق تكنولوجيا المعلومات كبوابة لرفع كفاءة المؤسسات بفضل الذكاء الاصطناعي، بينما تُحذر فرق الأمن من مخاوف تتعلق بأمن البيانات. تُمكّن أنظمة الذكاء الاصطناعي المساعدة المُصممة خصيصًا للمؤسسات، مثل Microsoft 365 Copilot وBox AI من Dropbox وGitHub Copilot، الموظفين من الاستعلام عن مجموعات البيانات الضخمة، وإنشاء المستندات، وكتابة التعليمات البرمجية على نطاق واسع. ومع تسابق الشركات لدمج هذه المساعدات الذكية، تبرز فرصة هائلة لتعزيز الإنتاجية، ولكن المخاطر أيضًا كبيرة.
المخاوف الأمنية تعيق التقدم Microsoft Copilot التبني
بحسب غارتنر ، لم تصل سوى 16% من المؤسسات التي جربت برنامج مايكروسوفت 365 كوبيلوت إلى مرحلة الإنتاج، ويعود ذلك أساسًا إلى مخاوف أمنية. فعلى الرغم من الحاجة المُلحة لتبني الذكاء الاصطناعي، تخشى فرق الأمن من أن يؤدي استخدام برامج كوبيلوت إلى كشف بيانات حساسة وخلق مخاطر تتعلق بالامتثال.
يُعدّ الوصول غير المقصود إلى بيانات المؤسسة غير المهيكلة أحد أكبر التحديات. فبدون رؤية واضحة لصلاحيات الوصول، وتكوين أذونات الملفات بشكل خاطئ، والبيانات الزائدة والقديمة والتافهة ، تُعرّض المؤسسات نفسها لخطر كشف البيانات بشكل غير مقصود من خلال استجابات Copilot.
لنفترض سيناريو يقوم فيه فريق الموارد البشرية بتحميل بيانات أرقام الضمان الاجتماعي للموظفين الجدد، وتفاصيل جوازات سفرهم، ومعلوماتهم المصرفية إلى موقع SharePoint دون قيود على الوصول. قد يقوم برنامج Microsoft 365 Copilot، الذي يفتقر إلى ضوابط الحوكمة، بعرض هذه البيانات في ردود مُولّدة بواسطة الذكاء الاصطناعي، مما يُعرّضها للاختراق في جميع أنحاء المؤسسة.
وبالمثل، قد يتلقى مسؤول تنفيذي رفيع المستوى يستعلم من برنامج Copilot عن التوقعات المالية بيانات قديمة من ملف قديم، وقد يكلف قرار خاطئ واحد مبني على معلومات مضللة ملايين الدولارات . يفسر هذا السيناريو الذي ينطوي على مخاطر ضعف فعالية الذكاء الاصطناعي سبب معاناة معظم المؤسسات في تجاوز المرحلة التجريبية في مشاريع الذكاء الاصطناعي، خوفًا من اختراقات البيانات والخسائر المالية ومخالفات الامتثال والإضرار بالسمعة.
معضلة الخوف من فوات الفرصة: التأخير مقابل ضغط المنافسة
بينما تتصارع فرق الأمن مع هذه المخاطر، تتعثر عمليات نشر Copilot، ويشعر قادة الأعمال بالخوف من فوات الفرصة. المنافسون الذين ينشرون بشكل آمن Microsoft Copilot يكتسب البعض ميزة في الإنتاجية، بينما يتردد آخرون، ممزقين بين الكفاءة المدفوعة بالذكاء الاصطناعي وحماية بيانات المؤسسة الحساسة.
إذن، كيف يمكن للمؤسسات التوسع بشكل آمن؟ Microsoft Copilot التبني؟ يكمن الجواب في أمن البيانات والحوكمة الاستباقية، ومنع الوصول غير المقصود، وتحسين فعالية الذكاء الاصطناعي، والمعالجة الآلية - مما يضمن أن يعمل Copilot كعامل تمكين موثوق به، وليس عبئًا أمنيًا.
كيف Securiti يُمكّن من الاستخدام الآمن لبرنامج Microsoft 365 Copilot
Securiti توفر لوحة تحكم شاملة لـ Microsoft 365 Copilot مصممة لتحديد ومعالجة مخاطر أمن البيانات الحرجة بشكل استباقي. تقدم لوحة التحكم رؤى قابلة للتنفيذ ، مثل تحديد المستخدمين الذين لديهم صلاحية الوصول إلى المواقع/الملفات الحساسة، والكشف عن المواقع التي يمكن الوصول إليها على نطاق واسع في جميع أنحاء المؤسسة. من خلال الاستفادة من هذه الرؤى، يمكن للمؤسسات معالجة مشكلات الوصول غير المقصود، وتحديد أولويات جهود الإصلاح، وتمكين نشر Copilot بشكل آمن ومتحكم فيه.