الإعلان عن Agent Commander - أول حل متكامل من Veeam + Securiti .ai تمكين توسيع نطاق وكلاء الذكاء الاصطناعي الآمنين

منظر

جولة فيمون 2026 - البيانات والذكاء الاصطناعي يتلاقيان من أجل عصر الوكلاء

منظر

كيف Unstructured Data Governance يمكن أن يمنع الحوادث المكلفة في الذكاء الاصطناعي العام

مؤلف

جاك بيركويتز

كبير مسؤولي البيانات في Securiti

استمع إلى المحتوى

هذا المنشور متاح أيضاً باللغات التالية: English

شهدنا خلال الأشهر القليلة الماضية إطلاق عدد كبير من تطبيقات الذكاء الاصطناعي التوليدي المدمجة، بدءًا من Microsoft CoPilot وصولًا إلى أدوبي فايرفلاي . (الصورة أدناه - مع تفسيرها المبالغ فيه للحيتي - هي من تطبيق فايرفلاي). لقد بدأت الثورة بالفعل، مع نماذج أساسية مثل OpenAI GPT وAnthropic. Claude ، وميسترال، وغيرها تتوسع بسرعة لسد الثغرات في القدرات وتحقيق الاكتمال.

مع ذلك، لا تزال العديد من الشركات تواجه صعوبة في تحويل أعمالها الأولية إلى منتجات جاهزة للإنتاج. يشهد القطاع تغييرات متسارعة بوتيرة تقنية هائلة. في مارس، نشرت شركة رأس المال الاستثماري "أندريسون هورويتز" في وادي السيليكون نتائج استطلاعها المثير للاهتمام حول تغير آراء قادة الشركات بشأن الذكاء الاصطناعي التوليدي. تُظهر النتائج أنه على الرغم من الارتفاع الكبير في ميزانيات الذكاء الاصطناعي التوليدي، لا تزال العديد من الشركات قلقة بشأن أمن بياناتها الحساسة . وبينما تقوم الشركات بتطوير تطبيقاتها الخاصة، فإنها تُبدي حماسًا أكبر لاستخدام الذكاء الاصطناعي التوليدي داخليًا مقارنةً باستخدامه خارجيًا. ولعل دعوى "إير كندا" القضائية المتعلقة ببرنامج الدردشة الآلي في فبراير تُلقي الضوء على أسباب ذلك.

تشغيل الفيديو

قصة تحذيرية لشركة طيران كندا

كان خطأ شركة طيران كندا واضحاً تماماً. فقد قدّم برنامج الدردشة الآلي التابع للشركة معلومات لأحد العملاء حول أسعار تذاكر السفر في حالات الوفاة، ثم رفضت الشركة لاحقاً الالتزام برد البرنامج. واستندت طيران كندا في ذلك إلى معلومات متضاربة على موقعها الإلكتروني، مدعيةً أن الموقع هو المصدر الصحيح، ومؤكدةً أنها لا تملك السيطرة على مخرجات برنامج الدردشة الآلي.

لم توافق المحكمة الكندية على ذلك، وقضت بأن تتحمل شركة طيران كندا مسؤولية عملها المدعوم وأن تدعم تقنيتها. ورغم أن المبلغ المالي المتنازع عليه لم يكن كبيرًا (812 دولارًا كنديًا)، إلا أن التغطية الإعلامية كانت دون المستوى المطلوب. وعلى الرغم من عدم امتلاكي أي معلومات خاصة حول كيفية إدارة شركة طيران كندا لعملياتها الداخلية أو كيفية تطويرها لروبوت الدردشة الخاص بها، يبدو لي أن شركة طيران كندا أغفلت اعتبارين أساسيين في تبنيها لتقنيات الذكاء الاصطناعي التوليدي - وهما عنصران يمكن للشركات، بقليل من التخطيط والتفكير الاستباقي، استباقهما لتجنب الوقوع في مشكلة مماثلة.

  1. تأكد من معرفة مصدر المحتوى الخاص بك وكيفية استخدامه.
    إحدى النقاط التي تناولتها الدعوى القضائية هي أن برنامج الدردشة الآلي استشهد بمحتوى مختلف عن محتوى الموقع الإلكتروني. هل كان هذا مجرد وهم ناتج عن الذكاء الاصطناعي، كما حدث مع أحد المحامين في نيويورك العام الماضي؟ أم أنه ناجم عن استخدام مجموعتين مختلفتين من المحتوى: إحداهما لتدريب برنامج الدردشة الآلي وإدارته، والأخرى للنشر على الموقع الإلكتروني؟ في كلتا الحالتين، بات بإمكان الشركات الآن تجنب هذه المشكلات من خلال تبني تقنيات تُمكّن من استخدام محتوى معروف ومعتمد، مع إمكانية تتبع مصادره واستجاباته بوضوح، ومن خلال دمج unstructured data governance في برامج الذكاء الاصطناعي للجيل القادم.
  2. تجاوزوا الأدوات التقنية لإعطاء الأولوية للاستخدام المسؤول للذكاء الاصطناعي.
    بينما تتضمن الخطوات الأولى لبناء وتنفيذ برنامج ذكاء اصطناعي مسؤول إعداد ضوابط وضمانات تقنية - كالتأكد من أن البيانات المستخدمة من قِبل الذكاء الاصطناعي نظيفة ومرخصة، وقياس التحيز الخوارزمي والتحكم فيه، واختبار النتائج وفهمها - فإن الاستخدام الأخلاقي يتجاوز الجانب التقني. يُستمد جزء كبير مما يُشكّل برنامج ذكاء اصطناعي مسؤول من اعتبارات العمل والاعتبارات الأخلاقية التي تُحددها لجان من الأشخاص يجتمعون لمناقشة متطلبات الشركة الفريدة واتخاذ القرارات بشأنها. وسواءً كان ذلك من خلال إنشاء لجنة أخلاقيات الذكاء الاصطناعي أو هيكل تنظيمي رسمي، ينبغي إشراك جميع العاملين في الشركة في فهم هذه التقنية وتطبيقها. ومن أفضل الطرق لتحقيق ذلك إنشاء Data Command Center مركزي وموحد، يُمكن لجميع المشاركين في عملية اتخاذ القرار الاطلاع عليه لفهم كيفية تنفيذ الأنظمة والاتفاق عليها.

من المنطقي أن شركة طيران كندا ربما كانت لتتجنب الدعاية السلبية التي رافقت الدعوى القضائية المتعلقة ببرنامج الدردشة الآلي الخاص بها لو أنها وضعت برامج فعّالة لمعالجة النقطتين المذكورتين أعلاه: معرفة وفهم مصدر بيانات التدريب، بالإضافة إلى الاعتماد على توجيهات لجنة أخلاقيات الذكاء الاصطناعي المُطّلعة. على أي حال، فإن تنفيذ برنامج الذكاء الاصطناعي ونشره وتشغيله عملية بسيطة. Data Command Center إنّ اتباع نهجٍ فعّال تجاه الجيل القادم من الذكاء الاصطناعي، وإنشاء لجنة أخلاقيات خاصة بالذكاء الاصطناعي، سيمكّنك من تبنّي ممارسات مسؤولة وأخلاقية في مجال الذكاء الاصطناعي ، مما سيساهم في تطوير شركتك بشكلٍ كبير نحو المستقبل. تواصل معنا للحصول على عرض توضيحي لتتعرف على كيفية ذلك. Securiti يمكن أن يساعد.

قم بتحليل هذه المقالة باستخدام الذكاء الاصطناعي

تظهر المطالبات في أدوات الذكاء الاصطناعي التابعة لجهات خارجية.
انضم إلى قائمتنا البريدية

احصل على أحدث المعلومات والتحديثات القانونية والمزيد مباشرةً في بريدك الإلكتروني


يشارك

قصص أخرى قد تهمك
مقاطع فيديو
عرض المزيد
ريحان جليل، من شركة Veeam، يتحدث عن Agent Commander: theCUBE + NYSE Wired: قادة الأمن السيبراني
بعد استحواذ شركة Veeam على Securiti يمثل إطلاق برنامج Agent Commander خطوة هامة نحو مساعدة المؤسسات على تبني وكلاء الذكاء الاصطناعي بثقة أكبر. في...
عرض المزيد
تخفيف مخاطر قائمة OWASP لأهم 10 مخاطر لتطبيقات ماجستير القانون 2025
أحدث الذكاء الاصطناعي التوليدي (GenAI) تحولاً جذرياً في طريقة عمل الشركات وتوسعها ونموها. يوجد تطبيق للذكاء الاصطناعي لكل غرض، بدءاً من زيادة إنتاجية الموظفين وصولاً إلى تبسيط العمليات...
عرض المزيد
أفضل 6 DSPM حالات الاستخدام
مع ظهور الذكاء الاصطناعي التوليدي (GenAI)، أصبحت البيانات أكثر ديناميكية. يتم توليد بيانات جديدة بوتيرة أسرع من أي وقت مضى، ونقلها إلى أنظمة وتطبيقات متنوعة...
عرض المزيد
قانون الخصوصية في كولورادو (CPA)
ما هو قانون خصوصية كولورادو؟ قانون خصوصية كولورادو هو قانون شامل لحماية الخصوصية، تم توقيعه في 7 يوليو 2021. وقد وضع معايير جديدة لحماية البيانات الشخصية...
عرض المزيد
Securiti لمساعد الطيار في البرمجيات كخدمة (SaaS)
تسريع اعتماد Copilot بأمان وثقة: تتطلع المؤسسات إلى اعتماد Microsoft 365 Copilot لزيادة الإنتاجية والكفاءة. ومع ذلك، تظل المخاوف الأمنية، مثل حماية البيانات...
عرض المزيد
أهم عشرة اعتبارات لاستخدام البيانات غير المهيكلة بأمان مع الذكاء الاصطناعي العام
نسبة مذهلة تصل إلى 90% من بيانات المؤسسات غير منظمة. وتُستخدم هذه البيانات بسرعة لتغذية تطبيقات الذكاء الاصطناعي من الجيل الجديد، مثل روبوتات الدردشة والبحث المدعوم بالذكاء الاصطناعي.
عرض المزيد
جينكور للذكاء الاصطناعي: بناء أنظمة ذكاء اصطناعي آمنة وعالية الجودة للمؤسسات في دقائق
مع تبني المؤسسات للذكاء الاصطناعي التوليدي، تواجه فرق البيانات والذكاء الاصطناعي العديد من العقبات: ربط مصادر البيانات غير المهيكلة والمهيكلة بشكل آمن، والحفاظ على الضوابط والحوكمة المناسبة،...
عرض المزيد
كيفية التعامل مع قانون حماية خصوصية المستهلك في كاليفورنيا: رؤى أساسية للشركات
ما هو قانون حقوق الخصوصية في كاليفورنيا (CPRA)؟ هو تشريع ولاية كاليفورنيا الذي يهدف إلى حماية خصوصية سكانها الرقمية. وقد دخل حيز التنفيذ في يناير...
عرض المزيد
التكيف مع التحول: الانتقال إلى معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS) الإصدار 4.0
ما هو معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS)؟ هو مجموعة من معايير الأمان لضمان المعالجة والتخزين الآمنين للبيانات، و...
عرض المزيد
تأمين البيانات والذكاء الاصطناعي: دليل إدارة الثقة والمخاطر والأمن (TRiSM)
أثارت المخاطر الأمنية المتزايدة للذكاء الاصطناعي قلق 48% من مسؤولي أمن المعلومات حول العالم. انضموا إلى هذه الجلسة الرئيسية للتعرف على دليل عملي لتمكين الثقة في الذكاء الاصطناعي، وإدارة المخاطر،...

جلسات حوارية مميزة

تسليط الضوء
الاستعداد للمستقبل لمحترفي الخصوصية
شاهد الآن منظر
تسليط الضوء 50:52
من البيانات إلى النشر: حماية الذكاء الاصطناعي المؤسسي من خلال الأمن والحوكمة
شاهد الآن منظر
تسليط الضوء 11:29
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
شاهد الآن منظر
تسليط الضوء 11:18
إعادة هيكلة تمويل العقارات - كيف تُجري شركة ووكر آند دنلوب تحديثًا لمحفظتها الاستثمارية البالغة 135 مليار دولار أمريكي بالاعتماد على البيانات أولاً
شاهد الآن منظر
تسليط الضوء 13:38
تسريع المعجزات - كيف تُدمج شركة سانوفي الذكاء الاصطناعي لتقليص مدة تطوير الأدوية بشكل كبير
صورة مصغرة لشركة سانوفي
شاهد الآن منظر
تسليط الضوء 10:35
حدث تحول جوهري في مركز ثقل البيانات
شاهد الآن منظر
تسليط الضوء 14:21
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
شاهد الآن منظر
تسليط الضوء 12:!3
لا يمكنك بناء خطوط الأنابيب أو المستودعات أو منصات الذكاء الاصطناعي بدون معرفة تجارية
شاهد الآن منظر
تسليط الضوء 47:42
الأمن السيبراني – حيث يقوم القادة بالشراء والبناء والشراكة
ريحان جليل
شاهد الآن منظر
تسليط الضوء 27:29
بناء ذكاء اصطناعي آمن باستخدام Databricks و Gencore
ريحان جليل
شاهد الآن منظر
أحدث
عرض المزيد
بناء ذكاء اصطناعي سيادي باستخدام HPE Private Cloud AI و Veeam Securiti Gencore AI
كيف تُساهم تقنيات الذكاء الاصطناعي في السحابة الخاصة من HPE، وتسريع NVIDIA، وVeeam؟ Securiti يدعم نظام Gencore AI الذكاء الاصطناعي الآمن والمُدار للمؤسسات مع تطبيق السياسات عبر سير العمل RAG والمساعدين والوكلاء.
عرض المزيد
Securiti أعلنت شركة .ai عن اختيار شركة أكسنتشر كشريك العام لعام 2025
في إطار الاحتفال المستمر بالتعاون المؤثر في DataAI Security ، Securiti منحت شركة .ai، التابعة لشركة Veeam، شركة Accenture لقب شريك العام لعام 2025....
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ قانون حماية خصوصية المستهلك في كاليفورنيا؟ عرض المزيد
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ القانون؟
يمكن للشركات أن تستفيد من بعض الدروس الحيوية من أكبر إجراء إنفاذي تم اتخاذه مؤخراً في تاريخ قانون خصوصية المستهلك في كاليفورنيا (CCPA). Securiti مدونة 's تغطي جميع التفاصيل المهمة التي يجب معرفتها.
عرض المزيد
الذكاء الاصطناعي وقانون HIPAA: ما يعنيه وكيفية أتمتة الامتثال
تعرّف على كيفية تطبيق قانون قابلية نقل التأمين الصحي والمساءلة (HIPAA) على الذكاء الاصطناعي في تأمين المعلومات الصحية المحمية. تعلّم كيف...
عرض المزيد
خيارات الانسحاب الدائمة: سحب الموافقة عبر التسويق، والبرمجيات كخدمة، والذكاء الاصطناعي العام
Securiti تقدم الورقة البيضاء الخاصة بـ [اسم الشركة] نظرة عامة مفصلة حول متطلبات سحب الموافقة المختلفة في مجالات التسويق، والبرمجيات كخدمة (SaaS)، والذكاء الاصطناعي العام (GenAI). اقرأ الآن لمعرفة المزيد.
عرض المزيد
التكلفة الخفية للخصوصية الناتجة عن الذكاء الاصطناعي الخفي والبيانات الخفية
قم بتنزيل الورقة البيضاء لاكتشاف مخاطر الذكاء الاصطناعي الخفي والبيانات الخفية، ولماذا تفشل الضوابط التقليدية، وكيفية بناء ذكاء اصطناعي استباقي وقابل للتطوير...
عرض المزيد
قائد العملاء: ملخص الحل
تعرّف على كيفية قيام Agent Commander باكتشاف وكلاء الذكاء الاصطناعي، وحماية بيانات المؤسسة من خلال ضوابط التشغيل، وتصحيح أخطاء الذكاء الاصطناعي - مما يتيح اعتماد الذكاء الاصطناعي بشكل آمن ومتوافق مع المعايير في...
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti عرض المزيد
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti
التزم بتعديلات قانون خصوصية المستهلك في كاليفورنيا لعام 2026 باستخدام Securiti وتشمل هذه المتطلبات تحديث متطلبات الموافقة، وتوسيع تعريفات البيانات الحساسة، وتعزيز حقوق المستهلك، وتقييمات الجاهزية.
عرض المزيد
تخلص من مخاطر البيانات في الذكاء الاصطناعي
تعرف على كيفية إعداد بيانات المؤسسة لاعتماد Gemini Enterprise بشكل آمن من خلال الحوكمة الأولية، واكتشاف البيانات الحساسة، وضوابط سياسة ما قبل الفهرسة.
عرض المزيد
دليل الحصول على شهادة HITRUST
Securiti يُعد الكتاب الإلكتروني دليلاً عملياً للحصول على شهادة HITRUST، ويغطي كل شيء بدءاً من اختيار i1 مقابل r2 ونطاق الأنظمة وصولاً إلى إدارة خطط العمل والتخطيط...
ما هو
جديد