الإعلان عن Agent Commander - أول حل متكامل من Veeam + Securiti .ai تمكين توسيع نطاق وكلاء الذكاء الاصطناعي الآمنين

منظر

نظرة عامة على الضوابط الكندية للذكاء الاصطناعي التوليدي

المساهمون

أنس بيج

مدير تسويق المنتجات في Securiti

عمر عمران مالك

Data Privacy مدير الشؤون القانونية، Securiti

FIP، CIPT، CIPM، CIPP/US

نُشر في ٢٢ سبتمبر ٢٠٢٣

أصبحت كندا قوة رائدة في مجال الذكاء الاصطناعي التوليدي، من خلال تطويره بشكل مسؤول وأخلاقي، في ظل التطور السريع لهذا المجال. وقد مهدت البلاد الطريق لوضع ضوابط شاملة للذكاء الاصطناعي، مع التزامها الدائم بتعزيز الابتكار ودعم مبادئ الشفافية والنزاهة والمساءلة .

رغم ما تتمتع به تقنيات الذكاء الاصطناعي التوليدي من مزايا عديدة، إلا أنها أداة قوية تجذب جهات خبيثة لاستخدامها بشكل ضار أو غير لائق، مما يثير مخاوف جدية في القطاعين العام والخاص وبين كبار خبراء صناعة الذكاء الاصطناعي. ونتيجة لذلك، لا تكتفي الحكومة الكندية بوضع ضوابط طوعية في مجال الذكاء الاصطناعي التوليدي، بل تعمل على وضع معايير لأنظمة "عالية التأثير"، مثل قانون الذكاء الاصطناعي والبيانات (AIDA).

بالإضافة إلى ذلك، أصدرت وزارة الابتكار والعلوم والتنمية الاقتصادية الكندية (ISED)، وهي وزارة اتحادية تابعة لحكومة كندا مسؤولة عن العديد من الواجبات، بما في ذلك تنظيم الصناعة والتجارة، وتعزيز الابتكار والعلوم، والمساعدة في التنمية الاقتصادية، الضوابط الكندية للذكاء الاصطناعي التوليدي - مدونة قواعد الممارسة.

بموجب الوثيقة المقترحة، تسعى حكومة كندا إلى الحصول على تعليقات حول عناصر مدونة الممارسات المقترحة لأنظمة الذكاء الاصطناعي التوليدي. وسيستضيف المجلس الاستشاري للذكاء الاصطناعي التابع لحكومة كندا سلسلة من جلسات النقاش الافتراضية والمختلطة، بالإضافة إلى تقييمات الخبراء، كجزء من هذه العملية.

في هذه المدونة، سننطلق في رحلة لاستكشاف المشهد متعدد الأوجه للضوابط الكندية للذكاء الاصطناعي التوليدي، ولا سيما الضوابط الكندية للذكاء الاصطناعي التوليدي - مدونة قواعد الممارسة التي تم تقديمها مؤخرًا.

مدونة قواعد الممارسة – العناصر

منذ تقديم مشروع القانون C-27 في يونيو 2022، انخرطت حكومة كندا بنشاط مع أصحاب المصلحة فيما يتعلق بقانون المساعدة على الانتحار (AIDA).

تدرس حكومة كندا العناصر المقترحة التالية لمدونة قواعد الممارسة لأنظمة الذكاء الاصطناعي التوليدية للحصول على تعليقات بناءً على المدخلات الواردة حتى الآن من مجموعة واسعة من أصحاب المصلحة.

أمان

يجب مراعاة السلامة بشكل شامل طوال دورة حياة نظام الذكاء الاصطناعي، مع الأخذ في الاعتبار جميع الآثار المحتملة، لا سيما فيما يتعلق بإساءة الاستخدام. تتميز العديد من أنظمة الذكاء الاصطناعي التوليدي بتطبيقات متنوعة؛ لذا، يجب تقييم مخاطر السلامة الخاصة بها بشكل أكثر شمولاً من الأنظمة ذات التطبيقات المحدودة.

ينبغي على مطوري ومستخدمي أنظمة الذكاء الاصطناعي التوليدية إدراك إمكانية الاستخدام الضار للنظام، مثل استخدامه لانتحال شخصيات حقيقية أو شن هجمات صيد الأسماك بالرمح، واتخاذ تدابير لمنع حدوث ذلك.

ينبغي على مطوري ومستخدمي ومشغلي أنظمة الذكاء الاصطناعي التوليدي إدراك المخاطر المحتملة المرتبطة بالنظام، مثل استخدام نموذج لغوي ضخم لتقديم المشورة القانونية أو الطبية، واتخاذ الاحتياطات اللازمة لتجنبها. ومن هذه التدابير إعلام المستخدمين بقدرات النظام وحدوده.

العدالة والإنصاف

قد تؤثر أنظمة الذكاء الاصطناعي التوليدي سلبًا على العدالة والمساواة في المجتمع، وذلك من خلال، على سبيل المثال، ترسيخ التحيزات والأفكار المسبقة الضارة نتيجةً لضخامة مجموعات البيانات التي تُدرَّب عليها ونطاق تطبيقها الواسع. لذا، يُعدّ ضمان تدريب النماذج على بيانات ذات صلة وممثلة، وإنتاج مخرجات دقيقة وغير متحيزة وذات صلة، أمرًا بالغ الأهمية.

ينبغي لمطوري أنظمة الذكاء الاصطناعي التوليدي تقييم البيانات وتنقيحها لتجنب مجموعات البيانات المتحيزة أو منخفضة الجودة. من جهة أخرى، ينبغي لمطوري أنظمة الذكاء الاصطناعي التوليدي ومنفذيها ومشغليها تطبيق إجراءات لتقييم مخاطر المخرجات المتحيزة والحد منها (مثل الضبط الدقيق).

الشفافية

فيما يتعلق بأنظمة الذكاء الاصطناعي التوليدي، تُعدّ الشفافية تحديًا كبيرًا. فقد لا تُتاح بيانات التدريب وشفرات المصدر للجمهور، وقد يصعب فهم مخرجاتها أو تبريرها. لذا، من الضروري ضمان وعي الأفراد عند التعامل مع نظام ذكاء اصطناعي أو مخرجات أدواته، مع تطور أنظمة الذكاء الاصطناعي التوليدي وازدياد كفاءتها.

ينبغي لمطوري ومستخدمي أنظمة الذكاء الاصطناعي التوليدي توفير طريقة محايدة ومتاحة للجميع لتحديد المحتوى الذي ينتجه النظام (مثل وضع العلامات المائية)، وتقديم وصف شامل لعملية التطوير، بما في ذلك مصدر بيانات التدريب والخطوات المتخذة لتحديد المخاطر والتخفيف من حدتها. إضافةً إلى ذلك، ولمنع الخلط بين الأنظمة والبشر، يجب على مشغلي أنظمة الذكاء الاصطناعي التوليدي التأكد من تصنيفها بوضوح وجلاء.

الرقابة والمتابعة البشرية

يُعدّ الإشراف والمراقبة البشرية أمرًا بالغ الأهمية لضمان تطوير أنظمة الذكاء الاصطناعي وتطبيقها واستخدامها بمسؤولية. قبل إتاحة أنظمة الذكاء الاصطناعي التوليدية على نطاق واسع، يجب على المطورين والمشغلين اتخاذ تدابير محددة لضمان الإشراف البشري الكافي وآليات تحديد الآثار السلبية والإبلاغ عنها. ويعود ذلك إلى حجم النشر وتعدد الاستخدامات المحتملة لهذه الأنظمة، فضلًا عن إساءة استخدامها.

بالنظر إلى نطاق النشر، والطريقة التي يتم بها إتاحة النظام للاستخدام، وقاعدة مستخدميه، ينبغي على القائمين على نشر وتشغيل أنظمة الذكاء الاصطناعي التوليدي توفير إشراف بشري في نشر وتشغيل أنظمتهم.

ينبغي على مطوري ومنفذي ومشغلي أنظمة الذكاء الاصطناعي التوليدية وضع إجراءات لتمكين تحديد الآثار السلبية والإبلاغ عنها بمجرد نشر النظام (على سبيل المثال، الاحتفاظ بقاعدة بيانات للحوادث)، وينبغي عليهم الالتزام بإجراء تحسينات روتينية على النموذج بناءً على النتائج (على سبيل المثال، الضبط الدقيق).

الصلاحية والمتانة

يتطلب الاعتماد على أنظمة الذكاء الاصطناعي ضمان عملها على النحو المنشود وقدرتها على الصمود في مختلف الظروف التي قد تتعرض لها. ونظرًا لإمكانية استخدامها في سياقات متنوعة، واحتمالية تعرضها لسوء الاستخدام والهجمات، فقد باتت الثقة بنماذج الذكاء الاصطناعي التوليدي تحديًا متزايدًا. ورغم أن مرونة الذكاء الاصطناعي تجعله واعدًا، إلا أنه لا بد من تطبيق ضوابط صارمة واختبارات دقيقة لمنع إساءة استخدامه وتجنب العواقب غير المتوقعة.

لتقييم الأداء وتحديد نقاط الضعف، ينبغي لمطوري أنظمة الذكاء الاصطناعي التوليدي استخدام مجموعة واسعة من تقنيات الاختبار في مختلف الأنشطة والظروف، بما في ذلك الاختبارات المعادية (مثل اختبارات الفريق الأحمر). علاوة على ذلك، ولمنع أو كشف الهجمات المعادية على النظام (مثل تسميم البيانات)، ينبغي لمطوري أنظمة الذكاء الاصطناعي التوليدي ومشغليها ومنفذيها استخدام تدابير الأمن السيبراني المناسبة.

المساءلة

تتسم المخاطر المرتبطة بأنظمة الذكاء الاصطناعي التوليدي بالشمولية والتعقيد. وبينما تُعدّ آليات الحوكمة الداخلية أساسية لأي مؤسسة تُطوّر أو تنشر أو تُشغّل أنظمة الذكاء الاصطناعي، يجب إيلاء اهتمام وعناية خاصين لأنظمة الذكاء الاصطناعي التوليدي لضمان اتباع عملية إدارة مخاطر شاملة ومتعددة الجوانب، وأن يكون جميع الموظفين في سلسلة قيمة الذكاء الاصطناعي على دراية بمسؤولياتهم.

لضمان سلامة نظامهم، يجب على مطوري ومشغلي أنظمة الذكاء الاصطناعي التوليدية وضع خطوط متعددة من الضمانات، مثل إجراء عمليات تدقيق داخلية وخارجية (مستقلة) قبل وبعد تشغيل النظام، ووضع سياسات وإجراءات وتدريب لضمان تحديد الأدوار والمسؤوليات بوضوح وأن يكون الموظفون على دراية بواجباتهم وممارسات إدارة المخاطر في المنظمة.

خاتمة

ينبغي على المؤسسات الالتزام بهذه الإرشادات وغيرها من أفضل الممارسات العالمية في مجال الذكاء الاصطناعي لمنع أنظمة الذكاء الاصطناعي لديها من العمل بطرق قد تُعرّض الأفراد للخطر، مثل انتحال الشخصية أو إعطاء نتائج غير صحيحة. إضافةً إلى ذلك، يجب على المؤسسات استخدام أساليب مثل "الاختبارات التجريبية" لتحديد مشاكل النظام وإصلاحها، وتدريب أنظمة الذكاء الاصطناعي لديها على مجموعات بيانات نموذجية للحد من النتائج المتحيزة.

ينبغي على المؤسسات تصنيف المحتوى المُنشأ بواسطة الذكاء الاصطناعي بشكل واضح لتجنب تعارضه مع المحتوى البشري، وتزويد المستهلكين بالمعلومات اللازمة لاتخاذ القرارات. كما يُحثّ على مشاركة تفاصيل مهمة حول آلية عمل أنظمة الذكاء الاصطناعي الخاصة بها لتعزيز ثقة المستخدمين وفهمهم.

قم بتحليل هذه المقالة باستخدام الذكاء الاصطناعي

تظهر المطالبات في أدوات الذكاء الاصطناعي التابعة لجهات خارجية.
انضم إلى قائمتنا البريدية

احصل على أحدث المعلومات والتحديثات القانونية والمزيد مباشرةً في بريدك الإلكتروني



قصص أخرى قد تهمك
مقاطع فيديو
عرض المزيد
ريحان جليل، من شركة Veeam، يتحدث عن Agent Commander: theCUBE + NYSE Wired: قادة الأمن السيبراني
بعد استحواذ شركة Veeam على Securiti يمثل إطلاق برنامج Agent Commander خطوة هامة نحو مساعدة المؤسسات على تبني وكلاء الذكاء الاصطناعي بثقة أكبر. في...
عرض المزيد
تخفيف مخاطر قائمة OWASP لأهم 10 مخاطر لتطبيقات ماجستير القانون 2025
أحدث الذكاء الاصطناعي التوليدي (GenAI) تحولاً جذرياً في طريقة عمل الشركات وتوسعها ونموها. يوجد تطبيق للذكاء الاصطناعي لكل غرض، بدءاً من زيادة إنتاجية الموظفين وصولاً إلى تبسيط العمليات...
عرض المزيد
أفضل 6 DSPM حالات الاستخدام
مع ظهور الذكاء الاصطناعي التوليدي (GenAI)، أصبحت البيانات أكثر ديناميكية. يتم توليد بيانات جديدة بوتيرة أسرع من أي وقت مضى، ونقلها إلى أنظمة وتطبيقات متنوعة...
عرض المزيد
قانون الخصوصية في كولورادو (CPA)
ما هو قانون خصوصية كولورادو؟ قانون خصوصية كولورادو هو قانون شامل لحماية الخصوصية، تم توقيعه في 7 يوليو 2021. وقد وضع معايير جديدة لحماية البيانات الشخصية...
عرض المزيد
Securiti لمساعد الطيار في البرمجيات كخدمة (SaaS)
تسريع اعتماد Copilot بأمان وثقة: تتطلع المؤسسات إلى اعتماد Microsoft 365 Copilot لزيادة الإنتاجية والكفاءة. ومع ذلك، تظل المخاوف الأمنية، مثل حماية البيانات...
عرض المزيد
أهم عشرة اعتبارات لاستخدام البيانات غير المهيكلة بأمان مع الذكاء الاصطناعي العام
نسبة مذهلة تصل إلى 90% من بيانات المؤسسات غير منظمة. وتُستخدم هذه البيانات بسرعة لتغذية تطبيقات الذكاء الاصطناعي من الجيل الجديد، مثل روبوتات الدردشة والبحث المدعوم بالذكاء الاصطناعي.
عرض المزيد
جينكور للذكاء الاصطناعي: بناء أنظمة ذكاء اصطناعي آمنة وعالية الجودة للمؤسسات في دقائق
مع تبني المؤسسات للذكاء الاصطناعي التوليدي، تواجه فرق البيانات والذكاء الاصطناعي العديد من العقبات: ربط مصادر البيانات غير المهيكلة والمهيكلة بشكل آمن، والحفاظ على الضوابط والحوكمة المناسبة،...
عرض المزيد
كيفية التعامل مع قانون حماية خصوصية المستهلك في كاليفورنيا: رؤى أساسية للشركات
ما هو قانون حقوق الخصوصية في كاليفورنيا (CPRA)؟ هو تشريع ولاية كاليفورنيا الذي يهدف إلى حماية خصوصية سكانها الرقمية. وقد دخل حيز التنفيذ في يناير...
عرض المزيد
التكيف مع التحول: الانتقال إلى معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS) الإصدار 4.0
ما هو معيار أمان بيانات صناعة بطاقات الدفع (PCI DSS)؟ هو مجموعة من معايير الأمان لضمان المعالجة والتخزين الآمنين للبيانات، و...
عرض المزيد
تأمين البيانات والذكاء الاصطناعي: دليل إدارة الثقة والمخاطر والأمن (TRiSM)
أثارت المخاطر الأمنية المتزايدة للذكاء الاصطناعي قلق 48% من مسؤولي أمن المعلومات حول العالم. انضموا إلى هذه الجلسة الرئيسية للتعرف على دليل عملي لتمكين الثقة في الذكاء الاصطناعي، وإدارة المخاطر،...

جلسات حوارية مميزة

تسليط الضوء
الاستعداد للمستقبل لمحترفي الخصوصية
شاهد الآن منظر
تسليط الضوء 50:52
من البيانات إلى النشر: حماية الذكاء الاصطناعي المؤسسي من خلال الأمن والحوكمة
شاهد الآن منظر
تسليط الضوء 11:29
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
ليس مجرد ضجة إعلامية - رئيس قسم التحليلات في شركة داي ودورهام يُظهر كيف يبدو الذكاء الاصطناعي في العمل على أرض الواقع
شاهد الآن منظر
تسليط الضوء 11:18
إعادة هيكلة تمويل العقارات - كيف تُجري شركة ووكر آند دنلوب تحديثًا لمحفظتها الاستثمارية البالغة 135 مليار دولار أمريكي بالاعتماد على البيانات أولاً
شاهد الآن منظر
تسليط الضوء 13:38
تسريع المعجزات - كيف تُدمج شركة سانوفي الذكاء الاصطناعي لتقليص مدة تطوير الأدوية بشكل كبير
صورة مصغرة لشركة سانوفي
شاهد الآن منظر
تسليط الضوء 10:35
حدث تحول جوهري في مركز ثقل البيانات
شاهد الآن منظر
تسليط الضوء 14:21
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
AI Governance هو أكثر بكثير من مجرد تخفيف مخاطر التكنولوجيا
شاهد الآن منظر
تسليط الضوء 12:!3
لا يمكنك بناء خطوط الأنابيب أو المستودعات أو منصات الذكاء الاصطناعي بدون معرفة تجارية
شاهد الآن منظر
تسليط الضوء 47:42
الأمن السيبراني – حيث يقوم القادة بالشراء والبناء والشراكة
ريحان جليل
شاهد الآن منظر
تسليط الضوء 27:29
بناء ذكاء اصطناعي آمن باستخدام Databricks و Gencore
ريحان جليل
شاهد الآن منظر
أحدث
عرض المزيد
بناء ذكاء اصطناعي سيادي باستخدام HPE Private Cloud AI و Veeam Securiti Gencore AI
كيف تُساهم تقنيات الذكاء الاصطناعي في السحابة الخاصة من HPE، وتسريع NVIDIA، وVeeam؟ Securiti يدعم نظام Gencore AI الذكاء الاصطناعي الآمن والمُدار للمؤسسات مع تطبيق السياسات عبر سير العمل RAG والمساعدين والوكلاء.
عرض المزيد
Securiti أعلنت شركة .ai عن اختيار شركة أكسنتشر كشريك العام لعام 2025
في إطار الاحتفال المستمر بالتعاون المؤثر في DataAI Security ، Securiti منحت شركة .ai، التابعة لشركة Veeam، شركة Accenture لقب شريك العام لعام 2025....
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ قانون حماية خصوصية المستهلك في كاليفورنيا؟ عرض المزيد
أكبر غرامة في تاريخ قانون حماية خصوصية المستهلك في كاليفورنيا: ما الذي تعلمه الشركات من أحدث إجراءات إنفاذ القانون؟
يمكن للشركات أن تستفيد من بعض الدروس الحيوية من أكبر إجراء إنفاذي تم اتخاذه مؤخراً في تاريخ قانون خصوصية المستهلك في كاليفورنيا (CCPA). Securiti مدونة 's تغطي جميع التفاصيل المهمة التي يجب معرفتها.
عرض المزيد
الذكاء الاصطناعي وقانون HIPAA: ما يعنيه وكيفية أتمتة الامتثال
تعرّف على كيفية تطبيق قانون قابلية نقل التأمين الصحي والمساءلة (HIPAA) على الذكاء الاصطناعي في تأمين المعلومات الصحية المحمية. تعلّم كيف...
عرض المزيد
قلل من المعلومات التي تكشفها: ضوابط الخصوصية للذكاء الاصطناعي Agents and Copilots
تقليل انكشاف البيانات في الذكاء الاصطناعي agents and copilots قم بتطبيق ضوابط حماية الخصوصية مثل تقليل البيانات، وضوابط الوصول، وإخفاء البيانات، وإنفاذ السياسات لمنع التسريب و...
عرض المزيد
من وضوح البيانات إلى سرعة الذكاء الاصطناعي
اطلع على الورقة البيضاء واكتشف كيف يتم توحيد DataAI security يحوّل إدارة البيانات إلى عامل تمكين للأعمال، ويعزز ابتكار الذكاء الاصطناعي من خلال الشفافية والامتثال وإدارة المخاطر...
عرض المزيد
قائد العملاء: ملخص الحل
تعرّف على كيفية قيام Agent Commander باكتشاف وكلاء الذكاء الاصطناعي، وحماية بيانات المؤسسة من خلال ضوابط التشغيل، وتصحيح أخطاء الذكاء الاصطناعي - مما يتيح اعتماد الذكاء الاصطناعي بشكل آمن ومتوافق مع المعايير في...
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti عرض المزيد
الامتثال لتعديلات قانون خصوصية المستهلك في كاليفورنيا (CCPA) مع Securiti
التزم بتعديلات قانون خصوصية المستهلك في كاليفورنيا لعام 2026 باستخدام Securiti وتشمل هذه المتطلبات تحديث متطلبات الموافقة، وتوسيع تعريفات البيانات الحساسة، وتعزيز حقوق المستهلك، وتقييمات الجاهزية.
عرض المزيد
تخلص من مخاطر البيانات في الذكاء الاصطناعي
تعرف على كيفية إعداد بيانات المؤسسة لاعتماد Gemini Enterprise بشكل آمن من خلال الحوكمة الأولية، واكتشاف البيانات الحساسة، وضوابط سياسة ما قبل الفهرسة.
عرض المزيد
دليل الحصول على شهادة HITRUST
Securiti يُعد الكتاب الإلكتروني دليلاً عملياً للحصول على شهادة HITRUST، ويغطي كل شيء بدءاً من اختيار i1 مقابل r2 ونطاق الأنظمة وصولاً إلى إدارة خطط العمل والتخطيط...
ما هو
جديد