يمثل الذكاء الاصطناعي معضلة مثيرة للاهتمام للشركات على مستوى العالم. لطالما كان من المسلّم به أن الأتمتة هي المستقبل. وكلما تكيفت المؤسسة بشكل أفضل مع هذا الاحتمال، كلما تمكنت من تجهيز نفسها بالموارد والمعرفة اللازمة للنجاح في هذا المستقبل.
ومع ذلك، واجهت الشركات أيضاً صعوبة في التعامل مع هذه التكنولوجيا بمسؤولية.
مخرجات متحيزة، ومعلومات مضللة، وأوهام النموذج، والمستخدم data privacy تُعدّ الانتهاكات مجرد بعض المشكلات التي ثبتت إدانة معظم نماذج الذكاء الاصطناعي المستخدمة على نطاق واسع بها.
إذا لم تُعالج هذه المشكلات بالشكل المناسب، فإنها ستتفاقم مع مرور الوقت وتصبح أكثر صعوبة في التعامل معها. وقد بدأت الحكومات في جميع أنحاء العالم بسنّ قوانين للتخفيف من حدة بعض هذه المشكلات.
يُعدّ قانون الذكاء الاصطناعي للاتحاد الأوروبي تشريعًا تاريخيًا يُشاد به بالفعل باعتباره التشريع الأكثر شمولًا في مجال الذكاء الاصطناعي على مستوى العالم. وهذا لا يختلف كثيرًا عن دخول اللائحة العامة لحماية البيانات ( GDPR ) حيز التنفيذ عام 2018. حينها، أدركت الشركات في جميع أنحاء العالم أنها تمثل لحظة فارقة، وأن دولًا أخرى وأنظمة قانونية أخرى ستحذو حذوها حتمًا. وقد كان لها ما أرادت.
اليوم، يوجد في كل دولة تقريباً في العالم إما قانون لحماية البيانات ساري المفعول أو أنها في مرحلة متقدمة من العملية التشريعية نحو صياغة مثل هذا القانون.
لذا، فإنّ قوانين الذكاء الاصطناعي باقية لا محالة. وفي السنوات القادمة، ستتوسع هذه القوانين، حيث ستضع كل دولة مجموعة قوانينها الخاصة التي تنظم كيفية إدارة الشركات العاملة ضمن نطاق اختصاصها أو التي تستخدم بيانات مواطنيها لاستخدامها لتقنيات الذكاء الاصطناعي.
يُعدّ الامتثال لهذه اللوائح تحديًا كبيرًا، ولكنه ليس سوى واحد من التحديات التي ستواجهنا في هذا المستقبل. تشمل التحديات الأخرى التعامل مع العديد من اللوائح التي قد تختلف اختلافًا كبيرًا بين مختلف الولايات القضائية، وإدارة الموارد في ظل الالتزامات التي تفرضها هذه اللوائح، وأفضل السبل لتطوير ضوابط داخلية لضمان الامتثال في الوقت المناسب، وغير ذلك.
بمجرد إلقاء نظرة سريعة، يتضح أن الامتثال التام للوائح المتعلقة بالذكاء الاصطناعي يتطلب استخدامًا فعالًا وكفؤًا للموارد. ولتحقيق ذلك، يجب على الشركات أن تتبنى فهمًا استباقيًا لما قد يبدو عليه مستقبل المشهد التنظيمي للذكاء الاصطناعي، محليًا ودوليًا.
الوضع الحالي للوائح الذكاء الاصطناعي
تبنى الاتحاد الأوروبي نهجاً مماثلاً فيما يتعلق بتنظيم الذكاء الاصطناعي كما فعل في data privacy ومن المثير للاهتمام أن الولايات المتحدة قد تبنت أيضاً نهجاً مماثلاً فيما يتعلق data privacy : فبدلاً من وجود تنظيم فيدرالي، هناك مجموعة من اللوائح والإرشادات على مستوى الإدارات والولايات .
لهذا النهج مزايا وعيوب. أهمها أنه يتيح للولايات والدوائر الحكومية تصميم هذه اللوائح والإرشادات بما يتناسب مع احتياجاتها وقيمها الخاصة. قد تتبنى بعض الولايات نهجًا متساهلًا نسبيًا، بينما قد تُشدد ولايات أخرى الرقابة على الممارسات التجارية المقبولة. إلا أن هذا يأتي على حساب التوحيد، مما قد يُعيق الابتكار أو يُحد من انتشاره على نطاق واسع، إذ قد يكون ما هو قانوني تمامًا في ولاية ما محظورًا صراحةً في ولاية أخرى.
يُعدّ التعرّف على الوجه مثالًا واضحًا على ذلك. إذ توجد في كلٍّ من ولايتي إلينوي وتكساس قوانين تُنظّم استخدام هذه التقنية. مع ذلك، يحظر قانون إلينوي لحماية خصوصية المعلومات البيومترية ( BIPA ) صراحةً جمع أو تخزين أو استخدام أي بيانات يتم جمعها عبر التعرّف على الوجه دون موافقة صريحة من الفرد. في المقابل، يحظر قانون تكساس بشأن التقاط أو استخدام مُعرّفات البيانات البيومترية (CUBI) استخدام هذه البيانات لأغراض تجارية فقط، دون اشتراط موافقة الأفراد من قِبل الشركات التي تستخدمها داخليًا.
قد يؤدي هذا التباين في شرعية التكنولوجيا إلى تبني الشركات نهجًا أكثر حذرًا في تطوير ونشر تقنيات الذكاء الاصطناعي. ورغم أن هذا من شأنه أن يزيد من فرص امتثالها لمجموعة اللوائح والإرشادات المتضاربة، إلا أنه سيعيق الابتكار الواسع، إذ لا يمكن الجمع بين الأمرين.
باستثناء الولايات المتحدة، يميل باقي العالم إلى تبني نهج الاتحاد الأوروبي في تنظيم الذكاء الاصطناعي . فالتنظيم المركزي يُمكّن الشركات والمواطنين من فهم التزاماتهم وحقوقهم بشكل أفضل. ومن المرجح أن تُلبّى المتطلبات الأكثر وضوحًا ودقةً، وأن تُؤخذ بعين الاعتبار عند تطوير منتجات وخدمات جديدة متعلقة بالذكاء الاصطناعي.
بالإضافة إلى ذلك، فإنه يمكّن الشركات من أن تكون أكثر ديناميكية في جهودها المتعلقة بالامتثال حيث يمكنها التكيف بشكل أكثر كفاءة مع أي تغييرات أو تعديلات، مما يضمن قدرتها على التخفيف من المخاطر المرتبطة بعدم الامتثال بشكل أكثر فعالية.
مخاطر البيئة التنظيمية غير المستقرة
يرى أحد المدارس الفكرية أنه على الرغم من التحديات التشغيلية لزيادة لوائح الذكاء الاصطناعي، فإن عدم وجود مثل هذه اللوائح سيكون بديلاً أكثر تقلباً ولا يمكن التنبؤ به.
إن غياب قوانين تنظيم الذكاء الاصطناعي سيجعل الإنترنت أشبه بالغرب المتوحش. وبينما قد يرى أصحاب التوجهات الليبرالية هذا السيناريو الأمثل للشركات، فمن المهم الإشارة إلى أن الشركات لا تعمل بمعزل عن غيرها. فمهما بلغت ابتكارية أو ثورية منتجات أو خدمات الشركة، فإن استمراريتها على المدى الطويل تعتمد كلياً على ثقة العملاء.
من المعروف أن الشركات لا تزال تواجه صعوبة في إيجاد أفضل السبل للاستفادة من تقنية الذكاء الاصطناعي بشكل مسؤول. وقد أبرزت عدة حوادث هذا الأمر، مما دفع المستخدمين إلى التساؤل عما إذا كان من الممكن الاعتماد حقاً على الثقة المطلقة في قدرة الشركات على استخدام هذه التقنية بمسؤولية.
علاوة على ذلك، في غياب إطار تنظيمي واضح، سيزداد احتمال وقوع مثل هذه الحوادث الكارثية. وسيكون الغضب الشعبي وردود الفعل العنيفة شديدة، ولن يكون فقدان ثقة الجمهور سوى أقل مخاوف الشركات. فمثل أحجار الدومينو، قد يكون لحادث مؤسف في منطقة ما تأثير مدمر على عمليات الشركات على مستوى العالم.
كل ما سبق ليس سوى لمحة عما قد يبدو عليه العالم بدون قوانين تنظيمية خاصة بالذكاء الاصطناعي.
فرصة…؟
في الوقت نفسه، من المهم الإقرار بأن اللوائح لطالما مثّلت عائقًا أمام الشركات على مستوى العالم. فمن الناحية التشغيلية، تُجبر هذه اللوائح المؤسسات على إعادة هيكلة وتقييم العديد من ممارساتها التجارية، مع ما يترتب على ذلك من ضغط إضافي على مواردها لضمان الامتثال. ويؤدي عدم القدرة على ذلك إلى غرامات مالية وتشويه السمعة، مما يُلحق الضرر بمكانتها لدى العملاء، ويؤدي بدوره إلى فقدان ثقتهم، وهكذا دواليك. باختصار، إما الامتثال أو الزوال.
رغم أن قوانين الذكاء الاصطناعي ستفرض تحديات مماثلة، إلا أنها ستتيح أيضاً فرصاً كبيرة. فالشركات التي تتبنى نهجاً استباقياً في تطبيق تدابير الذكاء الاصطناعي المسؤول، كاستخدام مجموعات البيانات ذات المصادر الأخلاقية فقط، وإتاحة موارد الذكاء الاصطناعي القابل للتفسير (XAI) عبر الإنترنت، وإشراك الجمهور في عملية اتخاذ القرارات المتعلقة بالذكاء الاصطناعي، تستطيع استخدام هذه التدابير لتعزيز ثقة العملاء وكسب ولائهم في نهاية المطاف، مع الوفاء في الوقت نفسه بمسؤولياتها المتعلقة بالشفافية والاعتبارات الأخلاقية.
ثانيًا، كما ذُكر سابقًا، قد تفرض الأنظمة والقوانين المختلفة التزامات متباينة على المؤسسات. وبناءً على ذلك، يمكن للمؤسسات ترتيب أولويات عمليات التطوير لديها. فإذا كانت إحدى الشركات تعمل على منتج أو خدمة مبتكرة متعلقة بالذكاء الاصطناعي، فيمكنها تقييم الدول التي يُمكنها طرح هذا المنتج أو الخدمة فيها. وهذا من شأنه أن يقلل الوقت والموارد المُخصصة لضمان امتثال جميع هذه المنتجات أو الخدمات للوائح التنظيمية في الأسواق الواعدة. ويمكن بذل الجهود لضمان امتثال أوسع نطاقًا لاحقًا، ولكن يمكن توجيه الموارد الأكثر إلحاحًا اللازمة للامتثال نحو الأسواق التي تُقدم قيمة أفضل.
وأخيرًا، يمكن للوائح المتعلقة بالذكاء الاصطناعي أن تضمن سوقًا أكثر أمانًا واستقرارًا، مما يُشعر المستثمرين بالأمان والثقة في تمويل مشاريع البحث والتطوير، مع فهم واضح للأطر المعمول بها لحماية استثماراتهم. إن غياب الرقابة التنظيمية من شأنه أن يُضعف هذه الثقة.
ما يخبئه المستقبل
فيما يتعلق بمستقبل تنظيمات الذكاء الاصطناعي، فإن الوضع العالمي data privacy يُقدّم المسار التنظيمي سابقةً موثوقةً لما قد يتبعه. وسيكون قانون الذكاء الاصطناعي في الاتحاد الأوروبي بمثابة المخطط الرئيسي للعديد من الدول حول العالم أثناء صياغتها لأطر عمل وتوجيهات ولوائح شاملة ومفصلة للشركات التي تستخدم تقنيات الذكاء الاصطناعي ضمن نطاق اختصاصها.
قد تُملي عوامل حاسمة أخرى، كالتطورات التكنولوجية والجيوسياسية والديناميات المجتمعية، المعايير التنظيمية العالمية. ومن المفارقات، أنه تبعًا لمدى كفاءة نماذج الذكاء الاصطناعي بما يكفي لإدراجها في عملية صنع القرار، قد تُصبح هذه النماذج جزءًا من عملية تطوير نماذج الحوكمة المستقبلية.
علاوة على ذلك، قد يرتفع مستوى المشاركة العامة بشكل ملحوظ مع ازدياد وعي المستخدمين بتأثير هذه اللوائح على استخدامهم للإنترنت وتجربتهم الرقمية بشكل عام. سيؤدي هذا إلى نهج أكثر ديمقراطية في تنظيم الذكاء الاصطناعي، مما يضمن مراعاة آثاره الاجتماعية والأخلاقية بنفس قدر مراعاة الجوانب الاقتصادية والابتكارية.
كيف Securiti يمكن المساعدة
Securiti هو رائد في Data Command Center منصة مركزية تُمكّن من الاستخدام الآمن للبيانات والذكاء الاصطناعي. توفر هذه المنصة ذكاءً موحدًا للبيانات، وضوابط، وتنسيقًا عبر بيئات سحابية هجينة متعددة. وتعتمد عليها بعضٌ من أكثر الشركات العالمية شهرةً. Securiti 's Data Command Center لأغراض أمن البيانات والخصوصية والحوكمة والامتثال.
وذلك لأن Data Command Center يأتي مزودًا بالعديد من الوحدات والحلول الفردية المصممة بدقة لضمان امتثال مؤسستك لجميع الالتزامات الرئيسية التي قد تخضع لها بموجب مختلف القوانين واللوائح. data privacy واللوائح المتعلقة بالذكاء الاصطناعي من جميع أنحاء العالم.
وبشكل أكثر تحديدًا، تتيح وظيفة AI Security & Governance للمؤسسات اكتشاف وتصنيف جميع نماذج الذكاء الاصطناعي المستخدمة عبر السحابات العامة والخاصة وتطبيقات SaaS.
بالإضافة إلى ذلك، يمكن تقييم هذه النماذج من حيث المخاطر المختلفة، مثل السمية والتحيز وانتهاك حقوق النشر والمعلومات المضللة، لضمان تصنيفها والتعامل معها وفقًا للمتطلبات التنظيمية العالمية.
اطلب عرضًا تجريبيًا اليوم وتعرف على المزيد حول كيفية Securiti يمكن أن تساعدك في ضمان الامتثال لبعض اللوائح الرئيسية المتعلقة بالذكاء الاصطناعي في الولايات المتحدة والعالم.