يُحدث الذكاء الاصطناعي تحولاً جذرياً في قطاع الرعاية الصحية. فمن التشخيصات الأكثر ذكاءً إلى التحليلات التنبؤية، يُعدّ الذكاء الاصطناعي في الرعاية الصحية خطوة جريئة تتطلب تطويرها ونشرها جهوداً كبيرة. AI governance الرقابة الصارمة والتصميم الذي يركز على الإنسان لتجنب مخاطر الكشف غير المقصود عن البيانات، والتحيز الخوارزمي، وأخطاء التشخيص، وعدم الامتثال لمعايير الرعاية الصحية data privacy القوانين، وفقدان ثقة المرضى.
كشف استطلاع حديث أجرته شركة ماكينزي في الربع الأخير من عام 2024 أن 85% من قادة الرعاية الصحية الذين شملهم الاستطلاع كانوا يستكشفون أو قد اعتمدوا بالفعل قدرات الذكاء الاصطناعي من الجيل الجديد. وفي استطلاع سريع آخر أجرته ماكينزي، وصف 63% من المشاركين تطبيق الذكاء الاصطناعي من الجيل الجديد بأنه أولوية "عالية" أو "عالية جدًا". ومع ذلك، فإن 91% من هؤلاء المشاركين لا يشعرون بأنهم "مستعدون تمامًا" للقيام بذلك بطريقة مسؤولة.
يُظهر هذا بيئة غير مُهيأة، حيث توجد فجوة كبيرة في الجاهزية بين تبني الذكاء الاصطناعي وقدرة قطاع الرعاية الصحية على استخدامه بأمان. ويؤكد هذا على الحاجة المُلحة لتقييم دور الذكاء الاصطناعي في الرعاية الصحية، ولماذا يُعاني المريض من هذه المشكلة. data privacy والمسائل الأمنية، والمخاطر المشتركة، واستراتيجيات التخفيف منها.
دور الذكاء الاصطناعي في الرعاية الصحية
يُثبت الذكاء الاصطناعي نفسه كلاعبٍ صاعدٍ في مختلف القطاعات، والرعاية الصحية ليست استثناءً. فنظرًا لأن قطاع رعاية المرضى يتعامل مع كميات هائلة من بيانات المرضى الحساسة، يُعيد الذكاء الاصطناعي تشكيل كيفية تقديم مقدمي الرعاية الصحية للرعاية المتخصصة، وكيفية حصول المرضى على هذه الرعاية.
تتمتع هذه التقنية بالقدرة على إجراء الجراحة الروبوتية عن بعد، وتوفير التحليلات التنبؤية، والتنبؤ بتفشي الأمراض، وتحسين نتائج المرضى، وتسريع اكتشاف الأدوية، وتقليل التكاليف التشغيلية والاعتماد على العنصر البشري، فضلاً عن تحسين الدقة والسرعة، كل ذلك مع تمكين مؤسسات الرعاية الصحية من توسيع نطاق عملياتها دون عوائق.
وتشمل الفوائد الأخرى التي تركز على المريض الطب الشخصي، والكشف المبكر عن الأمراض، وفهم أفضل للمريض من خلال الأنماط الصحية، وتحسين المشاركة لتلبية الاحتياجات الصحية.
التطبيقات العملية للذكاء الاصطناعي في مجال الرعاية الصحية
يُستخدم الذكاء الاصطناعي بالفعل في مرافق الرعاية الصحية حول العالم. وتقوم مستشفيات رائدة، مثل مايو كلينك وجونز هوبكنز وكليفلاند كلينك، بتطبيق هذه التطبيقات عملياً.
أ. مايو كلينك وجونز هوبكنز (الولايات المتحدة الأمريكية)
تُقدم مستشفيات مثل جونز هوبكنز ومايو كلينك أمثلة قوية على استخدام الذكاء الاصطناعي في تطبيقات الرعاية الصحية، حيث تستخدمه لتقليل عبء العمل على الموظفين، وتخصيص العلاجات، وتحديد الأمراض في وقت مبكر.
تستفيد عيادة مايو من الذكاء الاصطناعي في أبحاث أمراض القلب والممارسات السريرية، حيث تستفيد من 7 ملايين تخطيط كهربائي للقلب لتحليل بيانات المرضى الضخمة لتحديد المرضى الذين لديهم علامات محتملة للسكتة الدماغية والمعرضين لخطر الإصابة بأمراض القلب، مثل ضعف البطين الأيسر والرجفان الأذيني.
يُعدّ مركز سيدارز-سيناي الطبي، ومقره لوس أنجلوس، مؤسسة رعاية صحية غير ربحية. في عام ٢٠٢٣، أطلق المركز منصة سيدارز-سيناي كونكت ، وهي منصة افتراضية مدعومة بالذكاء الاصطناعي، تُتيح للمرضى الوصول إلى المساعدة الطبية على مدار الساعة. من خلال واجهة تجمع بين روبوت محادثة ونظام السجلات الصحية الإلكترونية، تعمل هذه المنصة الذكية على أتمتة عملية استقبال المرضى، وتقييم الأعراض، وتقديم توصيات العلاج الأولية. وقد استفاد منها حتى الآن أكثر من ٤٢ ألف مريض.
من خلال السماح لأداة الذكاء الاصطناعي بالتعامل مع التقييم الأولي للمرضى أو المصابين لتحديد مدى إلحاح حاجتهم وجمع بياناتهم، فإن CS Connect يسمح للأطباء بتخصيص وقتهم بشكل أكثر فعالية مع التخلص من الحاجة إلى العمليات اليدوية وتعزيز الوصول إلى الرعاية الصحية بشكل كبير.
ج. هيئة الخدمات الصحية الوطنية (المملكة المتحدة)
لا أحد يستفيد من الذكاء الاصطناعي بقدر ما تستفيد منه هيئة الخدمات الصحية الوطنية في المملكة المتحدة. فبفضل الذكاء الاصطناعي، تمكنت الهيئة من تقليل حالات إلغاء المواعيد في اللحظات الأخيرة وحالات عدم الحضور. يُعدّ نظام "ديب ميديكال" نموذجًا يستخدم التعلّم الآلي للتنبؤ بحالات إلغاء المواعيد في وقت قصير (أقل من 48 ساعة) وحالات عدم حضور المرضى. يستخدم النظام الذكاء الاصطناعي لمعالجة البيانات غير المهيكلة، مثل الملاحظات من السجلات الصحية الإلكترونية، والبيانات المهيكلة، مثل البيانات الديموغرافية للمرضى وسجلات زياراتهم، لتحديد الأنماط ذات الصلة.
يُساهم نموذج ذكاء اصطناعي آخر في إحداث نقلة نوعية في مجال العناية بالجروح، وذلك باستخدام خوارزمية ذكاء اصطناعي لدعم الأطباء من مختلف مستويات الخبرة في تقييم الجروح بثقة ودقة وأمان. كما يُحسّن نموذج ذكاء اصطناعي آخر عملية فرز المرضى ويُحسّن استخدام وقت الطاقم الطبي من خلال تحليل البيانات المنظمة وغير المنظمة التي يُدخلها المرضى في الاستبيان، بالإضافة إلى التعلم الآلي القائم على نتائج المرضى الذين يمرون بالمسار العلاجي، وذلك للتنبؤ بأفضل خطة علاجية للمرضى في المستقبل.
لماذا Data Privacy وأهمية الأمن في الرعاية الصحية القائمة على الذكاء الاصطناعي
بعد البيانات المالية، تعد بيانات الرعاية الصحية من بين الأصول الأكثر حساسية وقيمة والتي تشمل معلومات مثل السجلات الصحية الشخصية، والبيانات البيومترية، والبيانات المالية لأغراض الفوترة، وما إلى ذلك.
تعتمد نماذج الذكاء الاصطناعي المستخدمة في مرافق الرعاية الصحية بشكل كبير على كميات هائلة من بيانات المرضى، مما يجعل data privacy والأمن عنصر أساسي لضمان عدم تعرض المعلومات للاختراق في حالة حدوث خرق للبيانات، وعدم استغلالها بسبب الوصول غير المصرح به، وعدم انتهاكها للوائح مثل HIPAA و GDPR، من بين أمور أخرى.
كما يطرح الذكاء الاصطناعي أسئلة أخلاقية جديدة، مثل من يملك بيانات المرضى وما هي البيانات المستخدمة لتدريب نماذج الذكاء الاصطناعي، وما إذا كانت نماذج الذكاء الاصطناعي شفافة في استجاباتها السريعة، وما إذا كان نموذج الذكاء الاصطناعي قد يكشف بيانات المرضى عن غير قصد، وغيرها الكثير.
باختصار، قوي data privacy والوضع الأمني هو العمود الفقري الذي يضمن تطوير ونشر نماذج الذكاء الاصطناعي مع مراعاة مبادئ الخصوصية بالتصميم بدلاً من الخصوصية الافتراضية، مما يُمكّن مؤسسات الرعاية الصحية من تأمين معلومات المرضى الحساسة والثقة، ومنع الوصول غير المصرح به، والامتثال للوائح، والحفاظ على سلامة البيانات، وغير ذلك الكثير.
استراتيجيات لـ Data Privacy وتخفيف المخاطر الأمنية
عندما يتعلق الأمر بضمان data privacy أما فيما يخص الأمن، فلا يوجد حل مختصر. التخفيف من المخاطر data privacy ويتطلب التعامل مع المخاطر الأمنية في بيئة الذكاء الاصطناعي للرعاية الصحية واسعة النطاق تطبيق ممارسات متعددة الطبقات ومرنة ومتوافقة وجديرة بالثقة، بما في ذلك:
أ. وضع إطار عمل شامل لحوكمة البيانات
تُقدّم حوكمة البيانات سياسات وممارسات وضوابط شاملة لضمان أمن البيانات طوال دورة حياتها. كما تُحدّد ملكية البيانات بوضوح، وتُطبّق متطلبات أخرى، مثل تقليل حجم البيانات، ونقلها عبر الحدود، وقيود الوصول إليها، بما يُواءم وضع أمن البيانات في مؤسسات الرعاية الصحية مع المتطلبات التنظيمية ومعايير الذكاء الاصطناعي.
ب. تشفير البيانات القوي وإخفاء الهوية
ينبغي على مقدمي الرعاية الصحية التأكد من تشفير جميع البيانات، وخاصة بيانات المرضى الحساسة، أثناء نقلها وتخزينها. إذ يجد مجرمو الإنترنت صعوبة بالغة في الوصول إلى البيانات أو تعديلها عندما تكون مشفرة.
بالإضافة إلى ذلك، يُسهم إخفاء هوية البيانات في تعزيز أمانها من خلال إخفاء المعرّفات الشخصية التي تربط المريض بمعلوماته المخزّنة. ويُشكّل كلٌّ من تشفير البيانات وإخفاء هويتها طبقة أمان بيانات فائقة الجودة، حيث تبقى معلومات المريض سريةً من الوصول غير المصرح به، أو تسريب البيانات، أو الهجمات الإلكترونية.
ج. تصميم نموذج ذكاء اصطناعي آمن والاستفادة من تقنيات إخفاء الهوية
تنتشر نماذج الذكاء الاصطناعي في مختلف القطاعات. ويكمن الفرق بينها في مدى أمانها وموثوقيتها وشفافيتها ودقتها. وكأفضل ممارسة ومعيار صناعي، ينبغي على مؤسسات الرعاية الصحية دمج تدابير حماية البيانات مباشرةً في بنية أنظمة الذكاء الاصطناعي. وتشمل هذه التدابير مبادئ الخصوصية بالتصميم، والخصوصية الافتراضية، والأمان بالتصميم، والتي تُدمج من مرحلة تطوير الخوارزمية إلى مرحلة النشر، مما يقلل المخاطر بشكل استباقي.
د. الامتثال للوائح وضمان المراقبة المستمرة
تُشكّل المتطلبات التنظيمية دليلاً شاملاً يُساعد في وضع معيارٍ لأمن البيانات وحماية خصوصيتها. تشمل اللوائح الرئيسية قانون HIPAA، واللائحة العامة لحماية البيانات (GDPR)، وقانون حماية المعلومات الشخصية والوثائق الإلكترونية (PIPEDA)، وقانون البيانات الصحية، وغيرها من قوانين حماية البيانات. ولا يقتصر الامتثال التنظيمي على ضمان سلامة المرضى فحسب. data privacy كما أنها توفر الحماية، ولكنها تخفف أيضًا من عقوبات عدم الامتثال وخطر تعرض البيانات بسبب اختراق البيانات.
من جهة أخرى، يساعد الرصد والتدقيق المستمران لأنظمة الذكاء الاصطناعي على اكتشاف أي خلل أو تهديدات أمنية أو مخالفات للوائح في وقت مبكر قبل أن تؤدي إلى كشف بيانات حساسة. كما أن توثيق هذه الأنشطة يُسهم في إثبات الامتثال في حال قيام جهة تنظيمية بالتحقيق.
هـ. تعزيز الوعي والمساءلة التنظيمية
بناء ثقافة إدارة البيانات من خلال الإشراف التنفيذي وتدريب الموظفين والتعاون متعدد الوظائف بين فرق تكنولوجيا المعلومات والامتثال والفرق السريرية.
أتمتة AI Governance مع Securiti
تواجه المؤسسات الكبيرة التي تدير أنظمة الذكاء الاصطناعي من الجيل الجديد العديد من التحديات: معالجة مجموعات البيانات الضخمة المنظمة وغير المنظمة بشكل آمن، وحماية البيانات. data privacy ، وإدارة المعلومات الحساسة، وحماية نماذج الذكاء الاصطناعي العام من التهديدات مثل تسميم الذكاء الاصطناعي والحقن الفوري، وعمليات خط أنابيب الذكاء الاصطناعي العام غير القابلة للتوسع.
Securiti تعمل مجموعة Genstack AI Suite على إزالة التعقيدات والمخاطر الكامنة في دورة حياة GenAI، مما يمكّن المؤسسات من استخدام بياناتها المنظمة وغير المنظمة بسرعة وأمان في أي مكان مع أي ذكاء اصطناعي وأنظمة إدارة التعلم.
يُوفر هذا النظام ميزاتٍ مثل استيعاب البيانات واستخراجها بشكلٍ آمن، وإخفاء البيانات، وإخفاء هوية البيانات، وتنقيحها، بالإضافة إلى إمكانيات الفهرسة والاسترجاع. كما يُسهّل إعداد أنظمة إدارة التعلم (LLMs) للأسئلة والأجوبة، وضوابط البيانات المدمجة للحوكمة والخصوصية والأمان، وجدران الحماية الخاصة بأنظمة إدارة التعلم لتمكين التبني الآمن للذكاء الاصطناعي من الجيل الجديد.
- اكتشاف نماذج الذكاء الاصطناعي - اكتشاف وتصنيف نماذج الذكاء الاصطناعي المستخدمة عبر السحابات العامة والسحابات الخاصة وتطبيقات SaaS.
- تقييم مخاطر الذكاء الاصطناعي - تقييم المخاطر المتعلقة بنماذج الذكاء الاصطناعي من IaaS و SaaS، وتصنيف نماذج الذكاء الاصطناعي وفقًا للمتطلبات التنظيمية العالمية.
- رسم خرائط البيانات والذكاء الاصطناعي – ربط نماذج الذكاء الاصطناعي بمصادر البيانات ومعالجتها والمخاطر المحتملة والتزامات الامتثال، ومراقبة تدفق البيانات.
- ضوابط البيانات والذكاء الاصطناعي – وضع ضوابط على استخدام البيانات والذكاء الاصطناعي.
- الامتثال التنظيمي – إجراء تقييمات للامتثال لمعايير مثل NIST AI RMF وقانون الذكاء الاصطناعي للاتحاد الأوروبي وأكثر من عشرين لائحة أخرى.
اطلب عرضًا توضيحيًا لمعرفة المزيد.