اعتبرت منظمة الصحة العالمية، الخميس، أن "أدوات الذكاء الاصطناعي يمكن أن تحدث تحولاً" في العلاجات الطبية، لكنها حذّرت من أن تسارع انتشار البرامج الصحية الرقمية القائمة على هذه التكنولوجيا قد يضرّ المرضى إذا لم يتوافر "فهم كامل" لها.
ولاحظت المنظمة، في هذا المنشور الهادف إلى "تحديد المبادئ الرئيسية التي يمكن للحكومات والسلطات التنظيمية اتباعها في وضع إرشادات جديدة أو تكييف الإرشادات القائمة بشأن الذكاء الاصطناعي، أن "أدوات الذكاء الاصطناعي يمكن أن تحدث تحولاً في قطاع الصحة، في ظل تزايد البيانات المتاحة بشأن الرعاية الصحية والتقدم السريع في تقنيات التحليل، سواء تلك المتعلقة بالتعلم الآلي، أو تلك القائمة على المنطق أو الإحصائية".
وأكدت المنظمة أنها "تدرك الإمكانات التي ينطوي عليها الذكاء الاصطناعي، من حيث تحسين الحصائل الصحية، من خلال تعزيز التجارب السريرية، وتحسين التشخيص الطبي والعلاج والرعاية الذاتية والرعاية التي تركز على الشخص، وسد مكامن النقص في معارف ومهارات وكفاءات العاملين في مجال الرعاية الصحية".
وأشارت على سبيل المثال إلى أن "الذكاء الاصطناعي يمكن أن يكون مفيداً في البيئات التي تفتقر إلى أطباء متخصصين، مثلاً في تفسير فحوص الشبكية وصور الأشعة وأمور أخرى كثيرة".
إلا أن "وتيرة نشر تكنولوجيات الذكاء الاصطناعي، بما في ذلك النماذج اللغوية الكبيرة، تتسارع، وأحياناً من دون فهم كامل للكيفية التي يمكن أن تشتغل بها، مما قد يفيد أو يضر المستخدمين النهائيين، بمن فيهم أخصائيو الرعاية الصحية والمرضى".
ونبهت إلى أن "نظم الذكاء الاصطناعي يمكن أن تطّلع عند استخدام البيانات الصحية على معلومات شخصية حساسة، مما يستلزم وضع أطر قانونية وتنظيمية متينة لحماية الخصوصية والأمن والسلامة".
وقال المدير العام للمنظمة، الدكتور تيدروس أدهانوم غيبريسوس، إن "الذكاء الاصطناعي يحمل تباشير واعدة لقطاع الصحة، لكنه ينطوي أيضاً على تحديات خطيرة، بما في ذلك جمع البيانات بأساليب غير أخلاقية، وتهديدات الأمن السيبراني، وترسيخ التحيزات أو المعلومات المضللة".
وأضاف أن "هذه الإرشادات الجديدة ستدعم البلدان في تنظيم الذكاء الاصطناعي بفاعلية وتسخير إمكاناته، سواء في علاج السرطان أو الكشف عن السل، مع تقليل المخاطر إلى أدنى حد".
وشرحت المنظمة أن "نظم الذكاء الاصطناعي هي نظم معقدة لا تعتمد فقط على الرموز التي أنشئت بها، ولكن أيضاً على البيانات التي دُربت عليها". وشددت على أن "تحسين التنظيم يمكن أن يساعد في إدارة مخاطر ترسيخ الذكاء الاصطناعي للتحيزات في بيانات التدريب".
وعلى سبيل المثال، "قد يكون من الصعب على نماذج الذكاء الاصطناعي أن تمثل تنوع السكان تمثيلاً دقيقاً، مما يؤدي إلى التحيزات أو عدم الدقة أو حتى الفشل، وللمساعدة في التخفيف من هذه المخاطر"، وفقاً للمنظمة.
وسعياً إلى الحد من هذه المخاطر، "يمكن استخدام اللوائح لضمان الإبلاغ عن خصائص الأشخاص الذين ظهروا في بيانات التدريب، مثل النوع الاجتماعي والعرق والإثنية، والقصد إلى جعل مجموعات البيانات تمثيلية".
وأوصت المنظمة، في وثيقتها، بـ"ستة مجالات لتنظيم استخدامات الذكاء الاصطناعي في مجال الصحة"، من بينها "التحقق من صحة البيانات من مصدر خارجي"، و"التقييم الدقيق للنظم قبل إصدارها لضمان عدم قيام النظم بتوسيع نطاق انتشار التحيزات والأخطاء"، و"تعزيز التعاون بين الهيئات التنظيمية والمرضى والمتخصصين في الرعاية الصحية وممثلي الصناعة والشركاء الحكوميين".
(فرانس برس)