الصحة العالمية تصدر إرشادات حول أخلاقيات الذكاء الاصطناعي وإدارته للنماذج الكبيرة متعددة الوسائط
الصحة العالمية تصدر إرشادات حول أخلاقيات الذكاء الاصطناعي
وإدارته للنماذج الكبيرة متعددة الوسائط
تصدر منظمة الصحة العالمية (WHO) إرشادات جديدة بشأن أخلاقيات وحوكمة النماذج الكبيرة متعددة الوسائط (LMMs) – وهي نوع من تكنولوجيا الذكاء الاصطناعي التوليدي سريع النمو مع تطبيقات في جميع أنحاء الرعاية الصحية.
تحدد الإرشادات أكثر من 40 توصية للنظر فيها من قبل الحكومات وشركات التكنولوجيا ومقدمي الرعاية الصحية لضمان الاستخدام المناسب للـ LMMs لتعزيز وحماية صحة السكان.
يمكن أن تقبل LMMs نوعًا واحدًا أو أكثر من مدخلات البيانات، مثل النصوص ومقاطع الفيديو والصور، وتولد مخرجات متنوعة لا تقتصر على نوع البيانات المدخلة. تعد LMMs فريدة من نوعها في تقليدها للتواصل البشري وقدرتها على تنفيذ المهام التي لم تتم برمجتها بشكل صريح لأداءها. لقد تم اعتماد LMMs بشكل أسرع من أي تطبيق استهلاكي في التاريخ، مع دخول العديد من المنصات – مثل ChatGPT وBard وBert – إلى الوعي العام في عام 2023.
وقال الدكتور جيريمي فارار، كبير العلماء في منظمة الصحة العالمية: “إن تقنيات الذكاء الاصطناعي التوليدي لديها القدرة على تحسين الرعاية الصحية، ولكن فقط إذا قام أولئك الذين يقومون بتطوير هذه التقنيات وتنظيمها واستخدامها بتحديد المخاطر المرتبطة بها وأخذها في الاعتبار بشكل كامل”. “نحن بحاجة إلى معلومات وسياسات شفافة لإدارة تصميم وتطوير واستخدام LMMs لتحقيق نتائج صحية أفضل والتغلب على عدم المساواة الصحية المستمرة.”
الفوائد والمخاطر المحتملة:
تحدد إرشادات منظمة الصحة العالمية الجديدة خمسة تطبيقات واسعة النطاق للـ LMMs من أجل الصحة:
• التشخيص والرعاية السريرية، مثل الرد على استفسارات المرضى المكتوبة؛
• الاستخدام الموجه للمريض، مثل فحص الأعراض والعلاج؛
• المهام الكتابية والإدارية، مثل توثيق وتلخيص زيارات المرضى ضمن السجلات الصحية الإلكترونية؛
• التعليم الطبي والتمريضي، بما في ذلك تزويد المتدربين بمحاكاة لقاءات المرضى؛
• البحث العلمي وتطوير الأدوية، بما في ذلك تحديد المركبات الجديدة.
في حين بدأ استخدام LMMs لأغراض محددة تتعلق بالصحة، هناك أيضًا مخاطر موثقة تتمثل في إنتاج بيانات كاذبة أو غير دقيقة أو متحيزة أو غير كاملة، مما قد يضر الأشخاص الذين يستخدمون مثل هذه المعلومات في اتخاذ القرارات الصحية. علاوة على ذلك، قد يتم تدريب LMMs على البيانات ذات الجودة الرديئة أو المتحيزة، سواء حسب العرق أو الأصل العرقي أو النسب أو الجنس أو الهوية الجنسية أو العمر.
توضح الإرشادات أيضًا تفاصيل المخاطر الأوسع التي تواجه الأنظمة الصحية، مثل إمكانية الوصول إلى LMMs الأفضل أداءً والقدرة على تحمل تكاليفها. يمكن أن يشجع LMMS أيضًا “تحيز الأتمتة” من قبل متخصصي الرعاية الصحية والمرضى، حيث يتم التغاضي عن الأخطاء التي كان من الممكن تحديدها أو يتم تفويض الاختيارات الصعبة بشكل غير صحيح إلى LMM. إن LMMs، مثل الأشكال الأخرى من الذكاء الاصطناعي، معرضة أيضًا لمخاطر الأمن السيبراني التي يمكن أن تعرض معلومات المرضى أو مصداقية هذه الخوارزميات وتوفير الرعاية الصحية على نطاق أوسع للخطر.
ولإنشاء نماذج مراقبة آمنة وفعالة، تؤكد منظمة الصحة العالمية على الحاجة إلى إشراك مختلف أصحاب المصلحة: الحكومات، وشركات التكنولوجيا، ومقدمي الرعاية الصحية، والمرضى، والمجتمع المدني، في جميع مراحل تطوير ونشر هذه التقنيات، بما في ذلك الرقابة والتنظيم.
وقال الدكتور آلان لابريك، مدير الصحة الرقمية والابتكار في قسم العلوم بمنظمة الصحة العالمية: “يجب على حكومات جميع البلدان أن تقود الجهود بشكل تعاوني لتنظيم تطوير واستخدام تقنيات الذكاء الاصطناعي بشكل فعال، مثل LMMs”.
التوصيات الرئيسية:
تتضمن إرشادات منظمة الصحة العالمية الجديدة توصيات للحكومات، التي تتحمل المسؤولية الأساسية عن وضع معايير لتطوير ونشر LMMs، وتكاملها واستخدامها لأغراض الصحة العامة والأغراض الطبية. على سبيل المثال، ينبغي للحكومات:
• الاستثمار في البنية التحتية العامة أو غير الهادفة للربح أو توفيرها، بما في ذلك قوة الحوسبة ومجموعات البيانات العامة، التي يمكن للمطورين الوصول إليها في القطاعات العامة والخاصة وغير الهادفة للربح، والتي تتطلب من المستخدمين الالتزام بالمبادئ والقيم الأخلاقية في مقابل الحصول على وصول.
• استخدام القوانين والسياسات واللوائح للتأكد من أن LMMs والتطبيقات المستخدمة في الرعاية الصحية والطب، بغض النظر عن المخاطر أو الفوائد المرتبطة بتكنولوجيا الذكاء الاصطناعي، تفي بالالتزامات الأخلاقية ومعايير حقوق الإنسان التي تؤثر، على سبيل المثال، على كرامة الشخص أو استقلاليته أو خصوصية.
• قم بتعيين وكالة تنظيمية موجودة أو جديدة لتقييم واعتماد LMMs والتطبيقات المعدة للاستخدام في الرعاية الصحية أو الطب – حسب ما تسمح به الموارد.
• تقديم تدقيق إلزامي بعد الإصدار وتقييمات الأثر، بما في ذلك حماية البيانات وحقوق الإنسان، من قبل أطراف ثالثة مستقلة عندما يتم نشر LMM على نطاق واسع. ينبغي نشر تقييمات التدقيق والأثر، ويجب أن تتضمن النتائج والآثار المصنفة حسب نوع المستخدم، بما في ذلك على سبيل المثال حسب العمر أو العرق أو الإعاقة.
تتضمن الإرشادات أيضاً التوصيات الرئيسية التالية لمطوري LMMs، الذين يجب عليهم التأكد من ما يلي:
• لم يتم تصميم LMMs من قبل العلماء والمهندسين فقط. ينبغي إشراك المستخدمين المحتملين وجميع أصحاب المصلحة المباشرين وغير المباشرين، بما في ذلك مقدمي الخدمات الطبية والباحثين العلميين ومتخصصي الرعاية الصحية والمرضى، منذ المراحل الأولى لتطوير الذكاء الاصطناعي في تصميم منظم وشامل وشفاف وإتاحة الفرص لإثارة القضايا الأخلاقية والتعبير عن المخاوف والمشاكل. تقديم مدخلات لتطبيق الذكاء الاصطناعي قيد النظر.
• تم تصميم LMMs لأداء مهام محددة جيدًا بالدقة والموثوقية اللازمة لتحسين قدرة الأنظمة الصحية وتعزيز مصالح المرضى. يجب أن يكون المطورون أيضًا قادرين على التنبؤ بالنتائج الثانوية المحتملة وفهمها.