WHO/ Fabeha Monir
WHO Bangladesh Office data analysts are in the control room, where dengue related data is monitored and stored.
© الصورة

منظمة الصحة العالمية تصدر إرشادات بشأن أخلاقيات وحوكمة الذكاء الاصطناعي في النماذج الكبيرة والمتعددة الوسائط

18 كانون الثاني/يناير 2024
بيان صحفي

تصدر منظمة الصحة العالمية (المنظمة) إرشادات جديدة بشأن أخلاقيات وحوكمة نماذج الذكاء الاصطناعي الكبيرة والمتعددة الوسائط (نماذج الذكاء الاصطناعي) - وهي نوع من تكنولوجيا الذكاء الاصطناعي التوليدي السريعة التطور والمُستعملة تطبيقاته في كل نواحي الرعاية الصحية. 

وتوجز الإرشادات أكثر من 40 توصية لكي تنظر فيها الحكومات وشركات التكنولوجيا ومقدمو خدمات الرعاية الصحية لضمان استعمال نماذج الذكاء الاصطناعي كما ينبغي تعزيزاً لصحة السكان وحمايتها. 

ويمكن أن تقبل نماذج الذكاء الاصطناعي نوعاً واحداً أو أكثر من مدخلات البيانات، مثل النصوص ومقاطع الفيديو والصور، وتولد مخرجات متنوعة لا تقتصر على نوع البيانات المُدخلة. ونماذج الذكاء الاصطناعي هذه فريدة من نوعها من حيث قدرتها على تقليد أسلوب التواصل البشري وأداء مهام لم تُبرمج صراحة لأدائها. ويتواصل اعتماد هذه النماذج بسرعة أكبر من أي تطبيق آخر من تطبيقات المستهلك المُعتمدة على مر التاريخ، وقد انتشر استعمال منصات عديدة منها - مثل ChatGPT وBard وBert – على نطاق واسع بين الجمهور في عام 2023. 

وتحدث الدكتور جيريمي فارار كبير المتخصصين في الشؤون العلمية بالمنظمة قائلاً: "إن تكنولوجيات الذكاء الاصطناعي التوليدي قادرة على تحسين الرعاية الصحية شريطة قيام مطوري تلك التكنولوجيات ومنظميها ومستخدميها بتحديد المخاطر المرتبطة بها ومراعاتها بالكامل". وأضاف: "تلزمنا معلومات وسياسات شفافة لإدارة عمليات تصميم نماذج الذكاء الاصطناعي وتطويرها واستعمالها لتحقيق نتائج صحية أفضل والتغلب على أوجه التفاوت المستمرة في مجال الصحة." 

الفوائد والمخاطر المحتملة 

توجز الإرشادات الجديدة الصادرة عن المنظمة خمسة تطبيقات شاملة لنماذج الذكاء الاصطناعي المُطبقة في مجال الصحة، على النحو التالي:

  1. التشخيص والرعاية السريرية، مثل الرد على الاستفسارات التي يكتبها المرضى؛
  2. الاستعمال الموجه من المريض، مثل استعمالها لتحري الأعراض وتوفير العلاج؛
  3. المهام الكتابية والإدارية، مثل توثيق زيارات المرضى وتلخيصها وإدراجها في سجلات صحية إلكترونية؛
  4. التعليم في مجالي الطب والتمريض للمتدربين، بما يشمل محاكاة اللقاءات الفعلية مع المرضى؛
  5. البحث العلمي وتطوير العقاقير، بما يشمل تحديد مركّبات جديدة.

ورغم البدء في استعمال نماذج الذكاء الاصطناعي لأغراض صحية محددة، فإن هناك أيضاً مخاطر موثقة تتعلق بإنتاج بيانات خاطئة، أو غير دقيقة، أو متحيزة، أو ناقصة، ممّا قد يلحق الضرر بمن يستخدمون تلك المعلومات في اتخاذ قرارات بشأن الصحة. وعلاوة على ذلك، قد تُدرب نماذج الذكاء الاصطناعي على بيانات رديئة النوعية أو متحيزة، سواء على أساس الانتماء العرقي أو الإثني أو النسب أو الجنس أو الهوية الجنسانية أو العمر. 

كما تبين الإرشادات بالتفصيل مخاطر أوسع نطاقاً تواجهها النظم الصحية، مثل إمكانية الوصول إلى أفضل نماذج الذكاء الاصطناعي أداءً والقدرة على تحمل تكاليفها. ويمكن أيضاً أن تشجع هذه النماذج على ممارسة "التحيز في الأتمتة" بين مهنيي الرعاية الصحية والمرضى، بحيث تُغفل أخطاء كان يمكن تحديدها بخلاف ذلك أو تُفوض إلى النماذج خيارات صعبة ليس من المناسب تفويضها. كما تتعرض نماذج الذكاء الاصطناعي، مثل غيرها من أشكال الذكاء الاصطناعي، لمخاطر الأمن السيبراني التي قد تلحق الضرر بمعلومات المريض أو بموثوقية هذه الخوارزميات وبتقديم الرعاية الصحية بشكل عام. 

وتشدّد المنظمة على أن إعداد نماذج ذكاء اصطناعي مأمونة وفعالة يقتضي إشراك مختلف أصحاب المصلحة من الحكومات، وشركات التكنولوجيا، ومقدمي الرعاية الصحية، والمرضى، والمجتمع المدني، في جميع مراحل تطوير هذه التكنولوجيات ونشرها، وبما يشمل الإشراف عليها وتنظيمها. 

وتحدث الدكتور آلان لابريك، مدير إدارة الصحة الرقمية والابتكار التابعة لشعبة العلوم في المنظمة، قائلاً: "على حكومات جميع البلدان أن تتعاون في قيادة الجهود الرامية إلى تنظيم تطوير واستعمال تكنولوجيات الذكاء الاصطناعي، مثل نماذج الذكاء الاصطناعي، تنظيماً فعالاً". 

التوصيات الرئيسية 

تتضمن الإرشادات الجديدة الصادرة عن المنظمة توصيات موجهة إلى حكومات تتحمل المسؤولية الكبرى عن وضع معايير بشأن تطوير نماذج الذكاء الاصطناعي ونشرها ودمجها واستعمالها لأغراض الصحة العامة والأغراض الطبية. وينبغي مثلاً أن تقوم الحكومات بما يلي: 

  • الاستثمار في البنية التحتية العامة أو غير الهادفة إلى الربح أو توفير تلك البنية، بما يشمل الإمداد بالقدرات الحاسوبية ومجموعات البيانات العامة التي يمكن إتاحتها للمطورين في القطاعين العام والخاص والقطاع غير الهادف إلى الربح، والتي تشترط على المستخدمين الالتزام بالمبادئ والقيم الأخلاقية لقاء إتاحتها لهم. 
  • تطبيق قوانين وسياسات ولوائح تكفل استيفاء نماذج الذكاء الاصطناعي والتطبيقات المستخدمة في مجالي الرعاية الصحية والطب، وبغض النظر عن المخاطر أو الفوائد المرتبطة بتكنولوجيا الذكاء الاصطناعي، للالتزامات الأخلاقية ومعايير حقوق الإنسان التي تؤثر مثلاً على كرامة الشخص أو استقلاليته أو خصوصيته. 
  • تكليف وكالة تنظيمية قائمة أو أخرى جديدة بمسؤولية تقييم واعتماد نماذج الذكاء الاصطناعي والتطبيقات المعدة لغرض استعمالها في مجال الرعاية الصحية أو الطب - حسب ما تسمح به الموارد. 
  • إجراء عمليات تدقيق إلزامية تلي الإصدار وتقييمات للأثر بواسطة أطراف ثالثة مستقلة، بما يشمل إجراءها لأغراض حماية البيانات وحقوق الإنسان، عند نشر أحد نماذج الذكاء الاصطناعي على نطاق واسع. وينبغي أن تُنشر عمليات التدقيق وتقييمات الأثر وأن تتضمن الحصائل والآثار مصنفة بحسب نوع المستخدم، بما يشمل مثلاً تصنيفها بحسب العمر أو العرق أو الإعاقة. 

وتتضمن الإرشادات أيضاً التوصيتين الرئيسيتين التاليتين الموجهتين إلى مطوري نماذج الذكاء الاصطناعي الذين ينبغي أن يكفلوا تحقيق ما يلي: 

  • ألا يُقصر تصميم نماذج الذكاء الاصطناعي على المتخصصين في الشؤون العلمية والمهندسين، بل ينبغي أن يُشرك فيها المستخدمون المحتملون وجميع أصحاب المصلحة المباشرين وغير المباشرين، بمن فيهم مقدمو الخدمات الطبية والباحثون العلميون ومهنيو الرعاية الصحية والمرضى، ابتداءً من أولى مراحل تطوير تطبيقات الذكاء الاصطناعي على نحو منظم وشامل وشفاف، وأن تُتاح لهم فرصة إثارة المسائل الأخلاقية والإعراب عن شواغلهم وتقديم مدخلاتهم فيما يخص تطبيق الذكاء الاصطناعي قيد النظر. 
  • أن تُصمم نماذج الذكاء الاصطناعي لأداء مهام محددة جيداً بالدقة والموثوقية اللازمتين لتحسين قدرة النظم الصحية وإعلاء حقوق المرضى. كما ينبغي أن يكون المطورون قادرين على التنبؤ بالحصائل الثانوية المحتملة وفهمها. 

ملاحظة للمحرر 

تستند الوثيقة الجديدة بشأن أخلاقيات وحوكمة الذكاء الاصطناعي لأغراض الصحة في نماذج الذكاء الاصطناعي الكبيرة والمتعددة الوسائط إلى إرشادات صادرة عن المنظمة ومنشورة في حزيران/يونيو 2021، وهي مُتاحة هنا.

للاتصال الإعلامي

استفسارات وسائل الإعلام