ВОЗ / Blink Media - Amanda Mustard
© Фото

ВОЗ призывает к безопасному и этичному использованию ИИ в интересах здоровья

16 мая 2023 г.
Ведомственные новости

Всемирная организация здравоохранения (ВОЗ) призывает проявлять осторожность при использовании инструментов больших языковых моделей (БЯМ), созданных искусственным интеллектом (ИИ), для защиты благополучия, безопасности, самостоятельности людей и охраны общественного здоровья. 

В число БЯМ входят некоторые из наиболее быстро расширяющихся платформ, такие как ChatGPT, Bard, Bert и многие другие, которые имитируют понимание, обработку и создание человеческого общения. Их стремительное распространение в обществе и растущее экспериментальное использование в целях, связанных со здоровьем, вызывает значительный интерес к возможностям удовлетворения потребностей людей в области здравоохранения. 

Необходимо тщательно изучить риски при использовании БЯМ для расширения доступа к медико-санитарной информации, в качестве инструмента поддержки принятия решений или даже для усиления возможностей диагностики в условиях недостатка ресурсов в целях охраны здоровья населения и сокращения неравенств. 

Хотя ВОЗ с энтузиазмом относится к надлежащему использованию технологий, включая БЯМ, в качестве подспорья для работников здравоохранения, пациентов, исследователей и ученых, существуют опасения в связи с тем, что меры предосторожности, которые обычно принимаются в отношении любой новой технологии, не всегда соблюдаются в отношении БЯМ. Это включает повсеместное соблюдение основополагающих ценностей транспарентности, инклюзивности, участия общественности, экспертного надзора и тщательной оценки.  

Поспешное внедрение непроверенных систем может привести к ошибкам работников здравоохранения, причинить вред пациентам, подорвать доверие к ИИ и тем самым снизить (или отсрочить) потенциальные преимущества и использование таких технологий в долгосрочной перспективе во всем мире.  

Вот некоторые из проблем, которые требуют строгого контроля, необходимого для использования технологий безопасным, эффективным и этичным образом. 

  • Данные, используемые для обучения систем ИИ, могут быть необъективными и приводить к генерированию вводящей в заблуждение или неточной информации, которая может создавать риски для здоровья, обеспечения справедливости и инклюзивности.
  • БЯМ генерируют ответы, которые могут казаться авторитетными и правдоподобными для конечного пользователя; однако эти ответы могут быть совершенно неверными или содержать серьезные ошибки, особенно в отношении ответов, связанных с состоянием здоровья. 
  • БЯМ могут обучаться на основании данных, в отношении которых, возможно, не было дано согласие на такое использование, при этом БЯМ не могут обеспечивать защиту конфиденциальных данных (включая информацию о состоянии здоровья), которые пользователь предоставляет приложению для получения ответа.
  • БЯМ могут использоваться для создания и распространения весьма убедительной дезинформации в форме текстовых, аудио- или видеоматериалов, которые широкой публики трудно отличить от достоверных медицинских материалов. 
  • Сохраняя приверженность использованию новых технологий, включая ИИ и цифровое здравоохранение, в целях улучшения здоровья человека, ВОЗ рекомендует лицам, формирующим политику, обеспечивать безопасность и защиту пациентов, в то время как технологические компании работают над коммерциализацией БЯМ. 

ВОЗ предлагает рассмотреть эти проблемы и получить четкие доказательства пользы до того, как эти технологии будут широко использоваться в повседневной работе служб медицинской помощи и в медицине – отдельными лицами, поставщиками медицинских услуг, администраторами систем здравоохранения или лицами, формирующими политику.  

ВОЗ подчеркивает важное значение применения этических принципов и надлежащего управления, как указано в руководстве ВОЗ по этике и управлению ИИ в интересах здоровья, при проектировании, разработке и внедрении систем ИИ в интересах здоровья. 

Шестью основными принципами, определенными ВОЗ, являются: (1) защита автономии; (2) содействие благополучию человека, безопасности человека и общественным интересам; (3) обеспечение прозрачности, объяснимости и понятности; (4) усиление ответственности и подотчетности; (5) обеспечение инклюзивности и справедливости; (6) содействие внедрению систем ИИ, которые отвечают потребностям и носят устойчивый характер.