世卫组织/Blink Media - Amanda Mustard
© 来源

世卫组织呼吁注重健康,确保人工智能安全且合乎伦理

2023年5月16日
部门新闻

世界卫生组织(世卫组织)呼吁慎用人工智能生成的大型语言模型工具(LLM),以保护和促进人类福祉、安全和自主,并维护公众健康。 

大型语言模型工具指的是一些飞速发展的平台,如ChatGPT、Bard、Bert以及许多其他模仿、理解、处理和进行人类交流的平台。这类工具在极为迅速地公开传播,并越来越多地在卫生领域试用。它们在协助满足人类健康需求方面的潜力引起了人们极大的兴趣。 

当务之急是,在使用大型语言模型工具协助决策、甚至提高资源贫乏地区的诊断能力以保护人们健康和减少不平等现象方面,必须认真审查所涉风险。 

世卫组织大力支持适当使用包括大型语言模型工具在内的各种技术,协助专业医务人员、患者、研究人员和科学家开展工作,但令人关注的是,在使用大型语言模型工具方面,并未一直能够保持通常对任何新技术所持的审慎态度。审慎做法是,应普遍体现透明、包容、公众参与、专家监督和严格评估等关键原则。 

仓促采用未经检验的系统可能会导致医务人员犯错,对患者造成伤害,侵蚀人们对人工智能的信任,进而可能影响(或延迟)这类技术在世界各地的长期惠益和使用。 

为了以安全、有效和合乎伦理的方式使用这些技术,需要在以下方面进行严格监控。 

  • 用于训练人工智能的数据可能带有偏见,产生误导性或不准确的信息,进而可能会损害健康、公平性和包容性。
  • 终端用户可能会以为大型语言模型工具生成的答复是权威性的合理答复,而这些答复,特别是与健康相关的答复,其实可能是完全错误的或有严重错误。
  • 大型语言模型工具可能会使用也许未就此类使用获得事先同意的数据进行培训,而且,它们可能不会保护用户提供给应用程序的用于生成答复的敏感信息(包括健康信息)。
  • 大型语言模型工具可能被滥用,以文字、音频或视频形式生成和传播似乎很有说服力的虚假信息,使公众难以将这些虚假信息与可靠的健康信息区分开来。
  • 世卫组织致力于利用包括人工智能和数字卫生保健在内的新技术改善人类健康,并建议政策制定者在科技公司努力将大型语言模型工具商业化的同时,确保患者安全和患者防护。

世卫组织建议先解决这些问题,在获得明确的有利证据后,个人、医务人员以及卫生系统管理人员和决策者才可在常规医疗和医学中广泛使用这些工具。 

世卫组织重申,根据世卫组织关于卫生领域应用人工智能的伦理和治理问题指导方针,必须在设计、开发和部署人工智能时,高度重视遵循伦理原则和进行适当管理。 

世界卫生组织确定的六项核心原则是:(1)保护自主权;(2)促进人类福祉、人类安全和公共利益;(3)确保透明度、可解释性和可理解性;(4)培育责任感和问责制;(5)确保包容性和公平性;(6)促进采用可持续的且灵活应变的人工智能。