根据世卫组织今天发布的新指南,人工智能(AI)在改善全球卫生保健和药物提供方面大有希望,但前提是必须将道德和人权置于其设计、部署和使用的核心。
这份题为“卫生领域人工智能的伦理和治理”的报告是世卫组织任命的一个国际专家小组进行了两年磋商的结果。
“像所有新技术一样,人工智能在改善世界各地数百万人的健康方面具有巨大潜力,但像所有技术一样,人工智能也可能被滥用并造成伤害,”世卫组织总干事谭德塞博士说。“这份重要的新报告为各国提供了一份宝贵的指南,说明如何最大限度地发挥人工智能的优势,同时最大限度地降低其风险并避免其陷阱。”
人工智能可以,并且在一些富裕国家已经被用于提高疾病诊断和筛查的速度和准确性;协助临床护理;加强卫生研究和药物开发,支持多样化的公共卫生干预措施,如疾病监测、疫情应对和卫生系统管理。
人工智能还可以让患者更好地掌控自己的卫生保健,更好地了解自己不断变化的需求。人工智能还可以使资源贫乏的国家和农村社区弥合获得卫生服务方面的差距,在这些国家和社区,患者接触卫生保健工作者或医疗专业人员的机会往往有限。
然而,世卫组织的新报告警告说,不要高估人工智能对健康的益处,尤其是在以牺牲实现全民健康覆盖所需的核心投资和战略为代价时。
报告还指出,机遇与挑战和风险相关联,包括不道德地收集和使用健康数据;算法中编码的偏差,以及人工智能对患者安全、网络安全和环境的风险。
例如,虽然私营和公共部门对人工智能开发和部署的投资至关重要,但不受监管地使用人工智能可能会使患者和社区的权益从属于科技公司强大的商业利益或政府在监控和社会控制方面的利益。
报告还强调,主要根据从高收入国家个人收集的数据进行培训的系统可能不适用于低收入和中等收入环境中的个人。
因此,应仔细设计人工智能系统,以反映社会经济和卫生保健环境的多样性。同时,人工智能系统应该伴随着数字技能培训、社区参与和提高认识,特别是对数百万卫生保健工作者来说,他们在其角色和功能实现自动化时将需要数字素养或再培训,他们还必须对抗可能挑战提供者和患者决策和自主权的机器。
最终,在现有法律和人权义务以及体现道德原则的新法律和政策的指导下,政府、提供者和设计者必须共同努力,在人工智能技术的设计、开发和部署的每个阶段解决道德和人权问题。
确保人工智能为所有国家的公众利益服务的六项原则
为了限制风险并最大限度地利用卫生领域人工智能的固有机会,世卫组织提供以下原则作为人工智能监管和治理的基础
:
保护人类自主权
:在卫生保健的背景下,这意味着人类应该继续掌控卫生保健系统和医疗决策;应保护隐私和保密性,患者必须通过适当的数据保护法律框架给予有效的知情同意。
促进人类福祉、安全和公共利益。
人工智能技术的设计者应该满足对定义明确的用例或适应症的安全性、准确性和有效性的监管要求。必须在实践中采取质量控制措施,并在使用人工智能时提高质量。
确保透明度、可解释性和可理解性。
透明度要求在设计或部署人工智能技术之前,发布或记录足够的信息。此类信息必须易于获取,并有助于就如何设计该技术以及如何使用或不使用该技术进行有意义的公开协商和辩论。
培养责任感和促进问责制。
尽管人工智能技术执行特定的任务,但利益攸关方有责任确保人工智能在适当的条件下由经过适当培训的人员使用。对于因基于算法的决定而受到不利影响的个人和团体,应提供有效的质疑和补救机制。
确保包容性和公平。
包容性要求卫生领域人工智能的设计应鼓励尽可能广泛的公平使用和获取,而不论年龄、性别、收入、种族、族裔、性取向、能力或受人权法保护的其他特征。
促进具有响应性和可持续性的人工智能。
设计者、开发人员和用户应该在实际使用过程中持续透明地评估人工智能应用程序,以确定人工智能是否对期望和要求做出适当的反应。人工智能系统的设计还应尽量减少其对环境的影响,并提高能源效率。政府和公司应解决工作场所可能出现的中断,包括培训卫生保健工作者适应使用人工智能系统,并解决使用自动化系统可能导致的失业问题。
这些原则将指导世卫组织未来的工作,以支持努力确保人工智能在卫生保健和公共卫生方面的全部潜力将用于造福所有人。