人工智能(Ar tifcial Intel l igence,简称AI)作为新一轮产业变革的核心驱动力,已上升为国家战略,并在医疗、工业机器人及教育、金融、互联网服务等领域得到越来越多的应用。AI在医疗领域的应用主要包括辅助诊断、辅助手术、临床辅助决策、患者信息管理等,对应的AI医疗器械产品主要包括独立的医疗软件、AI赋能医疗设备、医疗信息化系统等。
随着以深度学习为代表的AI技术的不断发展,我们需要思考AI医疗器械在发展与使用中面临的伦理问题,充分认识AI医疗器械在数据获取、隐私保护等方面给人们带来的影响。
AI领域伦理准则现状
目前,国内外主要达成了两个影响较广泛的AI伦理共识——“阿西洛马人工智能原则”(Asil omar AI Pr incipl es)、电气和电子工程师协会(IEEE)倡议的AI设计的伦理准则。
“阿西洛马人工智能原则”是在2017年于美国加州阿西洛马举行的Benef icial AI会议上被提出的,它是阿西莫夫机器人学三定律的扩展版本,可被理解为:AI不能单纯地为了利益而创造,而应在确保人类不被替代的前提下,为通过自动化实现人类繁荣而创造。保持一种尊重隐私但开放、合作的AI研究文化也是需要考虑的问题之一,需确保研究人员和政策制定者在交换信息的同时,不会用危害人类的手段与对手竞争。
IEEE于2016年提出“关于自主与智能系统伦理的全球倡议”,并于当年12月和2017年12月先后发布了第一版和第二版《人工智能设计的伦理准则》白皮书(Et hical l y Al igned Design)。该白皮书提出5个核心原则:人权——确保AI不侵犯国际公认的人权;福祉——在AI的设计和使用中优先考虑人类福祉的相关指标;问责——确保AI的设计者和操作者负责任且可问责;透明——确保AI以透明的方式运行;慎用——将滥用的风险降至最低。该准则的发布旨在为IEEE正在推动的11个与AI伦理相关的标准的制定提供建议。
我国已将AI上升为国家战略,并在法律和政策层面进行深入布局。2017年7月,国务院印发《新一代人工智能发展规划》,在“战略目标”部分对法律政策体系建设提出三步走的要求:第一步,到2020年,部分领域的人工智能伦理规范和政策法规初步建立;第二步,到2025年,初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力;第三步,到2030年,建成更加完善的人工智能法律法规、伦理规范和政策体系。2018年1月,国家人工智能标准化总体组成立,同时,《人工智能标准化白皮书(2018版)》发布。今年4月,国家人工智能标准化总体组第二次全体会议召开,会上发布了《人工智能伦理风险分析报告》。
医疗领域AI的伦理风险
当前,AI在医疗器械领域的应用主要体现在医学影像AI技术、AI技术赋能硬件上,如目前大量涌现的“智能读片”类AI医疗软件。这种软件能够通过深度学习,在具有代表性的医学影像数据库中进行模型训练,并利用模型来解析图像、文本、声音,从而实现对病症的早期筛查。AI技术赋能硬件通常内嵌于各类医学影像设备中,在设备前期拍摄及后期图像处理过程中实现图像分割、分类、映射、配准等功能。
对于医疗领域AI存在的伦理风险所带来的影响,应从社会、个人数据保护、AI算法和医学伦理四方面进行考虑。
对社会的影响
现阶段,医疗AI伦理的标准化工作仍处于起步阶段,行业内尚未对医疗AI的内涵、应用模式等达成共识,行业竞争可能造成AI技术在医疗领域中的滥用。这会造成资源的浪费,目前,绝大多数AI辅助诊疗结果仍需医生确认,此种AI产品是否具有临床意义有待商榷。另外,随着科技发展,传统诊疗方法逐步向高科技辅助诊疗转变,此类辅助诊疗产品往往集中在科技发达、经济水平较高的国家和地区,这将进一步加剧不同国家和地区间医疗资源和水平的不平衡。如何让每个国家和地区都能受益于AI带来的“福祉”,是需要思考的问题。
个人数据保护风险
以“深度学习+大数据”为框架的医学AI系统需要大量数据来训练、学习算法。目前,AI产品的训练样本主要来自医院患者的各类医学影像数据,少部分来自人类行为信息的数字化记录。医学影像数据、患者行为信息涉及患者隐私保护问题。信息使用者在获取相应数据时,必须抹去患者个人敏感信息,只保留相关的医学信息。
关于敏感信息的定义、识别和处理,目前国内尚无明确的标准,主要依赖于企业自觉。当前可供企业参考的数据隐私保护准则有欧盟于2018年5月发布的《通用数据保护条例》(GDPR)、美国国会于1996年颁布的《健康保险可携性与责任法案》(HIPAA)。
算法风险
对深度学习算法来说,在其应用阶段也存在诸多风险。一是安全性风险,算法存在泄漏、参数被非预期修改的风险。现阶段的深度学习算法是典型的“黑箱”算法,当其被修改时,算法性能的降低或错误的发生很难被察觉。医疗领域与人身安全息息相关,这一风险的发生会直接侵害患者的人身权益。二是算法偏见风险,鉴于算法的复杂性和专业性,关于AI算法输入的某些特性如何引起某个特定输出结果的发生,很难解释清楚。算法偏见可能是由程序员的主观认知偏差造成,也可能是因输入数据的分布本身即不具有整体代表性所导致。并且,如果算法在临床应用中通过本地数据进行无监督学习,则有加重偏见的风险。
医学伦理风险
对医学AI产品的伦理思考应纳入医学伦理范畴,考虑如何进行患者隐私及数据的保护,这也是医疗类AI产品与一般AI产品在伦理问题方面的最大区别。
在我国,获取医学临床数据、进行临床试验须获得医学伦理审批,负责伦理审查的组织——伦理委员会肩负医学研究伦理审查、受试者权益保护、人的尊严维护等重要职责。2017年10月,中办、国办印发《关于深化审评审批制度改革鼓励药品医疗器械创新的意见》,提出完善伦理委员会机制,各地可根据需要设立区域伦理委员会,指导临床试验机构伦理审查工作。
AI医疗器械应遵循的伦理方向
推动医学AI伦理标准化
从促进行业发展的角度看,开放、共享的高质量医学数据集是未来的发展趋势,但数据获取的来源、数据标注的规范格式等尚无统一标准,这使得高质量的数据集难以在各个AI产品开发者间实现互通。只有在相应规则确定后,AI医疗器械产业才能获得高速发展。
数据完整性与医学伦理的平衡
在满足医学伦理保护隐私及数据这一要求的同时,医疗类AI产品为获得高质量数据集,应尽可能保留更多的信息(如患者既往病史等),以便用于分析、处理,并避免在进行数据收集时纳入偏见、非典型甚至错误的信息。同时,医疗类AI产品在数据收集、标注过程中必须保证数据的完整性,以使AI产品是可解释、可信任的。如何最大限度地保留信息,并避免通过信息追溯到个人,是医疗类AI产品开发中应遵循的伦理方向之一。
在AI与伦理准则领域进行深入探索,并围绕其建立相关标准,形成医疗健康AI的标准生态,关系到医疗AI的未来发展动向。AI产业能否取得公众信任并获得持续性发展,关键在于能否建立共识性的伦理准则。我们需在保持数据较高完整度的同时,做好患者隐私保护,并在符合现有伦理准则的前提下,将来自于不同渠道的数据用于机器学习,促进AI医疗器械产业的进一步发展。