时间:2024-06-19
张 寒
(中国传媒大学马克思主义学院,北京 100024)
现代人工智能起源于1950年艾伦·图灵(Alan Turing)对机器智能的测试,1956年达特茅斯会议(Dartmouth Conference)上一位教授提出了“人工智能”的概念,笼统的定义就是“相对于人类和其他动物的自然智能,机器所展示的智能”。AI包括一套计算机科学技术,这些技术使得AI能够执行通常需要人类智能才能完成的任务,比如与人类对战跳棋、国际象棋等益智类游戏,具有视觉感知、语音识别、语言翻译等语言处理能力。21世纪,人工智能得益于其他理论(如神经网络数学)的发展、先进的计算能力 (如图形处理)、广泛获取大数据用于机器学习的能力(如社会网络、云存储和计算机信息处理计算等)及软件算法等[1]。我们正生活在一个被智能机器包裹的时代,有时候可能不是很明显,但AI正以各种方式渗透到我们的生活和生产方式中。
比起其他科学技术领域,公众对AI的感觉并不陌生。在公众的意识中,AI最先以科幻或好莱坞电影的形式(超级智能机器人、终结者)在公众中普及,随后媒体对围棋“人机大战”的大肆报道,又一次捕获了公众对人工智能的关注,这一次讨论的焦点变成“人工智能”是否将超越“人类智能”。大众媒体的大肆炒作、渲染增加了公众对AI的兴趣,同时也增加了公众对这项颠覆性技术负面影响的担忧,如大规模失业、对个人自由的限制、经济不平等的加剧和人类经验的贬值等。2006年是AI发展的分水岭,无人驾驶、Siri等语言助手将AI带入大众消费市场,关于“人机智力竞赛”的讨论话题也转向了如何实现“人机共存”。未来AI还将用于解决更多的复杂任务,包括改变医疗、健康和护理的方式。探讨公众如何参与和理解医疗人工智能的作用,对获得公众对这项创新技术的广泛支持具有重要意义。
AI已经成为医疗创新的前沿领域,从新药研发、疾病预测、高级成像到医疗管理等医疗的各个环节,都有AI的应用前景。通过对大量数据的处理,执行超出人类能力的医疗任务,推动医疗、健康、护理方式的重大变革。以下是AI在医疗健康领域的具体应用。一是提高新药开发的效率。据统计,2003—2013年,将一种新药推向市场的平均成本几乎翻了一番,平均需要花费26亿美元和15年的时间。最容易开发和安全有效治疗常见疾病的药物基本已经找到,剩下的就是对治疗疑难杂症的药物开发,因此新药研发的难度越来越大。全球制药行业正处于药物研发和回报率下滑的状态。相对于10年前,每一美元药物研发投入能有十美分的回报,而现在的回报却不到两美分[2]。药物研发是非常复杂的过程,要经过基础研究、药理学/病毒学分析、药物开发、化合物发现、潜在药物分析。人工智能在寻找新的潜在药物方面有很大的潜力,机器学习算法可以筛选数百万种化合物,缩小特定药物靶点的选择范围,识别更有前景的候选药物,提高药物研发的效率,减少药物开发的成本。尤其是进入患者时代,可以针对疾病缺陷筛选化合物,精准研发以治疗疾病。新一代的人工智能程序还可以对组织、细胞、基因或蛋白质水平上的细微差异进行分析,迅速筛选出潜在的有毒药物,关注那些有更大机会通过多项人体试验的药物,提高药物通过监管机构批准的通过率,加速药物研发的过程。因此,制药行业和世界各地的药物监管机构都很关注AI在该领域的应用,大型制药公司正与AI初创公司建立合作,开发AI系统用于新药研发。
二是在高级成像领域的应用。许多临床医生的工作基于图像展开,如对乳腺、甲状腺、肝脏、卵巢、膀胱等多种脏器的常规检查、病变诊断和筛查,常见的医疗办法是通过X光片或磁共振成像(MRI)的检查。AI的价值体现在两个方面:①依靠深度学习算法,分析疾病情况和趋势,辅助医生进行诊断;②改善图片的质量,如评估成像顺序、修复图像伪影、修补不完整图像、提高成像效率和图片的可解释性等,辅助医生在更短的时间内完成病变图片读取、疾病诊断和分期,评估治疗反应和预后,并尽可能减少错误,提高临床诊断的精准性和效率,最大限度地避免漏诊误诊[3]。因此,放射学、病理学、眼科和皮肤病学等这些与视觉相关医学领域对人工智能有很大兴趣。在我国医疗AI企业中,从事医学影像的企业数量最多,如腾讯推出的用于糖尿病、眼底等疾病诊断筛查的腾讯觅影,太美医疗科技推出的eImage医学影像阅片系统,以及灵医智惠的眼底影像分析系统等[4]。
三是在预防医学领域,AI被用于疾病风险筛查和定制个性化的医疗保健方案。例如,在乳腺癌风险筛查方面,乳腺癌的发病因素非常复杂。早期发现、早期识别、早期防控是提高生存率的主要方法。但是,欧美研发的主流风险评估模型对个体患病方面的预测并不是很准。人工智能深度学习技术的出现,可以综合考虑遗传、激素、怀孕、哺乳、饮食、体重变化等多种因素,利用这些详细的信息,建立针对女性个体风险评估的更加精确的评估模型,还可以将不同地区、不同种群的样本纳入数据库,提升风险评估模型的广泛适用性。谷歌、亚马逊、国际商业机器公司(IBM)等科技巨头正进入该领域,成立AI公司,或与医院合作开发用于公共卫生领域的AI疾病筛查软件,以降低疾病筛查成本,提高疾病风险评估的预测效果为目标,鼓励人们参与早期检测项目。
四是在医疗管理方面,AI可以替代医生完成许多基础性的工作,缩减工作流程,提高工作效率。例如,AI的应用能够提高医疗管理服务水平,通过智能设备进行身体检查,将采集的个人健康数据上传到云数据库形成个人电子健康档案,便于建立个性化的健康管理方案,进行健康评估和监测,提高医疗管理水平[5]。人工智能技术将提供智慧就医服务,改善医疗资源紧张的局面。例如复旦大学附属肿瘤医院采用的人工智能的精准预约系统,通过AI分析患者病情,按病情把合适的医生匹配给合适的患者挂号,实现病患与医生的精准匹配,大幅提升专家门诊效率和患者满意度[6]。
以上只列举了医疗AI应用的“冰山一角”,AI将推进医疗健康事业的巨大改变,让公众受益。但是,许多技术还处于研发阶段,离实际应用还有一段距离,除了技术层面的问题外,技术风险、伦理困境和社会影响也是重要的考虑因素。人们对这项新型技术感到兴奋和期待,伦理审查不是为了阻碍创新的步伐,而是从建立公众对医疗AI工具的信任和信心的角度出发,通过让公众了解医疗AI的构建过程,客观地看待医疗AI的潜力,增加公众对该项创新技术的理解。相反,扩大虚假信息的传播可能会削弱公众对人工智能在医疗领域的信心。公众的参与、理解和信任将成为医疗AI成功的关键。
本质上,医疗AI发挥作用的基础是对个人健康数据(图片、处方、健康档案、基因信息等)的深度学习工具的开发,给机器(深度)学习系统注入数据,然后从该系统中获得结果,通过接触大量的数据集,让其能够识别这些数据集中的模式,并重现期望的结果。因此,构建有用的医疗AI工具需要访问大量高质量的数据,对这些数据进行测试、训练、验证。因此,合法获得大量个人健康信息成为医疗AI研发的第一道关卡,必须符合数据保护法和隐私原则。
目前,在许多医疗AI的开发过程中,政府、医院、大学等公共部门与大型私营部门开展合作寻找技术方案,由公共部门提供数据,私营部门将信息用于药品以及疾病预测、筛查等诊断工具,让隐私和数据保护问题变得更为复杂。例如,2006年,英国政府与惠康基金会成立了生物信息库(biobank),致力于生物医学研究,掌握了大量的生物样品、人类基因信息等数据,这些信息有巨大的商业价值,如果用于医疗AI的研发将触及伦理和法律问题。近期的一些事情,更增加了公众对个人数据保护的担忧。2016年,IBM沃森健康公司(Watson Health)与意大利政府签署了一份协议,意大利政府在没有获得其公民明确同意的情况下,向IBM沃森健康公司披露了6 100万意大利公民的匿名健康记录,包括处方、基因组数据和电子健康数据,并授予该公司独家使用权和许可权,以换取1.5亿美元投资,为沃森健康部门在米兰建立一个新的研究中心[7]。2019年,谷歌与医疗机构阿森松(Ascension)建立合作,在公众不知情或未经个人同意的情况下获取了数千万人的健康记录。谷歌计划利用这些数据开发机器学习工具,使医生更容易获取患者的数据。虽然,谷歌声称这项合作符合《健康保险可携性与责任法案》的数据共享规定,公司将根据协议进行数据研发,患者数据不会用于其他方面,也不会并入谷歌的其他消费者数据合并。美国联邦机构正对此展开调查,将判断这种以改善公共医疗事业为目的而征用个人数据的做法是否符合法律规定[8]。
这类未经公众知晓而使用个人数据的案例还有许多,即便医疗AI的研发是为了公共的利益,但是这些问题也需要被讨论和回答:公立机构是否有权以公民健康信息作为交换,向私营机构提供这些非常有价值的数据?公立机构和私营部门在该问题上应该如何履行告知的义务、以什么方式获得数据本体的同意?个人就数据保护如何向有关机构问责?在数据被采用的过程中,个人的参与权、参与程度、退出机制如何得到保证?随着公众的权利意识不断增强,利益诉求日益多元,减少公众的疑虑,提高公众的认可度和接受度,是未来医疗AI创新面临的重要挑战。
医疗AI的研发者有义务让公众理解个人健康信息将如何被用于医疗、护理和研发,公众在个人信息被使用的时候应该有选择权。但是,许多情况下的“公众参与”是很被动的。例如,在采集个人数据时,公众被要求签署知情同意书,以此放弃对个人数据的控制。如果不做出这样的选择,一旦算法工具被用于临床,医生将依靠这些算法系统进行决策,不同意共享健康数据的患者可能无法得到标准的治疗,从而造成个人信息保护和治疗效果/质量之间的紧张关系。
由于高度的专业化,公众的知识,甚至临床医生的知识,成为“外行知识”,他们不一定理解AI的设计者将如何使用个人数据。欧洲律师事务所Bristows针对英国普通公众对人工智能态度的调查证实了这一点:公众对人工智能涉及的隐私问题和数据保护存在认识不足,人们对有关机构何时、如何收集和处理个人信息缺乏了解;超过一半的受访者认为,人工智能不会使用他们的个人数据,或者不知道是否会使用;而一旦他们知道这个情况,大部分人对AI使用他们的个人数据感到不舒服或不安。超过2/3的受访者认为人工智能应该受到监管,他们希望政府(英国)或超国家监管机构能建立起问责机制。还有相当一部分人希望人工智能行业作为一个整体,在某种程度上能进行自我监管[9]。
为了获得公众的信任和支持,医疗AI使用和处理个人数据应具有合法性,人工智能行业需要更清楚地让公众了解它们的产品和服务是如何工作的,明确指出其中的利益和风险。在确保个人信息受到保护的前提下,明确哪些可做、哪些不可做,说明对个人,甚至对整个社会的好处。如果医疗AI的开发者能让公众理解使用这些数据将为公众健康带来好处,比如提供更好的治疗,情况可能会发生改变。当公众理解了AI发挥作用的方法和具体用途,他们就会支持医疗AI的研发,并愿意分享个人数据。例如,英国的另一份研究报告指出,英国有超过700万人患有心脏和循环系统疾病,因这些疾病导致的死亡占到了1/4,及早预防和发现心脏和循环系统疾病至关重要,人工智能的应用将有潜力帮助改善心脏和循环系统疾病的预防、治疗和护理。因此,85%的人支持医生将人工智能用于辅助诊断和疾病治疗;91%患有心脏和循环系统疾病的人表示,他们认为公众应该充分了解人工智能在医疗领域的应用;90%的人认为,英国国家医疗服务体系有责任告知公众人工智能目前和潜在的医疗用途[10]。
数据质量是影响AI项目成功的关键,对数据使用的潜在负面后果评估,不能只局限于隐私相关风险(如非法使用个人信息、数据安全等)的评估,更要考虑是否存在算法偏见(如歧视),要以群体和整个社会的价值为背景来考察。英国的做法值得参考,2016年,英国维康基金会(Wellcome Trust)与其他政府机构共同发起了“理解患者数据计划”(Understanding Patient Data Initiative), 该 组织由来自大学、地方政府、研究机构、媒体等不同利益相关者共同组成,从不同受众的视角为数据保护提供建议。这本来是一个为期两年的项目,支持公众、患者和医疗专业人士就医疗和护理数据的使用展开对话,旨在使患者数据的使用对患者、公众和卫生专业人员来说更加可见、可理解和可信。在初期资助结束时,鉴于数据科学的发展,以及研究人员、行业和媒体对如何正确使用公共健康数据的关注,该计划得以延续。新一期的计划(2019—2024)得到英国医学研究委员会(Medical Research Council)和国家健康研究所(National Institute for Health Research)的资助[11]。2018年8月30日,英国政府更新了《数字伦理框架》,更强调从用户角度去研发人工智能工具,使其符合安全性、伦理、法律和其他管理规定,也提出了判断的标准:①数据质量;②基于公平性的原则构建算法模型,避免偏见;③针对AI系统的设计者和执行人的问责制;④数据使用要符合隐私保护的法律规定;⑤可解释性和透明性,以让利益相关者了解AI模型是如何构建出来的;⑥对成本的考虑,建造、运行和维护AI的基础设施、培训和教育的成本,以及采用AI项目是否比其他方式更节约成本[12]。我国数据保护立法正在快步推进,2020年,我国将制定《个人信息保护法》《数据安全法》两部重要的法律,法律制度的完善,将为医疗人工智能的创新和改革发挥重要作用。
在公众理解科学的研究中,信任一直是一个重要的话题。任何新技术的出现,都会带来风险与信任的问题。科学与公共领域的分离强化了人们对科学技术风险的担心,人们会选择是否应该信任科学。为了解普通公众对人工智能技术的真正看法,许多国家都开展了相应的调查。Bristows的调查发现,普通公众对人工智能如何影响人们的生活,影响是积极还是消极的,人工智能究竟如何发挥作用,如何避免技术风险,个人应该如何选择,其实并不是很清楚,也存在不同的态度。只有1/7的受访者认为他们与人工智能有过接触,只有2%的人认为人工智能已经对社会产生了影响。研究者指出,这表明当人们遇到人工智能时,并不总是清楚AI是如何在实践中使用的。47.4%的受访者认为人工智能会对社会产生负面影响,许多受访者对隐私、责任和技术风险感到担忧。与年长受访者相比,年轻受访者(35岁以下)更乐于接受人工智能[8]。
公众对人工智能的理解和参与存在较大的个体差异。一项针对美国的调研发现,那些富有、性别为男性、受过高等教育或有计算机科学或编程经验的人更支持发展人工智能。调查指出,公众对各种组织为了公众的利益去发展、使用和管理人工智能没有表现出较高的信任度。相对来说,在AI研发方面,人们最信任的组织是大学和美国军方;在技术管理方面,人们认为科技公司和非政府组织(如Open AI)的措施比政府更可靠。尽管如此,在对科技公司表示出“有信心”或“相当有信心”的受访者团体中,人们对脸书(Facebook)的信任度最低[13]。不难想象,这应该跟近几年Facebook频繁爆出涉及侵犯/泄露用户个人隐私的丑闻相关,导致其受到舆论的严重批判,削弱了科技公司在公众中的信任度。
公众在某种特定环境或有某种特定需求的时候,会主动关注和学习科学信息,例如,公众领域中突然暴发的某种危机——新的疾病、环境问题、食品安全等。长期患有某种疾病的人,也可能会成为这种疾病方面的专家。但是,公众所具备的知识,并不足以支撑他们用到其他疾病或其他公众上[14]88。对于澳大利亚的一项调研指出,既然患者对现行健康技术(如乳腺X光检查系统)的工作原理了解甚少,因此可能公众也并不需要理解AI的运作[15]。但是,考虑到人工智能对医疗角色和责任的影响,以及越来越多关于人工智能的风险、伦理、危害和治理等问题的对话,要建立公众对医疗系统的持续信任,人们有权知道在医疗和护理中使用了怎样的人工智能,以及有权选择是否让人工智能参与他们的医疗或护理。尤其是在算法存在自主决策的情况下,如果公众不了解AI发挥作用的方式及其局限性,让用户做出“同意”AI决策的选项是没有意义的。目前,并不能完全确认使用人工智能一定比医生更可靠、更安全、更少犯错误[16]。使用人工智能面临的伦理问题,如偏见、歧视、不公平、不安全、不透明等负面效应,需要更长的时间去验证。鼓励公众参与讨论AI在医疗领域的风险,并提供政策建议,督促利益相关者对技术风险寻找可能的解决方案,将有利于医生在治疗过程中采用人工智能技术,也有助于增加公众对医疗系统的信任和减少公众问责。在利用个人数据方面,公众也愿意支持将个人医疗数据用于技术开发,但要注意保密、控制、治理和确保为公共利益所使用。
任何技术创新能被广泛采用,只有当受其影响的人认可和信任时才可能发生。按照“公众理解科学”的希望,公众应该是一群特定的、主动的、有思想的公民[13]8。公众参与理解医疗AI存在个体差异,需要区别对待。对医生而言,迫于社会压力也会采用新的医疗工具,以便为患者提供更好的治疗。因此,使用这类工具的医生应有机会参与AI的研发过程,了解机器学习系统的构建,对它们的结构、数据的采集及其局限性有更多的了解。如果这些问题被黑箱化,可能会导致伦理困境。根据柯林斯提出的“互动专长论”,医生的参与能增强不同范式专业共同体间的有效交流,让AI研发人员在设计过程中更好地回应医生和患者关心的问题[17]。将来AI应用到临床,医生也能对患者做出说明,在一定程度上促进公众的理解和接受。对普通公众而言,更关注的是应用新技术的效果,以及对技术风险的控制、治理和问责途径。这意味着,AI行业应该为不同层次的公众参与和理解医疗AI创造不同的机会,更开放地说明如何将AI嵌入产品和服务,坦率地说明AI是如何工作的,有哪些局限性和如何进行监管,并说明AI的使用将如何影响他们的日常生活,以增强公众的信心,为医疗AI创新获取更广泛的社会支持。通过制定伦理准则和完善监管制度,跟上已经到来的机器学习和人工智能时代。
在非常复杂的医疗健康领域,众多研究团队希望AI程序的应用能支持人类提供更快、更有效的医疗服务、诊断和分析,识别可能导致人类患有某种特定疾病的趋势或遗传信息,为发展中国家以及偏远地区解决医疗资源不足的问题。
人工智能技术与医疗的合理融合,将为社会提供更高效、精准、个性化的医疗服务。从目前的情况来看,医疗AI进入临床领域还有很长的路要走,要经过严格的伦理审查,做好医疗AI技术风险的监管。与其他领域相比,AI在医疗健康领域的应用应该更为谨慎,要以公众的安全为目标,因为失败的后果是沉重的,会让人类的生命、健康处于危险之中。人工智能的使用正在改变传统的医疗方法、流程、模式,甚至医患关系。此外就是责任问题,如果诊断结果是由算法驱动的,那么临床医生能够解释的内容可能就有限了,这就会颠覆传统的专业医生责任观念。法学界对使用人工智能系统发生错误时的责任分担、归责原则等具体问题还存在分歧。虽然,有许多风险判断都是推测性的,但在实施之前需要仔细考虑和研究。
公众对待医疗AI的应用前景有不同的态度,随着对我们的个人数据被越来越多地运用到与我们个人相关的决策分析上,人们对隐私、偏见和责任的担忧也越来越突出。如果科学家和实验室之外的人参与理解AI技术是重要的,那么如何设计人工智能科学中的公共参与活动与它们的实施同样重要。公众既是AI工具研发所需数据的贡献者,也是将来医疗AI技术的体验者和风险的承受者。因此,从公众的角度,理解医疗AI能做什么,不能做什么,了解其潜在的技术风险和伦理问题,对医疗AI的研发非常重要。从用户的角度出发,发展负责任的AI系统,我们需要考察技术的未来价值,包括临床影响、是否存在偏见、问责机制、对患者的影响,以及其他法律、道德和职业责任相关的考虑。
提高公众对医疗人工智能创新技术的理解还有许多工作需要做。实现这一目标的一个关键部分是,在这些技术得到推动和发展的同时,积极动员患者和更广泛的公众参与。如果医疗AI的研发人员不能与患者互动,可能会导致大量医疗AI领域的错误信息传播。政府部门、人工智能企业、专业团体、学术界及媒体必须协同努力,让公众全面、客观地了解医疗AI这些新技术的建立过程、用途、益处、局限性和风险监管措施,建立对其的信任和信心,以获得公众对医疗AI的广泛支持。
我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自各大过期杂志,内容仅供学习参考,不准确地方联系删除处理!