时间:2024-05-09
肖 峰
脑机接口(Brain-Computer Interface,简称BCI)是一种在人脑和计算机及外部设备之间建立起通信连接的技术,人通过它可以迈过自己的身体(肢体)而对外周设备实施“脑控”或“意念制动”,从而帮助身体残障的人士重拾行动的能力,所以具有特定的治疗作用,在此基础上还可以走向增强,由此对人的身体和认知等方面形成深刻的改变。对于脑机接口这样一种可以深度影响人的生存和发展状态的新兴技术,必然包含大量的伦理问题,从而需要遵循相应的伦理原则,其中既有一般的技术伦理原则(如善用、安全、公正、代价、责任等原则),也有特定的医学伦理原则,以及在此基础上衍生的需要专门侧重于脑机接口的伦理原则,这就是知情同意原则、隐私保护原则和治疗重于增强的原则等,可以说它们是脑机接口使用和研发中需要遵循的核心原则。
知情同意是医学伦理中的一项重要原则,它是尊重人的自主性的具体表现,而脑机接口由于是旨在恢复人的自主性的技术,是可以满足“恢复自为权和自主权”“增强自决权”等需求的技术,只有具备这样的能力,一个人才有权由自己决定是不是“同意”使用脑机接口技术,由此牵涉到知情同意的问题。但脑机接口的需要者通常也是一些很难表达自己意愿的病人,有的还因沟通上的困难而难于全面理解脑机接口的利弊风险,使得他们无论是对于治疗效果和风险权衡关系的“知情”,还是准确地表达自己是否“同意”(包括是否是建立在“知情”基础上的同意)或犹豫以及为什么犹豫等,都显得尤为困难,由此成为知情同意原则落实在脑机接口使用中的难题。
先来看看“知情”的复杂性。脑机接口的使用面临知情同意方面的特殊困难,首先在于这种医疗手段可能导致的种种后果之“情”难以被简洁清晰地阐释清楚以及被充分地理解,从而达到透彻的沟通。例如,相对其他方案来说,BCI技术所带来的风险和利益是否能被清晰地阐释并为患者所理解?患者是否被告知并接受BCI将从其大脑中提取信息这一事实?患者是否了解提取这些信息后可能导致的后果(如隐私的泄露,甚至可能引起法律后果)?对于脑机接口在知情同意问题上的复杂性,拉奥(Rajesh Rao)这样描述:在受试者是不能交流的闭锁综合征患者的情况下,应由谁来代替其进行知情同意?是否征得看护人的同意就足够了?对于有认知障碍、不能完全理解使用BCI所带来的风险与利益的患者,能征得他们的同意吗?
一些很复杂的可能性后果如何使患者或受试者知情?尤其是当其不具备相关知识从而不能理解某些后果的“确切含义”时如何达到知情?如人脑在接入脑机接口后对机器的适应性可能导致中枢神经系统潜在的有害变化,甚至对人的身心完整性带来风险,使得每个脑机接口的候选用户必须被正确告知脑机接口诱导的大脑适应性和可塑性的潜在有害影响。而理解这种可能的有害影响,必须通过细致的解释和沟通才有可能使患者明白。
另外,个体对BCI的知情常常还会受到公众对BCI的知情水平的影响和制约,后者构成前者的知识背景。公众对BCI的知情通常与媒体所进行的介绍和展望有关,媒体的介绍和展望不准确使得公众了解的脑机接口知识也不准确,从而使得接受脑机接口治疗的患者也对其寄予不切实际的希望。对此,脑机接口的一些业内人士甚至对媒体常怀“避而远之”的态度,甚至提出具体的建议:在与媒体谈论BCI时,最好不要对未来(3—5年左右)或目前无法预见的突破进行任何猜测。在哈斯拉格(Pim Haselager)看来,媒体可能对科学家的发言产生误解或进行不充分的解释,导致上述两个问题变得更加严重。正如大多数与媒体打交道的人都知道的那样,记者们头脑中会有一个他们想要告诉受众的特定故事,这是很正常的。即使事实并非如此,但媒体通常还是对可能发生的事情更感兴趣,而不是报道科学家的怀疑和保留意见。科学家的话也经常被支离破碎地引用,而不是出现在他们的完整信息中,从而很可能会被误解,这种误解如果再加以传播,其危害就会变得难以预期。因此,一个负责任的媒体在介绍像脑机接口之类的新技术时,要尽可能明确地关注科学“确定性”中包含的普遍局限性,特别是BCI在当前的有限性;需要将话题和说明性案例的讨论限制在短期内,避免误解或夸张的标题,不能煽动公众对新技术的过分主张或期望。可见,媒介伦理对于实现脑机接口的知情同意也是不可缺少的一环。
就是说,鉴于BCI研究存在独特的风险,以及受试者很难全面地想象和理解这些风险,使得向患者详细解释BCI的风险、缺点和益处是至关重要的,但在实践中非常复杂。尤其是对于植入式的有创伤的BCI的研究和应用,鉴于其潜在的风险而变得更加复杂,使得知情同意在BCI研究中尤其困难(尤其是在这种研究具有侵入性时)。
再来看看患者表达“同意”的复杂情况。脑机接口用来实施治疗的对象常常是那些缺乏知情同意所需要的自主表达能力的患者。脑机接口本就是用于“恢复自为权和自主权”的,而有了这样的自为自主能力后,人才能真正做到知情同意。也就是说,脑机接口作为治疗手段所面对的对象有可能是因为神经系统疾病而丧失了自主表达的能力,那么如何才能获得他们的知情同意?可以说,知情同意“对于非残疾人来说是不太复杂的,因为他们不存在交流的局限性和心理状态的不确定性”,但对于残疾人来说,尤其是对于失去自主表达能力的患者来说,要告知其治疗的信息并获取其真实的意愿,则具有极大困难和挑战性,因为患者可能连表达他们“同意”的能力都不具备;即使有了某种模糊的表达,也很难确定是在多大程度表示了他们的同意,是一种充分的同意还是勉强的同意。当然,脑机接口本来就是可以用来“读心”的,所以当患者失去自主表达能力时,是否可以用脑机接口来探测其真实的意愿?于是知情同意是否可以被脑机接口本身来代理?在目前的技术水平或对脑机接口“读心”的准确性的认可度上,这一代理的方案还很难得到普遍接受。因为至少在目前,认为BCI可以使那些根本不会交流的人进行交流,不过是媒体不恰当地夸大和粉饰所造成的误解。
哈斯拉格等人还专门探讨了患者表达的信号较弱或不可靠时所导致的在获得同意方面面临的挑战:如何才能确定研究人员和医生在多大程度上正确解释了患者的同意、需求或其他的信息请求?在可靠地识别病人“是”和“否”的特殊信号之前需要进行哪些相关的研究?一个微弱或模糊的信号是在表明生理上无法做出清楚的反应还是在表达病人心理上的矛盾、困惑或优柔寡断?我们如何知道病人是否能听到并理解问题、病人是否有认知能力得到正确的答案,甚至病人在任何给定的时刻都是有意识的?如果患者改变了他们的想法,如何才能准确地知道这种改变?如此等等。弗莱克(Rutger Vlek)等人则引用了一则案例提出这样的问题:仅仅出于对医生的信任而表达的同意是不是真正的知情同意?医生希望一位因中风而瘫痪的患者参与一项使用脑机接口是否可以加速康复的研究,该患者同时患有轻微的认知障碍,很难全面准确地理解这一研究存在的风险,但对自己的医生十分信任。这种情况下,即使是患者同意,也可能并不是建立在知情同意的基础上的,而可能是基于信任的强制性,所以有可能并不适合参与这一试验。纳切夫(Parashkev Nachev)等人则看到:完全的闭锁综合征(CLIS)患者伴随着知觉能力、思维能力和注意力的普遍衰退,会逐渐成为受意识障碍影响的人,而这样的人是否具有操作脑机接口所需的心智能力,这一点还不明确;目前关于意识的哪些方面必须存在才能使用BCI,以及如何在行为无反应的患者中检测到这些必要的意识,还是一个棘手的科学问题。这都给用于治疗的脑机接口带来了知情同意上的困难。
面对BCI背景下知情同意的难题,研究人员既提出了某些应对的原则,也有各种力图解决这一难题的构想。前者如,对于不构成重大风险的脑机接口,被试者只要能提供知情同意(Informed Assent,能回答是或否)就可参加,无须提供复杂的知情同意书(Informed Consent,能够问问题)。后者如,研究人员有责任尽可能清晰地与患者沟通,在最简单的层面上,包括确保明确地提出问题,并每次提出一个问题后,都给患者留出足够的时间来考虑和回答。如果病人在回答问题时没有“是”和“不是”的模态,而只是保持一种状态“是”,则必须采取适当的步骤来区分这是自愿的还是非自愿的反应。还可以精心设计一些实验,包括使用肌电图追踪,来对患者的回答加以客观的验证,甚至量化我们对患者交流能力的解释。显然,迄今还没有什么简单的伦理程序可以推荐给患者,但与患者进行反复且仔细地对话,应该能保证他们最大限度地了解BCI系统及其局限性和可能性。研究人员应该采取一切必要的措施来验证患者对所讨论问题的理解,可能通过适当的询问“理解”问题,或者让患者对风险和可能的好处进行评估。如果正在考虑的手术风险很高,那么要细致地了解:在何种程度上病人的决定是基于理性的,在何种程度上是基于绝望的(鉴于目前已知的治疗方法都不能带来希望)。需要尽可能确定病人不能接受的疼痛或风险程度。应澄清对BCI的期望,并小心地解决误解。特里(Peter Terry)指出,获得知情同意是一个过程,而不仅仅是在一张纸上签字。显然,如果病人的能力随着时间的推移而下降,尽可能早地开始这个过程是可取的,并尽一切合理的努力解释任何可能出现的情况。
归结起来,如何判定交流功能部分或完全丧失的患者的意愿,医生或实验人员如何正确理解患者的意愿,如何使脑机接口的效益与风险为患者所全面而透彻地“知情”,这些都是脑机接口在当前用于治疗所面临的难题。虽然使用脑—脑接口来与患者直接沟通仍处于概念阶段,但不失为将来更好地解决这一问题的依靠。患者在将来可以通过“脑沟通”来表达知情同意,这种脑沟通实际上也是通过脑机接口来获得“有效理解和处理所提供信息的能力,她/他整合所提供信息以做出连贯的个人决定的能力,以及她/他感知临床选择的相关性的能力”。所以,当患者从不具有到具有知情同意的能力时,也意味着他/她在这方面借助脑机接口而成了正常人。也就是说,为了使脑机接口适应症的患者能够充分做到知情同意,还需要开发能够进行脑沟通的更高水平的脑机接口;而追求和坚守知情同意的医学伦理原则,也可以成为提升脑机接口技术水平的强大动力。
隐私保护是脑机接口使用中面临的又一个重要的伦理难题。某种意义上隐私保护也是“知情同意”的另一种表述:在没有得到信息被采集者的知情同意之前,不能将所采集的信息用于其他目的,否则就是侵犯了被采集者的隐私。同时,脑机接口如果被有意地用来窃取他人的隐私信息,无疑是对技术的一种不正当的使用抑或就是技术的恶用。
从技术特性上看,脑机接口是可以读懂人的内心的技术;或者说,有效使用脑机接口的前提是要通过机器准确地“读出”使用者脑中的所思所想,即“读心”,这一环节使得大脑的信息即人脑深处的思想可能被彻底“坦露”在机器面前,而大脑信息可能是所有信息中最隐秘的和私密的信息,所以被专门称为“脑隐私”(Brain Privacy),它包括从大脑观测中获得的一个人的记忆、思想、大脑的健康状况及其他相关的信息。脑机接口所进行的脑信号监控,无异于使脑隐私完全透明化,其中包括脑机接口的使用者并不愿意被展露出来的隐私信息。当然,这样的隐私如果仅为机器所“知晓”,似乎还问题不大,因为无意识的机器并不会利用这些隐私信息去“有意”作恶。但记载有隐私信息的机器一旦被其他人(如医生和研究人员)所掌握和解读,则会因隐私泄露而面临后患。而且,这种泄露还可能有更多的方式甚至更糟的后果发生,例如,“在BCI和大脑之间进行无线通讯时,如果没有进行加密或所使用的加密技术不够强大,那么信息可能被截取……个人的思想、见解和信仰可能会被犯罪分子、恐怖分子、商业企业、间谍机构以及司法机关和军事组织窃取、记录和利用”。如果再有“脑间谍软件”(brain spyware)的帮助,则无论记忆于脑中的脑信息还是存储在数据库中的神经数据都可能被攻击者非法访问,从而数字存储的神经数据可能会被黑客窃取,或被用户授权访问的公司不当使用。这无疑会使隐私问题成为更加严重的伦理问题。
脑机接口的“读心”功能导致隐私不保的问题,尤其是当BCI被不正当使用的情况下,更可能被当作恶意收集和利用他人隐私的手段,这已为多方面的伦理研究所揭示。如阿加瓦尔(Swati Aggarwal)等人认为:用于解码人的情绪状态的BCI非常接近于大脑阅读;大脑植入物与大脑直接接触,这可能会侵犯用户隐私,与隐私有关的问题之一是信息安全问题,如果隐私信息被别有用心地利用,就会对用户造成损害。克莱因(Eran Klein)等人则看到:当闭环设备记录大脑的电活动时,它可以揭示各种信息,如心理特征、态度和精神状态,如果这种信息被黑客有意窃取,则极可能对用户造成有害后果。弗莱克等人指出:在使用脑机接口时,受试者可能没有意识到从自己大脑获得信息的程度,而BCI设备可以揭示出各种信息,这些信息可能会引发潜在的问题,如在工作场所中的歧视。安东尼(Sebastian Anthony)指出,脑机接口可能会为怀有恶意的人提供针对人们大脑的手段,如黑客可能会将图像传输到BCI用户的大脑,然后从用户的潜意识大脑活动中提取知识,挖掘或窃取数据信息,甚至对被入侵者的大脑进行破坏和控制。伊恩卡(Marcello Ienca)和哈斯拉格还用“无线劫持”来描述可能发生于脑机接口领域中的隐私侵犯,一些黑客可能通过无线技术手段对神经刺激疗法进行恶意的重新编程,产生有害的大脑刺激,并窃听大脑植入物发出的信号,从而窃取他人的隐私信息。
即使是“正当”地使用脑机接口,也可能会“连带”地牵涉到隐私暴露问题,如为了监控和改善一个人的注意力而佩戴脑机接口头环时,也会同时发现其抑郁、焦虑、愤怒或疲劳等脑部活动状态,而其中就可能包含BCI使用者所不愿透露的隐私情绪。
就是说,当人脑的信息可以被脑机接口“读取”时,就意味着脑中的隐私有可能遭到泄露或窃取;一旦接上脑机接口(包括植入脑机接口)后,我们的思想就处于可被全盘扫描、读出和监控的状态之下,使得“大脑窃听”“人脑入侵”可能时时发生,我们就无时不处于泄露自己私密信息的危险之中。脑机接口此时形同于“探照灯”,接入它的人则形同在探照灯下“裸奔”,人的尊严受到严重侵犯,人的基本权利得不到保障。斯拉沃伊·齐泽克(Slavoj Zizek)这样描述:在过去十年间,激进的数字化联合扫描我们的大脑(或通过植入追踪我们的身体进程),开辟了所谓的后人类前景,这实际上对内部与外部之间的扭曲关系构成了一个威胁,即我们正在面对一个对我们无所不知的外部机器,从生理到心理,比我们自己还要更懂我们;(这个机器)记录了我们吃过、买过、读过、看到和听到的一切东西;懂得我们的情绪、恐惧和快乐,这个外部机器将绘制出一个比自我意识更准确的画像。脑机接口的这种“功能”,当其成为一种被普遍使用的手段时,如果再被恶意地窃取隐私,就会造成人人自危的局面。
脑机接口的使用中不仅可以发生直接“读心”而导致的隐私泄露问题,还可能产生因数据的生成和储存所形成的隐私被侵犯的危险,因为这些数据中可以提炼出对个人特性的全面而准确的描述。坎利(Turhan Canli)对此指出:“脑成像数据再结合一个人的生活史和遗传信息,就可以十分准确地预测这个人的行为和性格。”在实验中使用脑机接口的一个重要目的是为了记录和获取大量的数据,对此,拉奥提出了一系列询问:“在实验中记录的是哪一种神经数据?这些数据会揭示出一些受试者不愿意透露的个人信息吗?这些数据要存储吗?如果要的话,需要存储多久?又是出于什么目的呢?受试者的数据能与其他研究人员共享吗?这些都是研究机构的伦理审查委员会在对部分人类受试者进行审核的过程中的典型问题。”即使不是直接的隐私信息,也可以通过“隐私挖掘”技术从脑机接口所记录的数据中获取大量隐私信息,类似于从一个人的神经元中“提炼”出他的隐私。人本来就置于大数据的监控之下,而置于脑机接口之下后,人比置于大数据之下更加“透明”,也更加软弱,其受控和受制将更加彻底。
脑机接口的未来设想中还有所谓“心联网”或“脑云接口”,即通过脑机接口实现人脑与人脑之间或人脑与云端数据库之间的互联。面对这一高级形态的脑机接口,首要的问题是“你愿意接入吗?”显然,如果选择接入,你的个人隐私就可能全部暴露,你“内心世界”的一切都可能成为网络上被“共享”的公共信息,你将完全失去内心的神秘性、神圣性、个体性和私人性,与那些没有接入的人就会形成一种新的不平等,即在脑—脑接口中形成一种“单向接入”:我可以进入你的脑中直接读取你的心灵,而你不能进入我的脑中读我的内心;从而“我知你心”而“你不知我心”,形成一种不对等的脑—脑接口,这种不对等将是心灵深处的不平等,是基于对隐私掌控的最深重的不平等,因为一旦人脑中的隐私被掌握技术优势的人所侵蚀,失去隐私的人就会沦为完全服从他人的奴隶。基于“读心”的隐私窃取,最终可能进一步发展为“控脑”即控心的技术,这种技术可以“直接控制你的认知体验,进而让你改变你的看法。将来只要有几个工程师研发出一种技术,人类对这个世界的体验就会瞬间重塑”。所以如果不提前解决好隐私保护问题,将使人人都对“脑云接口”望而生畏。在施旺(Melanie Swan)看来,要想让个人愿意加入云思维,其中的一些必要条件包括隐私、安全性、可逆性和个人身份的保留,至关重要。
脑机接口在以后还会以无接触的方式存在,它可以通过极度灵敏的感受器来探测远处的人脑信息,读取其脑中的所思所想,人的内心世界成为很容易就可外在化的观察对象,这必然对隐私的保护形成更严峻的挑战,以至于不得不质疑脑机接口的使用是否意味着“隐私的终结”?可以说,大脑信息或数据是隐私的最终保留地,一旦它可以被容易和随意地探测与收集,就不再有任何隐私可言。
隐私保护对人来说确实重要,因为如果没有隐私,就不可能有真正的自由。“有的哲学家认为隐私是一种基本的不能削弱的权利……隐私权是一种其他重要权利诸如行使个人自由或个人自主权的必要条件。”“隐私是每个人真正自由的认证”,“它使我们做我们自己”,“实现真我”,并在与外界隔绝的情况下“变得更具有创造性,获得精神上的发展机会”;它也是人们“对自己道德行为负责的一种方式”,“如果人们没有隐私权,那么他们就要一直在公众场合戴着面具,这不利于他们的心理健康”。而脑机接口使得直接访问人的大脑(中的隐私)成为可能,许多神经伦理学家认为这将促使人类有必要更新基本人权,这就是对隐私的尊重。
同时,我们也需要用更全面更开阔的视野来分析这一问题。在现实中,一些技术的使用必须以让渡一定的隐私为代价。通常的医患之间也存在这样的关系:如果患者为了保留自己的隐私而不将病情信息充分地告知医生,就可能导致自己的疾病得不到适当的医治。脑机接口的使用也与此类似:为了有效地发挥BCI的辅助功能,使用者必须让渡自己的(一部分)隐私。凯文·凯利(Kevin Kelly)甚至因这种让渡的好处主张我们改变对隐私的定义和看法,他把泛在的监控看作是“互相监控”,认为这是一种使人与人的关系更加对等的行为。他还举例说明人被监控的好处:假设我是个卖菜的,菜市场里的摄像头可以监控我,同时也会帮我看管财物,这就是监控的好处。他还认为隐私只需要有少量的存在,如果过多保留就会有害,例如,它可能被用来作为逃避责任的托辞。这也是一些互联网伦理学所主张的观点,“如果个人有太多的隐私,社会可能会受到危害”,因为,“有的人会利用隐私来计划或者实施违法或不道德行为,很多恶行都是在隐私掩护下完成的”。
这些主要由互联网带来的关于隐私的不同看法,也启示我们对脑机接口中的类似问题进行视野更为开阔的伦理评估。其实,这种开阔的视野说到底是寻求平衡的视野:既不能因为脑机接口的使用而造成人的隐私权受到威胁,也不能因为过度的隐私保护而弃绝脑机接口的使用,尤其是作为治疗手段的使用。这里需要有收益与代价的分析,尽管十分困难,但也要尽力找好两者之间的平衡点,细化出哪些隐私是可以公开的,哪些隐私是不能泄露的,在严格保护必要的隐私的前提下,适当放松对次要隐私的管理,以便给新技术的使用腾出空间。就研发人员来说,脑机接口技术的设计既要确保其“读心”的精准性,又不能让技术具有过度侵犯使用者隐私的功能。把握好这些平衡点后,再结合知情同意的原则,使脑机接口的使用者在明确知道隐私风险的存在及可能波及的程度的前提下,根据代价与收益的权衡比较而做出自主选择。在哈斯拉格看来,这种知情同意甚至也包括在BCI研究中,应该尽早询问患者,有关他们的信息在多大程度上可以用于出版物、会议或新闻发布,这应该成为一项政策。
可以说,起于治疗的脑机接口不可避免地要走向增强,因为将其用于治疗时就可能形成超出“正常”标准的增强效果,甚至改变或提升健康的标准。医学的基本目标之一是治疗人们健康状况不佳、异常或令人痛苦的东西。然而,评估什么被认为是功能障碍的标准必须重新检查,因为不能简单地参考物种典型水平的物种典型功能,因为人体的功能可能会以各种方式发生潜在的改变。就是说,由于治疗和增强的界限有时是模糊不清的,脑机接口用于治疗时难避涉及增强,进而走向专门的增强。一旦脑机接口从治疗过渡到了增强,我们自然就会面临“增强伦理”的问题。
脑机接口的增强伦理,某种意义上更是脑机接口的独特伦理,它不能违背既有的医学伦理,但又超出了既有的医学伦理,因为医学伦理主要针对的是治疗,而增强虽然也可以视为治疗的延展,但毕竟有性质的不同。所以,当脑机接口用于治疗时,所遵循的也主要是既有的医学伦理,但一旦延伸到增强,则需要建构新的伦理原则。如同约特兰(Fabrice Jotterand)在讨论脑机接口的伦理问题时所看到的:对于治疗,除了与正确使用技术有关的问题(安全性,风险,避免不必要的伤害,生物相容性等)外,没有提出新的伦理问题。当我们超越治疗时,我们进入了一个未知的道德领域。由于人类增强(尤其是人性的改变)观念提出了陌生的伦理挑战,因此有必要探索其潜在的伦理和哲学含义。围绕增强和改变的问题是对我们自己最深刻理解的核心,因此值得仔细研究。
增强伦理的不同还在于它与治疗的脑机接口相比较来说,具有“假设性”。在脑机接口的先驱沃尔帕(Jonathan Wolpaw)看来,“恢复或替代自然的神经系统输出,或改善自然的输出使其等同于没有残疾的人的那种输出;增强的脑机接口:增强或补充自然的神经系统输出或提高自然的输出以达到超常的水平——后者所引起的额外的伦理问题在很大程度上是假设的”。假设的伦理问题面对的是未来可能出现的情形,还不具有眼下的迫切性和现实的可实施、可检验性,其意义也就具有“悬而未决”的性质。但即使如此,人们也绕不过这些问题,这或许是人具有面向未来和未雨绸缪的天性所使然。
首先我们面临的是增强的道德合理性问题:将脑机接口用于追求增强是道德的吗?因为当脑增强超出医学目的时,诸如安全,自由,真实性,平等,公平等道德价值观可能会受到损害。用于增强的脑机接口因并非必要的治疗且存在巨大风险,可以想象到的及想象不到的伦理和社会问题(如新的不平等)纷繁复杂,所以面临的道德争议很大。沃尔帕认为:“一些可以使人获得更大优势的新技术,具有加大社会分层乃至分裂的风险,所以贝尔蒙报告反对利用神经外科手术(植入式脑机接口)来增强自然中枢神经系统的输出,由此提供了这样做的根据:推迟BCI植入没有残疾的人,直到已经基本消除身体风险,已建立了独特的益处,以及更好地解决了这些社会问题。”这里的社会问题无疑包含了社会分化甚至分裂的问题,这一问题如果缺乏有效的解决机制,脑机接口用于增强的实施就只能暂缓。
但同时也要看到,追求更强大、更聪明是人的本能,如果永远限制脑机接口的增强性研发和应用,脑机融合就很难取得实质性进展,技术使人得到新进化的潜力就可能得不到实质性的开发,人的体力和智力就可能永远得不到实质性的提高,在这个意义上研发和使用增强性的脑机接口也是道德的。只不过,当其在与治疗的用途发生冲突时,当其在安全性得不到保证时,就一味地追求增强,则是不道德的。所以脑机接口的增强需要在确保脑机接口安全的前提下才能进行。
脑机接口在未来作为一种增强技术来使用时,可能带来的较为尖锐的伦理问题就是使一些人获得竞争优势而另一些人处于劣势,从而造成人与人之间新的不平等。拉奥列举了一系列由BCI增强带来的这类问题:“脑机接口在未来能使人的记忆、感觉和身体得到增强这一事实,可能会导致社会的两极分化,产生‘有增强’和‘没有增强’两种新类型。例如,富人们可能会让他们的孩子在年纪还小的时候就植入BCI,让他们在心理和身体能力上具有优势。而那些没有能力购买BCI的人毫无疑问会落后,从而可能产生严重的社会后果,这可能导致更大的贫富差距。类似地,一些国家能给他们的公民和士兵装备BCI,从而对那些无法这样做的国家形成鲜明的优势,这可能扩大发达国家与发展中国家之间的差距。”这样,使用者和非使用者之间、国家与国家之间,从而人与人之间形成新的不平等。获得BCI赋能的优势群体与未获得这种赋能的“劣势”群体之间的差距有可能是天壤之别,社会排斥和冲突由此变得更为激烈和深重,社会的不公平也会加剧。可见,脑机接口的增强伦理与技术的公平使用原则之间具有十分紧密的关联性。
不恰当的应用还可能造成增强者的不利于社会的改变,如某些发达国家的军方正在研究让士兵更适合执行军事任务的神经技术,这就有可能使这些士兵的大脑被迫接受脑机接口的干预,并被改变为更少同情心和更加好战、成为更像“战争机器”式的人。这样的人多了,显然对世界的和平、社会的安定极为不利。当然,也可以根据其他的需要将人脑变得更加顺从,这同样会导致可怕的社会后果,即社会成员不再有“异见”,也不再有活力。
增强性脑机接口对大脑的改变还可能不只是针对部分人的,而是针对所有人的,这种前所未有的改变就是要造就出所谓的“超人类”,这是对人性或人的本质施加了根本性改变的结果。接受这一结果就意味着一种全新的伦理原则替代传统的伦理原则,这种新伦理也被称为“物种改变的伦理”,它牵涉到对一系列问题的“接受度”,如整个社会是否能够接受由增强延伸到“改变”:对人作为自然形成的物种的一种新的技术性改变,从而在此基础上造就出一种新物种。能进行增强和改变的脑机接口技术设备具有什么样的“道德地位”?它们是否与“生物成分”具有相同的道德地位?我们是否允许将自然造就的人转变为“技术控制的对象”?这其中也包括了人性改变(即人的“类本质”的改变)的道德接受度:人性的保持与人性的改变之间具有怎样的张力?是否可以允许人们无限地改变自己的身体?是否需要以及在何处设置这种人性改变的极限?科学界应该制定进行这种人性改变的标准吗?如果应该,那么根据谁的标准来设定对人性改变的限制?这些可能都是脑机接口用于增强乃至人性的改变时需要应对的前所未有的伦理问题。
通过脑云接口将自我意识和人生经验的记忆上传到“云端”或别的智能机器载体,或通过脑机接口对人脑进行扫描和模拟而形成数字大脑,其运行可以不再受到身体的限制,借助这些手段而实现人的技术化“永生”,这将是对“人皆有死”的生命观和人伦观的挑战。关于永生的追求自有人类以来就从未止息过,只是源于“有生必有死”的主流信念,对于不死的永生在绝大多数人看来只是不切实际的幻想。一旦脑机接口技术以某种独特的方式直接或间接地实现了所谓的永生,那么又需要建构一种什么样的“生命伦理”来对这样的追求或行为加以规范?进一步看,当人可以以无肉体的信息方式存在并“活着”时,建基于物质世界的伦理规则需要进行什么样的改变?摆脱了肉体限制的“信息人”的自由是一种什么样的自由?信息世界中的信息人之间的伦理关系如何建构?或者说,信息人之间还需要伦理关系来维系吗?
可见,脑机接口的增强在将我们引向未来的发展时,也引入了未来的哲学与伦理学新问题,这些并不现实的伦理问题在当前确实只具有“科幻”的性质。但我们知道,脑机接口就正是由科幻变为现实的典范,诚如哈斯拉格所言:这种对BCI可能实现的目标的关注本身并不是令人反感的。如果没有人期待在合理的时间内取得重要的进展,BCI就不会像现在这样是发展最快的领域。而就与BCI的道德影响有关而言,潜在的问题发展需要在它们出现之前识别出来,以便它们可以得到适当的处理。所以提前思考未来的用于增强的脑机接口可能产生的道德伦理问题,对于BCI健康地走向未来无疑具有引领或“未雨绸缪”的意义。
总之,应对脑机接口技术的研发和应用中所面对的种种伦理难题,既需要技术水平的进一步提高(如脑脑沟通以解决知情同意问题),也需要专门的脑机接口伦理的建立和完善,即在技术努力和伦理建设“两条战线”上不断提高对上述难题的破解水平。同时需要脑机接口技术的使用者、研发者、媒体等众多参与者的积极协作,在推进新技术的安全性和有效性上形成互相支持的关系。此外,哲学的积极介入也十分必要,尤其在如何处理脑机接口使用中收益与风险、隐私保护与病情知晓、治疗与增强、眼下与未来之间的关系上,用辩证的眼光和方法来加以平衡。只有将应对脑机接口伦理难题的各种手段和“工具”加以充分地开发和使用,人类才能在脑机接口时代到来时收获更满意的成果。
我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自各大过期杂志,内容仅供学习参考,不准确地方联系删除处理!