当前位置:首页 期刊杂志

人工智能技术的伦理问题——一种基于现象学伦理学视角的审视

时间:2024-07-29

孟   伟, 杨 之 林

(大连理工大学 哲学系, 辽宁 大连 116024)

一、两种AI与两种AI伦理

与农业和工业等领域中的大多数技术及其伦理问题的讨论不同,近年来学术界关于人工智能及其伦理问题的讨论,很大程度上源于并着眼于人工智能技术自身的特殊性,即人工智能可能在未来发展出具有自主性智能体(autonomous agent)的技术成果。因此,人工智能技术的伦理讨论不仅涉及到一般性的技术伦理问题,而且涉及到可能具有自主意识和行为能力的人工智能体所产生的特殊伦理问题。

从人工智能技术自身的发展以及相关讨论来看,人工智能一般可分为弱人工智能(weak AI)研究和强人工智能(strong AI)研究。前者设计的“‘机器能够智能地行动’(或者也许更确切地,其行动看起来如同它们是有智能的)”,而“‘能够如此行事的机器确实是在思考’(与模拟思考相对)的断言则被称为强人工智能假设”[2]。弱人工智能着眼于类似人类智能的设计,因此也可称为非自主性智能体的AI研究,而强人工智能着眼于真实人类智能的设计,因此,这种研究也可称为自主性智能体的AI研究。按照部分学者和大多数工程师的看法,当前的人工智能研究主要是非自主性智能体的研究或者说属于弱人工智能研究。从研究成果来看,弱人工智能是指问题求解、专家系统等各种模拟人类智能的技术,而“强人工智能是指有自我意识、自主学习、自主决策能力的人工智能,也是人工智能发展的终极目标”,强人工智能的实现还有很长的路要走,因为还面临着诸如意识问题等棘手难题的解决[3]。也就是说,目前颇为兴盛的人工智能研究成果基本上体现了弱人工智能研究,而强人工智能研究还基本停留在设想以及有待于成为现实的阶段。

立足两种人工智能技术,人工智能的相关伦理讨论也可以分为两种,即弱人工智能伦理与强人工智能伦理。或者说,人工智能伦理可以在两个层面上讨论:一是作为一般性技术伦理问题的人工智能伦理,这一层面同时适用于弱人工智能和强人工智能研究;二是作为特殊性技术伦理问题的人工智能伦理,这一层面更适用于强人工智能,或者说更适用于自主性智能体伦理问题的研究。如果从机器人技术这一特定领域来审视人工智能伦理研究,那么非自主性智能体和自主性智能体的技术伦理,大致对应于机器人伦理学(roboethics)和机器伦理学(machine ethics)研究[4]。机器人伦理学的任务是对设计机器人的人类主体进行规范性约束,而机器伦理学则是研究如何使人类所设计的人工智能系统在行为上具有伦理性[5]。机器人伦理强调的是在机器人研究中的外在伦理规范问题,而机器伦理则强调“在机器中嵌入符合伦理原则的相关程序,使其能够为使用者提供伦理帮助或者使机器自身做出伦理决策,这是一种内在于机器的伦理”[6]。机器人伦理更多是将机器人研究作为一般性技术进行伦理审视,而机器伦理则涉及到机器如何成为具有自主能力的伦理智能体。当然,两种伦理研究之间并不是割裂的,机器人伦理的研究制约着机器伦理的研究,或者说,作为一般性技术的AI伦理可能制约着作为特殊性技术的强AI伦理研究。更具体地说,弱AI与强AI在一般性技术伦理与社会影响等方面可能面临着同样的问题,而与弱AI相比,以自主性智能体为目标的强AI可能还面临着更为特殊的伦理和社会问题。

二、AI的一般性技术伦理问题

几乎所有的技术都面临着技术设计和使用等层面上的一般性伦理问题,因此,不管是自主性还是非自主性智能体的AI研究都需要思考一般性的技术伦理问题。

与其他技术领域相同,人工智能技术也需要考虑技术设计者、制造者和使用者的责任伦理问题,尤其是需要明确技术主体遵循一种针对道德主体的内在伦理规范要求。学界普遍意识到,“现阶段探讨人工智能伦理,主要是指加强人工智能设计伦理,旨在保证优先发展造福人类的人工智能,避免设计者和制造出不符合人类价值和利益的人工智能”[7],即当前的AI伦理主要讨论技术设计者和使用者等道德主体的道德责任问题。事实上,当前众多人工智能技术的应用都涉及道德主体的道德责任问题。例如,Facebook与剑桥分析政治数据公司的合作所导致的大规模侵犯用户隐私的问题,就表明AI技术的使用者在诸如信息数据的使用上不应轻易受到经济和政治利益的左右,而应当承担相应的道德责任。在AI植入伦理规范的问题上,算法设计者们也应当承担公正和客观的道德责任,从而尽可能保证将既有法律或道德准则原封不动地编写进程序[7]。

按照罗尔斯的理论,内在道德责任感源于作为社会正义的外在伦理规范,因此AI的责任伦理可能需要依赖于完善的伦理规范,这些伦理规范最终可以内化为人工智能技术从业者的道德主体责任。例如,人工智能医学诊断领域就有必要制定相关伦理规范来界定专家系统诊断失误导致的过失责任等问题,这些规范能够反过来强化内科医生的道德责任感。例如,在美国部分州法庭看来,专家系统类似于医学教科书,医生有责任理解决策背后的推理以及自己判断是否接受系统建议;而在自动驾驶技术方面,程序一般不被当作“司机”,虽然没有法律来制裁自动驾驶超速行为,但是一旦出现事故,车辆控制机构的设计者应当承担责任[2]740。这些法律规范的形成能够有效地影响道德主体道德责任的养成与界定。

除了AI技术伦理中的责任伦理和伦理规范问题外,人工智能与其他技术一样面临着可能引发相关社会问题的乐观或悲观看法。例如,悲观者担心AI技术可能会带来严重的失业问题,乐观者则认为人工智能技术创造的工作机会远高于带来的失业。总之,AI技术伦理也需要从更大社会系统层面来讨论技术本身所带来影响,需要在过分担忧和过分乐观之间寻找一种伦理平衡。

三、AI的特殊性技术伦理问题

与其他技术不同,人工智能技术的发展可能制造出与人相同甚至超出人类自身智能的自主性智能体。因此,与一般性技术伦理不同,人工智能技术的伦理问题也变得更为特殊和复杂。“在错误的手中,几乎任何技术都有造成伤害的潜在可能,但是对于人工智能和机器人技术来说,我们的新问题在于:错误的手也许正好属于技术本身”[2]740。这表明,技术设计和应用等传统问题可能不再是伦理考量的关键,智能体的伦理自主性可能成为AI伦理的聚焦之所。

能否实现强人工智能是讨论自主性智能体AI技术伦理学的前提。一方面人们认为自主智能体的研究可能在未来成为现实,因此有必要未雨绸缪讨论自主智能体的伦理问题。另一方面人们也深度怀疑自主智能体的实现。例如,20世纪中期杰弗森(Geoffrey Jefferson)质疑图灵,“直到一台机器能够出于思想或者感受到的情感,而不是由于符号的偶然飘落,写出一首十四行诗或谱写一首协奏曲,我们才能同意机器等同于大脑——也就是说,不只是写了,而且要理解它所写的”[2]733。当代从事人工智能研究的大多数专家也主张,“拟人化地看待人工智能,甚至担忧其作为一个新物种毁灭人类,有些杞人忧天了。人工智能在单一领域可能比人类强很多,比如下棋、运算,但要让人工智能像人类一样能思考、有意识,短期内不太可能实现”[7]。阿西洛马人工智能原则中也以“能力警惕”的概念提到这一伦理争论,“我们应该避免关于未来人工智能能力上限的过高假设,但这一点还没有达成共识”[8]。可见,能否制造出具有人类智能的自主智能体,这是讨论自主智能体AI伦理研究的前提。

对于强人工智能伦理学的讨论当然假定了这种自主性智能体的目标是可能实现的。如果科学家相信强人工智能可以实现,并且努力去实现这一目标,那么,自主性智能体的设计与制造就将会产生特殊的伦理规范要求。阿西莫夫科幻作品中提出的“机器人三定律”正是在满足这一前提下产生并且被视为未来自主性智能体的伦理规范要求。这些规范意味着,如果遵循“机器人三定律”进行强AI研究,那么就能够实现自主性机器人服务人类利益、与人类的友好相处的目标。与此相同,当代阿西洛马人工智能原则中也提到,“高度自主的人工智能系统的设计,应该确保它们的目标和行为在整个运行中与人类的价值观相一致”[8]。

如果强AI满足上述规范要求,那么强AI技术伦理可能还需要回答自主性智能体如何具有道德意识的问题,以及应当具有何种道德意识的问题。具有何种道德意识依赖于强AI的道德规范,因此更关键的问题在于如何具有道德意识,即如何在设计和制造过程中为自主智能体植入伦理规范乃至道德意识的问题。就目前来看,人工智能的设计存在着“自上而下”(与人类智能进化相反,从知识到符号组织再到信号处理,从而完成机器行为设计)和“自下而上”(立足人类智能进化,从信号处理行为等低级智能为符号加工活动等高级智能奠基)两种设计思路[9]4-5。与之相应,道德规范和道德意识的植入和生成也相应存在两种路径。一种是体现“自上而下”理念的、算法承载道德规范的设计思路[7];另一种可能是基于身体图式的道德认知基础并以此实施的“自下而上”的道德规范设计[5]。

自主智能体在未来成为现实可能还会带来特殊的伦理、法律等社会问题。例如,正如Sophia成为世界上第一个获得公民身份的机器人所引起的争论,人们需要回答,如果自主智能体与人具有同等的智能,那么它是否具有与人同等的身份和权利地位;如果自主智能体与人具有同等的智能,那么人类自身的独特性是否会丧失,其与人类的关系又当如何界定;如果自主智能体与人具有同等甚至超出人类的智能,那么这种“超人类主义”或超级人工智能是否如霍金所言会带来人类种族毁灭的风险。对此,有的人认为,一旦人类创造出超人智能,那么人类时代将走向终结;而诸如莫拉维克(Has Moravec)等人则认为,“它们将相当迅速地取代我们的存在。我并不因为这后一种可能性而像许多人一样惊慌失措,因为我认为这些未来的机器就是我们的后裔,是依照我们的想象和喜好建造的‘精神子孙’,是更强有力形态的我们自己,如同目前世代的生物形态子孙一样,它们将承载着人类对长远未来的最美好希望”[2]741。

四、作为规范和描述伦理学的现象学伦理学

“哲学之所以要成为一门严格的科学,只是因为我们必须过一种伦理意义上的严肃生活。”[10]35自现象学奠基人胡塞尔开始,伦理学被视为现象学哲学的应有之义。而现象学伦理学与其他伦理学思想的一个重要区别,则是现象学伦理学区分了描述伦理学与规范伦理学,并且将描述伦理学视为规范伦理学的基础。

道德现象的复杂性伴随着道德规范的多样性,但是源于人与动物区分的西方哲学总体上主张将人类自身幸福作为伦理学思考的首要规范。例如,亚里士多德将人类生活得好(live well)作为伦理学的终极目的,而“中世纪的亚里士多德”之托马斯·阿奎纳则指出,伦理学“关乎人的整个生命和人类生命的终极目的”[11]653。现象学的规范伦理学接续了西方伦理学的发展传统,包含着“关于应然的学说和关于规范的学说”的胡塞尔现象学,也希望“通过某种伦理关怀完成人性改造,实施人类升华和人类拯救”。这种着眼于改造人类生活的规范伦理学也被称为“改造伦理学”[12]。

胡塞尔的“改造伦理学”明确了提升人类幸福的规范目标,另外,现象学伦理学又明确指出了这种规范伦理学应当建立在一种描述伦理学基础上,即“建立在关于实然的学说和关于本体的学说的基础上,即建立在对自然、心灵、精神在意识之中的构成分析的基础上”[12]。这表明现象学伦理学与现象学哲学具有相同的理路,“如果胡塞尔提出的‘现象学’代表了一种人类哲学思考的基本方式,那么胡塞尔意义上的‘现象学的伦理学’就应当是指通过这种思维方式对伦理现象所作的观察以及对其本质结构和本质发生的把握,并在此基础上进一步提出并论证各种伦理要求,说明和制定各种伦理规则”[12]。进而,如同现象学哲学被视为一种描述的心理学,现象学伦理学根本上更应是一种描述伦理学,“严格意义上的‘现象学的伦理学’是一种反思的和描述的伦理学,也可以被称作直观的伦理学,即它首先由对‘我如何以及为何意识到好/善’的直接描述分析所组成。而后它才是规范的伦理学,即它最终会在直观的基础上提出‘我应当……’和‘你应当……’的基本准则”[12]。

作为描述伦理学的现象学伦理学实质上是一种道德意识的发生学。按照倪梁康先生的看法,这种道德意识的发生学即“是在现象学反思中进行的对道德意识的有意无意的本质直观”,是胡塞尔所说的“在现象学上得到论证的纯粹伦理学”,这种描述的现象学伦理学与其说是一种价值伦理学,不如说是一种道德心理学,或道德意识现象学[12]。由于现象学哲学首先是一种意向性的哲学,因此描述的伦理学也就是一种道德意向性学说。在胡塞尔看来,意向感受行为的分析构成了胡塞尔伦理学思考的基础。因为,如果人们离开感受,那么就不能谈论“善”和“恶”;客体通过它们的价值调动起我们的情感或欲求,而价值则源始地是以感受-价值的方式给予我们的[13]。

另一位重要的现象学伦理学家舍勒同样认可首先作为一种意向性伦理学的现象学伦理学思想。舍勒首先认可现象学伦理学基于现象学意向性哲学,如现象学家黑尔德所指出,“虽然现象学的伦理学——首先通过马克斯·舍勒——乃是以一种价值论、而非以一种意向性伦理学而闻名于世。然而,只要一种价值理论不是从现象学方法的基本原则出发、不是从显现者与显现的相互关系原则出发而被建造起来,它便是没有根基的空中楼阁:无论人遭遇到什么,这些遭遇到的东西都是在相应的特殊的进行活动中获取其规定性,它们在这些进行活动中被给予人”[14]。舍勒进一步明确了一种情感的意向性关系的基础性,主张“任何一种对某一对象的智性的如在(Sosein)把握,都以有关此对象的情感的价值体验为前提”[13]。例如,“喜欢”已经可以构成一个单独的感受行为,它原初地指向它自己的对象——某种价值。这个感受行为与对“一段声音”的表象行为可以说是相互独立的两个行为。倪梁康先生由此判断,“我们甚至可以说,舍勒的伦理学就是一种价值感受的现象学”[15]14。

五、人工智能的现象学伦理学

现象学伦理学意味着从道德意识的发生学和由此产生的规范层面将会对AI技术伦理的思考产生双重启示。总体上,当前关于AI技术的讨论主要集中于规范伦理学范围,即对于AI技术来说,如何以不损害人类的利益为前提在技术主体与客体等方面制定合理的道德规范。

按照现象学伦理学关于规范伦理和道德意识发生的描述伦理的区分, AI伦理的讨论需要首先区分作为一般性技术伦理和作为特殊技术伦理的问题。此外,作为特殊技术的AI关注的是具有自主性道德意识的智能体,而现象学描述伦理学由于涉及道德意识的发生问题,因此就有可能为特殊技术的AI伦理学思考提供参照。现象学的规范伦理学可以适用于AI的一般技术伦理思考。胡塞尔的“改造伦理学”、海德格尔对技术的反思乃至对诗意生活的向往,这些都表明人类生活得更好可以作为AI技术的最高道德规范。这意味着,不管是着眼非自主智能体还是自主智能体的AI技术,它们都需要一种人本主义的现象学规范伦理学。

现象学的描述伦理学实质是从现象学的意向性认识关系出发,通过现象学直观来呈现道德意识关系的发生。可见,描述的伦理学揭示的是作为一个道德主体是如何具有道德意识的。从道德意识的发生学来看,强人工智能伦理学需要讨论自主性的机器人如何能够具有道德意识,从而显示出相应的道德行为。

现象学的描述伦理学不仅表明自主性智能体的AI伦理学需要考虑道德意识的生成,而且为技术层面AI如何具有和显现道德意识提供了有益启示。强人工智能着眼于真实人类智能的研究,这意味着着眼于自主性智能体的强AI技术将涉及到如何使AI具有道德意识的问题。如果像梅洛-庞蒂基于身体体验的知觉现象学等道德意识的描述现象学所主张的,道德意识的产生是“自下而上”的,那么自主智能体的道德意识的生成也可能是“自下而上”的,或者说,“自下而上”的道德规范植入就将比“自上而下”的道德规范植入更为有效、更符合自主智能体的需要。

六、结 语

现象学伦理学既是面向人本主义的规范伦理学,又是注重道德意识生成的描述伦理学。同样,人工智能技术既有面向人本主义的规范伦理要求,也有如何生成和植入道德意识的智能技术要求。在结合现象学伦理学思考人工智能伦理时,还应当谨慎地注意到,尽管现象学更为重视描述伦理学对道德意识发生的研究,但是这并不意味着人们在AI技术伦理实践上就应当无条件地遵循。第一,AI伦理的思考应基于AI技术本身的现实发展,如果AI技术在实现自主智能体的研究上依然存在严重的争议,那么,AI伦理更应当将对技术设计、使用等问题的规范伦理思考置于优先地位。也就是说,就AI技术本身的发展现状来看,规范伦理学可以优先于描述伦理学的思考。第二,如果认可AI技术可能存在着由非自主智能体向自主智能体的技术进化,那么基于AI技术的特殊性,应当在实践中坚持伦理优先于技术的原则,即如同克隆技术的社会伦理问题始终优先于克隆的技术问题,对于AI技术的伦理思考也应当优先于技术的发展,诸如AI技术的开发者“应该始终把人工智能对社会负责的要求放在技术进步的冲动之上”[16]。第三,在非自主向自主智能体的技术过渡进程中,尤其是在逐步开发强人工智能的过程中,人类不仅应时刻警醒以伦理要求来抑制这种技术冲动,而且在社会层面上还应当立足伦理来加强和改进监管,从而尽可能地适应新技术的快速演变,防范AI技术失控造成的不可逆风险。

免责声明

我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自各大过期杂志,内容仅供学习参考,不准确地方联系删除处理!