时间:2024-07-29
李 茂 久, 张 静
(1.中南财经政法大学 刑事司法学院,湖北 武汉 430073;2.中南财经政法大学 新闻与文化传播学院,湖北 武汉 430073)
人工智能的话题已经从一个技术应用范畴演变成一个具有专业争议性的社会公共话题。人工智能的出现改变了主体与客观的认知关系,将会深刻影响和改变未来法律的发展。人工智能颠覆了传统的以“人”为中心的法律体系,试图以赋予人工智能类(拟)人化法律主体资格来防范和处置未来可能的危害风险。但学界在探讨人工智能创设各类社会危害风险的逻辑论证上存在着主体的错位、风险的夸大与逻辑的推测等诸多的问题。
1.人工智能的技术逻辑:数据与算法
人工智能是计算机与大数据技术科技融合的产物。它通过模拟和再造人类智能,生产出一种具有类人化智能的智能机器。根据现有技术的发展,按照智能程度的高低,人工智能可以分为弱人工智能、强人工智能和超人工智能。这种发展趋向也是人工智能从技术物体到技术智体发展的过程,也是逐步赋予人工智能更加智慧的过程,即人工智能具有深度学习能力和自我运行算法的能力。人工智能的技术逻辑关键在于数据与算法,只有具备了这些人工智能才可以形成算法能力和学习能力。
首先,人工智能是数据智能。人工智能本质上是预先构建类型化的数据库,用大量的数据作为智能导向,人工智能通过数据库提供数据支撑来完成所做的行为。其次,人工智能是算法。“算法即是规则”。算法为人工智能提供了意图实现的目标,并为实现该目标提供了具体的计算路径与方法。算法本质上是以数据为填充,通过计算步骤得到具体结果,算法的运算结果与算法设计、算法部署以及应用有关,算法看似很艰深的计算科学概念,实际上在计算机科学家看来,通过一些列步骤、用输入的数据得到输出结果就是算法的本质[1]。从技术本体论上来讲,人工智能具有一定的技术逻辑,并不是一个被人类技术“异化”的产物,它是在人类正常的智慧、科技手段和正常的场域内合理存在的产物。
2.人工智能危害风险的技术判断
技术奇点和图灵测试被认为是赋予人工智能独立、能动性活动的技术支撑的重要依据。但技术奇点和图灵测试一直受到很多批评,其中一个最重要的质疑是它偏向于纯粹的符号问题求解任务。它并不测试感知技能或要实现手工灵活性所需的能力,而这些都是人类智能的重要组成部分。机器智能不同于人类智能,试图按照人类的方式来评估它,可能本身就是一个错误[1]25。就人工智能的技术逻辑来判断,主要存在的风险源是数据与算法。
(1)数据风险
人工智能的技术应用建立在对大数据的应用基础上。在大数据时代,原始数据的设计和使用的流程复杂多样,在运作过程中,对于数据的筛选和使用无法把控,形成数据的不确定性。因此,人工智能的风险明显存在数据风险。一种是“数据失灵”风险,即基于原始数据的不充分或者瑕疵,在对数据不能形成有效修正的前提下,完全由数据计算得出信息,根据信息形成外在活动。此种风险在于,如果原始数据的质量不高,或者存有瑕疵,导致人工智能行为按照瑕疵的数据逻辑进行计算,就形成潜在危险。另一种是“数据操控”风险。由于人工智能的原始数据来源于人的加工处理,而人的决策难以摆脱个体价值的影响,如果一个对社会存有危害意识的人,通过数据加工,人为地将数据进行伪造或者篡改,就会导致人的恶意外化为机器的危害行为,从而形成巨大的危害风险。
(2)算法风险
算法是一种新型的控制力量和规制形式。算法是计算机计算或执行的一系列解决问题的清晰指令。算法的风险主要体现在两个方面。一是算法偏见与歧视导致的风险。“算法来自代码编写,从技术上来看,程序员按照设定任务(应用)来编写源代码(源程序),并经过编译程序转换为目标代码或可执行代码”[2],然后控制和指挥人工智能的每一个动作。然而在利益和恶意动机的诱惑下,算法存在偏见就会导致人工智能的行为存在脱离正常活动或者行为形式的可能性,从而产生外在的风险。二是算法黑箱的风险。计算机直接从原始数据或者源代码出发,通过自我学习自动生成对外界的认知与行为。在人工智能通过数据与算法的技术链接与操作的过程中存在着人类无法操控与洞悉的“黑暗隐层”,称之为“黑箱”。因此,算法面临一定的未知风险。由于算法黑箱导致算法自主,从而形成人工智能脱离规定的正面目标任务而产生反面的破坏活动。比如,正在炒菜的机器人可能会打砸锅碗,形成无法控制的危害风险。
1.人工智能的事实风险:危害风险的孤立个案
目前,法学界探讨人工智能存在的事实风险主要通过以下案例来论证。“1979年,一名叫罗伯特·威廉姆斯的美国人被一重型机械臂击中了头部而死亡。1981年,工程师肯基·鄂瑞达在修复机械手臂的时候被活活卡死在房屋的柱子上。”[3]2015年7月,一名德国大众汽车制造厂的年轻工人在安装和调制机器人时,被机器人击伤胸部[4]。2016年,在深圳举办的中国国际高新技术成果交易会上,发生了一起一名叫“小胖”的机器人“故意”伤害他人和毁损财物的事件。2018年3月亚利桑那州坦佩发生的一起无人驾驶汽车事故中,Uber的一辆无人驾驶汽车撞死了一名行人[5]。英国首例机器人心瓣修复手术现场大乱,机器人把病人的心脏放错位置,并戳穿大动脉,最终导致病人在术后一周死亡[6]。上述案例是从事实风险的角度论证人工智能创设的风险客观存在,但上述案例存在以下问题:
(1)被忽视的个案性质
就目前学术界探讨的人工智能危害案例的性质而言,基本属于生活事件,法律定性一般也仅承认是意外事件。在20世纪出现的重型机械臂杀人的案件,囿于当时的技术的限制,还处于机械的范畴之内,达不到人工智能的技术程度。这种事故属于机械事故或者安全生产事故。即便2015年大众公司机器人“杀人”案中,看似赋予了人工智能某种“意识”和“行为”的内涵,但是从技术角度判断来看,这种人工智能还不属于强人工智能的技术范畴。在事故描述上是受害人在安装和调制机器人,说明该机器人并不是处于正常使用和工作之中,还存在人的操作以及机械的故障等问题。所以,上述人工智能产生的伤人的危害结果,也仅仅是生活中发生的意外事件或者技术事故,其风险范畴仍旧属于传统风险社会中的正常的风险范畴。
(2)被遗漏的个案细节
上述案例中所列举的“机器人杀人、伤害、毁财等事件”都是简单化的案例描述,突出机器人与危害结果之间的简单关联性。但是任何一个案件尤其是刑事案件中危害后果大都由多种原因导致,上述的“机器人杀人、伤害、毁财事件”也多数是“多因一果”的案件模式。上述案例的必要细节被过滤,导致无法准确地判断个案中的因果关系。以简单化的案例,不能得出“智能机器人实施严重危害社会的行为也已经真实地发生于人们的生活之中”[7]的结论。前述个案中的危害后果可能是机器的故障导致,也可能是人的设计与操作等问题导致。
(3)被假设了的逻辑前提
学界在普遍引用前述案例的基础上,为了论证人工智能的危害风险都对论证问题的前提进行了必要的假设,即“接近奇点理论的时候,人工智能或者机器人开始脱离人类的控制”[8];如果人工智能技术能够向“机器人类”转变,此时的智能机器人就有必要被赋予刑事人格[9];未来机器人将会和人一样可以自由地活动等。问题的关键在于这个假设的前提即人工智能具有的“辨认与控制能力”“自我意识”“奇点理论的实现”等是否现实的存在,且已经被证实的存在。用假设的前提条件论证虚假的命题,本身就是一种虚假论证。
2.人工智能危害风险的价值判断:传统的危害风险
任何一个社会形态都天然地伴随着风险,从农业社会的自然风险到工业社会的机械风险再到信息社会的智能风险,社会层面的风险在不同的历史阶段有不同的表现形式。但是,这种风险的演变在性质上仍旧是人类活动的结果。从某种意义上讲,人工智能技术的出现是人类物质性增强技术的重大突破,人类可以利用该技术来增强精神和身体能力从而拓展外部能力。所以,人工智能将伴随着人类行为创设和制造各种社会风险。学界普遍认为人工智能存在内在的技术风险和外在的社会风险。对人工智能技术发展风险的担忧并非是杞人忧天,而是具有一定现实性和客观性[10]。就上述探讨的人工智能实际导致的社会风险而言,其仍旧属于传统的社会风险的范畴。
(1)人工智能的危害风险不会引发人类的生存危机
风险包含自然风险和社会风险,法律评价和关注的是社会风险。社会中任何具有自主能动性的“物”,比如动物或者人类都可能成为社会风险的来源。如前述案例,人工智能也可以在社会应用的场域中形成对人或者物的危害风险。无论是工具型的人工智能还是独立自主型的人工智能,只要活动在社会关系中就伴随着一定的危害风险。人工智能所产生的危害风险仍旧属于传统社会风险的范畴,属于生产生活中技术风险的外在延伸。理性地审视这种衍生的危害风险,在事实认定和价值评判上,其仍旧属于传统犯罪风险的范畴。所以,人工智能的危害风险不会引发人类的生存危机。
(2)人工智能的危害风险不会导致社会异化
异化是哲学上的概念,“即由人自身产生出的一种异己的力量”[11]。人失去了自我,受制于这种异己的力量,异化的核心在于人成为客体之物,丧失自我的本质。针对人工智能的危害风险会不会导致社会异化的问题,有学者提出人工智能的负面后果;人工智能的滥用;人工智能变成了“决策者”具有“算法自主”能力,导致引发人类身份认知的危机等[12]。这种假设性的异化风险回避了法律评价风险的基础在于现实的生活。同时就异化风险的表现形式而言,人工智能的负面后果、人工智能的滥用等都不是人工智能异化的表现形式。人工智能的危害风险的来源、过程与结果始终伴随着人的行为,人工智能永远是人工的产物,其引发的风险依旧脱离不了社会与人的关系范畴。因此,人工智能的危害风险不会导致社会异化。
(3)人工智能的危害风险仍旧没有脱离人的活动范畴
毫无疑问,人和人工智能在本质属性上就存在巨大的差异。人具有自然和社会的双重属性。人工智能属于自然的物质性范畴,是技术化的物质体质。人工智能在存在意义上不等于人,在能力范畴上与人具有巨大的智力差异性。尽管人工智能的技术越来越智能化,但是再聪明的“智能”也是“人工”的产物。尽管超人工智能具有语言塑造、自我学习、认知推理以及创造规划等能力,但它属于“人造”范畴,这些能力的取得来源于人的能力。所以,人具有全面的能力,人可以改造客观世界,但是人工智能也仅具有部分行为能力,它的能力范围仅仅局限于特定的领域范畴。所以,无论何等智能程度的人工智能所产生的危害风险仍旧没有脱离人的活动区域。
1.风险表象:人工智能创设危害风险的类型化评价
随着人工智能技术的快速发展以及在社会各行业中的普及应用,人工智能各种活动的范围会不断扩大,活动频率也会不断增强,人工智能必然会对社会产生一定的危害风险。这种风险属于当今社会科技风险的表现形式,具有一定的跨越时空性、高度的隐蔽性、不可预测性和复杂的关联性。所以,未来人工智能创设的风险既是一种客观现实的风险,也是一种人们可以独自判断和认识的主观风险。由于学界对人工智能的风险的论证存在实然与应然两个层面,对于未来人工智能创设的风险必须坚持以实事求是、科学理性的态度去分析评判。
目前,学界探讨人工智能存在的危害风险主要分为两种情况。第一种,“工具辅助型”人工智能所产生的危害风险,即人工智能的工具性风险。如利用人工智能侵入股市数据,干扰、控制和影响股市交易从而获得不当利益;利用人工智能侵犯个人隐私或者收集个人信息,自动驾驶带来的道路与飞行公共安全风险等。在这种情况下,“人工智能仅仅是人的危害行为借用的工具”。第二种,“独立自主型”人工智能所产生的风险,即人工智能的功能性风险。有学者认为,强人工智能产品完全有能力在设计和编制的程序范围之外实施严重危害社会的行为,完全有可能对刑法所保护的社会关系造成严重侵害[13]。对于这种所谓的危害风险,多数是借用电影里虚构的场景进行假设性的论证,还没有以实际发生的社会案例作为论证事实。
2.风险聚焦:人工智能创设危害风险的去伪与存真
人工智能随着技术的发展,会从单独的工具性风险转变为功能性风险。人工智能基于技术性属性所产生的工具性风险,仍旧属于传统的风险,是以人作为法律责任的主体,在法律的逻辑关系上比较清晰,也能够有效地进行风险处置与预防。现在法律需要应对和处置的困境在于“独立自主型”人工智能所产生的风险问题。这种观点论证的主要理由有:(1)人工智能具有行为和行为能力。“机器人具有独立行为”“智能机器人自主决定并在设计和编制的程序范围外实施严重危害社会的行为”[14]。(2)人工智能有自主意识,具有辨认和控制能力。“智能机器人所具有的独立的辨认能力和控制能力来源于程序”[14]79。当人工智能体的人工神经网络规模足够庞大时,便会产生自主意识[15]。(3)人工智能具有行为能力或者责任能力。
人工智能独立风险学说存在以下几个方面的问题:
(1)主、客逻辑的错位
一个不容置疑的事实是,无论人工智能有多么智能,它始终是人工的产物。计算机是人类为了自身目的而设计制造的,这种制造者与被制造者之间的强关系将人置于面对面地统治机器的绝对优越地位[16]。人和人工智能天生就有很大的区别。人属于自然的范畴,具有生物体质性;人工智能属于物质的范畴,具有技术体质性。人工智能与人的关系从本源上来讲,人是主体,人工智能是人的智慧与技术的产物,人工智能始终处于客体地位。人工智能是“人工”的结果,如果剔除了“人工”又哪里存在“智能”呢?从人工智能的起源动机来看,人类制造人工智能的出发点是便捷与服务人类的自身发展,满足人类的利益需求。所以,人工智能具有工具价值属性,不具有自我利益诉求和自我独立的生理与精神需要的属性,由于人工智能不存在类人化的需求与利益。所以,处于客体地位的人工智能不会创设具有独自的、超脱人之外的功能性的社会风险。
(2)角色假象的错位
把人工智能置于“人”的主体地位进行角色联想,认为人工智能具有独自的功能性风险也是人的角色假想的结果。前述的论证分析无一例外都加入了假设的成分。从人类心理安全诉求的角度来讲,每一个人都极为关心自己的安全与命运,人们往往在加害与被害的角色联想中进一步强化了自己对于安全的诉求。人们的不安全感来源于未来的不确定性,而人工智能导致的危害风险具有极大的不确定性,这进一步强化了人们对人工智能犯罪主体的内心印象与确信。通过假想自己的加害与被害,然后把人机的犯罪关联性进行设想,就进一步强化了要赋予人工智能犯罪主体资格的必要性,从而满足人类自身的安全诉求。
(3)事实与价值的错位
前述论证人工智能可以创设独立性的危害风险的各种观点,不仅进行了前提条件的主观预设,也直接规避了事实问题。无论学界认定的人工智能具有独立的行为,还是具有意识自由以及责任能力等,都直接用价值判断来代替事实认识。人工智能能否独立地创设危害风险首先是一个事实判断,即实际上人工智能在客观上已经产生了独立的危害事实,哪怕是一个孤立的危害事实,都可以作为法律赋予人工智能主体资格的现实基础。所以,前述论证人工智能存在功能性风险的观点在事实与价值方面存在错位。
3.风险源头:从人工智能的危害状态转变到人的危害能力
未来无论人工智能的智能程度如何超越人类,人与人工智能的关系始终不可能成为人与“人”的主体平等关系,这种关系的构建不取决于权利而取决于能力。几千年以来,无论物种怎样迁徙变化,人始终是地球物种的主人,人类不可能让渡出自己的主宰地位从而造成人类的生存危机。所以,人工智能自诞生之日,就脱离不了技术与客体的宿命,人工智能的超级智能的产生需要依靠人的技术与智慧。同时机器不可能自我衍生,即脱离了人的技术作用,其无法自我繁殖。因为人工智能处于技术性的客体地位,它不具备主观的利益追求和客观的危害行为。所以,人工智能不具备产生危害能力的现实条件。同时,人工智能不是自然的产物,它具有一定的技术规则与程序,人工智能的技术规则也限缩了人工智能危害能力的建设。正如虽然人类掌握了基因编辑婴儿的技术,但是人类胚胎基因编辑却仍被严格禁止一样。基于前述的分析,对于人工智能的危害风险,法律只能评价为一种危害状态,背后的实质是人的危害能力问题。所以,法律评价风险的重心要从人工智能的危害状态转变到人的危害能力上。
4.风险限缩:人工智能创设危害风险的理性审查
(1)风险的场域限制:市场逻辑的利益驱动导致危害风险范围有限
任何新生事物的产生与蓬勃发展背后都有利益驱动。马克思曾指出:“把人和社会连接起来的唯一纽带是天然必然性,是需要和私人利益。”[17]人工智能不是自然而然地“凭空”产生,人工智能的存在必须具备一定的条件,基础的条件是人类技术的进步,但是技术的进步不代表一定能够融入社会的场域应用。人类技术的发展本身就是人类利益的驱动。所以,人工智能的产生与快速发展的背后是社会的需求带动下的经济利益驱动。即从现有的国家战略和发展布局来看,人工智能主要是服务经济社会发展的客观需求。所以,推动人工智能的发展必然有“成本—回报—收益”的经济效益的诉求。这就决定了人工智能天然具有经济属性,其产生与发展是成本与效益的市场逻辑的结果,具有经济利益的目的性,其适应的领域和范围也具有有限性,即“有利我才在”。人工智能不可能像人或者动物的产生或存在一样具有物种保全和延续生命的自然属性,从而可以遍地存在。基于人工智能经济利益的诉求性,导致其创设的危害风险的场域范围有限,风险系数很低。
(2)风险的技术限制:被夸大的智能技术导致危害风险缺乏技术基础
现在探讨人工智能独立的危害风险都是建立在超人工智能具有假设性的自主意识和能动行为的前提下,它会像人一样创设不可预料的危害风险。但是必须理性地审视人工智能的发展之路并非预想的一帆风顺,其结果能否造就出一个所谓的具有深度学习能力的超人工智能是存疑的。理论上的设想与实际的产物是两个不同的概念。就人工智能技术而言,“早在1965年,认知科学的代表人物西蒙(H.A.Simon)就曾预言,‘在20年内,机器将能做人所能做的一切’。明斯基(M.Minsky)1977年,也曾预言,‘在一代人之内,创造人工智能的问题将会基本解决’”[18]。但是,经过几十年的发展,历经研究纲领的数次变更,存留的三大技术学派仍未超出“认知可计算主义”的研究视野与学科范围。因此,至今在人工智能领域仍旧没有出现技术性突破且发展不时地陷入不曾预想到的各种困难[16]19,目前这种困难依旧存在且没有突破。1936年,图灵在《论可计算数》一文中表示“人类心智活动不可能超越任何机械程序”。对于人工智能未来之路其实还有很多的技术障碍有待突破。所以,被夸大的人工智能的危害风险,目前缺乏技术基础,未来存在技术障碍。从另外一个角度思考,“技术”具有两面性。人工智能会创设风险,人工智能也可以消解风险,利用人工智能的技术之盾,防备人工智能的风险之矛,也能够确保人工智能的风险被最小化。
(3)风险的性质限制:从风险到实害的过程限缩,降低了危害风险
人工智能无论其智能程度如何,其存在的风险,既有作为工具性的危害风险,也有作为自主性的危害风险。人工智能作为工具性的风险属于人的责任范畴。这种风险属于传统的风险范畴且伴随着人的行为存在且不可消灭。这种风险具有法律的可控制性和责任的归宿性。但对于人工智能自主性的风险还存在跨越时空性、不可预测性和复杂的关联性。所以,目前探讨的人工智能的风险都是一副概率性的图景,但法律关注危险和实害。从风险到危害或者实害的转变,是有一个逐步限缩的过程。首先,人工智能的应用风险要经过实验室的操作运行和技术验证,只有技术运行稳定且成熟才可能扩展到社会应用领域。因此,实验室具有风险的过滤作用。其次,人工智能的社会应用也有一个从局部应用到全面扩展的过程,相应的也会过滤掉一定的危害风险。最后,从风险到实害是一个从未然到实然的过程,这一过程风险可能会发生实害,也可能不会发生实害。当发生实害概率很低的时候,尽管有实害,但也属于刑法中被允许的风险范畴。
人工智能的危害风险的社会治理是一个系统工程。理性地审视人工智能的危害风险,要从技术治理、道德责任、制度保障和法律监管等多个层次构建人工智能危害风险的治理体系。
1.人工智能危害风险的技术治理逻辑——技术治理主义
人工智能危害风险的治理逻辑可以借用技术哲学中的技术治理主义的思路。技术治理思想被法国实证主义哲学家孔德、英国哲学家斯宾塞等人从不同方面发展。技术治理主义要求科学管理与专家治理。
(1)科学管理:风险分析与风险评估法
从技术角度而言,人工智能危害风险治理的逻辑前提是风险评估与风险分析。具体而言,就是在人工智能生产、制造的过程中对一系列风险进行的管理步骤,包括风险识别与评估、风险管理策略、风险的技术解决与风险的制度监督等。首先,人工智能广泛应用于社会领域之前要经过危害风险的技术识别,确定人工智能在各种应用领域可能存在的潜在问题和可能造成的各种风险,并定性分析其存在的可能后果,得出系统的风险源,并将这些风险源组合成固定的格式文件供以后分析参考。其次,要进行风险的技术评估,即对潜在问题可能导致的危害风险及其危害后果实行科学量化,并确定其严重程度,从而得到系统风险的综合印象。最后,要进行有效的风险管理,“在风险识别及风险分析的基础上采取各种措施来减小风险及对风险实施监控”[19]。针对人工智能可能产生的科技风险,美国国家科学技术委员会也提出了经典的风险技术分析法,即为了保护公共安全而对人工智能产品进行有效监管的方法,应通过评估人工智能的风险源进行有针对性的技术应对。对人工智能的风险分析涉及很多风险因素,诸如智能产品的功能与大小、技术本身的风险、开发软件的环境、组织规模、人员经验和客户因素等。多年来,科研人员开发了许多风险因素分析法的理论模型,其中美国信息安全专家Bruce Schneier创设的风险分析法最为典型,其主要内容为:第一,你想保护哪些资产?第二,这些资产的风险是什么?第三,安全解决方案在多大程度上减轻了这些风险?第四,安全解决方案还会带来哪些风险?第五,安全解决方案会带来哪些成本?[20]这些步骤在解决人工智能危害风险的问题上主要是如何科学地确定人工智能的相关风险。人工智能在研发方案上具有不确定性,未来的应用具有不受人主观控制的因素。只有到智能技术的实际应用层面,我们才能确定现行解决方案是否能够充分减轻步骤3所规定的这些风险,即有效地评估风险分析法的信度和效度。至于第4步和第5步是安全解决方案,它们大多与当前制度规范有关。需要指出的是,上述风险分析模型是不完善的,因为该模型认为减少人工智能风险的唯一途径是依靠风险的评估制度,而忽视人工智能本身存在的技术风险。
(2)专家治理:人工智能技术的专家治理模式
基于规制人工智能在应用场域存在的多方面风险,未来要构建多元的专家治理体系,即人工智能本身是科技的范畴,要在社会领域中构建多元主体共同参与的多层次、多学科、多领域的治理模式,以专业防范来有效地应对人工智能的危害风险。从人工智能设计、运行、应用的技术专家到司法领域的裁判官和与人工智能利益相关者,诸如科研单位、应用企业和政府等,都要共同处理人工智能产生的危害风险。这种治理模式明显改变了当前社会在单一领域、单一主体下的单一治理模式。例如,以前法院的法官完全可以单独处理的民事侵权责任纠纷,法官单一主体在司法这一领域就可以单独处置。但未来涉及到人工智能的侵权责任问题,必然会出现多主体、多专业的“会诊”处置模式。实际上,在人工智能技术的专家治理模式下,“各方各有所长,各有所短。作为现代治理主导力量和公共政策制定者的政府往往缺乏专业技术储备、技术预见性和行业前瞻性,作为技术开发者和推广者的企业则无法保持令人信服的中立性和权威性,而作为人工智能直接受众的广大民众和社会组织虽然其日常生活和基本权益倍受影响却无法成为主导性力量。显然,最佳的治理策略必须是各方联合行动、共同参与,在对话、协商甚至彼此竞争、相互博弈中寻找最为合理的解决方案”[21]。只有这样,才能针对人工智能的危害风险的预防、过程监管与处置等各环节,共同有效地预防与处置。
2.人工智能危害风险的规范治理基础——道德责任原则
(1)机器伦理:阿西莫夫三定律
为了避免人工智能可能造成的社会危害后果,抑制人工智能的危害风险,有人在机性上提出了道德准则,赋予机器人更加人性化的内在约束。著名的科幻作家I.阿西莫夫已经提出了机器人的伦理法则,即“阿西莫夫三定律”和“第零定律”。“阿西莫夫三定律”主要内容包括:第一定律,机器人不得伤害人类且要积极保护人类;第二定律,机器人必须服从人类的任何指令;第三定律,机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。此后,阿西莫夫以保护人类整体利益共同体为目标,提出了“第零定律”。该定律的核心思想是“机器人必须保护人类的整体利益不受伤害,将保护整体人类(humanity)作为机器人学的本初法则”[22]。在《纽约时报》最近的一篇专栏文章中,华盛顿大学教授Oren Etzioni 提出对人工智能系统的限制规则。第一,人工智能系统必须遵守适用于人类操作者的全部法律;第二,人工智能系统必须清楚地表明它不是人类;第三,未经信息源的明确批准,人工智能系统不能保留或披露机密信息[19]11。以上是针对人工智能提出的最低限度的道德要求。究其实质而言,实际上更多的道德要求是赋予背后对人的更高要求。
(2)人类底线:道德原则与道德规制
从本源上来讲,人工智能的危害风险控制的关键在于“防人甚于防机”。从社会风险的来源及其表现形式来看,当代人工智能的风险主要是人性风险。正如贝克指出:“各种风险其实是与人的各项决定紧密相连的,自然和传统无疑不再具备控制人的力量,而是处于人的行动和人的决定的支配之下。”[23]不管未来的人工智能的智能水平如何,现实的定性是它始终处于技术的范畴之内。前哈佛大学教授 E·梅塞纳指出:“技术产生什么影响、服务于什么目的,这些都不是技术本身所固有的,而是取决于人用技术来做什么。”[24]人工智能创设的风险始终伴随着人的作用。所以,防范人工智能的危害风险必须要对人提出更高的道德要求。具体而言,在设计阶段应该强化对于人工智能算法与数据提供的技术与伦理的监管。如有的学者提出,“要求设计者在设计算法过程中嵌入算法伦理。以立法形式要求算法通过道德审查标准”[1]24、“要求信息技术专家、社会学家等形成专家治理团队共同研究和设计在每一个阶段中人工智能的伦理框架和道德准则”[22]361,[25]等。
目前,为了约束人工智能技术研发人员,已经出台了关于人工智能技术伦理方面的道德准则建设。比如在ASILOMAR 会议上制定的“阿西洛马人工智能原则”,以及2017年 IEEE 电气电子工程师学会提出的关于人工智能系统伦理全球倡议项目《人工智能设计的伦理准则》,都是通过道德伦理准则对从事人工智能领域的科研设计人员提出的行为道德规范准则。2010年,美国组建的计算机责任特别委员会对智能产品研发人员系统提出道德原则,主要是用道德规范限制和约束工程师的设计、制造等行为,对他们参与设计的行为负责。第一条就明确了设计、开发以及应用智能产品的人员负有道德责任,也对可预见的产品后果负责。正如劳伦斯·莱斯格(Lawrence Lessig)所说:在现实生活中,我们认识到法律是如何规范的——通过宪法、成文法和其他法律规范。在网络空间中,我们必须理解不同的“代码”是如何调控的——软件和硬件[20]12-13,这段“代码”就是网络空间的“法律”。这一声明是关于网络空间的,同样适用于支持人工智能的设备。计算机代码的存在是为了执行已经设定好的功能。这些功能是由他们的程序员编写的,这些程序员在某种程度上充当立法者的角色,因为他们可以强迫设备以某种方式工作,或者禁止它这样做。所以,人是人工智能程序代码的编写者,在预防人工智能侵权的情况之下,除了事后的法律问责,更为关键的是要让人工智能程序的编写者、开发者和人工智能的制造者遵守基本的道德原则与程序规范。
3.制度保障:从审批登记制度到强制保险制度
(1)审批与登记制度
要加强对人工智能风险源头的监管,就需要对人工智能进行必要的审批与登记,采用强制审批与登记制度。强制审批登记制度对于防范人工智能存在的危害风险以及基于人工智能缺陷导致的侵权判断和履行侵权责任方式等都具有重要意义。第一,从风险源头的监管上有利于保证人工智能的技术慎重,保证人工智能的安全可靠性。第二,可以对人工智能的日常活动进行有效的监控,判断人工智能的活动是否超越了审批登记的范畴,是否被人进行了非法利用,有利于厘清人机之间的责任。第三,可以根据登记和审批的技术标准尽快地查清人工智能侵权的因果关系问题,防止在事故发生以后,因为人的因素对相关的设备或者程序进行恶意删减或者修改。人工智能恪守登记出生主义的原则是以安全为逻辑起点,通过登记来管控未来可能出现的危害风险。登记出生主义涉及技术标准、数据保存、活动区域与工作性质甚至风险责任的划分等,如果进行了有效的登记公示,则完全可以作为责任划分的参考依据。
(2)强制保险制度
在科技风险语境之下,人类对于技术发展与进步的渴求与人类的安全的诉求之间存在一定的紧张关系。有效的社会保障制度可以缓解这种紧张关系,使得技术的发展不会因为技术的风险被扼杀或者剥夺。社会保障体系中最重要的就是社会保险体制。所以,构建人工智能的强制保险制度可以很好地规避人工智能的危害风险,使人从保险的财产补偿中获得平衡感和安全感,寻求一种风险化解之后的确定性的状态。正如汽车的发展与普及导致交通事故的风险一样,在制度保障上,构建强制保险制度是化解人工智能的危害风险的最重要的保障制度。因此,在法律适应规则上要构建强制保险制度和司法的强制赔偿制度。
4.法律监管:从立法规制到司法归责
(1)立法规制
《国务院关于印发新一代人工智能发展规划的通知》中明确提到,要“加强人工智能相关法律、伦理和社会问题研究,制定促进人工智能发展的法律法规和伦理规范”[26]。当然,监管的有效途径仍然是立法监管。正如美国Paul Giannellia教授所言:作为法律专业人士,面对我们不太了解的技术,我们的第一反应往往是走立法的道路,起草一个法律框架,以规范这些技术的使用和传播。人工智能也没能逃脱这一趋势,因为美国许多州已经通过了旨在限制在某些领域使用人工智能的立法。事实上,到21世纪末将起草一项统一的人工智能法案。美国企业家埃隆·马斯克(Elon Musk)也恳求立法者们迅速采取行动来规范人工智能。历史已经证明,他关于为科学技术变革立法的主张是正确的,他的说法已经可以在人工智能的一个领域得到验证,那就是自动驾驶汽车。迄今为止,美国已有21个州通过了有关自动驾驶汽车的立法,预计还会有更多州效仿,美国联邦政府目前也在起草一项法案来规范自动驾驶汽车的使用[20]10。2017年美国计算机协会出台了“算法问责法案”,并成立了专门工作组和联邦人工智能发展应用咨询委员会;同年,欧盟会议制定并通过了《机器人民事法律规则》;韩国和爱沙尼亚都制定了《机器人基本法案》;2018年英国议会对人工智能进行了特别立法,即其下设的人工智能特别委员会发布了《英国人工智能发展的计划、能力与志向》的报告,该报告的具体内容主要包括人工智能开发、设计、应用和人工智能的法律责任以及数据安全和算法歧视等问题。
随着人工智能的广泛普及与快速发展,未来法律会面对很多已知和未知的社会问题亟须立法解决,正如前述的案例,人工智能的危害风险导致的责任问题将是法律亟须解决的问题之一。《国务院关于印发新一代人工智能发展规划的通知》也要求承担开展与人工智能应用相关的民事与刑事责任研究工作。随着人工智能技术的普遍应用,它必将深刻影响人们的生活,从立法的宏观方面来看,必须要考虑起草一项统一的《人工智能法案》,统一规范人工智能的技术发展、技术参数、技术伦理以及责任分配等,以解决人工智能发展中出现的法律问题。从微观领域来看,未来在社会生活的某些具体领域必然会出现人工智能的具体应用,比如交通领域的无人自动驾驶汽车以及医疗和家庭服务中的人工智能。所以,未来在保持原有的法律体系范畴内,可以通过立法制定统一的《人工智能法案》。该法案可以采用从总则到分则的立法模式,对人工智能分阶段、分职业地具体规范。通过立法可以更好地化解人工智能的危害风险,为以后出现的危害结果的责任划分提供明确的法律依据。
(2)司法归责
对于人工智能产生的危害风险可以用不同的方式进行调控和规制。司法是规制智能风险的必备手段,也是解决纠纷、稳定社会秩序的主要手段。对于前文列举的自动驾驶汽车Uber撞死人案例。该案明显在法律归责方面显得赤手无策。面对人工智能的危害风险以及所产生的社会实害问题,有效科学的司法归责对于化解智能风险与解决社会实害问题极为重要。面对频发的人工智能“伤人”与“毁坏财物”案件,司法必须走出归责困境。从司法角度来看,诸如《人工智能法案》这种直接的立法模式可以及时有效地解决司法归责依据不足问题,从而理顺“人机”之间的法律关系,让智能风险涉及的责任主体在“扯不清、理还乱”的归责逻辑中进一步明确化、稳定化。因此,在立法上有必要强化人工智能在研发、设计、制造和使用各阶段存在的智能风险防范的义务主体,以及对社会造成实害时的司法赔偿的责任主体。
面对人工智能在现实生活中可能出现的危害风险,强化对人工智能在研发、设计、制造等阶段风险的技术控制是治理之本。在社会治理体系上,要从道德上强化人工智能设计研发人员的伦理责任,强化针对人工智能相关危害风险的立法监管,制定统一的法律规范,这样才能更好地为司法相关提供明确的解决人工智能风险与危害的法律依据。
我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自各大过期杂志,内容仅供学习参考,不准确地方联系删除处理!