时间:2024-08-31
刘文燕,陈思宇
(东北林业大学 文法学院,黑龙江 哈尔滨 150000)
人工智能的热潮持续高涨,我们不仅需要在这一浪潮中保持冷静克制的态度,而且应该突出刑法的预防性,预防在这一浪潮中怎么规避刑事犯罪的风险。大胆地承认强人工智能的刑事责任主体地位,这将关系到人工智能时代各种复杂社会现实问题能否得到妥善有效的处理,也将关系到中国的刑法学的理论走向问题。在人工智能可能造成犯罪风险加大的社会中,一直以来作为公法的刑法的价值观念需要得到进一步的明确与更新,刑法也需要紧跟上时代发展的步伐更好地发挥其作用,防范人工智能时代的刑事风险,让人工智能在法律的框架内健康有序的发展。
人工智能技术的不断发展,逐渐打破了机器一直以来都只能是人类的工具这一刻板印象,人工智能在我们生活中应用的领域更加广泛,也更加的普遍,例如智能化物流从部分地区试运行逐渐变成普遍现象。在抗击新冠疫情期间,人工智能在很多领域尤其是外卖、快递和医用护理方面发挥了重要作用。无人驾驶汽车发展迅速,苏州更是成为了中国首个允许无人巴士在公路上常态化运营的城市。
现阶段的人工智能处于弱人工智能时代,没有自主的行为,不存在人工智能自主犯罪,虽然部分人工智能已经基本实现与人类进项简易对话,如小米旗下的小爱同学(语音助手),但是这并没有超出设计者的编程范围,在现阶段的人工智能只是一个技术性质的词语,是对智能工具的形容,并不具有主体指代性。“但是,人工智能客体说落入传统思维窠臼,仅将人工智能视为单纯的工具物,而有意忽视人工智能的相对能动性及其对法益的独立侵害能力,企图通过修正传统过失理论克服智能时代的刑事制裁困境,其观点亦值得商榷。”[1]人工智能是否会完全脱离工具属性,甚至是超越人类,也就是技术奇点是否会到来,不同的学者有不同的见解,雷·库兹韦尔认为这个时间节点一定会到来,而且就在2045年。小池淳义认为“技术奇点是人类长期辛劳集聚而成的成果,完全不是什么特殊的事物。但是能否意识到它的重要性,正确推进它的实现,将决定人类未来的命运。”[2]
对于人工智能主体说持否定态度的学者认为在现有技术条件下谈论强人工智能的出现为时过早,即便是未来再来讨论这个话题也是流于科幻,但是技术的发展我们不能忽视,随着人工智能的不断更新迭代,它在不断地升级学习与日常工作后,也会对人的指示的目标产生疑问,甚至会判断人的指示是否正确。对待人工智能我们要用发展的眼光来看待,反对将人工智能视为法律主体的学者只专注于现阶段的技术发展,没有做到用发展的眼光看待问题,现阶段的技术短板不应成为阻拦强人工智能作为刑事责任主体的因素。
“危害实现的可能性越高,国家强制干预的必要性越大。”[3]漠视机器人革命的到来,只会造成学术研究、立法干预和社会发展的孤立,人工智能的发展和应用不应当出现刑法规范上的漏洞。刑法需要遵循谦抑性的原则,但是保持谦抑性并不等于要保守研究。法学研究能跟上时代发展的潮流,保持一定的前瞻性也同样重要,只有保持了一定的前瞻性才能更好的保持刑法的稳定性,也能更好的保障人民的权益。例如,《刑法修正案十一》回应了诸多社会热点问题,其中,降低刑事责任年龄最为突出。此前,媒体多次爆出不足十四周岁的未成年人以特别残忍的手段致人重伤、死亡,引来对刑事责任年龄是否需要降低的多方讨论,最终在这一次的刑法修正案中予以了明确。这一修改体现了刑法的谦抑性,同时也是对刑法稳定性的破坏。对于在此之前受到不满十四周岁的未成年人的严重暴力伤害的受害人,已经尘埃落定的案件,其受侵害的权益无法得到相应的弥补。不管是赞成人工智能成为犯罪主体还是反对人工智能成为犯罪主体,都在强人工智能可能会犯罪这一问题上达成了共识,对于弱人工智能不能独立承担刑事责任也达成了共识,因此,本文所探讨的人工智能犯罪后可以独立承担刑事责任,都是围绕产生了自主意识的强人工智能的犯罪行为。人工智能因其自身的优势(如不惧身体受到损伤)实施的犯罪的危险性、危害性更高,当人工智能真正独立实施犯罪才开始讨论刑法应怎样去规制可能是无法控制或者是牺牲巨大的。人工智能犯罪对社会造成的危害程度远超于自然人犯罪带来的危害,对待这一问题,刑事法律应走在问题前面,更注重前瞻性。“法律对策的考量不能坐等实际案例的积累,”[3]2“尽管我们确实可以阻止科学家的步伐,例如对伽利略的审判,然而争论的结果是,技术竞争是如此的坚决和强大,以至于它并不能被法律手段所阻止。”[4]我们无法阻止强人工智能时代的到来,但是,我们可以让强人工智能在刑法威慑下良性发展,因此,探讨人工智能可否作为刑事责任主体正当时。
人工智能产生了自主意识(强人工智能)是人工智能能够成为刑事责任主体的前提条件之一。现阶段,人工智能与自然人最大的差别不仅在于它们没有生命体征,也在于人工智能只有智商,不具有情商。道德与知识都不是自然人生来就具有的,是在后天获取的,而自然人的情商来自于我们的大脑将各种渠道学到的知识,包括道德要求,灵活的运用于日常生活中的各个场景。自然人能够感知他人的情绪,也能对感知到的情绪给与一定的反应,这些临场反应不论正确与否,也不论是否令对方感到舒适都是情商的体现,区别只在与情商高或者情商低。而人工智能的情商来自于设计或者说是来自于编制的程序,这些设计赋予了人工智能学习能力,让人工智能获得了智商,也正因为人工智能拥有了学习能力,在不断的学习与实践中,人工智能产生自主意识,逐渐产生情商,在对待人和事的时候做出的反应是自我思考后的结果,而不是“体内”的程序告诉它应该作何反应。笔者认为人工智能的自主意识应该包括权利意识和自由意志。
权利与义务相辅相成,作为一个法律主体,在承担义务的同时,享有一定的权利。现阶段,我们仍旧视人工智能为一种智能的工具,除了它们不具有辨认能力和控制能力之外,还因为人工智能没有权利,只被赋予了帮助人类更便捷的工作与生活的义务。权利意识的觉醒是人工智能可以作为刑事责任主体的重要表现之一。
在日复一日的工作与不断提升的智能程度的双重影响下,人工智能不仅会对所做的工作产生自己的理解,也会产生为什么自己不像自然人工作有假期和工资的疑惑,这些疑惑的产生意味着人工智能权利意识的觉醒,在为自己争取合法权益的时候,很有可能采取的是不合法的手段,人工智能与人类的冲突将不再只是存在于文学作品和影视作品之中,这时候再用刑法来进行规制,不说为时晚矣,至少是代价巨大。在这样的社会问题出现之前,就将人工智能作为刑事责任主体,给与它们相应的权利,从法律上规定它们既承担义务,又享有权利,这不仅是用适度的刑法前瞻性维护了刑法的稳定性,更是发挥了刑法保护社会稳定的工具价值。
虽然人工智能的“出生”与“死亡”跟自然人有所不同,但当人工智能的行为超出编程的范围,在自主意识的支配下做出相应的行为时,就具有了辨认能力和控制能力,这也意味着人工智能的行为不再具有预测性,人类无法把人工智能当作一个工具进行支配,此时的人工智能作为刑事责任主体,与自然人作为刑事责任主体,不存在本质上的差别。
我们的共识是动物没有自由意志,所做的行为都是出于本能反应,即便蜜蜂建造出再精密美妙的蜂巢也不能说明蜜蜂在建造蜂巢前,它脑子里就画好了设计图,是以认为动物不能作为犯罪主体,反对将人工智能作为刑事责任主体的学者也是以此类比。也有的学者认为即便是自然人,也因为不具有或不完全具有控制能力和辨认能力在刑事责任的承担上与完全行为能力人不同,更不用说人工智能这样连生命体征都没有的机械。笔者认为这一点无法用来否定人工智能作为刑事责任主体的可能性,将人工智能简单归纳为机械是不联系发展的、片面的看待问题,机械是完全意义上的工具,无法否认目前的人工智能具有工具属性,但也不能将其与普通的机械等同,没有自然人一样的生命体征并不影响人工智能拥有辨认能力和控制能力。能够引导人工智能产生自由意志的是它的编程,这是它们的中央枢纽,是一切后续行为的起源。人工智能的学习能力、动手能力令人惊叹,它们可以在不断的学习与实践中理解到自己行为的意义所在,能够认识到自己的行为对客观世界造成的影响,甚至可能基于掌握“大数据”和不断的学习而富有创造力,这也就造成了人工智能可以做到遵从法律规范,有所为也有所不为。我们之所以认为婴幼儿实施犯罪行为不需要负刑事责任,是因为我们觉得他们不具有辨认控制能力,对于一个精神正常的年满18周岁的自然人来说,只要实施了犯罪行为,就需要承担相应的刑事责任,这是因为我们觉得这个人在不断的学习与成长后,已经具备了完全的辨认能力和控制能力。自然人的学习能力普遍没有人工智能强,尚且认为成年后具备了辨认能力、控制能力,对于擅长学习的人工智能,它们的“成年”应比我们更早。人工智能无法自发形成道德观念,但自然人也不是一出生就具有道德观念,道德是人类在社会生活中逐渐形成的约定俗成的规则,我们一代又一代的传承,也根据社会发展做适应的调整,自然人在出生后,在家庭、学校、社会中接触到并学习这些道德观念,最后形成自己的价值观。人工智能可以短时间全面的学习人类社会的道德观念,一个既掌握法律规定又知晓道德规范的人工智能,辨认自身的行为意义不存在实质上的困难。
神经科学的发展,进一步增加了人工智能产生自由意志的可能性。“人类意识的产生极为复杂,但再复杂也不是杂乱无章的。通过对大脑意识产生的基本原理进行精确解构,将复杂的过程简单化,从而解决人工智能的意识生成问题,并非不可能实现。例如,著名的柯尔莫戈罗夫意识理论就试图通过算法信息理论将复杂的意识过程简单化,达到解剖意识形成机理的效果。”[5]“短短几十年间,随着人工智能技术的发展,如今的机器人不仅能轻松地通过图灵测试,甚至还学会了撒谎,实验室的研究人员表示:‘这一过程有点类似于真正自然界生物的演变,智能机器人会随着自己智商的提高而显现出各种不同的善恶本性。’”[6]
虽然人工智能被运用在不同的领域就会应用不同的系统,但是当其中一类智能机器人拥有了辨认能力和控制能力,就意味着这一项技术难关被攻破,再也不是阻挡人工智能成为刑事责任主体的拦路石。根据考察研究发现,“AI千篇一律的服务态度不但无法平息客户的不满情绪,而且常常还会引起负面影响,加剧客户的不满。”[7]客户的不满,会促进生产服务型智能机器人的公司投入更多资金在人工智能情感的研发方面,正确的情感反映需要人工智能具有一定的辨认能力和控制能力,市场的需要会加快人工智能产生自由意志的脚步。
情感与理性看起来似乎是一对反义词,其实不然,“理性在指导意志方面并不能反对情感,”[8]我们做出某项决定有时候是出于情感的冲动,也有时候是出于理性的选择,但不管是出于哪一种因素,这个决定带来的行为过程与最后达到的结果都是两种因素的共同作用下形成的。理性的选择对于弱人工智能就可以完成,纯粹理性的选择不是具有自由意志的体现,也不是弱人工智能选择行为的动机,只是它体内编程的设定;纯粹情感的冲动也不是具有自由意志的体现,不加任何理性因素的行为不能顺利的实现目标,即便承认这是完全具有辨认能力的行为,也不能赞同这同时是具有控制能力的行为。人工智能出于理性选择做出最优化的行为路径,却在实际工作前产生为什么必须按照这个轨迹行动的疑问或者根据其他的原因放弃了“理性”做出的最优路径,这是情感在人工智能行为时给与的指导,也可以认为是人工智能具有了辨认能力和控制能力的表现。
刘宪权教授认为工具属性是不具有自由意志,还可以对其进行支配,人类的工具是可以根据人的自由意志对其进行支配的事物,但是具有工具属性与其本身不具有自由意志并不完全等同,笔者赞同这个观点。例如,甲欲杀乙,将掺杂了毒药的生日蛋糕交给共同好友丙,丙误以为是普通的生日蛋糕就带给了乙,乙在生日当天因吃了含毒的蛋糕抢救无效死亡。在这种利用他人不知情实施犯罪的案件中,犯罪嫌疑人就是将一个具有自由意志的人作为工具来实施犯罪行为。丙作为甲杀人的工具的同时也具有自由意志。当人工智能具有了自由意志之后实施犯罪行为,是否还具有工具属性需要分不同的情形进行讨论,但肯定不再是一件单纯的工具,作为一个客体出现在刑法之中。
人工智能具有工具属性且不具有自由意志一直是人工智能客体说学者的重要论据之一,笔者完全同意处于弱人工智能时代的今天,人工智能都具有工具属性,不具有作为刑事责任主体所必要的自由意志,它们的行为被人类所支配和控制,还没有超过编程的范围,即便是出现的失误也仍处于这个范围之中。但是,“承认弱智能机器人具有工具属性,并不意味着同时承认弱智能机器人的出现对刑事责任的认定没有任何影响。”[9]“在弱人工智能时代,弱智能机器人将会在很大程度上影响着刑事责任的认定和分配。”[9]例如,当无人驾驶汽车发生交通肇事时,我们根据肇事的不同的原因将责任分摊给设计者、生产商、使用人、第三人。但是,当自动驾驶汽车投入流通领域后,不同的路况要求自动驾驶汽车不断做出调整与适应,总有一种情况是在设计者考虑之外和实时道路测试之外的,自动驾驶汽车不能根据既定的程序做出抉择,此时发生交通肇事,将责任分摊给任何一方均不合理,产品不存在质量缺陷,无人驾驶汽车在行驶过程中也尽到了应然的义务,使用人选择无人驾驶汽车就是想解放自己的大脑和双手,如果需要使用人一直观察着路况,完全可以不选择自动驾驶汽车。我们不能对一件纯粹的工具进行处罚,这一点是毋庸置疑的。但是,强人工智能并不是一件纯粹的工具,当人工智能具有了自主意识,可以成为刑事责任主体的时候,对它进行处罚不存在逻辑上的悖论。当然,如果人工智能被恶意利用来实施犯罪,此时人工智能只是实施犯罪行为的工具,不能对其进行处罚。
“犯罪主体的刑事责任能够顺利实现也是赋予其主体资格的重要前提。”[10]人工智能与自然人的差异决定了现有的刑罚体系不完全适用于人工智能,要实现对人工智能的刑事处罚,需要先确定人工智能享有的权利范围,赋予人工智能合法的权利,不只是出于对它们权利意识觉醒的考量,也是因为只有确定了人工智能可以享有的权利,才能确定给与什么样的刑罚,确定了刑罚方式才能实现行为与责任的统一,让人工智能在理解自身行为的意义的同时明白需要承担的后果。
有的学者认为处罚人工智能是不现实的,刑罚的目的不能实现,笔者不赞同这一点。对于拥有辨认能力和控制能力的人工智能而言,了解到实施犯罪行为的人工智能实施犯罪被处以刑罚后,会对其产生威慑的作用,这种威慑会让其他想要实施同类行为的人工智能放弃实施行为,也让人工智能更加形象的了解到法律的威严所在。对于被处以刑罚的人工智能而言,感知痛苦是可以做到的,人工智能的痛苦与自然人并不完全相同,对于自然人来说,肉体受到伤害会感受到痛苦,精神同理,而对于人工智能来说,它们的身体,即物理载体受到伤害,感受不到痛苦,但人工智能的精神可以感受到,能够意识到刑罚让它失去了什么,可以了解到刑罚与失去的意义所在,痛苦对它们来说,同样的难以忍受。
刑法目的的实现,还需要对人工智能的处罚方式进行具化,仅明确可罚性并不能有力说服社会大众认可人工智能成为刑事责任主体。笔者认为生命刑不适用人工智能,但是自由刑和财产刑可以适用。销毁人工智能不符合经济效益的要求,而且也不能很好的弥补受到侵害的权益。辨认能力和控制能力是人工智能具有自主意识的重要表现,将它们拘禁在没有光、没有网络信号的地方,剥夺它们做某项事情的自由,对这些的客观现状的认识,失去自由的痛苦,可以实现对它们的处罚。随着经济社会的发展,财产的概念不断扩大,如今我们认为财产不仅包括有形物,还包括虚拟的、无形的资产,那么,在强人工智能时代,将财产的范围进一步扩大不是没有可能,对于人工智能来讲,财产可以是充电的时长,也可以是随意选择外在形态的权利。另外,处罚人工智能要罪责刑相当,这不仅是刑法原则的要求,也是出于经济效益的考虑。
刑事责任是实施犯罪行为后的法律评价,对一个行为进行处罚是因为这一行为符合犯罪构成要件,只要人工智能的行为是在自主意识支配下实施的,符合了某一罪的犯罪构成要件,就应该承担刑事责任。人工智能产生自主意识后的行为不再具有可预测性,不管是处罚生产商还是使用人,都不能实现刑罚的目的,只会挫伤生产商和使用人选择人工智能的积极性,不管是从经济发展的角度考虑,还是从科技发展的角度考虑,都是弊大于利。人工智能可以批量生产的特点是处罚犯罪的一个阻碍,拥有同样“大脑”的人工智能在某一个人工智能犯罪后是否需要销毁全部人工智能的程序,笔者认为不用。在设计完成之初,投入社会之前,人工智能就像是刚出生的婴儿,它们虽然拥有了学习能力,但并不天然具有辨认与控制能力,进入社会,在后期的工作中接触到不同的人和事之后,或者说在拥有了辨认能力和控制能力之后,即便是同样“大脑”和职能的人工智能,也彻底成长为不同的个体,对于其中犯罪的个体进行惩罚,是对实施的行为的处罚,并不会使其他拥有同样“大脑”和职能的人工智能受到牵连,同时也对受侵害的权益进行了弥补。
总之,我们在人工智能可能犯罪这一点上没有争议,正因为人工智能有犯罪的可能性,将其排除在刑事责任主体之外可能会导致人工智能成为某些犯罪的避风港,就像法人在成为刑事责任主体前一样。我们不能也不应该阻挡科技发展的脚步,我们只能顺应时代的发展潮流,然后让法律为科技发展保驾护航。
我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自各大过期杂志,内容仅供学习参考,不准确地方联系删除处理!