当前位置:首页 期刊杂志

弱人工智能刑事主体地位的否定

时间:2024-04-24

陈伟丹 李方远

关键词 弱人工智能 刑事责任主体 独立意识

作者简介:陳伟丹,广东工业大学政法学院,本科,研究方向:法学;李方远,广东工业大学政法学院。

中图分类号:D924                                                            文献标识码:A                       DOI:10.19387/j.cnki.1009-0592.2020.05.221

一、引言

西方哲学家说过:“技术发展到一定程度后必然会有精神,如果技术发展更加智慧,它就会像大脑一般成为精神的更好载体。” 人工智能作为一种新兴技术,在交通、医疗、金融领域的应用效果显著,给人类带来许多便利。目前人工智能技术还暂处于弱人工智能阶段,该阶段的人工智能体只在编制的程序区域内具有超常的技术或操作,比如战胜李世石、柯洁等围棋世界冠军的AlphaGo,但除了下围棋外,该人工智能在其他领域一无所知。随着AI不断发展,出现了数起AI犯罪之后,刑法领域对人工智能的研究日益兴起,目前已有不少学者对人工智能法律主体提出批判,并形成了“工具说”“电子奴隶说”等多种学说。

笔者认为,虽然人工智能在计算、分析问题等方面的能力超过人类,但是其毕竟不具有同自然人一样的独立意识,仅仅是局限于人类控制下的弱人工智能。对于弱人工智能是否应该列为刑事主体,以下将以此展开讨论。

二、设立弱人工智能为刑事主体的局限性

在日常生活中人工智能可以进行更高效率的数据收集、分析,帮助人类构建舒适、安全和高效率的智慧环境。但是人工智能就是一把双刃剑,带来便利的同时,也会带来风险,如2017年绍兴破获全国首例利用AI人工智能犯罪,在美国也发生了因自动驾驶而引发的交通事故……面对这把双刃剑,我们该如何应对?对此,犯罪主体作为犯罪行为实施者与刑事责任的承担者,是刑法中必须厘清的概念。笔者认为,从自主意识、理性决策等方面考虑,决定赋予AI刑事主体资格是不可行的。

(一)不具有实质性的情感和独立意识

罗素和诺维格指出,人工智能具有像人一样思考、行动的工具、合理地思考、合理地行动四个方面。 可见,未来人工智能的目标是具有像人类一样的思维和理性。

如今,人工智能的能力令人惊叹,但是人工智能的判断只是逻辑运算的结果,而人类的意识并不是仅仅通过逻辑运算产生的结果。人工智能虽然在某些方面可以模拟人类的感情,但是其不懂得人类生命的意义。首先弱人工智能不能像人一样进行外界的认知,只会做出客观的认知,而人会带有一定的主观判断;其次是情感过程,人工智能基于认知是不会产生相应的情感,产生特定的意志过程。如边沁所说,人活在快乐与痛苦的主宰之下。 人会有思想,情绪,价值判断等等,基于这些情感会引发不同的行为,但弱人工智能不会受这类因素而影响其后续的行为,人工智能全都是基于编写好的程序,接收到相应的信息后,根据固有的算法、特定的程序完成相应的判断,做出特定的行动。那么可见弱人工智能是没有能力在超出程序的范围进行自主的信息处理并作出自主的行动。可见其意志并非独立,不能产生权利义务意识,而是控制在由人编写的程序中。

(二)不具备独立承担责任的能力

人工智能缺乏独立意识,它也没有承担责任的能力。另外,如果人工智能的犯罪“责任”由机器人承担,而利益由研发者或者使用者享受,那么无疑是与保护、发展人工智能的立法初衷相违背。

责任能力分为辨认自己行为的能力和控制自己行为的能力,但因此来确定其是责任主体是不恰当的。譬如,在我国,不满16周岁的未成年人同样有辨认能力和控制能力,但其一般认为他们不具有刑事责任能力,因为社会不认同其具有刑事责任能力。这解释在人工智能上,也是恰当的。我们是透过外界来断定一个人是否有自由意思。因此,目前人工智能还无法被人类认同具有自由意思而为刑事主体。

同样地,以黑猩猩为例,在美国纽约最高法院的一起“为黑猩猩申请人身保护令”诉讼中,法院收到了一项重要的科学专家证据:人类和黑猩猩的DNA相似率接近99%;他们和人类在大脑结构和认知发展方面有相似之处,包括交流技能的平行发展 ;黑猩猩也表现出自我意识,能在镜子、照片和电视上认出自己,并有能力对自己的行为进行反思;他们表现出同情他人的能力,与他人的经历和情感相协调,并模仿他人;他们的行为方式反映了道德倾向。可见,在自然意义上的辨认外界环境以及控制自身行动上,其认知能力、意志能力甚至比某些状态下的人类还要强。但是,法院最终否认了黑猩猩的法律人格,这是因为它表现出来的辨认和控制能力同人工智能一样不具有社会意义,社会对之成为主体资格并不认同,对之像自然人般归责没有规制意义。另外,人工智能责任的承担、对其科以刑罚,会使得人类的责任被让渡,因此部分减少了人类的责任,这使得责任性被社会忽视,对于社会而言是没有足够的威慑力的。

(三)刑罚的不适应性

刑罚的真正目的是惩罚犯罪,预防犯罪。一般认为,“犯罪预防是刑罚的目的,是刑罚正当化的根据,为刑罚发动提供了积极理由”。

在中国大陆主要的刑罚有财产刑,自由刑以及生命刑,刑罚的严厉程度依次上升。在弱人工智能看来,它本身并不拥有任何独立财产,更不用在人工智能身上适用财产刑了。自由刑是在一段时间内限制罪犯的自由,令其改过自新,同时也能够给其带来一定的煎熬和痛苦,使得不敢再犯达到特殊预防的效果,且长时间的自由刑对人的生理和心理都是极大的考验。而弱人工智能是一个程序,则更不会有限制自由一说,其并没有达到刑罚的目的,因为对其限制自由并不会给人工智能带来痛苦。人工智能也不具有生命,所以生命刑也是无从谈起。可以看出我们现有的刑罚体系对于人工智能来说不具有适应性,对人工智能实施刑罚达不到我们的刑罚目的。因此通过现行刑法无法规制弱人工智能,无法实现法律作用。我们没有办法通过对人工智能科以刑罚而指望其遵守法律,人工智能的意识只是人的意识,最后真正受处罚的还是机器背后的人,就如同法人离不开背后的人,人类仍然是最终的责任承担主体。

三、人工智能刑事责任之构想

关于人工智能的主体地位在前文已经阐述证明,人工智能应以主体以外的客观对象而存在。现阶段的弱人工智能,仍停留在为人所用的阶段,可以说只能作为工具,严格来说,人工智能犯罪的实质是人类犯罪,通过这个视角可以解决大部分涉人工智能犯罪的问题。笔者将围绕“犯罪工具属性”的人工智能犯罪模式以及其刑事责任归责机制展开叙述。

(一)维持传统责任主体故意犯罪的规制

现实中,看似机器人犯罪事件,诸如自动驾驶汽车交通肇事事件……本质是人类犯罪。人工智能故意犯罪是指研发者故意在弱人工智能系統中植入与该犯罪行为有关的程序去实施犯罪或者使用者故意改造并且利用人工智能的特定行为创造便利条件去犯罪。此种类型的故意犯罪中,人工智能被作为犯罪“工具”来使用,就如杀人犯中的刀、宠物主人发布一定指令让其宠物狗去咬人。该情况下,人工智能是间接正犯,那么该研发者可以被认定为正犯来追究责任。人工智能由此引发的刑事责任都应当由研发者承担。

(二)构造过失犯罪的惩罚规制

在绝大多数情况下,人工智能不会破围引起犯罪结果或者损害结果发生。但是也存在程序错乱、偏离指令的情况。在刑法理论中,对于过失犯罪处罚的前提是违反了注意义务。以驾驶自动汽车为例,如果研发员在人工智能投入市场使用之前没有对其进行质量检测,违反了应有的注意义务,在机器适用期间发生了检测时没有预料到的风险时,在可能的情况下要对产品进行召回,如果制造者并未履行这一义务,就要对风险产生的危害结果承担责任。同样的,人工智能使用者使用前未履行检查机器是否有明显的故障的义务,就需要对该后果承担刑事责任。

但是将不可预料的风险降低至零,也是不可能完全做到的。那么当研发者、使用者都履行了注意义务还是避免不了事故发生的时候该如何规定呢?这个时候,不妨运用比例原则,将AI所带来的利益和此风险,以及社会公众能否容忍此风险继续存在下去进行权衡,想必,结果就很清晰了。

四、总结

就现阶段而言,人工智能离达到主体地位的差距仍然很大。我们可以对此有一定的忧虑,但现在就将人工智能定位刑事主体仍为时尚早。不可否认,人工智能已经和我们的生活息息相关,但是现在我们更应该考虑的是如何在发展阶段就让人工智能不会逾越法律的边界,在开始就将人工智能限定在一定的范围内,将人们制造人工智能进行更为严格的限定,这会比新增一个刑事主体更为简便。防患于未然,也不失为一种更好的选择。

注释:

PhilMcNally,SohaiInayatullay著.机器人的权利——二十一世纪的技术、文化和法律(上)[J].邵水浩,译.世界科学,1989(6).

韩旭至.人工智能法律主体批判[J].安徽大学学报(哲学社会科学版),2019(4).

[美]罗素,[美]诺维格著.人工智能:一种现代的方法(第3版)[M].殷建平,等,译.北京:清华大学出版社,2013:3.

[英]边沁著.道德与立法原理导论[M].时殷弘,译.北京:商务印书馆,2000:57.

储陈城.人工智能可否成为刑事责任主体[N].检察日报,2018年4月19日,第3版.

纽约法院为一对黑猩猩颁布了人身保护令[EB/OL].https://www.cnbeta.com/articles/deep/387303.htm,2020年4月11日访问.

郝英兵.刑事责任论[M].北京:法律出版社,2016:序言7.

免责声明

我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自各大过期杂志,内容仅供学习参考,不准确地方联系删除处理!