时间:2024-09-03
□伊凌嵩 杜 宇
根据人工智能是否具有独立意识[1],可以将人工智能划分为弱人工智能时代和强人工智能时代。弱人工智能时代的人工智能因为其不具有独立意识,只擅长某一特定领域的操作和技巧,在使用时体现的是使用者或设计者的意识,现阶段人工智能就处于弱人工智能时代,其本质仍然是“工具”。但随着科技的发展,在不远的未来会产生出具有自己独立的思维的人工智能,并且可以在不受人类控制的情况下,根据自己的意识,独立实施行为,进入强人工智能时代,但进入强人工智能时代后,其“工具性”的属性发生根本改变,人工智能在具有独立意识后是否具有一定的人格,是否可以成为法律关系中的主体,特别是人工智能实施犯罪行为后,是否应该适用刑法对其进行规制,具有很大争议。
(一)刑法规制主体之人工智能视角。人工智能是否具有刑法意义上的主体地位是其是否能够适用刑法规制的前提和基础。在2017年10月26日,沙特阿拉伯授予香港汉森机器人公司生产的机器人索菲亚公民身份,成为史上首个获得公民身份的机器人,这是否意味着人工智能可以通过被授予的方式获得与人类一样的法律地位和主体资格了呢?
在刑法中关于主体的规定并非一成不变,而是随着时代的发展,在一定的基础上做了适当的外延,在我国刑法中规定了单位犯罪,单位可以成为刑法的主体[2]。但在我国刑法认定单位犯罪时所体现的为单位内部所有人的共同意志,是自然人的集合体,所以刑法中规定的单位犯罪其本质仍然是人类的意志。但是强人工智能时代的人工智能完全可以脱离人类的控制产生独立的意识,人工智能不具备人之心性和灵性,与具有‘人类智慧’的自然人和自然人集合体是完全不同的。
人类在法律中的主体资格被认为是出生时便具有的,“天赋人权”一直深入现今社会中每一个人的内心当中,无论哪个国家公民的主体资格都是出生时自然获得的,谁也无权授予也无法授予。“法律面前,人人平等”所强调的也是人类与人类的平等,并非人工智能与人类的平等,如果可以授予某些人工智能与人类相同的主体地位和资格,与刑法的基本精神是完全相悖的。
有学者认为,应以人工智能具有辨别能力和控制能力为由,就认定其具有成为刑法主体的资格,但是需要明确,辨别能力和控制能力只是成为刑法主体的前提,许多动物也具有这些能力,但并不是刑法的主体。
(二)刑法规定的罪名和刑罚手段是否适用于人工智能。在讨论人工智能是否适用刑法规制时,不应该机械地判断人工智能是否可以适用刑法,更应该联系实际。
一旦人类进入强人工智能时代,就会出现大量的新型犯罪形式的产生,如果将强人工智能放入刑法中规制,则需要根据人工智能的特点,在刑法中创设大量的新型罪名,去改变刑法现有的体系。如果将人工智能列入到刑法中进行规制,那么就需要打破现有的刑法体系,在刑法中重新制定出一套只适用于人工智能的刑法原则,并在这些原则的基础上设立新的罪名和刑罚种类,对刑法进行大面积颠覆性的修改。
刑法主要通过刑罚的方式来达到刑法的目的,刑罚主要是通过两个方面使自然人感受到痛苦的:第一,直接或间接地造成自然人身体的痛苦;第二,通过剥夺自然人的从事某种社会活动的资格,从而造成情感上的痛苦。但是刑罚是否会给人工智能造成痛苦?未来人工智能系统的自主进化过程极可能不同于人类,既不像人类一样自然生产,未必会按照人类进化历程发展出类似于生物疼痛感的神经网络,也不一定会建立像人类一样的社会[3]。此时的人工智能即无法感到疼痛也不具备社会性,刑法无法对其进行规制。而且“无论是从刑法的目的分析还是从刑罚种类分析,通过我国现行刑法对智能机器人直接加以惩罚是难以想象的。”刑罚的本质是痛苦,刑罚只与犯罪相联系,是施加给犯罪人的痛苦。
我国现行刑罚的手段主要是通过剥夺犯罪分子的自由甚至生命来起到惩罚犯罪的作用,但是在未来世界中,人工智能更多会处于网络或虚拟空间,无法对其适用自由刑,而且对于具有实体的人工智能,其产生的意识并不一定完全与人类相同,适用自由刑也不一定能使其产生痛苦,起到对人工智能惩罚的作用。
人类无论是在社会自然界还是法律界的地位都应该是独一无二、不可替代的,人工智能技术无论如何发展和进步,人工智能的意识、情感以及创造力如何地接近甚至超越人类,都不能将两者等同,人工智能被发明的意义在于更好地服务人类社会,帮助人类社会,而不是替代人类社会,因此,人工智能永远不应该也不会成为刑法的主体。
随着人工智能迅速发展,其已经迅速地渗入到人类生活的各个领域,虽然刑法不能规制人工智能,但刑法可以规制设计、生产和适用人工智能的人类。
人类制造专门用于犯罪的人工智能,将自己的犯罪意图以编程的方式植入进人工智能的前期程序中,以人工智能来达到自己犯罪的目的,恶意篡改人工智能的程序,利用人工智能实施犯罪行为,此时的人工智能只是一种“智能工具”,刑事责任仍由人工智能的设计者和生产者承担。
在设计、生产人工智能或提供人工智能服务的人类,明知有缺陷并且可能对人类造成危险的,但继续生产和制造,继而导致危害结果的发生,对这类的行为可以用刑法规制,追究生产者或设计者的刑事责任,对于在生产或使用时因过失导致人工智能实行危害行为的,也可根据不同的情况在刑法中设置新的罪名以及不同的量刑标准。
随着科学技术的发展,人工智能的研究和探索不应该是完全自由、没有底线的,当某些人工智能的研究越过了人类的伦理道德底线并切实危害到人类生存,这种行为应该用刑法进行严格的限制,防范人工智能的滥用。同时也需注意应保护人工智能的无害开发,保证人工智能在可控、安全、有益性的轨道上合理发展,明确人工智能开发者的义务和责任,对于严重违反相关义务并产生严重后果的人类追究其刑事责任。
虽然人工智能不应该被列入到刑法规制的范围,但随着人工智能的深度发展,人工智能与人工智能、人工智能与人类之间的权利会发生冲突,人工智能必须加以规制,同时权利也必须得到保护。
设计一套人工智能的伦理道德标准,这套伦理道德最重要的本质在于预防应用人工智能时可能存在的风险,而且只有当人工智能具有“道德”时,人工智能的“非道德”行为才具备可谴责性。在这套伦理道德经过充分讨论和实践的基础上,创制一门新的法律用于解决和规制当人工智能与人工智能之间、人类与人工智能之间的权益发生冲突时的具体问题。
通过专门的立法对人工智能的权益进行保护,在保护人工智能的权益时,应根据人工智能不同的类型和不同的智能水平进行区分,并进行分级,根据不同的等级进行保护,规定不同等级的人工智能具有不同程度的“权利”。
(一)预防。人工智能和人类的伦理道德的形成过程并不相同,人类的伦理道德是通过学习和环境影响所形成的,是后天形成的,但是因为人工智能的特殊性,人类可以在设计或生产时,可以直接将一套完整的人工智能伦理道德植入他们的意识中,这套伦理道德是人工智能在做任何事时都不能违反的第一原则,使其达到能够和人类的伦理道德对人类行为指导作用类似的作用。但是这样的原则真的能保证人工智能不伤害人类吗?虽然在生产和设计人工智能时,已经将人工智能的伦理道德以类似算法的方式植入人工智能的意识中,但由于人工智能具有非常强的学习能力和进化能力,其伦理道德标准也是在不断修正和变化的,一部分人工智能可能在深度学习后严重违背原有“道德”,这时,人类应该创制一门专门的法律用于规制此类情形。
(二)惩罚。人工智能在经过学习和进化后,违背原有的人工智能“道德”,并造成损害结果,应该通过专门立法的形式对人工智能的这类行为加以规制。因为人类意识与人工智能意识根本不同,惩罚对人工智能不一定能起到类似于刑法中“一般预防”的作用,所以,有关人工智能的专门立法应该注重“特殊预防”,既防止人工智能的行为再次产生严重的损害结果。例如,可以对人工智能设置相关的“资格刑”,剥夺人工智能从事某种职业或者行为的权力,从而杜绝人工智能再次造成损害后果的可能。并且可以对造成严重损害后果的人工智能可以对其进行删除信息、修改程序和永久销毁等“惩罚”措施。
(三)保护。赋予具有独立意识的人工智能一定的权利是必然的趋势,人工智能也应该受到基本的尊重,在通过立法确定人工智能责任的同时,人工智能的权利也应该通过立法的形式加以保护,对人工智能只是一味地限制而不进行保护,不利于人工智能的健康发展,例如,人类不能随意虐待、处置、抛弃人工智能。随着人工智能的发展,承认人工智能的权利具有必然性与合理性。
人工智能永远不会成为刑法犯罪的主体,但是随着科学技术的发展,人工智能终有一天会成为人们生活中不可或缺的一部分,人工智能在方便人们生活的同时也会带来一些问题,应该正确地认识人工智能,对它可能出现的问题,根据实际情况,积极应对,推动整个人类社会的发展。
我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自各大过期杂志,内容仅供学习参考,不准确地方联系删除处理!