时间:2024-08-31
周 鑫
人工智能产品法律地位、侵权责任形态及责任保险探赜
周鑫
(重庆大学法学院与铜仁学院铜仁市文化科技产业创新研究中心联合博士后站,重庆 404100)
在人工智能侵权案件中,由被害人来证明人工智能存在过错与否显然不公平,应该适用无过错责任的归责原则。管理人唯一免责事由就是生产瑕疵,此时责任推向生产者与销售者。而生产者和销售者的免责事由适用产品责任,即证明现有技术尚不足以发现该产品瑕疵。人工智能与其生产者、管理人之间的侵权责任分担,要在责任承担、损害赔偿和技术发展之间寻求一个平衡点。人工智能发生侵权事故时,损害赔偿由人工智能自身的保险赔付金、基金和报酬承担,不足部分由侵权责任承担者补充赔偿,而管理人和生产者不承担连带责任。
大数据;自动驾驶;侵权责任;人工智能
自20 世纪上半叶以来,人工智能在世界范围内呈现加速发展的趋势,逐渐出现在机器视觉、人脸识别、自动规划、智能搜索、智能控制等领域。人工智能的发展在带来巨大福利的同时,也带来了人类的恐惧。法律界人士的担忧是人工智能产品发生的法律责任如何承担?其中最重要的一个方面是:人工智能产品能否独立承担责任?如何承担责任?例如,美国东部时间2018年3月19日,一辆优步自动驾驶汽车在亚利桑那州坦佩市的公共道路上与一名行人相撞,致该行人死亡。这一事件迅速发酵,人们追问,自动驾驶真的安全吗?倘若自动驾驶汽车发生交通事故,究竟由谁承担法律责任?是车辆的所有者?还是车辆的制造者?抑或其他责任者?问题的棘手之处在于人工智能产品具有自主思维能力,可以自我决策、自我执行,其应否自我承担责任?这里拟从人工智能产品的法律地位出发,探讨人工智能产品的责任承担及其责任保险问题。
人工智能是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。高级人工智能产品具有自己的思维,能够做出并执行决策,已经具有一个“人”的能力。人工智能产品的法律地位与其性质密切相关。在探讨人工智能产品的法律地位之前,必须对人工智能产品的性质进行研究。
关于人工智能产品的性质,学界主要有工具说、电子奴隶说、代理说等三种观点[1],在法律上分别对应着三种法律地位。工具说认为,人工智能产品只是人类身体的一种延伸,是为人类服务的一种工具,并非独立的主体。在这一观点之下,人工智能产品不是一个法律上的独立主体,既无行为能力,亦无权利能力,对应之法律地位可以称为“非法律主体说”。电子奴隶说认为,人工智能产品服务于人类,完全听从人类的指挥,虽然能够做出一定的行为,但它没有权利做出行为,除非人类对其作出指示。也就是说,人工智能只具备行为能力而不具备权利能力,并且它的行为后果完全归属于其管理人,并不具有独立的法律地位,类似于罗马法中的“奴隶”,不过是没有情感和肉体的电子奴隶而已。在这种观点之下,人工智能产品亦不是一个独立的法律主体,对应之法律地位可称为“无权利能力的法律主体”。代理说认为,人工智能产品只是代替人类为之,是一个独立的主体,有权利亦有能力做出一定的行为,其行为具有一定的独立性,但行为结果归属于人类,与人类之间是代理关系。在这种观点之下,人工智能产品在法律上是一个独立的主体,既有权利能力,又有行为能力,只是无法承担自己行为的后果,对应之法律地位可以称为“具有权利能力和行为能力的法律主体”。
上述三种关于人工智能产品的观点,似均有缺陷。
1.工具说主张人工智能产品只是人类身体的一种延伸,这一观点明显与高智能产品的现状不相符合。如果人工智能产品只是人类身体的延伸,是一种工具,那么,其智力不应超过人类。目前似乎已经存在一些智力超过人类的机器人,譬如在围棋对弈中,机器人阿尔法狗完胜柯洁,计算能力远胜人类。据说阿尔法狗还在飞速进化,它一天要和自己对弈五万局,这在人类显然不可能实现。这种学说的弊端在于忽略了人工智能的自主性,人工智能技术目前已经发展到可以独立表达自己意思并作出行为的阶段,如特斯拉汽车可实现无人驾驶。在这一点上,人工智能早已超越传统的工具。因此,人工智能产品绝不仅仅是人类的一种工具。由于性质认定的错误,其所支持的“非法律主体说”也便失去了依据。
2.代理说认为人工智能产品只是一个代理人,其行为结果归于所有人或使用人。这一学说大体是可以接受的,这一学说支持下的“具有权利能力与行为能力的法律主体”亦有一定的合理性。不过,这一学说忽略了的一个问题是,人工智能产品虽然具有权利能力和行为能力,但不具有承担责任的能力,这使得它与普通的法律主体有所区别。仔细分析可以发现,人工智能产品的法律地位类似于未成年人的法律地位。没有民事责任能力是未成年人行为能力受到限制的重要原因。法律之所以将未成年人作为限制民事行为能力人,除了受其自身年龄、智力发展状况的制约之外,很重要的一个原因是其没有承担责任的能力,“即使具有完全的判断能力,倘若不具备承担责任的能力,便不应承认该主体为完全行为能力人。”[2]现代民商事法律上,承担责任的主要形式是财产。未成年人处于求学状态,一般没有独立的财产,也不能独立承担责任,故而,其行为应当受到限制。人工智能产品亦不具有承担责任的能力,在这一视角上,可以将其法律地位定位为类似于未成年人的法律地位。人工智能产品是没有情感和肉体的机器,不需要财产,设计者也不会为其设计出财产归属程序。依照代理说,其在交易过程中获得的财产应当归于被代理人,故其不可能具有财产。倘若不具有财产,也便不具有承担责任的能力。在这一点上,人工智能产品的法律地位似可比拟于未成年人。
3.电子奴隶说承认人工智能产品是一个主体,但认为其完全听从人类指挥,不具有权利能力,比之工具说虽有进步,但其仍然忽视了现代人工智能产品已经具有自我思考、判断并作出行为的能力。鉴于人工智能产品能够自我思考和做出行为,难说它是完全听从于人类的电子奴隶。在法律地位的问题上,电子奴隶说不承认人工智能产品的权利能力。如果人工智能产品没有权利能力,则意味着人工智能产品做出的行为无法获得法律的承认,从而导致人工智能产品的运用受到极大的限制,这显然与时代潮流相违背,故“电子奴隶说”支持下的“无权利能力的法律主体”之观点亦难获得认可。但也有学者认为:“在实践层面,当前人工智能主体性构成要件尚不完备,人工智能非主体性更有利于强化设计、管理等人员的谨慎义务,有利于受害人合法权益保护。”[3]
人工智能产品侵害他人权益的事件时有出现。2017年,网络上出现了“儿童邪典视频”,视频制作者在制作视频时利用儿童熟悉的卡通形象,加入色情、暴力等危害未成年人的内容,再通过人工智能的算法推荐给未成年人,从而导致未成年人权益受损。在这一侵权过程中,视频制作者自然难脱干系,但是人工智能的算法推送亦起到了推波助澜的作用,理应承担相应责任。2016年3月,谷歌制造的一辆无人驾驶汽车与一辆公共汽车发生剐蹭,谷歌公司承认自动驾驶汽车应当承担责任。作为人工智能的主要代表,自动驾驶汽车面对公共汽车这样的庞然大物尚能发生事故,面对其他物体自然也可能发生事故。由于少年儿童的身高与判别能力均有不足,未来自动驾驶汽车最主要的侵害对象很可能是少年儿童。人工智能产品侵权的法律责任认定可以仿效未成年人责任的形式,即替代责任。替代责任是指“责任人为他人的行为和为人之行为以外的自己管领的对象所致损害负有的侵权赔偿责任形态”。[4]替代责任的主要表现形式是监护人对未成年人的行为后果替代承担责任,即未成年人做出一定的行为需要承担后果,但没有承担责任的能力,其法律后果由监护人替代承担。
如前所述,财产是承担民事责任的基础,人工智能产品没有独立的财产无法独立承担责任,但其责任又必须有人承担,如此,只能寻求其他主体替代其承担责任。这与未成年人责任的替代承担非常相似。对此,已经有学者表示:“如果智能机器人实际上‘代理或者代表’某个法律主体从事行为或者进行决策,那么可以比照父母对未成年人子女的责任或者说监护人对被监护人的责任,或者雇主对雇员的责任,让部署智能机器人的人承担替代责任。”[5]由谁来替代人工智能产品承担责任呢?人工智能产品致人损害的情形大致可以分为三类:一是由于人工智能产品使用者操作失误导致的损害,即人工智能产品本身不存在问题,损害的发生是使用者操作失误造成的;二是人工智能产品制造者的人为失误造成的损害,即使用者的操作不存在问题,而损害的发生是由于制造者的设计失误造成的;三是因无法解释之原因造成的损害。即使用者的操作和制造者的设计均不存在问题,损害的发生是由于人工智能产品的自我判断失误造成的。在这三种情况下,承担替代责任的主体应当有所不同。
首先,人工智能产品使用者操作失误造成的损害,应当由操作者承担责任,此时不适用未成年人的替代责任。损害由使用者操作失误造成,意味着人工智能产品对此没有过错,过错完全在操作者本人,操作者具有财产,能够承担责任,应承担自己责任而非未成年人的替代责任。人工智能产品制造者设计失误造成的损害,应当由制造者承担责任,可以用未成年人替代责任的理论予以解释。
其次,产品质量致人损害,适用产品质量法,人工智能产品属于产品的一种,当然应由产品制造者承担最终责任,这是来自产品质量法理论的解释。但是,这一解释可能遭遇一些困难,其原因是,要求承担责任需要由原告证明产品存在缺陷,而证明人工智能产品特别是人工智能产品系统层面的缺陷相当困难。如果不能证明,制造者将不承担责任。对此,倘若适用未成年人的替代责任理论解释,或许是一条更为有效的解释进路。未成年人替代责任理论的解释可以是:人工智能产品具有特殊性,不同于作为“物”而存在的其他产品。作为“物”的产品不是法律主体,自然不能承担责任。人工智能产品是一类特殊的法律主体,作为一类法律主体,本应承担责任,只是因为没有承担责任的能力,才由制造者承担责任。
再次,人工智能产品的责任与未成年人的责任有一定的类似性,产品制造者类似于监护人,人工智能产品类似于未成年人,监护人因未能履行监护职责而承担对未成年人的替代责任,制造者则因制造失误而承担对人工智能产品的替代责任。因无法解释的原因造成的损害应当由制造者和使用者共同承担责任,其责任承担可以用未成年人的替代责任进行解释。此种损害的造成,并非制造者的制造缺陷或使用者的操作失误造成,多数情况下是人工智能产品自主决策造成的。高智能的人工智能产品,能够自主学习新的信息,利用新的数据做出决策,甚至能够修改人类对其设定的规则,其自我决策造成的损害很难归因于人类。这便如一个未成年人随着年龄的增长已经具备了独自决策、独自行为的能力,依照谁决策谁负责的原则,其应当独立承担责任,但其没有承担责任的能力。
此外,与未成年人的情况非常相似,高智能的人工智能产品没有责任能力,其责任应由他人替代。“立足于义务本位的赋权理念,赋予智能机器人限制权利能力,利用救济代理和责任替代的路径弥补其权利行使的不能和责任承担的不足。”[6]由谁来替代承担责任呢?显然,人工智能产品的制造者和使用者是与该产品联系最密切的主体,应当由他们承担责任。不过,人工智能产品的制造者应当承担较大份额的责任,因为,制造者比使用者更有能力预见损害结果的发生。
人工智能产品造成的损害应当由其他主体替代承担,其中,产品的制造者是主要的责任承担者。然而,如果责任过重,必然阻碍制造者发展人工智能的积极性。为此,必须有相关制度帮助责任主体承担人工智能产品的风险,这一制度便是保险制度。重要的问题是保险应当保障何人?亦即,谁应当作为被保险人?既有的思路认为,人工智能产品或许可以作为被保险人。例如,英国汽车技术和航空法案规定,“在自动驾驶模式下,被保险人的车辆如果发生事故,则保险公司必须负责赔偿事故造成的损失。当然,保险公司享有对制造商的代位求偿权,如果车辆在自动驾驶状态下发生事故,而制造商对此负有责任,那么保险公司赔偿受害人损失后有权从制造商处获得赔偿。”[7]这一立法思路,似将人工智能产品作为被保险人进行保障。这一思路的理论基础类似于未成年人理论。在该理论之下,未成年人是一个具有权利能力和行为能力的法律主体,且在保险关系中不需要承担责任,因此可以作为被保险人存在。
人工智能产品具有类似于未成年人的法律地位,可以类推为被保险人。然而,将人工智能产品作为被保险人进行保障,有可能阻碍人工智能产品的发展。依照英国的做法,将人工智能产品作为被保险人,在发生事故之后,保险公司直接对受害人进行赔付。倘若制造者对此事故负有责任,则保险公司赔付完毕之后,可以行使对制造者的代位追偿权,最终的责任承担者仍是人工智能产品的制造者。倘若责任过重,势必打击制造者发展人工智能产品的积极性,从而阻碍了人工智能产品的发展。在保险产品设计上,既能保护制造者信心,又能保证受害人获得赔偿的设计,应当是将责任的最终承担者作为被保险人,即将制造者和使用者作为被保险人。如上所述,人工智能产品所涉责任最终由产品制造者和使用者替代承担,消弭责任之保险产品自然应当从根本着手,将责任的最终承担者作为保障对象。若以责任的最终承担者作为保障对象,由于没有任何主体对事故之责任再次负责,保险公司也便不能行使代位追偿权。故而,制造者和使用者的信心可以获得充分保障。
综上所述,依未成年人理论,未成年人完全可以作为被保险人,然而在人工智能产品的保险问题上,应当改变未成年人保险的做法,将人工智能产品的制造者和使用者作为被保险人。探讨人工智能产品的法律责任,应从人工智能产品的法律地位开始。人工智能产品不具有承担责任的能力,这与未成年人极其相似,故而,本文对其法律地位做出了类似于未成年人的解释。人工智能产品产生的责任需要由制造者或使用者替代承担,这种承担方式可类比于未成年人的责任承担。为了消弭责任,必须建立人工智能产品的保险制度。人工智能产品责任保险的设计应当以制造者和使用者作为被保险人,如此方能消除对人工智能产品发展的阻碍。
[1]袁曾.人工智能有限法律人格审视[J].东方法学,2017(5):24.
[2]梁鹏.大学生网贷风险的法律控制[J].中国青年社会科学,2016(5):17.
[3]付其运.人工智能非主体性前提下侵权责任承担机制研究[J].法学杂志,2021(4):33.
[4]杨立新.侵权法论[M].北京:人民法院出版社,2013:863.
[5]司晓.论人工智能的民事责任:以自动驾驶汽车和智能机器人为切入点[J].法律科学,2017(5):21.
[6]姜晓婧.智能机器人民事主体制度构建[J].科技与法律,2019(1):15.
[7]王靖茹.自动驾驶汽车事故责任问题研究[J].河北大学学报,2017(4):9.
Legal Status of Artificial Intelligence Products, Infringement Responsibility Form and Liability Insurance
Zhou Xin
In artificial intelligence infringement cases, it is obviously unfair to certificate whether artificial intelligence is faulty or not. It should apply non-fault responsibility. The only exemption of the manager is to produce a defect, and the responsibility is responsible to the producer and the seller. The exemption of producers and sellers is applicable to product responsibility, that is, to prove that the prior art is not enough to find the product. Artificial intelligence and its producers, the infringement responsibility between manners help us to seek a balance between responsibility, damages and technology development. When an infringement accident occurs, damage compensation is borne by artificially intelligent self-insurance payment, fund and compensation, and the deficiencies are supplemented by the infringement responsibility, and the manager and producer do not assume joint responsibility.
Big data; Auto-pilot; Tort liability; Artificial intelligen
2021-07-02
中国博士后第63批科学基金面上资助项目(2018M633635XB);贵州省社会科学界联合会基金课题(LHKT2019YB03)
周鑫(1981—),男,江苏连云港人,重庆大学法学院与铜仁学院铜仁市文化科技产业创新研究中心联合博士后,主要从事人工智能法学理论研究。
10.13685/j.cnki.abc. 000588
D923
A
1671-9255(2021)04-0048-04
我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自各大过期杂志,内容仅供学习参考,不准确地方联系删除处理!