当前位置:首页 期刊杂志

意志与意识:人工智能无人驾驶汽车刑事责任论

时间:2024-08-31

刘德法,白雅楠

(郑州大学 法学院,河南 郑州 450001)

当今中国社会,正处于百年未有的数量时代转质量时代大变局。未来十五年,科技研发将继续作为社会第一驱动力,并在国家发展规划中扮演“改进效率”“迈向和谐”的内核角色。电子信息技术与实体经济深度融合所形成的算力经济会催生出一系列新产业与新模式并打破内卷。云计算、大数据、物联网以及人工智能等新型技术会在5G通信网络这一基础设施之上构建起多个新兴数字产业并成为核心经济支柱。①智能交通、智能制造等内容会成为数字化社会应用的主要场景,其中包含人工智能无人驾驶汽车的普及运用。当下道路交通犯罪立法扩张趋势是之前经济增益流向公共交通领域的应然治理模式,但也加剧了“行为无价值”与“结果无价值”在立法以及司法层面的矛盾冲突,甚至动摇了刑法规范在社会交通治理中的谦抑性。司法对醉驾犯罪的零容忍打击以及妨害安全驾驶行为犯罪化的立法处理推动了刑法在风险观念下积极发挥治理能力,但也伴有些许过度治理的嫌疑。鉴于未来人工智能无人驾驶汽车构成的新型智慧交通会加剧这一混沌状况,甚至混淆机器意识与人类意志差异导致刑法规制对象直接指向机器,颠覆传统刑法理论关于责任主体的规定,因此,厘清刑事责任论自由意志基础与人工智能操作意识差距,明确人工智能无人驾驶汽车情境中刑事责任的适格主体,建立责任归属路径,有助于保护未来智慧交通公共安全与秩序稳定。

一、刑事责任论与自由意志

究“刑事责任”之根本,是刑法非难犯罪行为并对犯罪人展开负面评价或施以刑罚的依据。德日刑法中的“责任”属于三阶层犯罪论体系中的重要评价内容,任何一个犯罪行为的成立都必须具有有责性。行为人有机会选择实施除犯罪以外的其他行为,却最终通过犯罪方式施以作为或不作为,是责任评价的重要内容。[1]193-196英美刑法理论的“责任”内容贯穿于客观犯罪行为(Actus Reus)与主观精神状态(Mens Rea)之中,例如严格责任推定规则以及可宽恕抗辩事由。[2]206我国刑法当中的“刑事责任”,多指犯罪成立后行为人所负担的接受、容忍刑事处罚的义务,是罪犯与国家机关之间的一种社会关系。“责任”描述为成立犯罪后判处刑罚的依据,犯罪意图与心理认识的内容均集中于认定故意、过失这些前置的犯罪主观内容当中。[3]各国刑法理论关于“刑事责任”的理解与定位均存有差别,但概括而言,刑事责任论所解决的问题是刑法能否非难某种行为或类型化后果或对刑事主体用刑。共通的特点即在于“刑事责任”都是针对行为主体的评价,并且是以行为本身作为评价依据。行为作为价值判断的客体,是刑事法律评价不可或缺的基本要素。如果说责任是评价结果,那行为就是评价对象,难以割裂二者之间的必然联系。辨析“行为”之义,又可明确其与“单纯的身体动静”之间存有意志成分的细节差异。作为意志的外在客观表现形式,行为本身所蕴含的指向性或针对性均来源于人的主观意志。动作则包含下意识举动,如神经条件反射。[4]47对此,韦尔策尔的目的行为论指出:“行为各个阶段都受到意志之设计,且由意志所构成。”行为意志决定行为的方向与过程,“志向有思维指导功能”[5]。

(一)决定VS非决定

在法哲学领域,行为是否完全由意志决定等价于人的意志是否自由这一问题,已然成为一个悖论。起初,西欧中世纪时期教会法有较多基于道义内容而施以刑罚的做法,但当时由于社会道德多被宗教定义,刑法也就受宗教道德的干涉和支配,导致刑罚的适用较为恣意。[6]如出一辙的是,我国古代违反君臣之礼的“不敬”“大不敬”也属于君臣道义支配下的峻法严刑。主张个人主义和自由主义的刑事古典学派为打破上述封建思想、提倡人权保障理念,将道义责任论的内容置于个体角度,从具有自由理性这一论点出发阐释了刑事责任的含义。古典学派认为,人只要达到一定年龄且精神正常就完全具有选择善恶行为的自由意思,此即“自由意志论(非决定论)”。前有康德对人类理性的探讨,后有黑格尔基于人类理性对自由意志这一客观定在的论证,都强调了人的意志是完全自由的。行为主体具有鉴别善恶的能力,最后却以犯罪的方式付诸实践,能为善而不为的客观表现需要承受来自道义上的谴责与非难,道义责任论也就成了刑事责任论的主旨。

但近代刑法学派借生物学、社会学等内容扩展了刑法学研究视角,发现人的行为抉择与行为结果往往存在着更深层次的因果进程。活动、习性甚至是人格总会受到所处环境或自身生理潜移默化的影响,因此行为往往受其他多种因素决定。意志的形成可归结为社会、个人等因素共同作用的结果,意志不可能是完全自由的。刑事责任论在近代学派这一观点之上又呈现出多种责任理论的演变与学说更替,其中包括心理责任论、人格责任论、社会责任论、规范责任论等众多理论观点。自由意志这一概念则逐渐被抛弃,并被认为是一种形而上学的内容。不承认自由意志的社会责任论与人格责任论关注到了犯罪行为人的人身危险性与反社会性格情操,并认为这不完全是个人因素决定的,而是成长环境、教育程度、经济因素等内容促成的。社会责任论基于社会防卫思想,认为针对这些有反社会性的主体,社会当然具有防卫的权利并可以采取相应强制措施予以治理。

最初的刑事人类学派注重生物学原因对犯罪的影响,基于“生来犯罪人”理论的犯罪人定型说导致刑罚波及面过广,甚至发展出了优生学并加剧民粹主义思想在刑事法律中泛滥。近代刑事社会学派则更为注重犯罪的社会学原因,基于社会防卫思想的社会责任论主要关注社会防卫措施的应然内容以及预防犯罪的方法。但仅关注“反社会性”的社会防卫论存在过激的弊端,譬如格拉玛蒂卡的社会防卫处分几乎全部颠覆了原有的刑罚制度。近现代刑法多以“非决定论”为主,“决定论”辅之构建责任论体系,又称为相对的意思自由论(相对的非决定论)。[7]244尽管存在社会因素、生理因素影响,刑法依旧需要承认人的自由意志是不能被其他因素决定的,并且自由意志是形成目的内容的关键基础。但这也不排除没有期待可能性的场合,尤其是那些行为人无法选择适法行为的情境。通说认为刑事责任的产生以主观罪过为重要依据,同时也应当考虑刑法要求行为人在现实中不实施犯罪这一做法在具体情形中的正当性问题。我国刑法理论采取的规范责任论即属通说立场,《刑法》第16条不可抗力与意外事件强调了刑法在此情境中不能期待行为人不实施客观上合乎构成要件的行为。《刑法》第17条更是认识到了人类“自由意志”的存在,认为未成年人心智尚不成熟,易受环境因素影响,不能将未成年人的意志与成年人等同。不仅如此,《刑法》第20条正当防卫更是认可了人基于意志自由形成的保护国家、社会、他人、自己权利的目的合法性。行为人虽在客观上做出了合乎犯罪构成要件的行为选择,但刑法依旧为行为人提供了出罪路径。《刑法》第21条紧急避险的“不得已”要件也是“非决定论”与“决定论”交织的产物。

(二)自由意志的基础:意识自由

在缓和决定论立场,意志似乎是自由的,但又好像是不自由的,这种论断正体现了辩证之意。我们既不能彻底离散两种对立观点的统一关系,也不能对各自立场进行过分解读。总而言之,如果认为刑法的宗旨在于保障人权与自由,也即“刑法从根本上只有在为保护个人自由和更大的社会利益时才是正当的”[8],那就必须承认意志自由。尽管其存在论难以证成,亦需要法律对此内容的向往与认同。自然人法律人格正缘于行为人可以选择为或不为,不仅仅是刑法,我国《民法典》第13条同样也基于意志自由赋予自然人享有权利和承担义务的主体资格。事实上,意志是以意识活动为基础,受心理导向产生,这种自由以意识活动多样性为基础。换言之,意志自由本质在于意识自由,两者区别主要在于意志带有强烈主观色彩。从生物进化理论来看,人在进化过程中演变出的强大意识能力是自然选择的结果,但人类有高强度意识并不意味着其他生物就没有任何意识。举例而言,黑猩猩同样有制造、使用工具的意识,甚至还会拉帮结派搞政治斗争。因此,生物都具有意识,只是程度不同。相较于单细胞生物,多细胞生物不具有快速分裂、复制繁衍的能力。但是多细胞生物借助脑部意识活动可以在其生命周期内通过有意识地学习,认识周遭环境、建立经验模型,使得自己在日后相同或类似情境中快速找到解决方案并施以应对。从脑部生理结构来看,人脑之所以能在短时间内完成联想与思考,是因为百亿级神经元之间亿亿级的突触可以实现瞬间联动。②突触之间的联动使得生物主体认识到的客观现状与过去经验记忆发生联系,进一步主导行为,也就形成了法律层面描述的包含主观与客观两个方面的行为事实。

与上述人类的意识自由相比,人工智能则不具有这种生物学上的高强度意识。其基于算法预先设定的程序所呈现出的自主性与人的主观能动性不能比拟。

二、人工智能刑法规制的责任论缺失

自1956年起,人工智能研究已经发展了六十年有余,机器学习与人工神经网络成为主要技术支撑,使得智能型机器能够主动采取措施应对目标场景。但是这种“机器意识”与人类意识之间的差距似乎蒙蔽了多数人的判断,以至于人工智能刑法学研究过度激进,甚至主张以“阿西莫夫三定律”③作为刑法规制基本准则并建立针对机器人的特殊刑罚体系,包括“删除数据”“修改程序”“永久销毁”。[9]且不说上述刑罚措施是否能够成为贝卡利亚所描述的“易感知的力量”,单就责任层面而言,如若得出机器能拥有等同于自然人刑事责任主体地位这一结论,仍需结合机器学习与人工神经网络技术机理,将机器意识同人类意识做出比对。

(一)机器学习与人工神经网络困境

参照多细胞生物有意识的学习进程,假设生物肢体可以视为机器硬件设备,那脑部意识所进行的学习活动无外乎是按照一定规律总结认知,这就更像是机器的软件内容。“机器学习”在这一观点之上,通过编程语言来设计程序,将生活中种种事物甚至是各种行为活动编译成代码以供机器识别,在能够识别目标客体的基础上让机器衔接后续程序完成操作。[10]目前已有的无监督学习算法,是计算机在无人为介入的前提下自主实现分类与建模预测功能。但计算机本质在于逻辑[11],受制于逻辑单一性和有限性,这一研究路径并不能完全让机器意识代替人类意识活动。逻辑本身只是解决问题的工具,并不能永久消除问题。从微观而言,就单个问题展开的逻辑推理是客观且必然的,但用于推理的前提——有效信息却是人为的、主观的、偶然的。即使是机器推理,就算是拥有海量数据,也难逃脱这一束缚,又或忽略特殊情形。从宏观角度出发,物质运动性导致客观事物多元多次,前提动态变化往往会导致逻辑结果的普适性难以恒久维稳。因此,机器在面对特定待解决场景,其所得出的结果在同一时间点以及同一逻辑路径上即使经过反复推演都不会改变。与人类意识的主观能动性相比,算法自身局限让机器反应丧失了多样性。鉴于逻辑奠定机器自动化性能的同时也限制了自由选择的可能,机器学习算法也就无法创造出意识上的自由。对此有学者进一步指出,自主性并非判定算法是否会思考的标准,更无必要因此而修改责任制度,这只会得出荒谬且矛盾的结论。[12]如果说机器在特定时点得出的逻辑结果有违法律,那法律也就不可能期待机器不违法。

人工神经网络研究则是从人脑生理结构出发,解构人脑智力活动,并用电子元件实现对人脑的模仿以便让机器更显智能。按照“通用型计算机”设计理念,计算机结构通常可以分为硬件与软件两个层面。④就硬件而言,如果可以用一个硅片来代替人脑神经元细胞,设计仿突触链接的离散型连接方式就可以设计出以芯片为计算单位的电子元件“大脑”。但这一设想对数字电路集成技术要求极高。截至目前,尽管SoC(System-on-a-Chip)芯片已经实现了在5纳米制程下集成150亿枚晶体管在其中,单位芯片之间的连接却成了设计难题。人脑中平均一个神经元细胞会与其他约7000个神经元细胞建立双向交互机制,较为活跃的神经元细胞甚至可以和其他10000个神经元细胞在同一时间点实时交互。这种极度错综复杂的交互机制,使得仿造电子神经元大脑成为天方夜谭。就软件而言,人工神经网络设计与机器学习相结合,产生的“深度学习”理念是凭借符号逻辑来模拟人脑各区位功能。人脑中神经元细胞之间的信息交互可以归结为负责嗅觉、听觉、视觉、触觉等多个工作区位。负责感知的神经细胞相互之间建立链接并汇总信息,最终会在脑部建立认知或形成画面。大脑对此进行分析便可得出特定解决方案。但软件层面对这一脑部活动进程的模仿和设计必然要以硬件层面的支持为基础,缺乏更为简便的硬件操作平台使得上述研究进展受限、发展缓慢,目前只是找到了存在相应算法的证据。总而言之,人工神经网络研究现状尚不足以证明机器意识可以与人类意识等同,法律评价更须立足于此。

霍姆斯曾言,法律的生命不在于逻辑,而在于经验。逻辑算法束缚下的机器意识根本不具有多细胞生物意识的多样性,也就更无自由可谈。实际上,从哲学不可知论来看,人类也不可能对自我意识有全面的认知。正如冯友兰在《中国哲学简史》中关于“不存在至大无外”的论断一般,反思的过程意味着思的主体将会被包括在这个思之内但又无法在客观上包含这个思本身。因为思的主体在此时是思的对象,与思对立。但不可知论并非消弭了“大全”旨趣,人类仍须思及全体,才能认识到全体不可思。人工智能、机器学习、人工神经网络以及无人驾驶汽车均是如此,其研究设计与发展制造即使创造不出和人等同的高级意志,仍具有实际应用的意义。智能汽车借助高速信息传输与处理,终会将人类从驾驶活动中解放出来,解决当下城市道路交通过度拥挤、流量不可控的难题,从而助力科技社会的构建与发展。法律此时仍需紧随其后,将治理重心聚焦于受技术更新后的社会既定事实与现实经验当中。因此,人工智能的法律规制对象仍在于“人”而非“机器”。无人驾驶汽车的交通环境治理内容也就必须立足于智慧交通的应用场景予以展开。

(二)人工智能无人驾驶汽车应用场景

所谓“无人驾驶”,即指在完全脱离人为操控前提下实现车辆自动行驶。⑤无监督学习算法可以让无人驾驶汽车模仿人类驾驶操作并形成相应电子数据。汽车在行驶过程中即可完成对路况信息的分析处理与建模预测,对类似情形自动作出类似的应对方案。人工神经网络会加快算法运行速度并缩短硬件运转时间,使得汽车在高速行进过程中反应灵敏、避险及时。晚近以来我国各省市机动车政策多趋向于传统燃油汽车限制出行的常态化治理,与此相对,电动化(新能源)汽车则从最初购置补偿到上路行驶都有各方面的补助与扶持。电动汽车被大力推广的举动也反映了我国发展智能交通环境的决心。与此同时,汽车行业竞争内容也从工业制造水平逐渐转变为汽车软件系统研发,多通过设计汽车与手机的交互来实现拓展应用。汽车制造商现阶段还以收集海量人为驾驶信息为目的,形成数据用以升级辅助驾驶系统并优化车机整体。在大幅提高汽车设计与更新灵活性的同时,让汽车通过深度学习升级自身。与之相似的发展趋势比比皆是,最终都会引向驾驶活动的机器自主性。但前文已论及,这种自主性技术仍然不是判断人工智能具有自由意志的确切标准。

然而,无人驾驶的智慧交通环境又是我国现实之需。我国拥有14亿人口基数,出行需求数量庞大。截至2020年,我国汽车保有量达2.81亿辆,与美国同居于世界首位。北京、上海、郑州等城市汽车保有量均居于国内前列。⑥人民日益增长的出行方面物质需求同道路交通基础设施有限性的关系之弦愈发紧绷,智能交通环境是目前缓解这一矛盾的唯一方案。当5G通信网络覆盖于城市各个角落,无人驾驶汽车不仅会在行驶过程中自行汇总路况信息,完成分析处理,物联网技术还可进一步建立车与车之间的信息交互模式(Vehicle to Vehicle,V2V),进一步提高道路交通秩序稳定性。如果用超级计算机设置道路交通管理中心,那么将实现对城市中所有无人驾驶汽车出行的管理需求。海量行驶数据的汇总、计算以及分析工作,有利于为每个车辆提供便捷出行方案,同时管控交通设备,合理规划城市交通流量。这一数字化应用虽不能将道路交通风险直接清零,但会有效降低人为风险,让交通秩序更加有条不紊。鉴于人工智能无人驾驶汽车的有用性,智能交通环境这一“被社会允许的风险”需要厘清负担刑事责任的主体。

三、无人驾驶归责的实然与应然路径

风险社会中的法律责任认定依赖于风险分配的法理,被社会允许的风险多由当事人注意义务分担承受。即使是无人驾驶汽车情境,防范道路交通安全风险仍需相关利害关系人承担起应为、能为、可为的法律要求。尽管道路交通管理中心会负责主要的监督维稳任务,无人驾驶汽车所有人、使用人,以及汽车制造商和设计者依然可能危害交通环境的公共安全秩序,甚至是个人生命财产法益。

(一)汽车所有人、使用人的罪与非罪

作为机动车一方当事人,法律规范要求的一般理性标准往往高于非机动车一方。⑦例如《道路交通安全法》第76条规定机动车一方在没有过错时亦需承担不超过百分之十的赔偿责任,这种无过错赔偿可以认为是严格责任的一种。又如最高人民法院2000年发布的《关于审理交通肇事刑事案件具体应用法律若干问题的解释》第5条、第7条均赋予了车辆单位主管人员、所有人、承包人以及乘车人更高的监督义务。因此即使是无人驾驶汽车,也应当秉持传统责任认定思路,对无人驾驶汽车所有人、使用人提出更高的注意义务。

故意犯罪由于主观恶性明显,不论是以无人驾驶汽车作为犯罪工具,还是犯罪对象,基于平均人标准说或者规范拟制说的责任论都可以清晰评价应受刑罚的依据。过失犯罪由于紧紧依附于规范责任论,认定时需严格把握监督过失与管理过失,否则可能出现似是而非的状况。鉴于社会关系复杂性,监督过失是过失罪过的重要类型之一。负有监督过失的行为人并没有直接实施危害行为,其创设的危险或侵害法益的结果均通过被监督者实现,监督者也就受有预见和回避的义务。[1]216-255尽管无人驾驶汽车所有人、使用人不再实施驾驶行为,其依然应当审慎监督这一被社会允许的危险,此时无人驾驶汽车也就成了“被监督者”。汽车所有人、使用人怠于监督或因疏忽导致重大损害结果的,应在符合规范要求的前提下考虑定罪量刑。举例而言,无人驾驶汽车如若真的发生了低概率的交通肇事情形,肇事汽车所有人仍应担负起保护现场、及时救助的责任义务,符合“因逃逸致人死亡”情形的,仍可依据上述解释第5条的规定,以交通肇事罪论处。我国在民事法律实践中已经认可了汽车所有人对自动驾驶系统的监督责任:孙某驾驶李某某具有自动驾驶功能的汽车上路行驶并发生交通事故。法院认为,李某某作为汽车所有人并系乘坐人,理应对汽车的行驶承担合理监管义务。⑧管理过失则是考虑到管理者的安全保障立场,认为管理者负有回避某些特定危害后果发生的义务。对于无人驾驶汽车而言,除了生产者、设计者等厂商以外,汽车所有人、使用人也属于汽车的管理者,应当定期检查汽车工作状态并实时更新车机系统,及时修复故障并对车辆采取必要保养措施,这都是实际生活的必然需求。怠于维修、保养或定期维护汽车安全行驶状态的,可以视为没有履行结果回避义务,是认定过失责任的考量因素。目前,我国传统刑法理论对于过失责任的成立多基于结果本位,考虑的是行为主体对自身行为结果的回避过程。但在无人驾驶情境中,驾驶行为与自身脱离之后限制了疏忽大意与过于自信的评价能力。实际上,监督过失与管理过失仍然有必要融入我国刑事立法与司法理念之中,不仅可以合理评价无人驾驶汽车过失犯罪的入罪问题,也有利于推动法益保护早期化趋势。

与此同时,为避免刑事处罚范围过广,也应当明确注意义务的合理上限。信赖原则与监督过失、管理过失相对,是起源于道路交通犯罪中的基本限定原则。[13]信赖原则要求,如若在行为人立场上可以合理确信他人不会做出不适法的行为,那这种合理确信的内容就值得法律保护。此时被害人、第三人做出的不适法行为就是一种对行为人合理信赖的损害。尽管行为人在此情形中对危害结果发生负有过失,依旧不能认定行为人成立过失犯罪。美国侵权责任法也存在与之类似的“促成的过失(Contributory Negligence)”,行为人实施了侵权行为,但由于被害人对于损害结果发生在客观上也付诸了贡献、提供了影响,因此侵权行为人不负赔偿责任。促成的过失在结论上全面否定了行为人的赔偿义务,许多州因此摒弃了这一理论。但就刑事层面而言,其仍然有着与信赖原则相同的作用与意义。日本判例将信赖原则要义作为道路交通领域注意义务的限定标准:车站乘务员未能注意下车的醉酒旅客坠入轨道,最终酿成了死亡事故。对此日本法院认为,如果能够根据乘客外观表现相信其不存在滑落进轨道的可能,那乘务员只需将其视为一般旅客,无需格外注意。[1]254进言之,适用信赖原则应坚持主客观统一的认定思路。如果行为人主观上是基于审慎义务与一般社会经验判断出对方会实施恰当行为,并且客观上的反应也符合一般理性人的经验,此时就不能认定其有过失。以监督义务为例,其并非要求无人驾驶汽车使用者实时监督汽车行驶。若经观测当前属于无人驾驶汽车专属路段,且根据社会理性经验可以信赖智慧交通不存在失序可能,那此时在车机系统正常稳定运行的过程中,乘坐人完全可以将精力转移至驾驶之外的其他活动。前提是的确有理性判断在先,有合理信赖的依据。这也意味着使用者所需倾注到驾驶活动中的注意力多取决于所在路段的状况。如果是城市繁华路段、乡间路段,道路存在行人通行的可能,使用者所需负担的注意义务就要高于在高速公路行驶的情境。

(二)汽车制造商、设计者的罪与非罪

除了所有人、使用人,无人驾驶汽车制造商、设计者也应当担负起从硬件生产制造、软件算法设计到投入流通整个过程的安全保障义务。只有严格且周全地把控人工智能车机系统,让刑法深入算法设计层面,才能有效防止系统内部风险外部化。[14]从现有的规范体系而言,道路交通犯罪多属于侵害公共秩序的犯罪类型,具有行政犯(法定犯)的基本属性。我国对道路交通违法行为的规制也呈现出独具特色的行政与刑事二元规制模式,刑事领域的道路交通犯罪多以行政违法行为为入罪前提。倘若通过增设行政犯的方式对人工智能车机系统的内部风险予以把控,就必然离不开行政与刑事二元规制模式。进言之,需要预先设立相应的行政违法行为,才能进一步增设行政犯的刑罚法规。此时,就应当以明确安全技术标准的行政规范内容为基准,赋予汽车制造商、设计者相应的产品安全保障义务。违反安全技术标准,也就同时违反了行政规范,或者说是未履行安全保障义务的违法行为,此即入罪的前提和理由。行政规范中的安全技术标准,并不以全面了解人工智能车机系统算法为前提条件,也不需要汽车制造商、设计者将自己的算法内容变得透明,只需通过了解算法设计初衷与基本运行原理就可以满足治理需求,又称“鱼缸式透明度(Fishbowl Transparency)”[15]。不仅如此,关于车机系统算法的安全技术标准,还可以按照行业需求不同以及危险程度的差异,来制定相应的白箱测试、黑箱测试⑨结果标准。[16]法律同样也可以要求制造商在汽车投入流通后,继续履行汽车售后的路况分析与安检义务。制造商、设计者生产未达标的无人驾驶汽车导致上路行驶后引发相关犯罪的,在利用信赖原则为汽车所有人、使用人提供出罪路径的同时,也要评价制造者、设计者可能的刑事责任。从责任主义角度而论,无人驾驶汽车制造商、设计者担负上述安全保障义务的本质是一种瑕疵担保。因此在引申到刑事责任的过程中,应当以严格责任为桥梁。

严格责任起源于英美刑法,多指在不能清楚认定行为人主观罪过或者没有必要证明行为人主观罪过时,只要实施了相应犯罪行为就足够追究其刑事责任。[2]156以严格责任为依据设置的犯罪均为法定犯,并且多始于保护社会公共利益的初衷。该责任理论早期在美国饱受诟病,多数人认为仅从行为本身来认定犯罪人主观意图的做法过于片面。例如“莫里赛特非法窃取政府财产”案,联邦基层法院与上诉法院一致认为行为人犯罪意图可以依据客观行为本身来认定。联邦最高法院则认为,如果犯罪意图属于一个犯罪的构成要素,则不能仅以行为本身作为评价依据,此时应当交由陪审团来评价这一要素内容。⑩尽管如此,仍有部分人认为严格责任在刑事责任中占有一席之地,尤其是面对社会重要且特殊的公共利益时,具有适用合理性。原因在于的确存在一些情形难以清晰评价犯罪行为人主观故意或过失,但不是不能认定罪过的有无。例如“巴莱特贩卖毒品”案,被告人提出申诉认为公诉机关未能证明其主观属于明知是违禁药品但依然销售的故意。美国联邦最高法院指出,麻醉药品管理法案的规范目的本身即蕴含着赋予行为人查清销售药品合法属性的义务,行为人不能以自己的无知和善意作为辩护理由。对于无人驾驶汽车制造商、设计者而言,利用严格责任设计入罪思路是能够找到合理依据的:首先,智慧交通环境对我国而言是一个重要且特殊的公共场域,涉及不特定多数人的公共利益,该类型汽车所蕴含的危险与满足广大人民群众出行需求相比是可以被社会允许的。其次,无人驾驶汽车制造商、设计者的可信赖程度决定着汽车本身的交通安全性,相较于所有人、使用人,制造商、设计者更有能力在源头控制这一风险。最后,严格责任制度貌似与责任主义违拗,实质上只要将其限制在混合过错范围内,就可以实现合理评价甚至提高司法实用性。将违反前置法的安全技术标准视为入罪依据与罪过来源,从而避免后续行为罪过在实务中难以评价的问题。尤其对于过失而言,这一主观罪过在无人驾驶汽车的实务案例中很难执行。[17]换言之,刑法意义上的严格责任并非不要求主观罪过,而是在能够认定行为人存在罪过但是不能分明地评价为故意或过失时才适用。举例而言,假设制造商生产了质量不合格的无人驾驶汽车并将其投入流通,汽车最终上路使用并造成重大安全事故。制造商在生产之时对质量瑕疵的疏漏属于故意还是过失,可能无法查清。有可能制造商在生产环节存在监管过失,但其后为产品收益不愿意召回问题车辆,又具有放任的故意。对此,严格责任会很好地解决上述问题。

行政规范确立的安全技术标准与刑事意义的严格责任是构成二元规制人工智能无人驾驶汽车制造商、设计者的基础,但这一入罪路径若不加限制仍然可能导致刑罚权泛滥,甚至施加给汽车行业过重的桎梏。制造商、设计者安保义务不能过高地要求制造、设计一方成为福柯全景敞视主义中的观察者,更不能要求其承担全部结果回避义务。[18]此时,应当由技术中立原则支撑建立出罪路径。

1984年美国联邦最高法院在“索尼侵犯环球城市影音公司版权”案中确立了技术中立原则作为免责事由。此案中,索尼公司生产的录像机被购买者用于录制环球城市影音公司作品并将其售卖。环球公司认为,索尼公司在本案中为行为人提供了工具,起到了帮助作用,理应一并承担侵权责任。但联邦最高法院认为,一项没有质量瑕疵的产品或技术在投入市场流通之后,制造商、设计者不能预测出所有被用于非法用途或合法用途的情境。当这项产品技术被非法使用时,不能因为制造商、设计者提供了工具就认定其具有帮助关系或者对权益损害结果作出了贡献。我国近年来出现的帮助犯正泛化现象也使得中立帮助犯成了学界研究热点,在科技飞速发展的同时,社会必然要接受更多有用性大于危险性的风险。[19]中立帮助行为罪与非罪的标准,是一个动态发展且需不断考察的问题。归根结底,这一问题还应当以社会容许风险的最大限度作为考量基座。如果说社会需要人工智能来营造智慧交通环境,与此同时就必须接受该技术所伴随的风险,而不是通过刑罚予以遏制。具言之,若无人驾驶汽车制造商、设计者尽到了安全生产义务和日常维修监管义务,交通事故在车辆没有质量瑕疵与安全隐患的情况下发生,就不能仅基于因果关系条件说来认定刑事责任,需要结合具体个案严格把握制造商、设计者是否对危害结果提供了原因力、影响力。在无人驾驶汽车所有人、使用人利用无人驾驶汽车实施故意犯罪的场合中,无人驾驶汽车制造商、设计者是否成立帮助犯的问题应当考究其是否对故意犯罪创设的现实、紧迫危险作出了贡献,也即客观主义立场的限制处罚说。这种客观上的贡献又与前述算法规制和严格责任联系紧密,首先需要判断制造商、设计者是否违反了先前义务。除此之外,也需要恪守主客观一致原则来考量制造商、设计者的主观认识与期待可能性。

四、结语

科技发展推进社会演变,但法治建设仍须秉要执本。人工智能作为新一轮技术革命和产业变革重要驱动力,其对法学研究的影响举足轻重。恶性意志是刑法惩罚行为人主观认识内容之根本,意识不自由从来都属于刑法应当考虑减轻、免除处罚的重要因素。面对智慧交通,本文冀望通过探寻责任认定路径,使传统刑法理论得以惩治相关利害关系人,治理新型道路交通犯罪。明晰人工智能刑法规制样貌,反对另辟体系,以维护刑法之谦抑。诚然,无人驾驶汽车也不过是人工智能应用的冰山一角,责任论也至多算作是人工智能刑法学的总论部分。探知还需与发展并行,以实践证成理论之真谛。

注释:

①参见2021年3月13日,两会受权发布的《中华人民共和国国民经济和社会发展第十四个五年规划和2035年远景目标纲要》。

②人脑拥有约860亿个神经元细胞,这些细胞之间形成的突触连接约有22.5×1016个。

③“阿西莫夫三定律”出自科幻小说家艾萨·阿西莫夫的作品《我,机器人》。它规定了三点主要法则:第一,机器人不得伤害人类,且确保人类不受伤害;第二,在不违背第一法则的前提下,机器人必须服从人类的命令;第三,在不违背第一及第二法则的前提下,机器人必须保护自己。

④“通用型计算机”多指现今用于日常生活的平板电脑、台式电脑,由于结构固定,可通过不同软件来解决不同问题,故有“通用”之意。“通用型计算机结构”又称“冯·诺依曼结构”,主要包括“运算器”“控制器”“存储器”“输入”和“输出”五大模块。

⑤《北京市自动驾驶车辆道路测试管理实施细则(试行)》规定,自动驾驶是指汽车能够在没有驾驶员干预的情况下,自己在道路上驾驶前行。《上海市智能网联汽车道路测试管理办法(试行)》规定,完全自动驾驶是指驾驶系统可以完成所有驾驶操作,完全不需要驾驶员介入。汽车工程师协会(SAE)规定的完全自动驾驶,是指不需要有人接管,系统自主解决所有驾驶过程中的问题。在这种情形下,汽车上可能根本没有人,或者有人却完全不懂驾驶技术。

⑥2021年4月3日,访问于汽车新闻网:http://www.qpzone.com.cn/Wap/hynews/7011.html 。

⑦原《侵权责任法》第49条规定,“机动车一方”是指机动车驾驶人、使用人,以及负有过错的机动车所有人。本文谈及的“使用人”包含驾驶人之意。

⑧(2020)皖13民终2792号,安徽省宿州市中级人民法院。2021年8月15日访问于法律文书裁判网:https://wenshu.court.gov.cn/。

⑨白箱测试,是指通过产品内部工作状况的反馈,检验预设的算法是否能够达到预定的标准。黑箱测试,是指通过运行已经编制好的算法来检测各项功能是否能正常运行。

⑩Morissette v.United States, 342 U.S.246, 72 S.Ct.240, 96 L.Ed.288(1952).2021年10月16日访问于LexisNexis: https://www.lexisnexis.com/community/casebrief/p/casebrief-morissette-v-united-states.

免责声明

我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自各大过期杂志,内容仅供学习参考,不准确地方联系删除处理!