自动驾驶车辆交通肇事的刑法规制
程 龙
字号:
小
中
大
【中文关键词】 自动驾驶;刑事责任;交通肇事;刑法规制
【摘要】 自动驾驶技术日趋成熟,欧博娱乐相应的法律问题也随之显露。自动驾驶车辆肇事案陆续发生,关于如何对自动驾驶车辆交通肇事进行刑法规制的讨论已跃然出现。从人格责任出发,包括自动驾驶车辆在内的人工智能产品具备一定的辨认、控制自身行为的能力,也有局部的自我意识和刑罚感知能力,可以以特殊的形式承担刑事责任。具体到交通肇事的罪责承担上,应以自动驾驶系统与驾驶人对车辆的支配能力为中心,在辅助驾驶模式、共同驾驶模式和自主驾驶模式下分别讨论责任承担问题。同时,注意判断驾驶人的结果回避可能性、自动驾驶系统的意志自由,并且重视制造厂商和个人的监督责任。
【全文】
2017年,人工智能成为最受关注的新兴科技领域。尽管断言人工智能将会改变人类社会为时尚早,但毫无疑问,人工智能正在悄悄影响着人类生活。“我们不可能停下研究人工智能的脚步,从人工智能到广义人工智能再到超级人工智能的进程不可避免,也无法‘叫停’。”{1}人工智能的发展需要科技的投入,也同样需要人类适当干预,以避免人工智能反噬其“造物主”。我们应当未雨绸缪,前瞻人工智能的发展,同时因应其发展而对现行法律进行调整或再解释,以满足规制人工智能前进方向的需要。
自动驾驶是人工智能最早投入应用的领域之一。尽管技术较为成熟,但仍然在其发展过程中暴露出若干值得法律界人士思考的问题。其中,自动驾驶车辆交通肇事后能否为刑法所规制、怎样为刑法所规制,成为本文关注的焦点问题。就在本文写作期间,2018年3月19日,美国亚利桑那州再次发生自动驾驶车辆交通肇事案{2},影响颇大,对自动驾驶车辆进行法律规制的需求与呼声进一步升温。在此背景下,我们更有必要思考如何从刑法规制的层面,一方面尊重科技成果,鼓励自动驾驶技术与系统的研发,另一方面又确保自动驾驶科技发展始终以人为本、依法运行。
如前所述,本文旨在论析如何从刑法层面对现在正在出现和未来即将出现的自动驾驶车辆交通肇事进行规制。文章将主要讨论自动驾驶车辆自身能否作为责任主体承担刑事责任以及自动驾驶车辆交通肇事后哪些主体可能承担刑事责任的问题。由此立场出发,第一部分将从理论层面论述自动驾驶车辆承担刑事责任的可能与限度,第二部分则基于我国《刑法》第133条交通肇事罪的规定,论析自动驾驶车辆构成交通肇事罪后的责任承担问题。必须说明的是,本文仅探讨自动驾驶车辆的交通肇事过失犯罪,而不讨论自动驾驶车辆产生自我意识后的故意犯罪,也不讨论相关民事责任问题。
一、自动驾驶车辆承担刑事责任的可能与限度
(一)自动驾驶车辆的人格责任论
在讨论自动驾驶车辆应否、能否承担刑事责任之前,必须首先回答何为刑事责任这一理论问题。从理论上看,责任的概念在刑法上有两种不同的含义,一是作为犯罪法律后果的刑事责任,二是作为犯罪成立条件之一的“非难可能性”{3}240。本文主要探讨的是第二种意义上的责任概念,即对不法行为的非难可能性。对刑事责任本质的理解存在不同学说,不同学说直接影响了对责任的理解与应用。
从历史上看,刑事责任经过了结果责任论、心理责任论和规范责任论的发展脉络。{4}结果责任论、心理责任论由于自身种种问题,已被时代抛弃。规范责任论强调“行为人对于法律规范的错误态度”{5}210。但在人工智能领域中,一方面,实际上不可能寻找作为行为人的人工智能产品的“法态度”;另一方面,法态度的形成需要具有人类的情感与共识,人工智能产品实际上难以建立其稳定的法态度,也难以对此进行准确评价。因此,在一般意义上讨论人工智能是否存在违反法律规范的错误态度,是有疑问的。自动驾驶车辆及其他人工智能产品承担刑事责任,关键是为了保障现有的人类法律规范得到普遍遵守,同时,确保法律规范一旦违反后能够得到救济和回复。也就是说,各方社会主体在面对具有合法性的规范时必须保有足够的对法律的忠诚,此即机能责任论的内涵。{5}210机能责任论能够解释人工智能需要承担刑事责任的原因——即实现一般预防,但仍然无法回答人工智能能否像人一样表明对法律的忠诚与不忠诚,同时也难以说明是否可以实现一般预防的基本效用。况且,机能责任论并未在我国形成通行观点,故本文仍不采机能责任论的观点。
本文认为,人格责任论是解决自动驾驶车辆及其他人工智能产品刑事责任本质问题的有力解释资源。所谓人格责任就是:“现在的人格是在各种各样的生活决定的积累的基础上而形成。并且,过去的各个决断仍是基于自由意思而作出,作为其集合体可以追究人格形成责任。”{6}人工智能产品是否有人格性,是人格责任论能否解释人工智能产品承担刑事责任的基础。我国目前尚无立法对人工智能的法律人格和权利义务作出规定,但欧盟及日本等国已经开始关注人工智能产品的人格性及其法律规制。{7}从技术层面看,人工智能产品的人格性也能从其机器学习(Machine Learning)中得到印证:人工智能与传统编程产品最大的不同,就在于人工智能是依靠一定算法,基于海量数据进行机器学习,从而掌握相应技能。例如自动驾驶,它并不等同于目前已经广泛应用的自适应巡航系统。自适应巡航是基于车载雷达、自动刹车、定速巡航等已编程技术而对车辆进行控制的技术系统,而自动驾驶是在分析、学习海量人类驾驶技能、经验和习惯后由机器学习进而掌握与真人近似的驾驶技能。从这个角度看,人工智能在特定领域完全满足人格形成的渐进性和后天培养性特点。从哲学视角看,人的意志自由是其承担责任的基础;但从实然角度看,人的意志自由总会受到既往社会、教育、经济、政治、自然条件等诸因素的限制。最终,决定行为人犯罪的是其人格层次,即“从生活中经常发生的临时决定中逐渐形成的性格”{8}。以此观之,人工智能产品的“人格”通过机器学习而逐渐形成,因此,在追究人工智能产品的责任时,以人格责任论为基础较为适宜。当然,人格责任论是在学理层面解释人工智能产品刑事责任承担的一种解释资源,而非对人工智能“人格”的确定。申言之,在目前尚未针对人工智能产品提出专门刑法理论之时,我们必须利用已有的理论工具对此新生问题进行再解释。基于以上优点,人格责任论成为解释人工智能产品刑事责任承担的“最不坏”的理论资源。同时,不可否认,由于机器学习的片面性和专业性,人工智能产品“性格”和“习惯”的形成较有局限性,只能在其用途范围内证成“人格”。若单纯以机器是否能够识别法律、能否忠实于法律来判断人工智能产品是否能够承担刑事责任,则无论如何无法得到确定的答案。但如果从性格形成、人格确立的角度讨论人工智能产品承担刑事责任的可能,则无疑更有说服力。当然,已经有人指出,人工智能产品并非一概拥有人格,只有具备辨认自身行为和控制自身行为之能力的强人工智能才有法律上的人格。{9}138-140笔者赞成这一判断,认为法律上的人格是人工智能产品承担刑事责任的基础,“无人格即无责任”。以此标准可以判断在机器和自动驾驶系统参与下,何时由人承担刑事责任,而何时由自动驾驶车辆承担刑事责任。
(二)自动驾驶车辆可以承担刑事责任
具备法律上的人格,只是包括自动驾驶车辆在内的人工智能产品承担刑事责任的基础。要能够承担刑事责任,还必须论证自动驾驶车辆具有刑事责任能力。有研究认为,强、弱人工智能的区分正好对应刑法上有、无刑事责任能力的界定。智能化程度较低者为完全无刑事责任能力或限制刑事责任能力,而智能化程度很高的强人工智能则对应完全有刑事责任能力,如果人工智能系统感染病毒则可对应间歇性精神病人的刑事责任承担。{10}112这样的分类有一定道理,但失之于简单化。本文将从行为主体性和刑罚感知能力两个角度论述自动驾驶车辆具有刑事责任能力。
1.行为主体性
无生命体是否能够产生与人一样的有意识行为,是无生命体是否可以承担刑事责任的首要疑问。刑法中的行为主要是指“基于意思的人的身体的动静”{11}66。尽管犯罪概念是围绕自然人而建立的,欧博allbet但我国刑法并不排斥对无生命的单位追究其刑事责任。这为刑事责任承担主体拓展到自然人以外的无生命体提供了基础。学理上认为,虽然单位不可能有完全属于自己的意思表示,但是我们仍然可以把“单位内部成员在相互联系、相互作用、协调一致的条件下形成的意志”视为单位的意志。{3}135日本刑法也认为,法人虽然“不可能与自然人完全一样,具有基于意思的身体动静”,但“仍然可以成为犯罪的主体”。{11}39故行为是否由自然人作出、是否附有独立的意志,并非判断行为主体性的绝对依据。
人工智能产品不具有生命力,但并非不具有思维能力。其一,人工智能产品具有一定的辨认能力和控制能力。例如在交通运输领域,自动驾驶车辆自然具备对交通环境、驾驶技巧、交通法规等诸多因素的辨认能力。其中,对交通法律法规的记忆以及对自身驾驶行为合法性的辨认应是自动驾驶车辆所必须具备的能力。此外,包括自动驾驶车辆在内的人工智能产品最主要的价值就是扩展了人的能力范围,尤其是在日常应用领域,人工智能产品能够凭借其更好的计算、判断、预测能力而比人类更优秀地控制行为于恰当范围之内。自动驾驶车辆依靠其电子感应设备能够更好地探知距离、位置、动力、刹车分配等复杂的驾驶影响因素,又能通过智能分析系统、动力控制系统等人工智能产品来恰当地控制驾驶,使得自动驾驶安全度大大高于人类驾驶。因此,人工智能产品的辨认能力和控制能力是完全可以确证的。但需要注意,人工智能产品的辨认能力和控制能力尽管在某个领域优于人类,但不可能如人类一样在所有领域都具备辨认能力和控制能力。易言之,人工智能产品只具有有限的辨认能力和控制能力,仅在其对应的用途领域可以证成其思维能力,也只能在其思维能力范围内讨论其可否承担刑事责任。泛泛讨论人工智能产品是否具有刑法意义上的辨认能力和控制能力,是空洞的;必须落实在人工智能产品的用途领域才有意义。如自动驾驶车辆,可以讨论其是否应当承担交通肇事领域的刑事责任,但谁都不会认为它还可以承担强奸罪、逃税罪的刑事责任。其二,人工智能产品具有一定的自主意识。{12}42-43强人工智能的目标就是建造具有与人相同的思维能力的机器产品。尽管目前人工智能的发展尚未迈入强人工智能的大门,但随着越来越多的机器通过“图灵测试”,机器具有一定的思维能力已经成为科技界的共识。科技中的“思维”与法学中的“思维”概念有一定差异。法学中的思维不仅要求有逻辑思考能力、自主意识,还要求有伦理识别能力,即不仅思考以最好的方式行为,还要以最对的方式行为。事实上,机器行为的伦理性一直是业界讨论的热点。机器的行为必须考虑人的首要性,即机器的行为不能侵害人类,不能违背人类生活和生存的伦理。阿西莫夫在20世纪40年代提出的“机器人三原则”是对机器行为伦理性约束的最好例证。目前,人工智能的发展主要依靠在海量数据基础上进行的机器学习。在机器学习过程中,人工智能产品逐渐产生对某个专业领域的思维能力,但必须确保在“黑箱化”的机器学习过程中人工智能产品不会产生危害人类的思维,也就是说人工智能产品的发展与应用必须考虑其行为的伦理性。人工智能产品的行为不能以违反人类道德、伦理和社会基本秩序的方式进行。由此观之,对人工智能产品的行为进行刑法约束和制裁具有正当性和必要性。
综上,人工智能产品在其专业领域范围内具有辨认能力和控制能力,并具有自主意识,故需要法律约束。其行为并非如单位犯罪、法人犯罪那样是法律的拟制,而是真正具有与人类相似的行为能力,故可由刑法加以规制。
2.刑罚感知能力
反对针对人工智能进行刑法规制的一个重要论点为:人工智能产品无法感知刑罚,故无法真正落实刑事责任。本文认为,这样的观点在目前的技术背景下已不能成立。不可否认,包括自动驾驶汽车在内的所有人工智能产品都是无生命物;但这并不意味着人工智能产品不能感知刑罚,也不意味着刑罚无法实现其一般预防和特殊预防的功能。
首先,人工智能产品具有生命感知力。没有生命力不等于没有生命感知力。人工智能,尤其是强人工智能经过长期的机器学习,具有初步的思维能力。从生物学的观点看,人类产生意识的根源在于大脑超高数量级的脑细胞的神经传导,大脑结构和神经连接差异与犯罪的联系也得到了初步的证明。{13}而人工智能技术的重大突破即在于模拟人类大脑结构和神经连接,从而产生意识,进行机器学习。事实上,一段代码、一个电子元件在人工智能领域即为其神经元,用以产生自我意识。{10}110尽管人工智能产品不具有生命力,但其自我意识能够产生近似于生命感知力的思维形态。强人工智能能够明白自身的存在,也能产生对其存在的依赖感与对剥夺其存在的不适感。因此,从技术上看,剥夺人工智能产品的存在或者拘束其存在,在强人工智能条件下可以让人工智能产品产生类似于人类的痛苦感。
其次,大数据在人工智能的机器学习中可以实现预防犯罪的观念灌输。人工智能的机器学习有赖于海量数据的支持,其中自然包含人类法律信息和法律规制的相关数据内容,这些法律数据也应当能够被人工智能产品所学习。众所周知,刑罚的目的不仅在于报应,也在于实现一般预防与特殊预防。从个人处罚正当化的视角看,报应刑观点具有解释力;而在国家和社会层面,刑罚的正当性主要在于一般预防。{14}大数据储备使得刑法规制对人工智能产品犯罪的一般预防具有显著的可行性。如果在人工智能进行机器学习时将人类处置同类乃至人工智能产品的相关判例大数据也让人工智能一并学习,就可以让人工智能产品知道并树立有罪必罚的观点,从而确保人工智能产品产生不去违法犯罪的心理强制。即便强人工智能拥有了一定的自我意识,也能够随时唤醒其机器学习过程中吸收的刑法判例大数据,从而使人工智能产品“通过刑罚威胁的安排,在犹豫不定的灵魂中呼唤不进行犯罪的情感,这种情感帮助反对实施犯罪的心理追求获得优势地位”{15}。从这个角度看,针对人工智能产品定罪、量刑的判例能够在未来的机器学习中令人工智能产品建立正确的守法观念,实现刑罚的一般预防功能。
最后,针对人工智能产品可以设置不同的新刑罚来实现规制目的。如上所述,人工智能产品具有刑罚感知能力,刑罚可以通过机器学习而实现一般预防的功能,因此,自然可以对人工智能产品施加刑罚,从而起到报应与预防的目的。有学者认为,针对人工智能产品的刑罚不同于惩罚自然人的刑罚,初步构想可以有删除数据、修改程序、永久销毁三类刑罚。{9}142笔者认为,删除数据、修改程序尚无法视为刑罚,因为其目的不在于惩罚,甚至也无法让人工智能产品产生基于刑罚的痛苦,而只是通过修理的方式消除人工智能产品的错误与威胁而已。真正具有意义的刑罚在本文看来仅有永久销毁一项。人工智能产品尽管具有一定的“类人性”,但终究只是人类的产品而非真正的人类。追究人工智能产品的刑事责任,进而施加刑罚,其目的不在于改造人工智能产品,主要还是实现报应和一般预防。从刑罚设置的角度看,自由刑和罚金刑对人工智能产品缺乏实施可行性,修改、删除数据则只是修理方式而难谓刑罚,因此目前唯一可以适用的刑罚只能是永久销毁。
综上所述,包括自动驾驶车辆在内的人工智能产品可以产生思维能力,从而辨认和控制自己的行为。它们还可能产生自我意识,从而使刑罚对它们具有心理强制力,以避免它们犯罪。最终,则是通过“永久销毁”这一刑罚类型来使自动驾驶车辆承担罪责。
二、自动驾驶车辆交通肇事罪的类型化分析
(一)自动驾驶车辆构成交通肇事罪的基本特点
依前文所述,包括自动驾驶车辆在内的人工智能产品可以作为犯罪主体承担刑事责任。那么,在自动驾驶车辆构成交通肇事罪时罪责应当如何承担?在进行具体分析之前,应首先从责任主体三方性、自动驾驶车辆违法的罕见性两个方面阐述自动驾驶车辆在交通肇事罪中的基本特点。
1.责任主体的三方性
按照《刑法》第133条交通肇事罪的规定,可能承担该罪责任的主体通常仅有驾驶人一方。尽管《最高人民法院关于审理交通肇事刑事案件具体应用法律若干问题的解释》第5条第2款规定了交通肇事罪中按共犯处理的情形,但学界对该过失犯罪能否适用共犯理论仍有争议。{16}
而自动驾驶车辆构成交通肇事罪时,依前文所述,该自动驾驶车辆可以并且应当被追究刑事责任,故较之传统交通肇事罪而言新增了这一刑事责任承担主体。另外,自动驾驶车辆是由生产商所制造(这里的“制造”不同于传统工业制造:尽管自动驾驶车辆的软硬件设备确实是由厂商生产而成,但包括自动驾驶车辆在内的人工智能产品,其功能的获得不完全是由制造而成,还需在生产商监督下通过机器学习而获得),因此还有必要讨论生产商的责任问题。当然,此处生产商的责任不同于自动驾驶车辆和驾驶人的交通肇事罪责任,它有可能是单纯的民法意义上的产品责任,但也不排除构成监管类的过失犯罪。从理论上看,由于业务和其他社会生活关系,在特定的人、事之间形成了监督与被监督的关系,如果监督者不履行或不正确履行监督义务,导致危害结果发生,则一方面要追究被监督者的责任,另一方面也要追究监督者的责任。这体现为“二人以上的过失竞合,即被监督者的一般过失与监督者的监督过失竞合在一起导致了结果的发生”{3}296。具体在自动驾驶车辆交通肇事情形下,自动驾驶车辆构成交通肇事罪,仍有必要探讨生产商是否具有监督机器学习并保证机器运行符合法律规范和安全规定的义务(监督义务)、是否可以预见自动驾驶车辆在机器学习时和上路运行后可能存在的安全隐患(预见可能性),最终判断生产商是否对防止危害结果发生负有相当的作为义务。如这些问题得到肯定回答,则可肯定生产商需要承担刑事意义上的监督责任。当然,监督责任的承担是否采用被监督者所构成的罪名存有争议。一般而言,我国监督过失既可能构成与被监督者相同的过失犯罪,也可能构成玩忽职守等与被监督者不同的过失犯罪。{3}297本文认为,当自动驾驶车辆生产商需要承担监督责任时,不应以交通肇事罪定罪量刑,而应以《刑法》第146条规定的生产不符合安全标准的产品罪定罪处罚。此外,根据《刑法》第150条的规定,单位当然可以构成生产不符合安全标准的产品罪。
综上,在自动驾驶车辆构成交通肇事罪时,一共有驾驶人、自动驾驶车辆和肇事车辆生产商三方主体需要讨论责任承担问题。
2.自动驾驶车辆违法的罕见性
一般而言,过失犯罪的认定需经过犯罪构成的检视才可认定。具体在交通肇事罪中,必须在构成要件符合性层面讨论责任主体是否违反交通运输管理法规,以及在交通运输管理法规中认定的事故责任承担比例的大小。事实上,我国对交通肇事罪的认定也主要是从犯罪结果与事故责任承担比例的关系上判断定罪条件的。然而,自动驾驶车辆违反交通法律法规非常罕见。因为,从逻辑和常识出发,自动驾驶车辆上路行驶,其暗含的基本安全标准即在于不可违法驾驶。这也是自动驾驶优于人工驾驶的突出优势。如果发生交通肇事,对于自动驾驶车辆而言只可能有两种情形:其一,自动驾驶车辆完全守法驾驶,自然从现行交通肇事罪的司法解释来看不可能触犯该罪名,而可能以承担民事责任的方式解决纠纷;其二,自动驾驶车辆逾越了生产制造、机器学习时秉承的不得违反法律法规的禁令,违反了交通运输管理法规而酿成事故。本文探讨的是后一情形。此时,正因为自动驾驶车辆违反交通运输法规的罕见,才引起了我们对这一问题的关注,也才引发了生产商是否需要承担监督责任的思考。
(二)自动驾驶车辆交通肇事的责任承担
在自动驾驶车辆交通肇事时,有三方主体需要探讨责任归属,不免繁杂。因此本文认为,应当以自动驾驶系统与驾驶人双方对驾驶的支配程度为标准,细分为自动驾驶系统辅助驾驶模式、自动驾驶系统与驾驶人共同驾驶模式、自动驾驶系统自主驾驶模式三种类型,分别探讨三方主体的责任承担。
1.自动驾驶系统辅助驾驶模式的责任承担
自动驾驶系统辅助驾驶模式是指自动驾驶系统启动后并非直接支配驾驶,而是辅助驾驶,例如距离检测、主动刹车、定速巡航、车距保持、车道保持等子系统共同作用,从而减轻驾驶人驾驶负担,增强驾驶安全性。该模式下,对驾驶起着支配作用的仅为驾驶人一方。严格说,自动驾驶系统辅助驾驶并非人工智能。目前,包括特斯拉在内的多家高科技汽车公司均能在自适应巡航的基础上实现这种高度驾驶辅助。此时,尽管自动驾驶系统部分控制了汽车运行,但驾驶人拥有对车辆的完全控制权,自动驾驶系统仅为辅助驾驶,而非共同驾驶或完全自主驾驶。在此模式下构成交通肇事罪与传统型交通肇事罪无异。驾驶人负有安全驾驶的注意义务和遵守交通运输法规的义务却因疏忽大意或过于自信而造成交通事故的,以传统交通肇事罪的处置模式处理即可。当然,若事后查明事故的发生是由辅助驾驶系统故障导致的,比如2018年3月14日发生的奔驰车“启动定速巡航后无法取消”而致使驾驶人被迫以120千米的时速长距离驾驶的事故①,假若在此过程中发生交通肇事而致多人伤亡,则以不可抗力或意外事件阻却犯罪成立,而不应追究驾驶人的责任,但应具体讨论生产商的产品责任问题。
2.自动驾驶系统与驾驶人共同驾驶模式的责任承担
如果说自动驾驶系统辅助驾驶模式已在当下实现,那么自动驾驶系统与驾驶人共同驾驶模式则是目前正在出现的变革。共同驾驶模式是指尽管车辆上仍配置驾驶人,但通常情形下车辆是由自动驾驶系统驾驶,仅在系统故障或失灵时由人工干预接管驾驶。此种模式下,驾驶人不具有对车辆的完全支配、控制,而仅在极特殊情况下才有驾驶行为,故其责任承担问题既特殊又复杂,必须考虑三方主体的责任承担,还要考虑结果回避可能性和自动驾驶车辆是否具有辨认、控制自身行为的能力等问题。
首先,以驾驶人为中心,必须考察驾驶人是否构成交通肇事罪。作为共同驾驶者,驾驶人自然对车辆的行驶负有注意义务,不过此时的注意义务是由驾驶人和自动驾驶系统共同承担。因此,出现交通肇事后,自然不能否定驾驶人可能构成交通肇事罪。此时,驾驶人与自动驾驶车辆可能都要承担交通肇事罪的责任,但不能认为是交通肇事罪的共犯。二者均可能因同一事故构成交通肇事罪,是由于驾驶者的复数性导致两“人”同时构成分别的交通肇事罪。此即共同过失犯与过失共同犯的区别。{17}
其次,判断驾驶人是否构成交通肇事罪时,还需要判断是否具有结果回避可能性。如果不具有结果回避可能性,自然不应认定过失犯罪的成立。还可以进一步认为,不具有结果回避可能性的交通事故,可能致使驾驶人缺乏客观上的注意义务,也可能导致欠缺因果关系。{11}187-192其一,不具有结果回避可能性从而驾驶人缺乏注意义务的情形,既包括传统交通肇事罪中被害人严重违反法律规范而造成的事故,也包括当自动驾驶系统突然失灵时导致的不可控的交通事故。对于后者,应根据案件实际情况判断失灵的偶然性、失灵后纠正的可能性、失灵的突发性等因素,如果驾驶人即便迅速夺回控制权也无法避免结果发生,那么,可以认为驾驶人因不具有结果回避可能性而缺乏注意义务。其二,不具有结果回避可能性还可能导致欠缺因果关系。例如,自动驾驶车辆在高速公路上正常行驶时,自动驾驶系统突然异常驾驶急速变道,致使车辆失控撞毁正常行驶的其他车辆并造成重大人员伤亡、财产损失,如果根据案件具体情况可以认定异常行为的突发性和危害结果的不可避免性,那么自然可以否定驾驶人行为与危害结果的因果关系,刑事责任只应由自动驾驶车辆承担。当然,还有学者认为,人工智能产品完全有故意犯罪的可能{18},但这不属于本文讨论的范围。
再次,即使驾驶人须承担交通肇事罪的责任,如前所述,仍不应免除自动驾驶车辆的责任。但是,需要判断此时自动驾驶车辆是否对行为有足够的辨认、控制能力。换言之,仍需查明,自动驾驶车辆违规、异常驾驶而导致事故发生,究竟是因其独立意志所为,还是由于生产商制造车辆、监督机器学习时就已经产生不可逆的错误而导致自动驾驶车辆异常错误必然发生。如果是由于生产商的原因而导致自动驾驶车辆无法辨认、控制自身行为,依照程序必然发生异常错误,则自动驾驶车辆不应承担刑事责任。这是因为,人工智能产品承担刑事责任的前提是必须具备思维能力和意志自由,尽管有限而欠完备。如因设计或编程错误致使自动驾驶车辆不能逾越和纠正错误的编程而正确驾驶,事实上也就意味着它不可能自主决定选择适法行为,可以类比于无刑事责任能力人,从而不应承担罪责。{12}44-45
最后,仍需查明制造、生产、编程企业和个人的责任。如因制造、生产或编程的严重过失而导致不符
①由于事件的离奇性,截至本文成稿时,尚无法判断该事件真伪。参见《法治周末》报导:文丽娟.奔驰120公里生死时速的疑团:能否实现后台遥控停车[EB/OL].https://finance.qq.com/a/20180321/004769.htm.
合安全标准的自动驾驶车辆生产出来并投入使用,发生严重人员、财产损失的,仍应如前文所述,追究相关制造、生产和编程的单位、个人的责任。其中,构成《刑法》第146条规定的生产不符合安全标准的产品罪的,应按犯罪论处。
3.自动驾驶系统自主驾驶模式的责任承担
随着人工智能技术的发展,未来理想的强人工智能条件下的自动驾驶不需要有驾驶人。此时,车上仅有乘客,唯一的驾驶人就是自动驾驶系统本身。因此,在未来自动驾驶系统自主驾驶模式下,自动驾驶系统本身就是驾驶人,一旦构成交通肇事,应直接追究自动驾驶车辆的责任。但如前所述,如果是制造、生产、编程的企业或个人之原因导致自动驾驶车辆无法正常、安全工作,则应视情况判断是否免除自动驾驶车辆的责任。在此情形下,仍应追究相关制造、生产、编程企业或个人的责任。
三、结语
本文认为,包括自动驾驶车辆在内的人工智能产品,在一定限度内具有辨认、控制自身行为的能力,并在其专业服务领域内具有一定的自我意识,能够感知刑罚,从而可以承担刑事责任。具体在自动驾驶车辆交通肇事情形下,应具体分辨自动驾驶系统与驾驶人对驾驶的支配程度而予以不同处理。在责任承担的判断中,一要注意判断驾驶人对危害结果的回避可能性,二要判断自动驾驶系统的自主决定能力,三则不要忽视制造、生产、编程的企业和人员的监督责任,从而合理合法地划分责任。
尽管在传统法学看来讨论本文主题为时尚早,但未雨绸缪、与时俱进是法学研究之正道。虽然自动驾驶技术还在逐步发展,但我们不应轻视、更不应忽视科技进步对法学的挑战。一国人工智能的进步与否彰显一国科技能力之强弱,同理,一国人工智能的法律规制是否完善前瞻也昭示着一国法学研究和法治水平的高低。{19}本文并未意图完整论述人工智能产品的刑事责任承担问题,而是对目前最为成熟的自动驾驶领域试作刑法规制,希望略获灵感,以利未来人工智能之法律规制的完善。
〔责任编辑:余明全〕
【注释】 [基金项目]云南省哲学社会科学规划青年项目“宪法治理视角下的审判中心主义诉讼制度研究”(QN2017014);云南省教育厅科学研究基金项目“医疗纠纷诉调对接机制研究”(2016ZDX078);云南大学“东陆中青年骨干教师”培养计划项目
[作者简介]程龙(1988-),男,云南昆明人,讲师,硕士研究生导师,博士,从事刑法学、刑事诉讼法学研究。
【参考文献】 {1}[英]卡鲁姆•蔡斯.人工智能革命:超级智能时代的人类命运[M].张尧然,译.北京:机械工业出版社,2017:174.
{2}中国新闻网.优步自动驾驶事故致死美亚利桑那州暂禁测试[EB/OL].(2018-03-27).? id=8476998&classify=zwsp&pageSize=6&language=chs.
{3}张明楷.刑法学(第五版)[M].北京:法律出版社,2016.
{4}梁根林.当代刑法思潮论坛(第一卷:刑法体系与犯罪构造)[M].北京:北京大学出版社,2016:159-167.
{5}[德]乌尔斯•金德霍伊泽尔.刑法总论教科书(第六版)[M].蔡桂生,译.北京:北京大学出版社,2015.
{6}[日]西田典之.日本刑法总论[M].刘明祥,王昭武,译.北京:中国人民大学出版社,2007:160.
{7}吴汉东.人工智能时代的制度安排与法律规制[J].法律科学(西北政法大学学报),2017,35(5):130-131.
{8}[德]汉斯•海因里希•耶塞克,托马斯•魏根特.德国刑法教科书[M].徐久生,译.北京:中国法制出版社,2017:560.
{9}刘宪权.人工智能时代的“内忧”“外患”与刑事责任[J].东方法学,2018,(1).
{10}马治国,田小楚.论人工智能体刑法适用之可能性[J].华中科技大学学报(社会科学版),2018,32(2).
{11}[日]前田雅英.刑法总论讲义(第6版)[M].曾文科,译.北京:北京大学出版社,2017.
{12}刘宪权,胡荷佳.论人工智能时代智能机器人的刑事责任能力[J].法学,2018,(1).
{13}郭笑,杨波.刑事责任能力评定的神经法学观点[J].证据科学,2016,24(1):113-115.
{14}[日]佐伯仁志.刑法总论的思之道•乐之道[M].于佳佳,译.北京:中国政法大学出版社,2017:4.
{15}[德]克劳斯•罗克辛.德国刑法学总论(第1卷)犯罪原理的基础构造[M].王世洲,译.北京:法律出版社,2005:41.
{16}刘源,杨诚.交通肇事罪共犯问题辨析[J].法学,2012,(4):156-157.
{17}童德华.共同过失犯初论[J].法律科学(西北政法学院学报),2002,(2):59-61.
{18}刘宪权.人工智能时代的刑事风险与刑法应对[J].法商研究,2018,(1):5.
{19}陈晓林.无人驾驶汽车对现行法律的挑战及应对[J].理论学刊,2016,(1):129-131.
【期刊名称】《学术交流》【期刊年份】 2018年 【期号】 4