用现行民法规则解决人工智能法律调整问题的尝试

摘 要:人工智能技术的迅猛发展和广泛应用带来了一系列需要民法解决的问题,如人工智能机器人的法律地位,其行为的性质、责任归属和危险防范等。对于这些问题,究竟是采用新的民法规则解决,还是在现行民法的基本理念和基本规则的范围内寻求解决方法,存在不同看法。以人工智能机器人的民法地位和自动驾驶机动车交通事故责任规则为例进行分析可以得出,在现行民法的基本理念和基本规则的范围内尝试解决上述问题是可行的。因为人工智能技术的发展和应用所提出的问题,现行民法的基本理念和基本规则都是可以应对的,不必改变民法的基本理念和基本规则而另去寻找新的解决办法。
关键词:人工智能机器人;自动驾驶机动车;现行民法;基本理念;基本规则
中图分类号:D923文献标识码:A
文章编号:1003-0751(2018)07-0040-10
当前最具时代特点的科技进步当属人工智能技术的迅猛发展和广泛应用,由此带来法律调整的问题及挑战。反映在民法领域,最为纠结的问题有两个:一是人工智能机器人的民法地位;二是自动驾驶机动车交通事故的责任规则。这两个问题的核心是,民法应当怎样应对和规范人工智能技术的发展及应用,既让人工智能技术更好地为人类服务,又使其不无序发展而伤害人类自身。解决此类问题能否适用现行民法的基本理念和基本规则,是否还需要创设新的民法规则,学界对此不无疑问。本文认为,仍然应在现行民法的基本理念和基本规则的框架内提出解决此类问题的办法,并在民法典立法中体现当代先进科学技术发展的要求,对此类问题作出相应的规范,让我国民法典能够鲜明地体现时代特征。
一、人工智能技术的发展和应用是否还在现行民法的调整范围之内
(一)人工智能技术发展和应用对民法提出的主要问题
近年来,人工智能技术在世界范围内的发展和应用不断加速,出现了人工智能机器人、自动驾驶机动车等智能成果。例如,在很多涉及高科技的高端会议上都有机器人做会议接待工作,熟练地处理一些具体事项。在围棋竞技方面,人工智能围棋机器人Alpha Go通过机器学习功能,棋艺不断提高,所有围棋高手都无法战胜它,其智慧已经超过有关围棋的人类智能。在沙特阿拉伯,政府给了机器人索菲娅以公民资格。正处于研究阶段的杀人机器人体积虽小但作用强大,可能误伤已经丧失战斗力的伤员和准备投降的士兵,其若在现实中出现,战争形态大变的时代或将到来,后果比原子弹的出现还要可怕。①一旦出现这种情况,人工智能技术的发展会不会给人类带来灾难,出现人类无法控制的后果呢?
一种先进的科学技术的出现一般都会引发两方面问题:一方面,会带来社会进步,给人类带来方便;另一方面,会给人类的生存带来风险甚至毁灭人类,由此引发法律应当怎样对其进行规范的问题。生物克隆技术出现时就是如此。1996年7月5日克隆羊多利出生,美国《科学》杂志将之评为当年世界十大科技进步的第一项,认为克隆技术不仅对胚胎学、发育遗传学、医学等的发展有重大意义,而且有巨大的经济潜力。克隆技术可以用于器官移植,造福人类;也可以改良物种,给畜牧业带来好处;与转基因技术相结合,可以大批量“复制”含有可产生药物原料的转基因动物,更好地为人类服务。但是,如果将克隆技术应用于人类,进行人的克隆,则会产生一系列伦理、法律等方面的灾难性问题。二十几年来,正是因为在法律上进行了必要的规制和防范,所以没有发生克隆技术被应用于人类并造成严重后果的事情。就目前的情况,用现行民法的基本理念和基本规则解决人工智能技术发展及应用带来的问题,应当着重考虑以下四个问题。
(1)人工智能机器人是人还是物?这是人工智能技术发展对民法提出的一个最重要的问题。对人工智能技术发展中最具典型意义的成果——高端智能机器人,究竟应当怎样进行民法的定位,其究竟是人还是物?沙特阿拉伯政府给了机器人索菲娅以公民资格,那么,有公民资格的索菲娅是民法上的人吗?假如中国出现一个索菲娅,中国政府会给它一个公民资格、给它公民待遇吗?这是在人工智能技术的发展和应用中,民法迫切需要解决的第一个问题,即人工智能机器人的民法地位问题。
(2)人工智能機器人的行为究竟是人的行为,还是物被人所支配的行为?如果机器人是人,它的行为就是人的行为,与所有自然人的行为一样——如果属于民事法律行为,就会产生相应的法律后果。如果机器人是物,就会有人的意志在控制它、支配它。可是有些高端智能机器人能够实施自主性的行为,如阿尔法狗下围棋就完全是其自主行为。这能够说明高端智能机器人的行为是自然人的行为,应当受到民事法律行为规则的约束吗?
(3)人工智能机器人的行为造成他人损害的后果应当由谁承担?一般的人工智能机器人如阿尔法狗可能不会造成致人损害的后果,但那些具有危险性的高端人工智能机器人,如自动驾驶机动车,其如果发生道路交通事故而造成他人损害,究竟由谁承担侵权责任呢?这也是必须研究的民法问题。
(4)如何防止人工智能技术盲目发展带给人类严重危险?例如,如果任由类似于杀人机器人那种人工智能技术盲目发展和应用,人类将无法应对杀人机器人的侵害,因而面临极大的灾难性后果。对此,应当采取何种方法予以防范呢?
上述四个问题,是在研究民法规范人工智能技术发展和应用中最需要解决的重大问题。自动驾驶机动车发生道路交通事故的责任规则,是上述问题的表现;电视台使用人工智能机器人服务时发生诽谤听众、侵害听众人格尊严的侵权行为究竟是机器人的行为还是电视台的行为,也是上述问题的表现。
(二)现行民法能否应对人工智能技术发展和应用的需要
对人工智能技术的发展和应用进行规范和引导,对其可能给人类带来的危害进行防范,现行民法的基本理念和基本规则能够解决这些问题吗?换言之,面对目前人工智能技术发展和应用的程度,是否需要改变现行民法的基本理念和基本规则呢?在这方面,有一个很有说服力的事例,就是对人体胚胎法律地位的认识。人工生殖技术的发展带来了试管婴儿技术的临床应用,给寻求生育的不孕不育夫妻带来了福音。但是,当精子和卵子脱离人体、在体外结合为胚胎时,该人体胚胎在民法上究竟是人还是物,这涉及新的科学技术的发展和应用是否达到了要求现行民法变更基本理念和基本规则的程度。
江苏省无锡市发生的国内第一例人体冷冻胚胎权属争议案就尖锐地反映了这个问题。对于人体冷冻胚胎的法律属性,宜兴市人民法院一审判决认为,“施行体外受精—胚胎移植手术过程中产生的受精胚胎为具有发展为生命的潜能,含有未来生命特征的特殊之物”②;无锡市中级人民法院终审判决则认为,“胚胎是介于人与物之间的过渡存在,具有孕育成生命的潜质,比非生命体具有更高的道德地位”③。对于人体冷冻胚胎,一审判决书认为其法律属性是“特殊之物”,二审判决书则认为其是“介于人与物之间的过渡存在”。“特殊之物”无论怎样特殊,其基本属性仍然是物,在适用民法进行调整时应当适用物的规则。而“介于人与物之间的过渡存在”既不是人,也不是物,是市民社会中第三种物质存在形式。无锡市中级人民法院的法官撰文指出,冷冻胚胎既不属于人,也不属于纯粹的物,而是介于人和物之间的蕴含未来生命潜能的特殊“物体”;对于该特殊“物体”,既不能适用人格权法的规定,也不能适用物的民法规定。④按照这种观念,确定冷冻胚胎的法律属性必然要适用人与物之外的民法规则,但这样的民法规则在现实中是没有的,因为民法的基本理念和基本规则是人与物的二分法。其实,二审判决书中的“过渡存在”与上述法官所说的特殊“物体”是有所不同的。所谓“过渡存在”,是市民社会的第三种物质存在形式;而特殊“物体”似乎还有一定的物的属性,尽管作者认为对其不能适用物的民法规定。
上述对人体冷冻胚胎法律属性的不同认识,涉及现行民法的基本理念和基本规则是否能够适应高科技发展和应用的问题。如果认为人体冷冻胚胎是特殊之物,其基本属性就是物,现行民法的基本理念和基本规则就能够解决其法律调整问题;即使现行民法需要部分调整,也仅仅是具体规则的一般性调整,并不改变民法的基本理念和基本规则。而认定人体冷冻胚胎的基本属性是“介于人与物之间的过渡存在”,就须从根本上改变民法的人与物二分法的基本理念和基本规则,确认市民社会由三种物质形式构成,除了适用于人的人法规则和适用于物的财产法规则,还要创造出调整人与物之外的第三种物质存在形式的基本规则,否则无法应对人体冷冻胚胎法律属性的变化,无法解决实际发生的民事纠纷。这样,民法的基本理念就改变了。那种认为“如果将包含人类生命潜能的冷冻胚胎纳入到伦理物的范畴,如何适用关于物的继承、赠送等相关民法规定,恐怕在现有关于人类辅助生殖法律等不健全的背景下难免会造成观念、操作上的混乱。即使如客体论者所言,将人体胚胎等伦理物纳入最高格的物的规制秩序,那么如何才能‘对其权利行使予以最大的限制,以体现对人体胚胎等伦理物的最高格待遇?这恐怕也是一个在观念认识、价值认同等领域存在巨大差异的难题,显然客体说论者的观点起码在现阶段而言可行性不足”⑤,相较于将人体冷冻胚胎认定为“介于人与物之间的过渡存在”的市民社会第三种物质,必须改变民法关于人与物二分法的基本理念和基本规则的观点,前者显然仍在现行民法的可控范围内,只需要调整部分民法规则即可,后者则需要对民法的基本理念和基本规则进行根本性的、颠覆性的改变才行。两种观点孰优孰劣,明眼人必定看得清楚。
(三)简短的结论
应当立足于法律规范的历史性,探求符合时宜的规范内容。由于法律价值少有突变,通常只会随着时间的经过而逐步演变,所以法律规范的演变常有其继续性,不能有断层的发展。⑥通过上述分析可见,经过罗马法以来上千年发展而形成的现行民法的基本理念和基本规则,还能够适应当前科学技术发展的需求,不需要发生断层式的发展。科学技术发展还没有达到需要变更现行民法基本理念和基本规则的程度,不仅对克隆技术的发展、人工生殖技术的创新而言是这样,即使面对人工智能技术迅猛发展和应用所形成的最新形势,也仍然是这样。因此,在迅猛发展的人工智能技术及其应用面前,现行民法应当有充分的理论自信和规则自信,相信对市民社会现实的概括还没有出现需要改变其基本理念和基本规则的问题。目前的人工智能技术发展与多年前出现克隆技术和人工生殖技术时的情形一样,只要全面分析、认真对待,用现行民法的基本理念和基本规则进行适当调整,就能够解决其所带来的问题。面对人工智能技术的发展,不必急急忙忙、不假思索地想着改变民法的基本理念和基本规则。
作出上述結论后,下文将结合笔者在人工智能机器人的法律地位和自动驾驶机动车交通事故责任规则问题的研究中尝试用现行民法基本理念和基本规则提出解决办法的做法和体会,进行具体说明。
二、定义人工智能机器人为人工类人格的实质是仍将其认定为物
人工智能机器人之民法地位问题的实质是,按照民法的基本理念和规则界定其到底是人还是物。
(一)人工智能机器人民法地位的不同主张
在不远的将来,智能机器人为人类提供专业服务将会是司空见惯的,人类将会面对越来越多的外形酷似人类甚至跟人类长得一模一样的机器人,与其交流、一起工作。在这种情况下,机器人到底是人还是物呢?对此,主要有以下三种不同的意见。
1.智能机器人人格否定说
否定说认为,智能机器人没有人格,尽管其名称中有“人”,但它不是人,不具有人格,仍然是一种工具,只不过这种工具比其他工具先进而已。⑦对于那些简单的机器人,如家里使用的扫地机器人,人们一般不会想到它有人格,因为它根本就不像一个人,把它认定为工具一点都没错。但是,面对那些具有人形,甚至有自己的思维、会实施自主行为的高端智能机器人,要说它完全是工具、产品,有人就会有疑问。
2.智能机器人人格肯定说
肯定说认为智能机器人具有人格。在法律发展史上,民事主体是从自然人逐渐发展起来的,最早只是自然人有人格,非自然人没有人格。法人是团体,本来没有自然人的人格,但法律赋予其人格,使其成为民事主体、具有民事权利能力和民事行为能力。在我国,不仅自然人和法人具有人格,而且法律承认非法人组织具有人格。可见,民法的人格主体遵循由少到多、不断扩展的规律,因而可以扩展到智能机器人,使智能机器人具有人格、拥有民事权利能力和民事行为能力。随着人工智能技术的快速发展,智能机器人拥有越来越强大的智能,与人类的差别逐渐缩小,未来的机器人将拥有生物大脑(甚至可以与人脑的神经元数量相媲美),可以通过法律人格拟制的方式,赋予智能机器人以法律关系主体资格,使其参与社会经济生活。⑧
3.智能机器人人格折中说
折中说认为,既不能完全肯定机器人的人格,也不能完全否定机器人的人格,如認为智能机器人是“电子奴隶”。罗马法上的人分为有人格的市民和没有人格的奴隶。智能机器人相当于“电子奴隶”,像人而不是人,在实质上又是人,实施行为的后果由其主人承担。⑨也有人认为机器人具有电子人格——不是自然人的人格,而是人工合成的带有电子特点的人格。法律可以通过赋予智能机器人一定的权利和义务而确立其“电子人格”的法律地位,使其在一定范围内具有自主权。机器人的这种法律人格只是所有参与方法律人格的集合。正是因为这样的集合,才使这些机器人的新的分类具有意义。⑩
对于机器人是人还是物,笔者用现行民法的基本理念和基本规则作为工具提出的结论是:人工智能机器人仍然是人工制造的产品,仍然是物。B11
(二)人工智能机器人民法地位折中说违反现行民法的人与物二分法
上述关于人工智能机器人民法地位的不同观点,不论是肯定说还是否定说,都坚持现行民法的人与物二分法的基本立场,没有超越现行民法的基本理念和基本规则,因此,二者之间不存在谁对谁错的问题。折中说貌似不偏不倚、公允温和,却打破了现行民法的基本理念和基本规则,要在人与物的二分法中走出第三条路线,创造市民社会的第三种物质存在形式。这与对人体冷冻胚胎是“介于人与物之间的过渡存在”的观点是性质相同的不当认识。
现行民法认为,市民社会的基本物质构成只有两种形式:一是人,二是物;人是主体,物是客体;人支配物,物被人所支配。正是基于这样的基本理念,才形成了民法认识和规范市民社会的基本方法即法律关系方法,其中的主体、客体和内容三要素,是对人与物二分法及其相互之间关系的经典概括。
在现行民法看来,世界上确实存在人与物之外的第三种物质存在形式,但其因人力控制所不及,无法被民法所规范,因而不被认为是物,日月星辰、宇宙太空等都不在民法的调整范围之内。人类社会发展至今,并没有超出现行民法的基本理念和基本规则的认识范围。因此,凡是主张市民社会中存在人与物之外的第三种物质的意见,都为现行民法的基本理念和基本规则所不能容忍。认为人体冷冻胚胎是“介于人与物之间的过渡存在”,以及认为智能机器人既有人的属性又有物的属性、具有介于人与物之间的有限人格,都是不正确的。原因在于,前者创造了市民社会的第三种物质,后者则混淆了人与物之间的基本界限。
还有一个关于人体冷冻胚胎的案例。根据2018年1月17日江苏省南京市玄武区人民法院作出的(2017)苏0102民初4549号民事判决书,原告王某与被告孙某于2014年年底在美国某州立医院做了辅助生殖手术,取得6枚人体胚胎,移植其中一枚胚胎后因被告流产而未能怀孕成功,双方委托医院储存保管其余5枚胚胎。2016年7月19日,原告起诉离婚,被告表示珍惜夫妻感情,珍惜在医院冷冻储存的胚胎,不同意离婚,法院遂判决不准离婚。2017年6月20日,原告再次起诉离婚。其间,原告对婚姻感到失望,而对在医院保管的双方的人体冷冻胚胎停止续费,故冷冻胚胎被医院废弃。在法院判决双方离婚之前,被告主张双方的人体冷冻胚胎因原告不续费而被医院废弃,这给自己造成严重的精神损害,要求被告承担侵权责任。法院判决书既认为胚胎是带有情感因素的特殊的物,又认定单方废弃双方的胚胎侵害了对方的身体权、健康权和生育知情权,构成侵权行为。B12这明显形成了自相矛盾的判决理由。既然原告侵害的双方共有的胚胎属于带有情感因素的特殊的物,其侵权行为侵害的就是物权,参照适用《最高人民法院关于确定民事侵权精神损害赔偿责任若干问题的解释》第4条的规定而认定原告承担精神损害赔偿责任就是完全顺理成章的,何必还要认定为侵害对方当事人的身体权、健康权和生育知情权呢?即使认定该行为“构成了对被告生育知情权和可期待利益的侵害”“或者把身体权、健康权打上引号”B13,也是不准确的。因为既然侵害的是物,就不存在对身体权、健康权甚至生育知情权的损害,不能构成侵害人格权的侵权行为。
这个案例告诉我们,按照现行民法的基本理念和基本规则,市民社会的物质构成要么是人要么是物,不存在既是人也是物,既不是人也不是物的物质形式。一方面认定人体胚胎是带有情感因素的物,另一方面认为原告的侵权行为既侵害人体胚胎又构成侵害身体权、健康权的侵权责任,就混淆了人与物之间的界限。正像美国不孕协会指出的,早期胚胎叫人类的细胞组织,更值得尊敬,但不得将其视为真正的人。因为胚胎固然有成为真正的人之潜力且对特定的人有显著的意义,但其尚未发展成具有人类特征的独立个体,仍只能视为生物学上的物。B14既然原告的侵权行为侵害的是生物学上的物,当然就只能构成侵害物权的侵权责任,无论如何也不能构成侵害人格权的侵权责任。这正是现行民法关于人与物二分法的基本理念和基本规则的体现。可见,人工智能机器人民法地位折中说是不能成立的。
(三)人工智能机器人民法地位肯定说也是不正确的
在否定人工智能机器人民法地位折中说的可行性之后,要分析的是人工智能机器人民法地位肯定说,即人工智能机器人具有人的属性和人格的观点。
笔者和张莉教授在研究连体人的法律人格时提出了确定人格的三项标准:一是从生理学基础考察,人应当具有健全的人体和人脑;二是从心理学方面考察,人要有独立的意志;三是在社会学意义上考察,人应当具有独立的社会角色。B15之所以否定人工智能机器人民法地位肯定说,就是因为:第一,智能机器人的基本构成不是细胞组成的人体,也没有人的生物大脑。尽管有人断言,未来的机器人将拥有甚至可以与人脑的神经元数量相媲美的大脑B16,但其大脑的生理构成仍然不是细胞,而是人工智能系统的电路和元件,不具有法律人格的生物学要素。第二,智能机器人具有学习功能,但其意志是人赋予的,其意志和意识能力形成后通过机器学习而不断发展,可以创造出超过人类的智慧,继而具有独立的意志,自己进行决断,与人类的独立意志的心理学要素相类似或者近似。第三,部分类人机器人特别是高端的类人机器人是有独立的社会角色的,很可能在未来十几年或者几十年中,不仅有大批的索菲娅出现,甚至可能出现更多的超过索菲娅智慧的机器人,它们能够具有相当独立的社会角色。B17
综合分析,对人工智能机器人特别是高端的类人机器人赋予人格地位还存在较多困难,最主要的是人工智能机器人缺少健全的人體和人脑这一要素。只需这一点根据,就足以否定人工智能机器人的民法地位肯定说。
(四)人工智能机器人的民法地位是人工类人格
既然人工智能机器人民法地位的折中说、肯定说都不成立,那么人工智能机器人的民法地位就是物,就是产品。针对人工智能机器人的人形特点,笔者将其民法地位界定为人工类人格。
人工类人格是智能机器人所享有的,通过人工制造的类似于或者接近于自然人人格的民事法律地位。其含义是:首先,智能机器人的人工类人格不是自然形成的,而是人工制造的。其次,智能机器人的人工类人格确实具有自然人人格的某些要素,具有类似于人的智慧,甚至具有人的外形,能够自主进行某些人类活动。最后,尽管智能机器人的人工类人格在某些方面存在与人的人格相近似或者类似的要素,但智能机器人的民法地位与自然人的人格之间具有鲜明的、不可逾越的界限。B18
说到底,高端智能机器人的人工类人格仍然不是人格,仍然是物的属性。高端智能机器人虽然有人的外观形象,有人的一些功能,可以实施某些类似于人的行为甚至有一定自主性的行为,但它的基本属性仍然是物。
确定了人工智能机器人的民法地位是人工类人格,接下来一些问题就迎刃而解。第一,人工智能机器人究竟是何种属性的物。可以确定,人工智能机器人是动产,是动产中的产品,具有产品的一切属性。产品是经过一定加工的物。确定了人工智能机器人的产品属性,适用现行民法的基本理念和基本规则就完全可以解决对它适用法律的问题。第二,人工智能机器人的行为是谁的行为。既然人工智能机器人是产品,其行为就是所有者、使用者的行为。这不仅因为产品不会对自己的行为负责,而且因为所有的机器人都是为其所有者和使用者服务的,其所具有的人工类人格不足以使其对自己的行为负责,更重要的是,产品使用行为的后果要归产品的使用者、所有者承担。第三,人工智能机器人存在缺陷而致人损害的责任归属。人工智能机器人既然是产品,如果其存在缺陷(不论是设计缺陷、制造缺陷、警示说明缺陷还是跟踪观察缺陷),造成他人损害的,都应当由制造者、销售者,充其量再增加设计者,来承担责任。确定人工智能机器人致人损害适用产品责任规则,那么,如果不当开发人工智能技术,使人工智能机器人的发展危害人类利益的,要求设计者、生产者承担侵权责任就足以阻止危害后果发生。
上述解决人工智能机器人法律地位问题的尝试,都是在现行民法的基本理念和基本规则的范围内,没有创造新的民法理念和规则。这表明,即使当今最先进的人工智能技术的发展和应用提出了法律调整方面的巨大挑战,现行民法对其仍然是可控的,用现行民法的基本理念和基本规则可以解决其法律调整问题,因而完全不必担忧。
三、设计自动驾驶机动车交通事故责任规则的尝试
自动驾驶机动车的交通事故责任在世界范围内都受到特别关注。传统汽车厂商充分意识到汽车行业正在酝酿一场革命B19;制造业领域将各种资源、信息、物品和人融合在一起,相互联网的众多“信息物理系统”形成了工业革命的新形势。B20自动驾驶机动车技术发展迅速,尽管目前准许上路行驶的还没有高度自动化或完全自动化的自动驾驶机动车,但部分自动驾驶机动车的数量已经很可观,自动驾驶机动车交通事故也不断出现。研究自动驾驶机动车交通事故的责任规则,既是人工智能技术发展提出挑战的组成部分,也是一个迫在眉睫的民法特别问题。
(一)设计自动驾驶机动车交通事故责任规则的基本思路
很多人将自动驾驶机动车交通事故责任规则的设计视为一个难题,而笔者认为,这仍然是在现行民法的基本理念和规则范围内就可以解决的问题。
首先,应当看到的是,传统的道路交通事故责任是人的责任,即机动车驾驶人、所有人因其机动车发生交通事故致人损害而应承担的侵权责任。对此,我国《道路交通安全法》第76条规定了基本规则,《侵权责任法》第6章规定了机动车的所有人与使用人相分离的情形下发生交通事故致人损害的基本责任规则。只有在因机动车存在缺陷而发生交通事故的情形下,才会出现车的责任问题。
其次,从原则上说,自动驾驶机动车交通事故责任的基本性质是车的责任。自动驾驶机动车实际上就是轮式移动机器人,主要依靠车内精密的激光测距仪、视频摄像头、车载雷达、传感器、人工智能系统实现自动驾驶功能。B21基于前文研究的结论,人工智能机器人的民法地位是产品,当产品有缺陷、造成他人损害时,我国《侵权责任法》《产品质量法》都规定了产品责任规则,即生产者、销售者的责任。
再次,现有的机动车交通事故责任规则和产品责任规则能否满足确定自动驾驶机动车交通事故责任之所需,应当依据自动驾驶机动车的人工智能技术应用水准来确定。按照目前自动驾驶机动车的自动化水平分级,哪些程度需要适用现有的机动车交通事故责任规则,哪些程度需要适用产品责任规则,哪些程度既需要适用机动车交通事故责任规则又需要产品责任规则调整,需要进行分析确定。
最后,在调整自动驾驶机动车交通事故责任的过程中,适用传统机动车交通事故责任规则和产品责任规则时还需要作出一些适当的调整。对于无法完全适应自动驾驶机动车交通事故责任的传统机动车交通事故责任规则和产品责任规则,应当予以适当调整,以使自动驾驶机动车交通事故责任得到准确认定。由于自动驾驶机动车的设计是人工智能技术的经典表现,因而设计者的责任在事故责任中更加凸显,这应当是研究调整部分的重点。
通过对上述四个问题的考虑,就可以找到在现行民法的基本理念和规则中确定自动驾驶机动车交通事故责任的具体规则。
(二)对自动驾驶机动车的概念及其与驾驶人关系的界定
1.自动驾驶机动车的概念及自动化程度分级
自动驾驶机动车,是指装载激光测距仪、视频摄像头、车载雷达、传感器、人工智能等构成的自动驾驶系统,根据使用人的指令,自动控制行驶、完成运送目的的智能机动车。对自动驾驶机动车交通事故确定责任,必须从自动驾驶机动车的自动驾驶技术分级出发,根据自动驾驶机动车的自动化程度的级别,采取不同的责任规则。
2013年,美国国家公路交通安全管理局发布了机动车自动化的标准,将自动驾驶功能分为5个级别,即0—4级。另一个自动驾驶机动车分级标准来自美国机动车工程师协会,该标准将自动驾驶技术分为0—5级,其中0—3级与美国国家公路交通安全管理局发布的标准一致,分别强调无自动化、驾驶支持、部分自动化、有条件的自动化。B22
按照目前通用的自动驾驶机动车的技术标准,自动驾驶机动车的分级为L1—5级,L0级不属于自动驾驶机动车。L0级:无驾驶自动化,不履行任何动态驾驶任务或回退动态驾驶任务;L1级:驾驶辅助,(持续地)履行纵向或横向的车辆运动控制,但不完成对物体和事件的检测和响应;L2级:部分驾驶自动化,(持续地)履行纵向和横向的车辆运动控制,但不完成对物体和事件的检测和响应;L3级:有条件的驾驶自动化,在限定的运行设计范围内,履行完整的动态驾驶任务,但不履行回退动态驾驶任务;L4级:高度驾驶自动化,在限定的运行设计范围内,履行完整的动态驾驶任务和回退动态驾驶任务;L5级:完全驾驶自动化,履行完整的动态驾驶任务和回退动态驾驶任务,不受运行设计范围限制。
2.自动驾驶机动车与传统机动车的区别及自动驾驶机动车中人的角色
自动驾驶机动车与传统机动车的区别十分明显,这正是确定自动驾驶机动车交通事故责任规则的基础。传统机动车(L0级)的运行须由两个部分构成,一是车,二是人,即“人+车”。首先是有车,但只有车还不能实现运送目的,还须有一个符合驾驶机动车资质要求的驾驶人驾驶机动车。只有在人和车结合到一起时,车才能发挥其代步和运输的功能。传统机动车发生道路交通事故时,没有任何自动驾驶技术支持,汽车完全在驾驶人的操控之下。
自动驾驶机动车(L4—5级)是“人工智能+车”,真正驾驶机动车的是智能机器人,因而自动驾驶机动车就是没有人形的轮式智能机器人,其能够在使用人的指令下把人或货物运送到指定的目的地。因此,自动驾驶机动车的最主要特点是无人驾驶,汽车自主运行,实现运送目的。随着驾驶功能的日益自动化,驾驶责任逐步从驾驶人转移到车辆本身。B23机动车的人类使用者的角色从驾驶人转变为乘客,不再需要对行车状况和环境进行监视或者在紧急情况下进行操作,因此,当L4级以上的自动驾驶机动车发生交通事故造成损害时,即使人类使用者处在驾驶位上,也无法诉诸过错侵权,让人类使用者承担民事责任。在此种情形下,加害行为、因果关系和过错都不能归咎于人类使用者。B24当自动驾驶机动车为L1—3级的技术层级时,人仍然是机动车的驾驶责任者,自動驾驶只是人工智能辅助驾驶,不能完全取代驾驶人的驾驶操纵,驾驶人对驾驶危险负责,不得脱离驾驶位置和放弃对机动车的掌控。
归纳起来,对自动驾驶机动车发生交通事故适用法律时,应当将自动驾驶机动车分成三个类型。其一,完全自动驾驶机动车。L5级自动驾驶机动车的驾驶完全自动化,不用人操作,使用人在机动车中属于乘客而非驾驶人。L4级自动驾驶机动车在处于自动驾驶状态时完全无人操控,与完全自动驾驶机动车(L5级)没有区别。在这两种情形下,已经不存在机动车驾驶人的概念。其二,部分自动驾驶机动车。L1—3级自动驾驶机动车与未处于自动驾驶状态的高度自动化的自动驾驶机动车(L4级),由于既要有自动驾驶系统,又需要驾驶人的必要操控且在出现紧急情况时有足够时间的预警,驾驶人必须紧急接管机动车的物理驾驶系统进行操控,所以应以驾驶人的责任为主,除非自动驾驶机动车有缺陷。其三,传统机动车属于L0级,不适用自动驾驶机动车交通事故责任规则。
(三)自动驾驶机动车与传统机动车之交通事故责任性质的区别
(1)传统机动车的情形。传统机动车交通事故责任是人的责任,承担责任的主体是机动车的驾驶人及所有人,这就是我国《道路交通安全法》第76条规定道路交通事故责任的一般规则,以及《侵权责任法》规定的机动车使用人与所有人分离时的责任规则。可见,传统机动车交通事故责任规则主要解决驾驶人的责任问题,只在因机动车的缺陷造成交通事故责任且机动车驾驶人操纵机动车无过错时,才适用产品责任规则。
(2)L4—5级自动驾驶机动车的情形。L4—5级自动驾驶机动车发生交通事故是车的责任,即产品责任。不论是完全自动驾驶机动车,还是处于自动驾驶状态的高度自动驾驶机动车,在发生交通事故造成损害时,都不存在驾驶人的责任,而是自动驾驶机动车的设计者、生产者和销售者应当承担产品责任;只有自动驾驶机动车的使用人因错误操作,干扰了自动驾驶机动车的人工智能系统,而使自动驾驶机动车发生交通事故造成损害的特殊情况除外。
(3)L1—3级自动驾驶机动车的情形。L1—3级自动驾驶机动车交通事故责任是以人为主的责任,自动驾驶只是机动车运行的辅助功能,驾驶人仍然是汽车运行的主导者,对机动车运行安全负责,对机动车运行危险承担过错推定责任。只在能够证明自动驾驶机动车有缺陷,驾驶人无过失且其即使尽到高度注意义务仍无法避免发生事故造成损害的情形下,才应当由自动驾驶机动车的生产者、设计者、销售者承担产品责任。
(四)自动驾驶机动车交通事故责任的属性及确定责任的具体规则
自动驾驶机动车发生交通事故的责任有双重属性:一是道路交通事故责任,二是产品责任。这是因为:自动驾驶机动车在道路上行驶时发生交通事故致人损害,当然构成道路交通事故责任;但自动驾驶机动车是人工智能汽车,造成损害的主要原因是自动驾驶系统有设计缺陷、制造缺陷或警示说明缺陷,因而又构成产品责任。尽管传统机动车发生交通事故时也有产品责任的可能,但产品责任并不占主要地位。而在自动驾驶机动车交通事故中,驾驶人的责任降到了次要地位,无论是完全自动驾驶机动车还是处于自动驾驶状态的高度自动驾驶机动车,都主要是产品责任,责任性质发生了根本性的改变。
只要确定了自动驾驶机动车交通事故责任兼有道路交通事故责任和产品责任的属性,就可以确认:我国《道路交通安全法》《侵权责任法》《产品质量法》《消费者权益保护法》规定的有关道路交通事故责任和产品责任的规则,能够适用于确定自动驾驶机动车交通事故责任。第一,完全自动驾驶机动车(L5级)或者处于自动驾驶状态的高度自动驾驶机动车(L4级)发生交通事故造成损害,若是因机动车的设计缺陷、制造缺陷、警示说明缺陷以及跟踪观察缺陷引起的,机动车的生产者、设计者、销售者应当依照产品责任规则承担赔偿责任。第二,在驾驶人操控下的部分自动驾驶机动车(L1—3级)发生道路交通事故造成损害,由驾驶人承担赔偿责任;但能够证明损害是因自动驾驶机动车的缺陷所致且无法避免时,依照前一种方法确定赔偿责任。第三,自动驾驶机动车发生交通事故造成损害,若是因使用人的过失引起的,依照我国《道路交通安全法》《侵权责任法》的相关规定承担赔偿责任。
根据以上分析,现有的机动车交通事故责任规则和产品责任规则对自动驾驶机动车交通事故责任规则的需求是基本上够用的。不过,产品责任规则中,原来的主要责任人是生产者和销售者,缺乏设计者作为责任主体的规则。基于人工智能技术和自动驾驶机动车人工智能软件设计的重要性,以及设计者和生产者可能出现分离的情况,需要增加设计者为产品责任主体,以应对自动驾驶的软件设计出现缺陷时的责任规则之所需。在其他方面,几乎不必增加相应的规则,只要根据自动驾驶机动车的自动化程度的级别和发生交通事故的主要原因,就可以依据现行法确定责任规则。
(五)典型案例分析
2016年5月7日,一辆2015年版Model S拓速乐牌轿车与一辆拖挂车辆在美国佛罗里达州一段高速公路上相撞,导致驾驶员死亡。来自Model S的数据显示,事故发生时该拓速乐牌轿车处于自动驾驶系统状态,其自动紧急制动系统未针对碰撞事件提供任何警告或自动刹车,驾驶员未采取刹车、转向或其他行动来避免碰撞。2016年6月28日,美国高速公路安全局启动了PE16-007“针对任何在使用中的自动驾驶系统在碰撞时的设计和性能的试验”,结论是未识别出该自动驾驶机动车存在与安全相关的缺陷,生产厂商不对本次事故负责任。
在这起交通事故案件中,发生事故的拓速乐牌轿车属于L2级自动驾驶机动车,认定事故责任的关键在于案涉车辆是否存在缺陷。首先应当确认的是,案涉事故车辆不存在设计缺陷,也不存在制造缺陷。这是因为:事故车辆在技术标准上为自动驾驶机动车的L2级自动化程度,属于辅助驾驶状态;其用户手册清晰地介绍了辅助驾驶系统的功能,指出辅助驾驶的环境感知传感器还无法探测全部危险,驾驶员不能脱离驾驶,必须全神贯注地观测行车环境,发现危险立即接管驾驶。
对于案涉车辆是否存在警示说明缺陷,应当按照警示说明的要求进行分析判断。警示说明缺陷是指产品存在可能危及人身、财产安全的合理危险而在销售时缺乏充分的警示说明。产品的合理危险,是指产品虽然包含可能危及人身、财产安全的危险,但只要依照警示说明提供的合理方法使用,该危险就不会发生。如果产品中存在合理危险,在销售时就须予以充分的警示说明。警示包括警告和指示说明:警告是针对产品所具有的危险性,运用标志或文字所作的提示;指示说明是对产品的主要性能、正確使用方法以及错误使用可能招致的危险所作的文字表述。对于存在合理危险的产品,使用者按照警示说明进行使用,危险不会发生,就认为警示说明达到了充分的程度,就不认为该产品中存在的合理危险为缺陷;如果未对产品的危险性和正确使用方法作出充分说明与警示,就会形成产品使用中的不合理危险以致发生实际损害,即可认定为警示说明缺陷。
本案的案涉车辆即Model S拓速乐牌轿车在用户手册中有5项警示说明。对主动巡航控制系统的警告和说明是:“主动巡航控制是为了驾驶舒适性和便利性而设计,不属于碰撞警告或规避系统。驾驶员有责任时刻保持警惕,安全驾驶,并掌控车辆。切勿依靠主动巡航控制系统来充分降低Model S车速。务必观察前方路况并随时采取纠正措施,否则可导致严重伤害和死亡。”对于辅助转向系统的警示说明是:“辅助转向功能只适合在公路和进出受控的道路上使用,而且驾驶员要专心驾驶车辆。使用辅助转向时,应握住方向盘并留意道路情况和周围的交通。请勿在城市街道或可能有汽车或行人的地方使用辅助转向。切勿依赖辅助转向系统确定适宜的行驶路线。务必随时准备迅速采取措施。不遵守这些说明可能导致严重财产损坏、人员伤害或死亡。”对防撞系统的警示说明是:“前撞预警系统仅提供指导,不能代替专注驾驶和准确判断。驾驶时务必观察路况,切勿依赖前撞预警系统对可能发生的碰撞进行预警。许多因素都会降低或影响性能,导致产生不必要、无效或不准确的警告或遗漏警告。依赖前撞预警系统对潜在碰撞进行警告可能会造成严重人身伤害或死亡。”对自动紧急制动系统的警示和说明是:“自动紧急制动系统不是用来防止碰撞的。它最多只能通过尝试降低行驶速度来最大限度地减少正面碰撞的冲击。依赖自动紧急制动来避免碰撞可能会造成严重人身伤害或死亡。”该手册还警示:“对于静止车辆,尤其是行驶速度超过80km/h,而前方车辆离开您所在的行驶车道导致前方出现静止车辆或物体、自行车或行人时,主动巡航控制无法检测到所有物体,可能无法制动/减速。”
我国《消费者权益保护法》第18条规定,经营者“对可能危及人身、财产安全的商品和服务,应当向消费者作出真实的说明和明确的警示,并说明和标明正确使用商品或者接受服务的方法以及防止危害发生的方法”,依此进行衡量,对Model S拓速乐牌轿车存在的可能危及人身、财产安全的合理危险,厂商已经向消费者作出了真实的说明和明确的警示,并说明和标明了正确使用商品的方法以及防止危害发生的方法。如果案涉车辆的使用人即驾驶员按照上述说明的方法驾驶案涉车辆,本案的交通事故损害就不会发生。因此可以认定,案涉车辆的主动巡航控制、辅助转向功能、前撞预警、自动紧急制动系统存在的可能危及人身、财产安全的合理危险都已有充分的警示说明,故不构成警示说明缺陷。
而L2级的自动驾驶机动车在行驶过程中,自动驾驶系统属于辅助驾驶,驾驶员仍然是机动车行驶的操控者,不能脱离驾驶,必须直接控制机动车,全神贯注地观测行车环境,发现危险立即接管驾驶。本案中驾驶员违犯驾驶规则,在自动巡航中观看DVD,未直接控制车辆,导致事故发生,造成了自己的损害。认定驾驶员对损害的发生存在重大过失,具有全部原因力。主要依据是:在L2级自动驾驶机动车的行驶中,所有的辅助驾驶系统还不能识别所有的道路交通危险,不能代替驾驶员直接驾驶,因而在使用辅助驾驶功能时,机动车驾驶员仍然是车辆行驶的操控者,有责任时刻保持警惕并掌控车辆,对安全行驶负全部责任。驾驶员在L2级自动驾驶机动车的行驶过程中使用辅助驾驶功能时观看DVD,长时间脱离驾驶,使车脱离了其直接控制,未尽到安全驾驶的职责。如果驾驶员在案涉车辆辅助驾驶系统未能探测到前方低速行驶的车辆时,能够及时按照用户手册的警示和说明,专心驾驶,在碰撞事故发生前的瞬间发现前方的危险而迅即接管驾驶,本次损害就不会发生。
可见,对于L1—3级自动驾驶机动车发生交通事故,首先应当判断机动车是否有缺陷。案涉车辆存在合理危险,由于生产者已经进行了充分的警示说明,所以不构成警示说明缺陷,不适用产品责任规则。由于事故车辆属于L2级自动驾驶级别,驾驶人未尽机动车操控者的专心驾驶之责,在碰撞事故发生前未能及时发现危险、迅即接管驾驶,导致事故发生,是直接责任者,应当适用传统道路交通事故责任规则确定责任归属。
四、结论
通过上述讨论可以清楚地看到,在人工智能技术迅猛发展和广泛应用的今天,尚未出现现行民法的基本理念和基本规则无法适应其需求的问题。这正是,基于法律教义的要求,必须将法律据其意旨上的关联予以系统化。若要以新的看法处理新生事物,必须注意使新见解可以圆满地纳入既存之法律体系,不可以有逻辑上或价值判断上的矛盾。B25在人工智能技术的发展和应用中,对人工智能机器人的法律地位,对人工智能机器人行为的性质,对人工智能机器人承担的法律责任,以及对自动驾驶机动车交通事故责任规则的设计,都没有超出现行民法的基本理念和基本规则的范围,需纳入既存法律体系寻求解决办法。现行民法的基本理念和基本規则可以解决对人工智能技术发展和应用的法律规制问题,尚不存在需要进行重大改变的情况。现行民法的人与物二分法,以及人的责任和物的责任的基本规则,完全可以适应人工智能技术发展和应用的现实需求,社会发展的实际状况与民法的基本理念和基本规则是相适应的。因此,对于人工智能机器人的法律地位,应当界定其具有人工类人格,仍然是物、是动产、是产品,其致人损害应当适用产品责任规则,确定所有者、使用者以及生产者、设计者和销售者的责任,并预防人工智能技术发展带来危害人类的危险。至于自动驾驶机动车,其就是轮式人工智能机器人。按照自动驾驶程度的级别,L4—5级为高度自动化或者完全自动化,此类自动驾驶机动车行驶中人的角色已经从驾驶人转变为乘客,不再具有机动车驾驶操纵者的地位,造成损害应当适用产品责任规则处理;L1—3级自动驾驶机动车发生交通事故,主要适用传统机动车交通事故责任规则确定责任,即仍然是人的责任,只在机动车有缺陷且驾驶人无过失时,才应适用产品责任规则确定交通事故责任。这些见解完全符合民法方法论的要求。
注释
①《杀人机器人视频令人心惊 专家警告别让悲剧发生》,《环球时报》2017年11月23日。
②③《宜兴冷冻胚胎纠纷案二审今日判决》,无锡法院网,http://wxzy.chinacourt.org/public/detail.php?id=5773,2014年9月17日。
④⑤张圣斌、范莉、庄绪龙:《人体冷冻胚胎监管、处置权归属的认识》,《法律适用》2014年第11期。
⑥B25参见黄茂荣:《法学方法与现代民法》(第5版),法律出版社,2007年,第945页。
⑦郝铁川:《不可幻想和高估人工智能对法治的影响》,《法制日报》2018年1月3日。
⑧金东寒主编:《秩序的重构——人工智能与人类社会》,上海大学出版社,2017年,第86页。
⑨⑩Susanne Beck. The Problem of Ascribing Legal Responsibility in the Case of Robotics, Artificial Intelligence & Society, 2016, Iss.31, pp.473-481.
B11B17B18杨立新:《人工类人格:智能机器人的民法地位——兼论智能机器人致人损害的民事责任》,《求是学刊》2018年第4期。
B12上述事实和判决理由,参见杨立新:《单方废弃夫妻共有的人体胚胎之侵权责任认定》,《法律适用》2018年第9期。
B13陈文军:《丈夫废弃冷冻胚胎案件中的侵权责任认定》,《法律适用》2018年第9期。
B14转引自张燕玲:《人工生殖法律问题研究》,法律出版社,2006年,第94页。
B15杨立新、张莉:《连体人的法律人格及其权利冲突协调》,《法学研究》2005年第5期。
B16吴汉东:《人工智能时代的制度安排与法律规制》,《法律科学(西北政法大学学报)》2017年第5期。
B19徐晓齐编著:《车联网》,化学工业出版社,2015年,前言。
B20王喜文:《工业4.0 最后一次工业革命》,电子工业出版社,2015年,第7页。
B21陈晓林:《无人驾驶汽车对现行法律的挑战及应对》,《理论学刊》2016年第1期。
B22上述两个标准,参见刘少山等:《第一本无人驾驶技术书》,中国工信出版集团、电子工业出版社,2017年,第4—6页。
B23肖马克、赵新华:《无人驾驶汽车:谁来承担责任?》,金杜律师事务所网站,http://www.kwm.com/zh/knowledge/insights/self-driving-cars-who-will-be-liable-20170829,2017年8月29日。
B24司晓、曹建峰:《论人工智能的民事责任:以自动驾驶机动车和智能机器人为切入点》,《法律科学(西北政法大学学报)》2017年第5期。
责任编辑:邓 林