English

检测到您当前使用浏览器版本过于老旧,会导致无法正常浏览网站;请您使用电脑里的其他浏览器如:360、QQ、搜狗浏览器的极速模式浏览,或者使用谷歌、火狐等浏览器。

下载Firefox

网络法读书会

/根目录 /首页 /新闻中心 /网络法读书会

网络法读书会第十二期:机器人法与人工智能法律规制的基本原理

时间:2018-05-12

未来法治研究院网络法第十二期读书会于2018年5月10日在中国人民大学明法楼725室举行。本次读书会的评议老师除中国人民大学法学院未来法治研究院张吉豫老师、丁晓东老师、熊丙万老师外,还有来自于中国政法大学汪庆华老师,中国科学院人工智能联盟吴焦苏老师,中国社科院大学互联网研究中心刘晓春老师以及北京安理律师事务所王新锐老师。本次读书会上,老师和同学们围绕Ryan Calo助理教授的Robotics and the Lessons of Cyberlaw和Jack M. Balkin教授的The Path of Robotics Law两篇论文进行了主题报告和讨论。以下是整理的主题报告:

主题报告

北京大学 王硕:

各位老师,同学好,很高兴今天能有机会和大家一起参加读书会。这次我们阅读的文献是关于机器人法和人工智能法基本问题的。这种关于法律基础、出发点与基本原理的讨论,往往是比较具有启发性的和延展空间,同时又不会让人感受到明显的知识门槛,因此特别适合用作读书会的话题。

我是负责做必读文献的导读。其实,我们同样可以对文献导读做一个规制的基本原理的分析。其实,导读的目的,除了介绍文章内容外,最重要的是给接下来的讨论提供一个索引或者说热身。因此,对导读的规制就应当是引导、鼓励其对文献内容进行有重点的整合,方便接下来讨论时有所围绕;同时,或许应该多谈一些问题,哪怕是愚蠢的,而不是给出答案。

上面,对于导读规制原理的掰扯,其实是这样一个出发点,也即规制的基本原理应当以规制对象所要实现的功能为出发点。这种思路,是一种比较常见的思路。而我们这次的阅读的主要文献,也就是Calo的那篇,首先带来的阅读收获是--其寻找规制基本原理的思路是有别于上述进路的,其是以规制对象的特点为核心,是一种接近本质主义的进路。

我们一共有两篇阅读文献,其中第二篇文献(The Path of Robotics Law)是对第一篇文献(Robotics and the Lessons of Cyberlaw)内容的商榷,因此,两篇文章我就合并起来介绍。由于文章的内容很多,然后我看了一下公众号里推送的之前的读书会记录,大家并不是严格的按照文献一页页读过去,所以,我就主要以Calo的文章为主线,把两篇文献的内容一并进行介绍。

按照比较流行的说法,我们可以先谈这篇文章的问题意识。其实,尽管不是特别明显,但作者的这篇文章可能是想回答,机器人法是否应成为独立的法律或说学科。为了回答这个问题,作者的思路是通过论证机器人技术是例外的。按照作者自己的定义,也即机器人这一技术可能使得法律为了平衡或者保存自身的价值而发生系统性的改变。那么,这一改变是指什么呢?这种改变是机器人技术可能对现有法律形成的挑战。我们要注意,作者实际上是要证成这种挑战是一种系统性的挑战,因此需要从比较抽象的层面对机器人技术可能带来的挑战进行说明。对此,Calo的思路是认为这些挑战根源于机器人技术的特点。但这一思路,似乎并不是通说或者说共识。因此,作者需要证明新技术对于法律的挑战根源于这一技术自身特点,在普遍意义上是正确的,因此通过分析机器人技术特点来预测其可能对法律带来的挑战是正确的。为了达到这一目的,Calo通过分析网络法的发展并总结其经验来加以证明。

上述对于文章思路的分析,其实与文章最后的呈现的顺序几乎正好是掉了个个。但是,这一点本身或许也是值得我们学习的。因为,如果文章如果按照上面的思路来写作,那么会有很多难以回答的困扰,比如,为什么网络法发展的经验能够直接套用到机器人法上?

但是,文章最后呈现的方式,比较巧妙的化解了这些困扰。最终作者强调自己的文章仅是关于网络法发展的经验以及这些经验能够给与机器人法带来的启示。在这样的命题下,哪怕作者所有的观点都是来自于网络法,并且强行的认为这些观点具有普遍性,我们也无法质疑太多。这样的写作方式,在我看来,实际上是通过降低论文结论的普遍性来降低论证难度。或许值得借鉴。

在了解上述分析后,文章最终呈现出来的结构也就较清晰。在第一部分,作者对网络法的发展进行总结,并对网络技术的本质特点进行概括,然后分析为什么这些特点对于网络规制意义重大,目的是为了总结技术特点对于规制的重要意义。在第二部分,作者对机器人这一技术的特点进行概括,然后分析这些技术特点可能对规制产生什么样的挑战,而这些挑战又是具有怎样的深远意义,目的是为了论证机器人技术会对目前的法律产生深远的影响,同时由于机器人技术与网络技术特点的不同,这种影响是不同的。而在第三部分,作者先通过分析认为一个技术,只有当其对于法律能够产生系统深刻的影响时,才应该被看作是例外的,或说应当独立的认真对待。然后主要借助之前已经分析的,机器人技术会对法律产生的影响,得出结论--机器人应当有独立的部门,或说是独立的学科。之后,谈了一下从事机器人法的研究应当从网络法发展的过程中学习到那些经验,形成首尾呼应。

当然了,其实,如果结合写作经历,我们也可以给文章的结构做另一种解读。考虑到整体文章的页数是9+25+8,或许作者首先是在思考机器人这一技术可能会引发哪些问题,这也就是第二章的主要内容。然后,为了证明自己的这一分析思路是有依据的,于是就补充了第一章,来证明自己思路的合理性。但是在写作完成以后,发现好像缺少学理讨论,于是又写了一个第三部分,增加了关于机器人法是否应当独立的学理讨论。

我们现在来具体谈谈文章的内容。其实,上面的三个分析都指向了第一章的写作目的不是内容--重点不是在于对于网络法发展的总结,而是对于一个观点的论证。这一观点,就是技术特点对规制有重要影响,甚至说是特点会决定规制的基本理论。因此,第一章的内容也就由两个部分来组成。首先,是对互联网具有哪些特点进行分析;然后分析这些特点在规制中的重要地位。

在作者看来,网络的特有三个主要的特点,首先,其允许大量的信息混乱的交互,人们可以接触到许多信息,也可以方便的相互传送信息。其次,其提供了一个分享和合作的空间,比如大家在BBS上对某个电影进行公开评论。最后,在互联网上,人们有更多的途径被监管和操纵。其实作者是在强调,程序或说代码对于人们行为的引导和监督吧。

我们先来说说这些特点。在这里我们就可以引出第二篇文献的核心观点了。也就是Balkin的文章。Balkin认为这些技术特点的概括是有问题的。尽管Balkin的文章主要是对Calo对机器人的特点进行批判。

首先,Balkin认为,Calo对技术特征的概括有很长的时间跨度。Balkin举了一个例子,也即在手机刚出现的时候,人们会认为其技术特点是能在外打电话,但是现在手机的技术特点其实很接近计算机了。因此,形成对比的是,Calo对网络法特点的总结,以及其对规制的影响是一个长时间跨度内的总结;但是在机器人部分,其是针对一个刚刚起步的技术进行总结。换句话说,如果要形成合理的逻辑,应当是对1990年前后网络的特点进行总结,并分析其与规制的关系。

这一批判,有道理也没有道理。我突然想起来苏力说过,大国宪制就是要抽掉时间看事物之间的因果联系。从这一角度,Calo的这个论证没什么问题。其只不过是要说技术特点影响规制内容,又没有说机器人的特点不会发生变化。

其次,Balkin认为Calo之所以认为这些特点特别重要,主要是因为其在法律上有意义。而这些意义,其实随着法律的发展可能就消失了。文中,Balkin提到的例子是,Calo在之后对于机器人技术特征的概括中提到了机器人可能会做出"变身"(emergence)行为,而这种行为按目前法律很难处理,因为其不存在遇见可能性,尤其是那些机器人自己学习的"变身"(emergence)行为。但是,如果法律对这些内容已经有了一套成熟的规则方式,那么这个特点就不那么重要了。

尽管有点勉强,但是Calo对于互联网特点的总结同样也是如此,比如他提到的操纵和控制,这个问题之所以是问题就是因为存在空白。其实,这里Balkin,按照中国的语境有一点批判法律人思维的意味在。不过,对此,我同样认为有道理,也没有道理。因为,毕竟这是一个法学论文,所有的形容词当然都是在法学的语境内使用。难道逼着所有人都精确的写成,网络网在法律意义上的重要特点是其.....有多少实际的收益吗?

但是,Balkin这一评论同样也有提醒我们的意义。其实,在我有限的传媒学知识里,我觉的可能传媒学视角对于互联网的关注,可能会特别关注话语权的分配,比如是等边金字塔还是直角金字塔,关注信息内容的生产等等。这些特点显然没有被Calo纳入文章中,但其实这些特点也会影响规制。因此,借鉴其他学科对技术的概括,或许能对我们有所启发。

最后,Balkin认为技术特点其实不那么重要,重要的是民众使用他们的方式,以及使用可能产生的结果。而法律,应当是对结果进行规制。这个观点,我概括的可能有点过于主观了,但我觉得Balkin的意思是技术特点和最终的使用结果之间并不是一一对应的。由于技术可能是一把双刃剑,因此针对特点谈规制原则,不如直接针对结果来谈更好一些。这一观点,其实对Calo的整体思路是具有颠覆意味的。我个人认为是很有力的挑战,而且能够说服我。

但是,如果我们考虑到Calo的这篇文章可能是这个学科相关讨论的出发点,那么,我们应当对Calo的观点持肯定态度。因为,其给与后面文章的一个非常巨大的空间。如果Calo一开始就把文章的思路放到了技术的使用效果上,那么技术特点与技术使用之间转化的相关规制问题可能就在结构上被忽视了。或者说,考虑到目前机器人发展的水平实在有限,如果我们只着眼于目前已经确知的那些机器人的实际使用效果并加以讨论,可能会使得文章缺乏一种往前看的可能性。

考虑到讲座的时间,这里就不细致的对网络技术特征对于规制的影响进行分析了。因为,从文章结构上,我们就可以知道这部分并不是文章的重点。尤其是考虑到,从文章的写作来看,由于这一部分的论证,其实是通过个案来论证。也即,哪些网络法的具体规定,反映了互联网的技术特征,所以要认真阅读的话,只能是一个个例子的讨论,这会比较费功夫。如果对具体内容有特别关注的,可以一会再自由讨论环节提出。

那么,接下来,我们重点关注机器人规制部分。其实,在了解了前面Balkin对于Calo进行的技术特征总结的批判以后,可能一些读者会觉得机器人技术特征这部分似乎不那么重要。但其实,我们会发现,可能目前很多关于机器人讨论的问题,确实最终没有超出Calo提出的这三个特征对应的范畴。因此,我们还是有必要去关注一下这三个特征的内容。

在这之前,我们需要对机器人是啥做一个定义。其实这个定义本身是很麻烦的,尤其是像Balkin在论文有提及的关于AI和机器人的界分问题。但是,仅以了解本文为目的,那么机器人定义明晰还是很简单的。在Calo的语境下,机器人就是我们目前市面上能遇到的机器人,比如扫地机器人。那些拥有独立思维,或者我拥有自我意识的机器人不在我们的讨论范畴内。当然了,Calo并不排斥那些具有自我学习能力的机器人。

在此基础上,Calo认为机器人技术的第一个特点是,其能够把数据实体化。比如,如果你的电脑进行数据处理的时候出错了,可能会导致计算机死机;但是,如果机器人数据处理出错了,可能会引发物理伤害,比如进行攻击,拆错东西之类的。在Balkin看来,这个技术特点对于法律的影响,其实主要是体现在:之前数据造成的损失一般被当作“纯粹经济损失”,而机器人使得数据可能引发物理伤害因而在法律上需要承担责任。我觉得Balkin的这个评论很到位,甚至比Calo说的好很多。

第二个特征是"变身"(emergence)。Calo强调了,这个词的表达会比自动化(autonomy)好一些。因此,"变身"(emergence)在很大程度上就是自动化。只不过,自动化会让人感觉到机器是按照人们预先设定的程序行为。Calo要强调的是,机器的行为是超出人们预见性的。所以,他的这个观点只有在机器人能够自我学习以后才开始有意义。他想表达的是,一些机器人会逐渐针对自己长期所处的环境形成一套独特行为规则,这些规则是开发商和使用者未必能够知道的。因此,人们对机器人的行为缺乏可预见性。在另一个层面上,其还指在某一个环境中,有许多的机器人都在分别进行"变身"(emergence)行为,其产生的最终效果原因复杂;或者说就机器人个体而言,其内部的多个系统可能也会合作引发混乱。这可能对现有法律体系产生挑战。比如,在事实自证规则下,其实隐含的是物品的拥有者对物品有更多的信息;但是,由于机器人的主人也不知道机器人到底会做出什么样的"变身"(emergence)反映,所以,对机器人的主人套用这个规则就有点不合理。

其实,Calo提出的机器人的这一技术特点与法律之间的衔接,在一定意义上,能够让我们感受到传统法理分析和法律经济分析之间的区别。按照传统的法理分析,我们要纠结因果关系。但是,按照法律的经济分析,则可以只关注责任分配导致的社会效益。我们不必去纠结,机器人学习的错误"变身"(emergence)规则是主要因为机器生产商设定的初始代码出了问题,还是使用者没有按照规范在规定的环境中使用。我们可以指出如果把责任分配给生产商,那么可能会导致机器太安全。

在这里,我对这一问题进行一些补充,这些观点主要来源于同样是Calo主编的一本书,书名是robot law,下面的很多观点补充也来自于该文集。

其实,责任分配的问题,如果按照法律经济学的角度看,就是一个风险的承担问题。对于风险的承担,则应当由风险的最佳消解者来实现。在传统领域,我们一般都认为厂商有更多的知识,因此往往是厂商承担这些说不清楚的风险。但是对于机器人,其实厂商不见得比用户更加了解,尤其是那些具有学习能力的机器人。而在另一个方面,如果厂商承担过多责任,会抑制行业发展。一篇论文作者提到了美国在1992年左右推行的《通用航空振兴法案》,这一法案要求坐飞机出事的乘客自己承担这些风险。因为,当时的飞机生产行业因为诉讼的困扰而无法发展。其实,我们在思考责任的分配时,常常做一个静态分析,但是法律和社会总是处于动态平衡。显然,当这些说不清的风险被分配给用户后,仍然要使用的用户相对于之前的分配规则,应当认为从对机器人的了解的平均水平上是更高的。因此,从社会总体的角度可能反而是一种有效的减少风险的方式。不过,如果不仅仅考虑风险的货币量化,而更多关注风险的实际效果。由于金钱的使用效果是有梯度的,所以,我们此时会希望保险公司的介入。

除了上述分析,在这一方面,还有一个有益的讨论是关于开源。一些学者认为,在进行上述机器人行为造成损害的分配时,应当把责任进行合理的分配,让上游厂商和下游用户各自承担责任。比如,我买了小米机器人,如果他扫地扫出了问题,由厂商负责。但是,如果我把这个机器人的吸尘器进行改装,把他变成了一个洒水器,那么引发的事故,就应当由我,这个消费者来承担。这样,厂商就不会为了免除责任而对机器人做太多的限制,又有相对充足的激励去改善产品安全,这使得大部分用户也能得到合理的保护。与此同时,那么拥有足够DIV能力的用户也能够展开想象的翅膀。

Calo的这篇文章里,对"变身"(emergence)还有很多比较细节的讨论,比如机器人学习的"变身"(emergence)规则是否具有价值等。这里因为时间关系,也先不说啦。

第三个特点,是social valance,我也不知道怎么翻译,就叫做社会心理影响吧。说起来也简单,其实就是人们可能对机器人有感情。按照Balkin的说法,其实用替代(substitution)效用来理解会更加全面客观一些。

Calo其实是想说,因为人们对机器人的这种情感,可能会导致机器人在法律上变成既不是人又不是物的第三个分类,这一观点甚至成为了其认为机器人技术具有独特性的一个理由。我自己是一个不那么有情怀的人,所以我对这个观点是很无奈的。但是,其提到的,比如士兵可能会想要去救扫雷或说战斗机器人的心理,我是完全理解的。尽管,我可能会比较无情的表示,这是因为机器人是稀缺的资源,所以这其实符合成本收益分析。至于Calo提到的,比如执法机器人误伤人类后,同型号的执法机器人可能会被人们攻击。这个现象,我也赞同,但是这难道不对么?汽车不就是全部召回?换句话说,我虽然认为强调机器人是第三个分类的观点有点矫情,甚至有点无理取闹,但是,其举的具体例子我是赞同的。而且,不仅仅是因为认知科学的研究对这些结论能够提供证明,从经济学上这里的一些观点也是合理的。

Balkin的评论是是用替代效用来解释更好。其实,Balkin的努力是在想办法把这个东西中立化。也即,这个社会心理影响其实对社会也有益处。我大体上理解他的观点。可能唯一的评论是,Balkin实际上是把这个特点去掉了,因为如果用替代效用来替代社会心理影响,那么相关的规制似乎会缺乏合理性。那么这些规制是什么呢?

这里补充一下其他论文对这一特点的讨论。

首先,有一篇文章讨论机器人可能对人类造成什么伤害的。指出,机器人会对人造成心理伤害。作者指出,机器人可能会由于长的和人很像,借助这种外貌欺骗人。比如,零售机器人,尤其是考虑到,消费者行为学的发展。这个观点挺新奇的。该作者,因此认为应当规定机器人不能够隐藏自己是一个机器人这个事实。

其次,还有一篇文章,讨论的是和性爱机器人进行性行为是否需要同意。作者应该是一个女权主义者,其论证的逻辑其实是滑坡论证吧。其认为,如果男性长期在不争得性爱机器人的同意下...会使得男性认为不需要征得女性同意....这会使得女性目前不利的地位更加不利。

由于时间关系,这里就不继续往下介绍了。就像开头说的,我觉的介绍是为了下一个环节服务的。所以,我是先介绍的文章结构和内容,后谈的文章具体内容。

最后可能可以多补充的,是关于机器人法的基本原理的搭建。其实就像上面已经提到的,我个人认为Calo的思路是有益的。尽管,其最终的结论和观点我未必赞同。但是,从我参加的一些关于机器人问题的讨论来看,其实大多数人们关心的问题,都没有超出Calo提到的这三个特点的范畴。不过,随着技术的发展,目前已经被质疑的机器人技术特征肯定会出现替代和更新。而更加有解释力的机器人法的基本原理,也将在这一过程中逐步建立起来。

自由讨论

中国人民大学 丁晓东:

Ryan Calo和Jack Balkin的两篇文献可以说代表了两种思路。Calo的文献是比较传统的法学研究思路,就是先分析机器人或自动机器的特征,其区别于网络的特征是什么,然后再根据这种特征去提出法律的应对方案。但就个人来说,我也更赞同Balkin的思路,Balkin的思路是,思考机器人或自动机器的法律应对,不能简单总结科技的特征,然后再提出法律应对,因为科技的背后其实是人、社会关系与社会伦理,并没有哪项科技是完全“客观”的或“必然”的。拿我们今天讨论比较多的自动驾驶来说,自动驾驶技术的发展取决于人们对于风险的容忍程度有多高,人们对于风险的认知与判断如何,以及人们如何看待人们以自动化的方式来替代人类做出风险判断。Balkin还在文章中提出,即使互联网也一样,互联网并没有“本质”,互联网兴起之处,更多被认为其特征是互联互通,相互协作,但后来互联网其实更多已经商业化了,因为一些力量的介入。所有这些表明,我们思考“机器人的法律道路”,应当像霍姆斯一样来思考法律的道路,应当透过科技看到科技背后的社会关系,避免本质主义的思考方式。

中国政法大学 汪庆华

从理论进路上,这两篇文章形成了鲜明对比。Ryan Calo的文章关于机器人的法律规制是从本质主义入手的,所以他在文中试图概括了机器人的三个方面的特征。而Jack Balkin 的文章则是从功能主义切入的。他特别指出本质主义的僵化迟滞,带来监管上的削足适履。所以他文章不仅是在题目上沿用了霍姆斯的名篇的标题,更重要的是他在思想是也是继承了霍姆斯的想法的,要将法律置身于社会环境中考察它对社会关系的影响。

我想一个特别值得讨论的方面是概念的问题,Robot翻译成机器人似乎是一种约定俗成的做法。在Ryan的文中,他将Robot定义成 “一种人工物或系统,可以感知、处理和作用于世界”。就此而言,机器人毫无疑问是一个拟人化的想象。循名责实,这种拟人化的命名会建构、限制和规定我们的想象,从而影响到我们对这个领域的法律规制。Robot当然能够采用人的形象,但它可能呈现的外观是无限多样,无穷可能的,它可能是人,也可以是蜜蜂,可以是水杯,也可以是盒子。如果从它们都是被算法驱动这个角度来说,我们也很难真正去厘清机器人和人工智能。所以我下面的评论还是用人工智能这个词。

人工智能的法律规制还是要结合具体的场景来进行。关于人工智能的理论基础,涉及的法律问题应该说是比较有限的。像虚拟现实有一些不同的开源平台,Google有ARCore,Apple 有 ARKit,商汤科技有自己的开源平台,这里面可能有一些知识产权问题。不过我们结合具体场景的时候,比如自动驾驶,可能涉及的法律问题就十分广泛了,诸如个人隐私,网络安全和产品责任等方面的规范都会有所涉及。王硕在之前的报告中提到了机器人侵权的责任分配问题,换一个思路,完全可以通过保险制度来解决侵权责任分配带来的产业发展还是消费者保护之间平衡的两难。

人工智能的法律应对,首先要去区分哪些是原有的法律概念、原则和规则可以解决的,哪些技术可能对原有的法律体系带来变革。就自动驾驶而言,如果结合现有技术,将酒测设计到产品中,如果测量出司机的酒精含量超标,连汽车都无法发动,这将使得规则被自动执行,从而避免酒驾入罪的出现。在中国目前的刑事犯罪中,酒驾占到将近20%。如果自动驾驶带来的汽车产业的发展能够从这个方面去实现Rule By Default,那么每年将有二三十万人的前途、家庭乃至孩子的未来都得以拯救,这类的人工智能将会对现有的立法、司法和执法都有本质上的改变。

中国人民大学 熊丙万:

首先,我想谈谈术语的翻译问题刚刚汪庆华老师谈到,Robotics这个术语应该怎么翻译的问题,是一个很重要的问题。翻译之后的汉语表达,不仅直接影响着我们对事物形状的理解,还影响我们设问的方式、观察的视角和回答的内容。到底是将这个词翻译成“机器人”还是翻译成诸如“智能系统”之类的术语,对我们观察的视角和问题都有直接影响。

一个类似的翻译问题是“批判法学”。我最近在Frontiers of Law in China上发表了一篇文章,题目是Chinese Jurists’ Misconceptions of Critical Legal Studies. 其中有一个问题,就是应当如何理解critical studies, critical theory以及critique这样的词汇。翻译成中文“批判”常常给人以一种反驳的、解构的印象,而不是一种建构的印象。而当我们看看大量批判社会学资料中对critique这个术语的界定时,我们会发现,这个术语更趋近于“剖析”、“透视”的意思,有独立的科学认知的意思,是说要去更准确地看待某事物或者现象。但是,当我们中文把他翻译成“批判”时,就失去了原来的味道,而且引起了很多误解。

其次,是关于人工智能厂商的民事赔偿责任。刚刚报告人在介绍阅读文献内容时提到,对于不少新生的人工智能产品,人工智能厂商本身对智能产品的风险就没有足够的认知,也有控制困难。这与传统法律经济学所主张的严格责任的适用情形不太一样(根据传统的说法,既然法官和立法者无法从外部来判断企业应当尽到何种水平的注意义务才算合理,以及企业实际上采取了何种注意措施,那么就干脆把外部损害作为一种企业的生产成本,也就是让企业对外部损害承担连带责任,让企业自己去判断是否继续生产以及采取何种安全防范措施)。如果一律要求厂商去为损害埋单的话,则可能会抑制相应产业的健康发展。

因此,刚才报告人谈到,可以让那些有风险承受能力和意愿的消费者,自己去承担因为消费人工智能产品而面临的风险。如果这样的产品风险特别大,只要厂商能够尽到充分的,风险披露和说明义务,仍然有一小部分消费者去尝试这种产品,那么这个在民法上可以大致归为自甘冒险行为。如果消费行为是在一个十分封闭的环境中展开,不涉及这个冒险人之外的第三人,这或许真的是一个可以考虑的做法。但在类似于自动驾驶这样的人工智能产品领域,产品的使用必然都要涉及到第三人。尽管使用产品的人是自甘冒险的人,但是他身边的第三人很可能是风险厌恶的人,且通常是无辜的人。即便在制度设计上让自甘冒险的人承担对第三人的损害赔偿责任,当自甘冒险的人的责任财产不足以赔付损害时,只要出现一定规模的得不到损害救济的第三人,那么无论从政府的公共决策上考虑,还是从生产商的社会形象和声誉考虑,这制度安排都不可能被容忍。

换一个角度思考,让生产商承担产品责任并不一定是一件坏事,也不一定会阻碍产业的发展。新锐律师刚才的评论有启发。他说,与损害赔偿风险这类成本相比,生产商更愿意去考虑那些经营性的风险和收入。对于生产商愿意投入市场的产品来说,损害赔偿事故的发生概率一般不可能太高,否则,这产品的市场受欢迎程度,或者产业链上的受欢迎程度都会受到巨大的影响。生产商一般不太可能去忍受这样的声誉上的差评,自毁钱程。对于损害事故风险这类小的成本,无论是无人驾驶的生产商,还是网约车行业的网络经营平台,通常只会把它视为风险投资和经营成本当中的一小部分,一个非常微小的部分。再通过一定的保险分散机制的安排,就足以很好的应对这类损害赔偿风险。

最后,是关于新业态下的法律思维。在当前的学术讨论当中,还有一个现象值得关注,学术讨论者常常去放大新生产品形态的损害发生率,没有将新产品与旧的业态的风险事故发生率进行对比分析的习惯。自动驾驶撞死人了,网约车致人损害了,并不等于他们的损害风险与和应对机制与传统的行业,有什么大的差别。当前不少法律同行,对新生事物所伴随的风险,有一种莫名其妙的焦虑感。当发生网约车致人损害,或者无人驾驶致人损害案件后,不少评论只关注到特定的个案,并把个案上升为一种特殊异常的风险。但如果我们将新业态与旧业态的损害事故发生率加以对比分析,很可能会产生不同的认识。在这些问题上面,我们法律人当然需要保持对新生问题的敏感性,但同时也要贴近实务,避免夸大问题之所在和问题的新颖性。

北京安理律师事务所管理合伙人王新锐:

我认为,研究人工智能法律问题,首先要把基本事实搞清楚,目前很多论文中都有比较明显的事实错误,或仅凭对技术的主观想象去做推论,这都会影响到法律判断;人工智能技术相关的法律问题在现实中已大量出现,但很多时候由于其保密性并不容易被研究者观察到,能被观察到的又分为可以被传统法律解决的,和比较复杂、新奇还需要继续观察的问题,目前不宜作出大而化之的判断。其次,新技术日新月异,法律人试图从技术本身的一些特点去提出规范和管制非常困难,甚至是徒劳的,更可行的是从其实际产生的风险出发,同时评估其带来的正面收益。而人工智能在不同行业(如金融、医疗、教育、安防、自动驾驶)落地时会有不同的风险和法律问题,需要分别进行研究。Balkin教授论文中提到的“Code is lawless”,是一个很有启发性的论点,在人工智能的监管问题上也是很大的挑战。

中国科学院人工智能联盟 吴焦苏:

机器人能做什么,不能做什么,这个界限要通过严密的研究逐步搞清楚。这是制定机器人法的基本技术前提。

实际上,基于时间空间的博弈动力学研究表明,机器人目前是不具备伦理判断与决策功能的。所以,将机器人置于伦理困境是超出了其能力的。正是在这个意义上,德国联邦交通与数字基础设施部伦理委员会去年发布的关于自动驾驶的 20 条伦理准则很有启发性,自动驾驶系统的设计应当防止「电车困境」等难题发生而不是将其置于「电车困境」。该委员会还确认,自动驾驶系统必须更好的适应人的交流习惯,而不是反过来要求人去更好地适应机器; 必须清晰界定机器和人的责任,机器不能取代或优先于人的自主决定权,面对不可避免的事故,最终的行为决定权还要由人掌握。

只有在自动驾驶系统的设计能够满足行为决定权从机器向人的顺利转移的前提下,自动驾驶系统才可以被批准上路。今天英国DeepMind公司的科学家在Nature上发表的人工智能体采用网格表示的基于向量的导航的论文,给人们在行为决定权从机器向人的顺利转移之类的人机协同问题以一种启示,但此类问题远未达到彻底解决的阶段,仅仅只是开了一个头。

而在自动驾驶界,由于各种原因,对此类问题的严重性则普遍认识不足,甚至没有关于此类问题的严格理论框架,更谈不上基于理论框架的实验。只有少数公司在工程上做了测试,如以色列Mobileye公司的高级驾驶辅助系统(ADAS系统)的前车碰撞预警 FCW功能 (Forward Collision Warning)可以计算足够且精准的避免碰撞时间 TTC(Time To Collision),他们把TTC设定在 2.7 秒。而要通过车间距对反应时间和制动操作最迟时间做出精确的TTC 预估,就要获得准确的绝对速度,以及相对于其他车辆的相对速度,并考虑道路曲率、坡度、行进轨迹等综合因素。Mobileye公司的ADAS系统的行人碰撞预警功能PCW(Pedestrian Collision Warning)在白天能够在即将和行人或者自行车发生碰撞前最多2秒发出警告信息来尽可能避免事故的发生。

人类对这些问题所产生的技术上的困难应当有清醒的认识,在自动驾驶系统正式上路之前应当进行充分的破坏性试验和严格的封闭路测。在自动驾驶系统的安全性不能得到严格的保证之前,自动驾驶系统不应当被批准量产。

中国社会科学院大学 刘晓春:

这两篇文章的选择在我看来非常具有代表性,在方法论意义上有很现实的启发。本质主义的研究方法,目前在法学研究中依然是最普遍的现象,即使是在与技术发展结合最紧密的知识产权领域,对于新事物的处理,主流上依然是本质主义方法居多,比如,在体育赛事直播的讨论中,强调因为边录边播没有完整的“摄制在一定介质上”,因此不构成类电作品。从技术特性角度界定其本质,而忽视社会的需求和对资源配置的影响,是概念界定和适用中需要警惕的方法论倾向。对于概念的不同界定维度,的确会构成完全不同的制度构建起点,从而影响整个制度的设计和架构。比如“个人信息”概念就是一个很典型的例子,是将其界定为“与个人相关的”主体的延伸,从而将其界定为个人权利乃至人格权,还是将其界定为“信息”,默认其自由流通,是个人信息制度建构的根本性问题。

当然,传统的法教义学也有可取之处,通过概念的界定来维持某一类客体及其规则的稳定性和可预期性,将通过立法形成的共识稳定下来,防止司法的恣意。但是,在技术和商业模式飞速变化的领域,无论是通过灵活的法律解释方法,还是一定程度上的对于司法创新的容忍度,都十分有必要引入功能主义的思路,从而确保法律不会过时得太快。

中国人民大学 张吉豫:

Balkin教授对于本质主义的批判很有启发性。首先,并不能仅仅基于人工智能或机器人技术的本质而推导出相关法学问题。Balkin很富有洞见地指出,人们在进行技术创新的同时,也在进行社会上的、经济上的、法律上的创新,这些带来了新的法律问题。我们应该注重考查技术带来的社会层面的变化。其次,Balkin教授指出,很多时候人们认为自己对于人工智能或者机器人技术本质有较好的理解,实际上是基于大量的文学作品的描述,而非当前社会中应用的技术本身。在进行法学研究时应对此保持警醒。

但另一方面,我想对于技术本质的关注和研究也仍然是有意义的。据我理解,Balkin教授实际上也并不反对这一点。社会上人们如何使用技术实际上是由很多因素共同决定的,技术发展水平——或者说可供使用的、可选择的技术的特征——应该是影响人们如何使用技术的重要影响因素之一。尽管技术确实在不断发展,并受到法律、市场、社会规范等方面的影响,但这些因素也是相互影响的,即技术反过来也可能对市场、法律等产生影响。在很多情况下,技术创新是引起这一系列涟漪的源泉之一。从这个意义上讲,理解技术的发展情况和当前特征,也是有效率地理解社会层面变化、人与人之间关系变化的途径。当然,技术创新未必一定引起法律的变化,这在知识产权法发展历史上有许多先例。但对于可能引起社会关系变化、利益关系变化的技术创新予以关注和论证仍然是有必要的。尽管有时论证过于容易,就好像没有引起法律界关注一样;但实际上也是快速地论证过了。

此外,文中提出“Code is Lawless”,但从动态发展来看,我觉得这也并不必然。尽管互联网和软硬件系统有着不同的层次,可能有着数量非常庞大的研发和使用主体,可能根据多维信息实时变化,但从科学的视角来看,这仍然是可以进行研究的复杂系统。安全性、可预测性、可控制性都不是一个简单0-1二值的变量,而是一个连续变量,我们通常总可以不断使其更进步一些。当然这一般并不是法学研究的问题,但与法学问题也可能建立联系。例如,我们分配责任的目的是什么?是否包含对更加安全、可预测的系统的关键研发和最新技术的应用提供激励?(当然有可能很多问题市场就可以解决)等等。这也是为什么我们在必要之处应该建立跨领域的有效对话及合作机制。