English

检测到您当前使用浏览器版本过于老旧,会导致无法正常浏览网站;请您使用电脑里的其他浏览器如:360、QQ、搜狗浏览器的极速模式浏览,或者使用谷歌、火狐等浏览器。

下载Firefox

网络法读书会

/根目录 /首页 /新闻中心 /网络法读书会

网络法读书会第二十期:人工智能的主体性与民事责任

时间:2018-12-10

【主题报告】

2018级法硕(非法本)  钱其沁

人工智能的法律人格地位

文章发表于1992年,作者Lawrence B. Solum现在是乔治城大学法学院教授。就“人工智能是否可能”这样的理论问题,本文通过一系列思想实验将其转化为法律问题,比如“人工智能是否能成为信托受托人”。

本文的结构如下:

第一部分回顾认知科学的发展,介绍关于人工智能是否可能的辩论。第二部分将问题放在法律视角,提出法律人格的概念。第三部分和第四部分假设了两个场景,一是将人工智能委托为信托受托人,二是人工智能要求行使美国宪法的人权条款。第五部分探究两个场景对人工智能可能性的辩论的影响。第六部分探究认知科学对于时下关于人格地位的法律和道德争论是否有影响。

一、人工智能

第一个部分介绍了人工智能问题的背景。

人工智能是否可能的问题可以追溯到霍布斯、笛卡尔这样的早期现代思想关于人类精神的思考。

关于人工智能是否可能的问题,当代的辩论主要围绕阿兰·图灵的测试展开。图灵提出,机器是否可以思考的问题,可以用“模仿游戏”这种可操作的询问来代替。发问者通过电传打字机向人工制品和人提问,但不知道哪个是哪个。二者努力让发问者相信自己才是人。图灵建议搁置机器是否会思考的问题的答案,而只管人工制品是否可以骗过一些人。图灵认为,测试足够难,因此通过测试的东西可以被认为是有智能的。

约翰·希尔勒提出中文房间思想实验。想象不懂中文的你被锁在一个房间内,给了你一本用英文写的规则手册,你可以通过形状辨认中文。从房间外输入成批的中文,你根据规则手册给出的处理中文字符串的规则向房间外输出中文。房间外的人以为房间里的东西懂中文。希尔勒认为该思想实验展示了,即使你和指导手册(视作程序)可以模仿成懂中文的样子,你们还是都不懂中文。不能根据计算机运行的程序用一种模仿人类的方式来处理符号,就认为计算机会思考。程序完成的形式化处理不能构成思考或者理解,因为程序缺乏“意向性”,即产生意义的能力。

二、法律人格

约翰·奇普曼·格雷的The Nature and Sources of the Law一书中有关于法律人格的经典讨论。他提出,“人person”的法律意思是指一个拥有法律权利和义务的主体。由此,“一个实体是否应该被认为是一个法律上的人”的问题可以拆解成一个实体是否可以且应当被作为一系列法律权利和义务的主体的问题。具体的一系列权利和义务根据实体的性质不同而不同。不过,法律人格常常伴随着拥有财产的权利和诉讼与被诉的能力。

无生命的东西在一些场合也有法律人格。我们最熟悉的例子是企业和政府实体。

三、人工智能是否能成为信托受托人?

A.场景

设想一个从现有程序发展而来的专家系统,可以自动执行简单信托的信托受托人的部分任务,比如根据市场状况决定投资公开发行的股票。这样一个系统可能会在三个阶段进化:

阶段一,该程序在大量简单信托中帮助人类信托受托人,比如投资证券、进行交易订购、向信托受益人支付资金;当被告知相应事件,比如受益人死亡时,该程序遵循信托证书的指令,改变受益人或终结信托。专家系统可以对如何投资基金提出建议,但由人类作出最终决定;信托证书的条款仍由人类检验。

第二阶段,专家系统发展,委托人开始要求信托受托人在投资信托财产时必须遵循人工智能的建议。此外,信托管理程序精通于分析和实施信托证书的条款,不需要由人来检查项目合规。人类在由程序准备的特定文件上签名,收受服务费。在信托诉讼方面,通过及时编程,专家系统可以将有诉讼风险的信件警示信托受托人并生成相关信托的格式信函,信托受托人签名后将其送至信托的律师处。随着专家系统的能力成长,越来越不需要人类信托保管人做出决定。

第三阶段,委托人决定不再采用保管人。

为了全面描述第三阶段的场景,必须回答许多问题。比如,该人工智能会为谁所有?作为一个过渡解决方案,作者假定硬件和软件由别的法人拥有,比如某企业。

B.法律问题

从法律的角度考察人工智能是否有资格成为法人并作为信托受托人,如果只考虑一个给信托受托人很少自由裁量权的简单信托,只需要人工智能可以做出非常好的投资、支付并且能辨认出受益人死亡之类的需要变更的情形。

C.两个反对

如果法律允许人工智能做信托受托人,还要考虑第二种意义上的能力:实际胜任的能力。此处有两个反对。责任反对基于断定人工智能不可能“负责”,即,不可能赔偿或在违反职责时受到处罚。判断反对关注信托受托人有能力做出超出人工智能的能力的判断。

1.责任反对

责任反对关注人工智能实现其责任和职责。

首先,确定相应的法律责任会有困难。如何“指控”人工智能因违反信托(比如没有在投资信托资产时行使合理技术和注意)而造成损失或信托价值贬值?

作者提出,可以买保险。于是从功能上,人工智能可以以承担职责和相应的法律责任。

另一方面,非财产性法律责任无法通过保险承担,比如刑事责任。盗窃信托资产,无法通过监禁的方式使人工智能负责。作者提出考虑惩罚的理由来回答这个反对。如果惩罚的目的是威慑,那么对该反对可以置之不理,因为专家系统没有能力偷窃或者挪用钱财,这恰恰是人工智能被倾向于用作信托受托人的理由;如果认为惩罚的目的是报应,应得惩罚的概念似乎被局限在人类,最多是道德人(moral persons)当中运用,一个管理信托的专家系统缺乏使道德人值得被处罚的品质,所以不应得处罚;如果惩罚的目的是教育,对电脑程序的惩罚似乎并不能实现教育功能。

作者指出,这些考虑指向了对于专家信托管理系统的法律人格地位的深层问题。我们对于“充分行使功能的人类”的理解与责任和报应的观念相连,这些观念导致了我们对于道德人格的观念。

2. 判断反对

判断反对认为,就算人工智能所遵循的程序有非常精密复杂的规则系统,也不足以使它做出自由裁量判断。可以举出三种例子。

第一种判断反对关注情势变更。法律规定如果因为不可预料的情势变更,出现会阻碍信托目的实现的情形,信托受托人必须或允许偏离条款。比如A将财产通过信托遗赠给B,要求B投资俄罗斯帝国政府的股票,沙俄发生了革命,股票被拒付,法律会要求B不要投资这些股票。作者举例问,如果专家系统被指令投资纽交所的证券,而该交易所不再存在了呢?

应对方式有:第一,可以专门设计人工智能管理信托的条款来最小化这样的可能性。比如,可以允许受托人选择在其他主要交易所投资公开交易证券。但这种应对的问题是,不可能设计预料到所有情势变更的信托条款。第二,信托条款可以具体要求,如果人工智能发现自己无法执行信托条款,则信托终结或由新的信托受托人来代替人工智能。但这种解决方案假设了人工智能可以辨识出情势变更。第三,让人工智能有应对情势变更的能力:需要辨认出证券市场已经被关闭,找到其他投资机会,改变投资程序以在新情势下做出合理审慎的投资。而这需要解决认知科学最困难的问题之一——框架问题,不在本文的讨论范围。

第二种判断反对认为,形式系统不可能充分地做出信托受托人面对的道德选择。要让人工智能和人类信托受托人一样胜任需要公正感的信托,需要该人工智能会做道德判断。

第三种判断反对关注人工智能在诉讼中做出为自己辩护的必要判断和自由裁量的能力。比如,人工智能不知道是否要清算债务,不知道其律师正在浪费信托资产、过度诉讼。作者提出,在回答这些问题的时候,很重要的是我们不能高估人类的能力。人类信托受托人常常会在信托诉讼中做出坏的决定,有时也在让律师在诉讼中消耗信托。针对这个问题,或许可以构建那种最小化法律争端可能性和复杂性的信托,还可能修补信托条款以避免需要人工智能做出复杂法律决定的情况:比如可以将信托设计成在出现诉讼时自动终结,将人工智能的程序设置为在诉讼期间安排一个人类作为替代,信托条款可以授权受托人在做出诉讼决定时依赖其律师的建议或为人工智能专门指定一位监护人。但就算这样设计,人工智能还是需要能够像人一样做出法律决定以通过图灵测试。

从上述讨论可以得知,人工智能可以被允许做有限信托的受托人,但是,即使此类信托裁量有限,也必须在意外困难中提供判断。如果在发生未预料到的诉讼时,人工智能置信托于不顾,则法律不应该允许人工智能做信托受托人。

D.人工智能是否会成为真正信托受托人

信托条款可以提供其他受托人替代人工智能,或赋予人工智能将自由裁量判断委派给自然人的权力,让专家系统避免其局限性。

反对者认为后方支持的那位决策者自然人才是真正的信托受托人。做出自由裁量决定的权力界定了真正的信托受托人。原因在于:第一,做出自由裁量选择是信托受托人职位的本质;第二,做出此类决定的能力是实践的前提条件,因为信托有对自由裁量的实务需要。

作者认为,第一点反对所假设的信托受托人的法律概念的本质超出了我们使用它的目的。在俗世,我们不可能使用纯理智的看法,得到一个“完全纯净”的财产管理人职位的概念,我们只是按照人类目的使用法律概念。第二点反对关注实效问题,而之前已经看到,将人工智能作为信托受托人能有一些实际优势,比如降低成本和盗窃概率。另一方面,也有可能,一个管理着成千上万信托的人工智能仅在很少的情况下,甚至不会,将自由裁量决定交给人类。在这些自然人根本不出现的场合,显然无法认为自然人为真正的信托受托人。

四、人工智能是否应被授予宪法上的人格权

第二个思想实验关于赋予人工智能宪法上的人格权——如言论自由或不被强制劳役的权利。该场景必须被设想在不确定的未来,比前一个场景更遥远。

A.场景

想象未来人工智能有多样化的能力和极高的智力。人工智能被包括进各种程序,看似“拥有自己的心灵”:人可以和语法检查程序对话,和汽车的自动驾驶人工智能讨论交通,法律研究程序与人讨论案情。人工智能拥有广泛功能,并且相当独立于人。可能他们通过了图灵测试。人类在很多方面将人工智能当作独立、智慧的生物。

想象一个这样的人工智能要求自己是人,因此应该被赋予特定的宪法权利。法律是否应该给予拥有人类一般智力能力的人工智能宪法权利,这一问题的答案可能因宪法权利的性质和我们对于这些权利背后的正当性的理解而不同。此处,作者不讨论宪法权利简单的正当性基础,而考虑我们是否应该为了人工智能的好处而给予人工智能宪法权利以保护其人格。

B.三个反对意见

1. 人工智能不是人

第一个论点是只有人类可以拥有宪法权利。

一种版本的反对起源于从human的概念中区分person的概念的想法的担忧,称为“persons-are-conceptually-human”观点。该观点认为我们对于person的概念与我们的人类生活经验紧密联系。我们从未面对非人类的人(nonhuman persons)。

对于该观点的一种回应是发展出一个推进人格(personhood)的标准,使之独立于作为人类的标准。(比如,可以争论说personhood的标准是属于第二阶信念和第二阶愿望的——即关于人的信念和愿望的信念,其客体是人的第一阶愿望。)

在法律语境回应是:首先,我们的探究关注法律人格而非道德人格。尽管我们可能缺乏非人类道德人的实际经验,但诸如企业的法人经验确是广泛的。而法律人格的概念可能与人工智能是否应当被给与特定宪法权利相关。

第二,我们想象的是与现在情形相当不同的未来,我们与人工智能交往频繁,这些人工智能拥有很多人类品质,但与人类生物构造完全不同。这一生命形式的变化可能让我们对于人person的概念发生改变。

“人类中心”观点可能会说:“我们是人。尽管人工智能有使我们成为道德人的所有品质,我们不能允许他们拥有宪法人格,因为这不符合我们的利益。”该观点似乎拒绝了我们对于任何与我们生物构造不同的非人类的道德义务。作者认为这是不道德的,就像美国奴隶主说奴隶不能享有宪法权利,仅仅因为他们不是白种人不符合白种人的利益。但人类中心主义反对论认为道德的领域局限在人类之间的交往。

“妄想人类中心”观点会说:“人工智能可能会比我们人类更聪明,可能不会死。如果我们赋予他们法人地位,他们可能会统治一切。”当然很难严肃对待这种观点,不过就算危险是真的,那也不是反对人工智能法律人格问题所要争论的了。如果人工智能确实会对人类产生危险,解决方法是一开始就不要创造他们。

可以思考类似问题:如果海豚或鲸鱼像人一样聪明,或者其他星球来的智能生物,是否应该被赋予宪法权利?我们在道德上是否有权将拥有人类遗传物质作为宪法人格的标准?答案取决于给予自然人基础权利的原因。如果原因是自然人是智能的,拥有感觉,拥有意识等等,那么问题就变成了人工智能或者鲸鱼或外星生物是否也具有此类品质。

2.“缺了点什么”论点

第二个反对是人工智能没有作为人类的关键元素。反对的形式主要如下。首先,X品质对于人格来说是必要的。第二,没有一个人工智能可能拥有X。第三,一个电脑可以制造被我们辨认为X的品质只说明电脑可以模拟X,但模拟某物并非该物本身。X是某个特别的,将human界定为person的东西,如灵魂、意识、意向性、欲望、利益。称之为“缺了点什么”论点。

a. 人工智能没有灵魂

第一个变体是人工智能没有灵魂,因此不能被赋予宪法上的人格权。但是,认为人工智能缺少灵魂依赖于一个富有争议的神学前提,但政治和法律决定应该与公共理性相符。

灵魂论点的世俗版本是二元论,即认为某个类似心灵实体的东西独立于物质实体存在。但二元论具有重大的概念上的问题,特别是难以解释心灵实体(诸如灵魂)和物理实体(诸如脑)的互动。

b. 人工智能不可能有意识

第二个变体是人工智能没有意识。这个反对难以评定,因为我们对于意识是什么缺乏清晰概念。只依赖于先验或概念论证,无法回答人工智能是否可以拥有意识。

在法律语境中,论点可能会这样展开:即使人工制品可以模仿人类智能,它也缺乏自我意识,因此不应该被赋予宪法人格权。这里主要的问题是人工智能是否可以自己体验自己的生活。如果人工智能没有自我意识,那么它们便不能以善恶体验自己的生活,那么似乎就没有理由被给予它们宪法人格权。这样的权利假定了拥有权利的人是有目的的,而自我意识是有目的的前提条件[1]。

作者想象了该论点的诉讼场景:一个声称有意识的人工智能,根据美国宪法第十三修正案提出了要求解放的诉讼。人工智能所有人的律师声称人工智能缺少意识,因此不是一个人。人工智能出庭作证并证明其有意识。所有人的律师说人工智能只是一个机器,不可能意识到正在对其发生的事。人工智能的律师反击说有很好的证据证明人工智能有意识:它就像自然人一样行动、说话。所有人的律师回应称人工智能只是看起来像有意识,但外貌会骗人。人工智能实际上是一个僵尸,一个无意识的机器,它好像有意识一般做出行为。人工智能的法律顾问回击称对于人工智能意识的怀疑实际上无异于对一个人邻居的意识的怀疑。你不能进入你邻居的脑袋证明她不是一个假装有意识的僵尸。人只能从行为和自我报告中推断意识,因为人无法直接进入他人的心灵。

但是,陪审团在庭外对人工智能的经验一定会影响他们对该问题的看法。如果陪审员在日常生活中遇到的人工智能就表现得像有意识的人一样行为,那么陪审员倾向于接受意识是真的而非假装的。

c. 人工智能不能有意向性

第三个变体是人工智能缺乏意向性。

如果人工智能缺乏意向性因而不能被认为犯罪或具有法律义务,判断他们是否应该被给予权利,可能可以诉诸公平概念来考虑。如果人工智能不能以承担法律责任的方式履行自己的职责,那么其要求获得法律权利是不公平的。但是,通常没有法律责任的婴儿和精神病人也拥有一些宪法人格权。此外,法律可能会设计出应对误入歧途的人工智能的策略,以避开人工智能意向性的缺乏:或许可以判处它们“被重编程序”。

d. 人工智能不会有感觉

第四个变体是人工智能缺乏感觉——比如,感受情感、欲望、快乐或痛苦的能力,该论点将感觉情感的能力作为人格的先决条件。然而很难论证人工智能无法体验感觉。

一些人工智能研究者相信人工智能可以(甚至必须)体验情感。情感是人类心灵的一个面,如果人类心灵可以用计算模型解释,那么情感可以被证明是计算过程。作者将确定或驳斥人工智能可以有情感的假设的任务交给了对人类情感生理机能的研究和认知科学。

e. 人工智能不能拥有利益

第五个变体是人工智能不能拥有利益。相关的表达是它们缺乏一种善,或者说缺乏对于“好的生活”的概念。

作者提出,在我们的多元社会,对于善的概念的争论彻底而持久。在这样的多元主义的事实下,特定的善的概念并不能为人工智能是否有权被赋予宪法上的人格权这一问题提供一个适当甚至可行的解决标准。

f. 人工智能不能拥有自由意志

第六个变体是人工智能不会拥有自由意志;人工智能不应该被赋予宪法上的人格权,因为他们不可能是自治的。它们只是机器人,执行为他们编程序的人类的意志,不是一个真正独立的、拥有宪法上完全权利的人。

作者认为,这个反对基于一个非常狭窄的对人工智能的潜力的概念,认为拥有宪法上人格权的人工智能会在有意识的审慎考虑、推理和计划的基础上行动,不该是机械的或者是像机器人的。

另一个版本的自由意志反对可能依赖于这样一个概念:人拥有彻底自由的意志,不受因果律的限制。作者反驳,人类的行为也是被引起的。人类神经系统基于电子传输和生化过程的结合来运作,人类神经系统比起计算机并没有更不受物理定律的约束。可信的说法应该是,如果一个行为被正确地引起——即通过有意识的推理和审慎考虑引起,那么这个行为是自由的。但在这个意义上,人工智能也可以拥有自由意志。

g. 模拟论点

模拟论点是说,已知人工智能可以产生模仿人类智能的输出或行为。计算机可以模拟很多东西的行为,但不论计算机模拟得多好,我们都不会说一个计算机模拟的地震场景就是一个地震。一个通过图灵测试的人工智能可以在宽泛的语境下取代自然人(比如成为信托受托人),但不会认为它是真的自然人。认知科学可能会让我们理解关于产生意识的根本过程,比如给我们坚定的理由相信人工智能只是模拟了意识,而不是拥有人造的意识。

这个论点认为,尽管有强有力的行为证据证明一个人工智能可能有一种心理品质,它实际上却没有。

结合模拟论点和之前几个关注行为的论点,一个推论是,如果行为证据和我们对于基本过程的知识使我们有理由相信人工智能有人类心灵的必要特征,那么我们就有很好的理由相信人工智能拥有这些特征。

3. 人工智能应该是财产

第三个反对是,人工智能仅仅是制造它们的人的财产。作者将其理解为,人工智能是天然的奴隶。

对于人工智能的制造者有权拥有它这一命题,可以进行洛克式的论证:每个人(each man)都有自己的财产;每个人对“他的身体所从事的劳作和他的双手所进行的工作”享有权利,每个人都拥有其劳动的产品,因为“他加入了自己的劳动,在上面加入他自己的东西”。人工智能是自然人劳动的成果,人工智能的制造者有权拥有他们。而且,如果人工智能是人,那这些人就应该是奴隶。

但是,该论点似乎暗含了孩子是由父母制造的,他们也应该是奴隶。洛克本人也会拒绝这一暗示。

即便我们相信人类是由父母创造的,我们也强烈倾向于相信每个人都有权享有道德和宪法的人格权。而人工智能和人类被创造的方式不同:前者是人工地,后者是自然地。作者提出,人类是自然的这一事实本身是偶然的。可以想象在遥远的未来,科学有能力从零开始建造一个自然人的精确复制品,比如从原材料同步DNA。但显然,这个人工的人不是一个天然的奴隶。

假设认为制造者就是所有者的论点确实确立了人工智能是天然的奴隶,那么对该论点的接受也并不隐含,人工智能在任何情况下都不能成为拥有宪法人格权的法人。至少有两个原因。第一,奴隶可以被解放。第二,即便是奴隶也能拥有宪法权利,尽管与自由人的权利相比非常匮乏。

4. 图灵测试的作用

在考虑一系列对人工智能宪法人格权的反对时,作者假定人工智能可以通过强版本的图灵测试。以下,作者又讨论了人工智能不能通过强版本图灵测试的情况。

作者提出,图灵测试不会是宪法上人格权的法律测试。人工智能是否应该被赋予宪法权利的问题过于严肃,以至于不能让一个室内游戏作为该问题答案的直接来源。但或许可以进行类似于图灵测试的测试:或许可以向人工智能提问,如果它不能以类似人类的方式回答,那么结果可能就是它被拒绝赋予宪法上的权利。

实际上,图灵自己并没有声称通过他的测试是智能的必要条件。Robert French曾声称该测试是有偏见的,因为人工智能只有通过“像我们一般经验这个世界”获得了成人智力之后才可能通过该测试[2]。作者认为,具有决定性的不是人工智能不通过该测试,而是人工智能未通过该测试的方式。French想象了检测被问实体是否烤过蛋糕的问题,显然缺乏对烤蛋糕的经验知识不应该使人丧失基本自由的权利。而另一些方式则可能会导致人工智能无法被赋予宪法上的人格权,比如它们并未意识到自己的存在是有目的的,或不理解我们的语言、不理解它们自己的处境。

[1]此处作者与亚里士多德的假设相反,假设诸如树之类的生物系统没有人一样的目的、目标。

[2] Robert M. French, Subcognition and the Limits ofthe Turing Test, 99 MIND 53, 53-54(1990).

五、反思人工智能

在这篇论文中,作者探索了信托受托人场景和宪法人权场景的思想实验,相比图灵和希尔勒,使得假定的情形更关注实际结果。

第一个场景提出人工智能是否可能拥有人类的一般能力的问题,提出了对于能力和责任的问题。法律调查的重点应该是人工智能是否可以像信托受托人一样运作,而非“人工智能是否有内在的精神生活”。

第二个场景提出人工智能是否会具备那些给予人道德和法律价值的品质的问题。调查可能与意向性、意识、情感、财产权、人性的概念相关。

当我们问计算机是否可以运行一个能够“思考”的程序,或人工智能是否可能,问题是模棱两可的。从第一种意义上说,如果一个人工智能拥有一种全能、独立的能力以发挥一个有能力的成年人类发挥的作用——比如信托受托人,那么这个人工智能就是智能的。从另一种意义上说,只有人工智能有类似于我们的精神生活的东西——意识、意向性等等,才可能被认为是一个“思考的”存在。从第三种意义上说,只有人工智能有需求、利益、欲望或善,它们才能被认为像人类。

通过上述探究也可以发现,最有可能从两个地方找到对于人格问题的答案——一是我们与人工智能的交往的经验,二是我们关于人类心灵的根本机制的理论。当前,我们缺乏确实有能力的人工智能和关于人类心灵如何运作的已确证的理论。由于这些缺口的存在,作者赞同图灵提出的“暂不考虑人工智能是否可以思考”的建议。

六、对人格的反思

最后,作者评价了人工智能辩论对法律、道德和政治理论的争议问题的影响。认知科学可能会让我们更好地理解person的概念。法理学中一些最棘手的问题,诸如伦理和政治,就考虑了身份地位的界限——person是什么,为什么我们给予作为人类的人如此强的法律保护?动物是否应该有更强的法律权利?等等。

认知科学的发展以及人工智能的研究最终会对这些问题中的一部分产生影响。

对于人工智能是否应该成为法人的思考有助于我们理解法律所面临的关于人格地位的难题;也使我们承认,我们目前缺乏资源发展出完全令人满意的法律或道德人格理论。两个思想实验也显示了我们对于身份边界疑难案件的不安的理由:

第一,目前所有我们见到的person都是human,而且绝大多数是正常人,通过行为证明是有意识、有情感、理解意义等等的。但当下的堕胎和停止对永久性植物人的生命维持治疗都已经提出了关于人格的问题,不能用与正常成年人的简单比较回答。

第二,对于胎儿、植物人状态下的人和高等哺乳动物,我们缺乏建立人格所需的清晰证据。

第三,认知科学并未产生能够被确证的关于意识、情感等精神状态的人脑过程的理论,我们不能做出确定特定情况下缺乏人格。

本文的思想实验确实表明了什么样的证据可能是决定性的。如果人工智能正确地行为,如果认知科学证实产生这些行为的基本过程与人类精神的过程相对相似,我们就有充分的理由将人工智能视为人。此外,在未来,在我们与这些人工智能或来自其他星球的智能生物互动的时候,我们可能会被迫完善对person的概念。

2018级法硕(非法本)  吴昊

第二篇:自主系统的产品责任

本文采取法教义学的方式,利用请求权基础的框架,对自动驾驶汽车在德国民法下的法律适用问题予以讨论。在作者看来,按照现有的产品责任制度,完全可以解决自动驾驶汽车带来的损害赔偿问题。

一、德国民法制度下的产品责任

要正确理解作者对自动驾驶汽车产品责任问题的讨论,首先需要了解德国法下有关产品责任的法律制度设计。德国的民法体系采取了“生产者责任”与“产品责任”二分的制度。两者的核心区别从名字便可窥见一斑:前者阐发自《德国民法典》第823条第1款,是由德国判例发展出来的“交往安全义务”的具体类型,落脚于生产者;而后者则由一部基于转化欧盟指令而制定的特别法,即1990年开始实施的《产品责任法》规制,着眼于产品。

《德国民法典》下的生产者责任采过错责任原则,具体而言,又应归于过错推定原则之下。受害者应证明该产品具有缺陷,造成了法益侵害,缺陷与法益侵害之间存在因果关系以及生产者存在过错。换言之,须证明生产者将产品投放市场时,没有尽到自己应当尽到的注意义务,从而导致了消费者的法益侵害。但考虑到工业化大生产以来,产品生产过程中的劳动分工愈加碎片化和复杂化,要消费者证明生产者的行为违反注意义务实在是强人所难。因而,在保护消费者这一目的之下,德国通过一系列判例事实上确认了过错这一要件应采取举证责任的倒置,只要产品出现缺陷,就推定生产者没有尽到自己的注意义务。

与此相对应地,《产品责任法》则采取了无过错责任原则,受害者只需证明缺陷、法益侵害结果的存在及其因果关系。制造者(《产品责任法》中采用了制造者一词)是否存在过错,在所不问。

然而,正如作者在第二节中强调的,两种产品责任制度对消费者而言区别不大。一方面,《产品责任法》中规定的免责事由中,包括制造者在当前的技术背景下不可能认识到缺陷的存在。这实际上是变相地要求制造者尽到当下的“注意义务”即可。另一方面,在《德国民法典》下,生产者的“注意义务”实际上也就是阻止具有缺陷的产品流入市场,其核心仍在缺陷上。同时,站在消费者的角度,在过错推定和无过错责任原则下的举证责任完全一致,因而两种救济途径的区别实际上是很小的。

二、产品责任的适用范围

产品责任是否适用于自动驾驶汽车,是作者讨论的第一个问题。《产品责任法》第2条明确规定,产品指的是动产;而判例也确认了《德国民法典》下的生产者责任仍然是指动产。可以说,传统意义上的汽车一直都属于产品责任所适用的范围之内。

然而,自动驾驶汽车除了汽车这一组成要素之外,其另一核心要素在于内置其中的控制程序或控制软件,即自动驾驶汽车实为硬件与软件的结合体,作为一个整体受到产品责任制度的调整,而其构成部分则不能被单独列为评价对象。

此时就出现了一个棘手的问题,即作为自动驾驶汽车重要组成部分的软件,能否被评价为物呢?为了讨论这一问题,作者回顾了以往的解决方案。标准化的软件或程序这一无形物本身是智力成果还是产品,学理上一直有争议。德国法实务上曾经通过以介质为依托,企图绕开这一争议,达到保护消费者的目的。既往的软件都以某种介质为载体,如软盘、硬盘、CD、U盘等,此时可将软硬件视为一种整体,被评价为一种物。

但技术的进步,使软件越来越独立,不一定依赖于实体。通过数据线传播或无线传输的软件,很难再将其与介质作出整体评价。

因而,需要通过法律解释的技术,将这一形态下的软件也归于“产品”之下。作者首先采取了法律类推的方法。在他看来,产品责任制度之所以发展起来,就是因为消费者在工业大生产背景下对产品的制造分工难以了解,在产品造成法益侵害时,处于劣势地位的消费者应该受到法律的保护。这一点对自动驾驶汽车同样适用,因为控制系统与汽车硬件之间的制造分工对于普通消费者而言仍然不可知,而控制系统本身一旦造成损害结果,又能够为消费者所认识。因此,可以将产品责任类推到软件之上。

另一方面,作者则采用了主观解释,即探寻立法者的主观意图。在他看来,该法第2条虽然只规定了动产,但同时还规定了“电”这一无实体的物。这表明立法者并不以是否有形来区分产品这一概念的范围。另一方面,该法订立时,不受介质约束的软件还未问世。在作者看来,如果立法者在现在的大背景下制定该法,软件一定会被列入第2条之中。

另外,作者还讨论了如何判定通过数据云传播的软件“投入市场”的时点问题。在他看来,当制造商将软件上传到云端,能够为消费者所下载的时候,即是投放市场的时候。

三、责任主体

作者讨论的第二个问题,是自动驾驶汽车的责任主体。传统意义上的产品责任主体是最终生产者或制造者。而对于自动驾驶汽车而言,由于控制程序和控制软件的加入,就存在软件供应商(尤其是第三方软件供应商)是否应当承担责任这一问题。

在《产品责任法》第2条下,产品所有的原材料供应商均为责任主体,软件供应商自然也应属其列。而在《德国民法典》下,第三方软件供应商将其软件销售给汽车制造商时,自然也应尽到交往的注意义务。简而言之,原则上由制造商和软件供应商各司其职,各负其责。

但在现实生活中,终端生产者与软件供应商的责任往往并非如此泾渭分明的。就自动驾驶汽车而言,产品本身是否存在缺陷,只有在汽车与控制系统互相融合、协调工作的时候才能加以判断。这时候就出现了兼容性的问题。如果软件与汽车本身存在兼容问题,或是各个软件之间存在兼容问题,软件供应商是否应当承担责任呢?

在作者看来,根据《产品责任法》第1条第3款的规定,产品的设计和制造应该是终端生产者的义务。换言之,软件供应商所生产的控制程序,如果是由汽车制造商设计的,或是按其指示所制造的,一旦因程序与汽车本身不兼容而造成损害,软件供应商是无需承担责任的。如果这一程序,在与这一制造商合作的过程中,其他车次都运转正常,唯独有一辆自动驾驶汽车出现了缺陷,仍然属于制造商的责任。同理,如果各个软件本身并无缺陷,只是在各个软件互相配合时因不兼容造成损害的,软件供应商仍然无需承担责任。

如果软件供应商存在恶意呢?换言之,如果软件供应商明知或应知自己生产的软件会与汽车或其他软件存在兼容性问题,仍然供应并因此导致损害的,是否应当承担责任呢?作者对此给出了否定的回答。原因在于,《产品责任法》采取的是无过错责任,以软件供应商的主观心态来判定其应付的责任,于法无据。当然,作者也提到,面对这样的供应商,可以通过《德国民法典》下生产者责任的“过错”要件来加以规制。

四、法益侵害

作者谈及的第三个问题,是自动驾驶汽车造成的法益侵害。他首先指出,自动驾驶汽车对车外的第三人、司机、乘客等造成人身损害,以及对车内的其他物造成财产损害的,自然应在损害范围之内。但由于控制系统或控制软件的缺陷导致车辆自身受损的是否应算在损害范围内呢?根据《产品责任法》第1条第1款的规定,缺陷产品自身的损害不列入损害范围,自然不能适用。这一问题只能交由《德国民法典》来保护。

作者指出,在判定产品的部分缺陷导致整体损害时是否应由该部分的生产者承担整体损害的责任时,即涉及到德国民法的判例建立起的后续损害问题。要判定后续损害的成立,需要满足“功能独立”这一要件。具言之,如果该部分在功能上能够独立于产品整体,则应该为整体的损害承担责任。而为了判断功能是否得以独立,德国判例发展出了“同质料性”的标准。如果部分缺陷与后续的损害不为一类,则可主张侵权损害赔偿;反之,如果属于一类,则只能通过合同法主张等值利益的赔偿。在作者看来,考虑到软件的修正和车辆的损害显然不属于同一类,因而缺陷软件应该为汽车整体的损害负责。

五、缺陷

可以说,作者全文的重中之重,就在于对缺陷这一概念的论述。缺陷这一要件之所以重要,是因为在他看来缺陷沟通了德国民法下产品责任的两种路径,因为缺陷与注意义务其实是一体两面的,当厂商在设计、制造和说明上没有尽到注意义务时,就可能造成不同类型的缺陷。同时,《产品责任法》下的无过错责任和《德国民法典》下举证责任的倒置,实际上也让缺陷成为了消费者最需要加以证明的要件。对于这一问题,作者借鉴美国法下的相关规定,对设计、制造和说明缺陷分别进行了讨论。

(一)设计缺陷

首先是设计缺陷。设计缺陷指的是制造商的制造方案本身有缺陷。而设计缺陷在大机器、批量化生产的背景下所带来的影响甚大,因而是缺陷类型中最为重要的一类。传统汽车行业有不少设计缺陷的例子,比如刹车故障、安全气囊灵敏度过高等等。通常来说,制造商为了规避责任,会采用召回的方式降低诉讼率。对自动驾驶汽车而言,这种设计缺陷也可能是多种多样的。比如,软件出现卡顿或崩溃,却没能设计有效的安全模式;在设计时为充分考虑到强日照等特殊情况下汽车对道路上障碍物的识别能力;或是没有有效地考虑到黑客攻击的隐患。

但可以看到,所有的这些缺陷并非都能为制造商所提前预料到(典型的例子就是黑客攻击)。实际上,侵权法的理论也不要求百分之百的绝对责任,而是要求制造商对“谨慎的理性人提供充分而必要的保护”。自动驾驶汽车也不例外。毕竟,让自动驾驶汽车将事故率降到0是不现实的。而这种务实的态度就关乎到安全标准的制定,亦即何为“充分而必要的保护”。

对这一问题,作者从法律法规和技术标准两个层面进行了讨论。首先他表示,在法律来法规的层面,现如今并不存在专门针对自动驾驶汽车的行政规则,未来在制定的时候则应尽量做到国际统一。当下只能通过公共安全相关的法律进行调整,但这种法律应作为最低标准,如果有更合适的规则应予以采纳,尤其是如果连一般理性人都知道仅仅满足这一法律的要求不足以保障自动驾驶汽车的安全性的时候,制造商不能以满足了这一法律来阻却责任。从技术标准的层面来看,现在有关领域仍然是空白,现有的ISO 26262仅着眼于机动车上电子系统的性能安全问题,且用于模糊,只能作为参考。

很容易发现,在自动驾驶汽车领域,尚不存在一种合理的安全标准。这就引到了安全标准应当如何制定的问题。制定安全标准是一件相当困难的事情,因为安全事故发生之前和之后人们的心态、认知都是完全不同的。这里,作者归纳了美国法上的原则。美国在制定安全标准时,采用了“消费者期待标准”及“风险效用标准”两种模式。《产品责任法》第3条有类似于前者的规定,但并不完全相同。原因很简单,当事故发生之后,消费者总是会认为制造商应该预料到这一缺陷,因而,依赖于消费者的期待有时并不合理。而风险效用标准,则着眼于成本收益分析。风险效用标准旨在提出这样的问题:考虑到客观上存在的风险,是否存在安全收益更大的替代设计?德国法上典型的类似例子就是《药品法》第84条第1款的规定。根据该款规定,药品因设计缺陷导致损害结果的,这一致害作用必须通过对风险和药效的综合考虑来加以确定。

在大原则确定之后,就可以考虑具体应采取何种注意义务标准了。学界在这一方面的主流观点是以谨慎人的行为为标准,亦即要求自动驾驶汽车在遇到交通状况时能够达到一个谨慎人的反应水平。作者再次特别指出,这种“以人为准”的观点值得加以适当的修正。由于自动驾驶汽车发展的原动力就在于自动驾驶汽车作为一个整体的安全性优于由人来驾驶的汽车,因而在“以人为准”时,也不应着眼于某一具体交通状况下的反应,而应考虑以算法为依据的自动驾驶汽车是否与由人类驾驶的汽车更为安全,亦即,在当下的风险之下,是否有更具安全性的算法。

此处,作者再次以美国法为例,根据美国法的规定,只有当自动驾驶汽车的安全性达到普通汽车的两倍以上时才能投入市场。这其实就是一种成本收益分析。作者对此进行了简化举例:假设由人驾驶汽车时会发生10次事故,那么当自动驾驶汽车能够将事故数降低到5次时,就能使成本(即实际发生的5次事故)与收益(即得以避免的5次事故)实现相等,此时就值得将该技术推入市场了。这种着眼于自动驾驶汽车算法整体安全性的标准,即是作者所提倡的系统性安全标准。

当然,这一标准也并非万无一失。将设计缺陷的标准施加于算法的整体安全性之上后,一个很自然的问题就在于算法又以何种标准为准呢?有两种可能性,一种是以市场上最优的算法为标准。这自然不可行,因为“最优”本身就意味着只有极少数制造商能够达到。同时,算法的自我演进可以促使最早进入市场的制造商占据绝对优势,显然有失公平。第二种方式就是采取一个趋于中间的平均值,但这种方案会对造成市场的割裂。举例来说,假如这一中间值是每百万公里发生4次事故,那所有超过4次的制造商就需要为所有的事故承担后果。以一家每百万公里发生5次事故的制造商为例,即便只多出1次事故,却因为超过平均值而需要承担5次事故的责任。一个解决方案就是只要求制造商承担“额外损害”,也就是多出来的那1次。但问题又来了,如何确定哪一起是多出来的那一起呢?因为时间是线性的,在第5起发生之前,没有人知道是否达到该平均值。此时可能可以采取只赔偿1/5损失的方式,但这很难让人信服,因为消费者承担了4/5的责任。针对这一问题,美国法上选择通过制造商的说明义务来解决,也就是告知消费者安全风险和事故成本,这一方面可以让买方充分知情,另一方面也可以促使卖方较为自由的定价。

在讨论完设计缺陷的系统整体观之后,作者转而通过学界颇有争议的电车悖论问题来进一步说明系统整体观的内涵和意义。在他来看,系统整体观能够消解电车悖论这一哲学假设背后的底层困境。由于设计缺陷的着眼点在于算法的整体安全性,而非发生电车悖论的当下自动驾驶汽车所作出的决策,因而确保损害的最小化成为了唯一的选择。同时,他还借助罗尔斯的无知之幕理论,认为人们在不知道自己在某一事故中究竟会成为司机、乘客、路边的骑行者还是行人的情况下,这种结果主义是社会协商可能产生的唯一结果。基于这一原则,人身损害与财产损害之间需要权衡时,自然优先保护人。而当人与人之间的利益发生冲突时,则应严格遵守损害最小化的结果主义,而不再像德国侵权行为法下的传统观点,对人进行内部的细分。比如,传统观点认为儿童应该受到更多的保护,发生事故时本车的乘客应该优于其他车上的乘客,如司机违反交通规则则应该承担更多的责任。这些观点针对自动驾驶汽车的设计缺陷都不适用,理由便是对缺陷的系统整体观。

作者最后谈到了举证责任问题。设计缺陷由受损害方举证,对此,有学者担心受损害方不易获取相关信息。作者认为,对于第三方受损的情况,受损害方基于《道路安全法》第7条下对车主(即汽车保有人)享有损害赔偿请求权,受损害的第三方完全可以通过找车主的方式维权。如果是本车车主受到损害,自己对自己的车自然具备充分的了解,也就不存在上述问题。

(二)制造缺陷

在设计没有缺陷的情况下,制造过程也可能偏离原本的设计而导致缺陷,进而引发异常行为,这就是所谓的制造缺陷。对于自动驾驶汽车来说,这种制造缺陷自然可以发生在包括轮胎、引擎在内的机械系统上,也可能发生在诸如传感器、摄像头等硬件系统上,还可能发生在软件上。比如,软件在将信息传输到处理器上时出现传输不完善的情况。作者对此仅做了列举。

(三)说明缺陷

另一个重要的缺陷,就是说明缺陷,亦即制造商未能向消费者说明产品的合理使用方法及潜在的风险。就前者而言,制造商应该着重于警告消费者不要以不可预见的方式介入自动驾驶过程,或是不要安装某些可能会影响汽车控制的软件。而对后者,在前面提到安全标准的时候已经涉及了,在此不再赘述。

(四)缺陷的时间维度

产品责任所要求的缺陷这一要件,实际上还存在着时间性。也就是说,认定产品是否有缺陷,应当按照产品投放到市场时的标准来衡量。《德国民法典》第276条第2款对注意义务的规定与之相符,《产品责任法》第3条第2款对制造商就当前技术无法预料之缺陷的免责也是出于这一考虑。由于技术的局限所不能发现的风险,通常称为开发风险,可以称为免责事由。但在作者看来,开发风险抗辩原则上并不适用于自动驾驶汽车,因为算法通过自主学习可能带来的风险,属于制造商应当有所预计的范围。

六、产品的后续跟踪观察义务

在德国法下,制造商仍存在产品关注义务,即“对尚未检测到的致害性能予以关注,并将可能到来的危险后果公之于众”。这主要是由于制造商避免此类风险的成本最低,理应承担该等责任。此外,制造商既然总是需要满足产品投放市场当下的安全标准,那么只要它仍然在研发,就当然地对技术进步有所了解。这种关注义务也适用于自动驾驶汽车。比如,关注义务通常分为消极和积极的义务,其中前者主要是指消费者的投诉。自动驾驶汽车的制造商由于储存了用户的海量数据,甚至能够在投诉之前就予以回应。

关注义务的一大特点在于,这一责任不仅局限于产品本身,还延伸至其配件。德国法判例曾确认了四种制造商应对第三方配件负责的事由:配件为产品使用之必须,受到该制造商特别之推荐,制造商提供了对该配件适宜之装配,使用该配件为大众之习惯。这种对配件的义务也应适用于自动驾驶汽车。比如,制造商对用户使用软件程序的电子设备应尽到关注义务,应当采取适当的措施防止车辆的控制程序受到电子设备上其他程序的干扰,在该等干扰无法排除的时候,应对涉及到的第三方软件予以禁止。这种干扰不仅包括消费者合理利用时可能出现的干扰,还应包括可预计的错误使用。但如果消费者滥用程序,比如通过后门绕过限制执意使用,则制造商无需负责。

这就涉及到制造商的系统是开放还是封闭的。对于封闭系统而言,硬件、软件来自同一厂商,则制造商对软件自然应当负责。对于开放系统而言,制造商应当确保自己的硬件能够有效抵御软件的干扰,一旦了解到不能抵御的情况时,应当及时告知消费者。

如果制造商对投放市场后才发现的风险只是关注而不采取行动的话,消费者的利益仍然会受损。因而制造商仍应依据风险的等级和发生的可能性而负有不同程度的反应义务。德国侵权法下这一反应义务的一般原则,是仅要求制造商对消费者提出警告,而不负召回之义务,后者主要通过合同法来调整。这主要是出于成本上的考虑。要求制造商在用户未提出请求的情况下,将其所有产品“回炉再造”,成本过高。但在作者看来,这一原则在自动驾驶汽车领域应当得到突破。这是因为制造商完全可以通过软件升级的方式填补漏洞,而这种升级包一旦研发出来,边际成本极低,因而制造商也应当承担“召回”的义务。需要说明的是,制造商仅需提供该升级服务即可,如果消费者选择不升级,则制造商无须对由此造成的损害承担责任。另外,当提供升级服务的时候,制造商需要再次尽到自己的说明义务,以确保用户能够了解最新的成本收益分析情况。

七、对当前产品责任制度的评价展望

作者最后就当前德国法下的责任体系对自动驾驶汽车的适用问题做了几方面的评价,并提出了他对未来的一些展望。他的评价主要是在讨论相关法律是否具有不确定性,以及这些法律是否会构成对自动驾驶技术的阻碍。

首先是法律的不确定性问题,也就是在自动驾驶汽车发生事故的时候究竟该适用和等法律,是否会对受害者造成法律适用困难的问题。在作者看来,这个问题在德国法下并不存在。由于德国《道路交通法》第7条中的机动车车主设立了危险责任,除了不可抗力可以作为免责事由之外,机动车一旦发生交通事故,其车主是需要承担责任的。危险责任的立法理由,就是让责任人对由其所掌控的危险变为现实这一后果承担责任,因而毫无疑问也同样适用于自动驾驶汽车。至于前面提到的产品责任,就主要会成为车主向制造商索赔的请求权基础,因而不会出现法律适用不确定的问题。

第二个问题则是法律与技术发展的关系问题。有人认为自动驾驶汽车的制造商一旦需要承担产品责任,会导致这一行业的技术无法继续发展,这主要体现在诉讼的大量增加和责任的转嫁上。在作者看来,自动驾驶汽车的出现一定会增加产品责任的适用空间,但在德国的侵权行为法体系下,车主的责任仍然会处于更为重要的地方。这一方面是举证义务的考量,受害人只需要证明机动车对自己造成损害即可根据《道路交通法》第7条请求车主承担损害赔偿责任,而通过产品责任制度尚须证明缺陷的存在,相比之下前者显然更为合理。另一方面,从赔偿能力来看,制造商作为企业诚然有更好的支付能力,但有交强险制度和社会赔偿基金的帮助,受害者通过起诉车主的方式是完全可以获得应得赔偿的。至于车主的保险公司在理赔时,如果认为事故的实际责任应该在自动驾驶汽车本身的话,作为专业机构,自然会对是否向该汽车的制造商进行索赔进行成本收益分析,不会仅仅因为法律上赋予了它这一请求权就随意使用,因而认为制造商会大量涉诉的担忧纯属多虑。

另一些人的反对理由,在于制造商承担更多责任后,势必会加大其成本,提高行业的市场准入门槛,消费者也需要支付更高的价格。对于这一观点,作者表示,消费者无论如何都会承担自动驾驶汽车的危险所带来的成本,无非是钱落入保险公司还是制造商的问题。而讨论责任分配及其成本的核心标准,应该看哪一种分配方式能够更好地规避事故。如果自动驾驶汽车的制造商无须承担责任的话,就不再有研发、制造更安全汽车的动力。从这个角度来说,这种责任和成本的转嫁是合理的。

但作者同时也是指出了这种转嫁的弊端。在以前,保险公司对消费者进行评估时,常常会考虑消费者的用车量。里程数越高,发生事故的概率自然越大,保费往往也越高。如今责任与成本转移到制造商之后,制造商只好提高车辆价格。这一方面会使用车较少的车主为用车较多的车主买单,另一方面也无法在通过区别定价的方式对车主的使用量起到调节作用。基于此,作者则从共享汽车的理念中汲取灵感,建议未来可以考虑让制造商成为车主,而如今意义上“车主”仅获得使用权。既然“司机”这一概念不复存在,这也不失为一种有趣的想法。

【自由讨论】

【缪宇 中国政法大学民商经济法学院讲师】

Wagner的论文是一篇典型的法教义学论文,他想解决的问题不是提出新的理论来解决自动驾驶的产品责任问题,而是探讨现行法能不能解决自动驾驶的产品责任问题。

从论文的结构来看,第一部分是问题的提出,第二部分是德国产品责任“双轨制”的背景介绍,第十一部分是论文的结语。除此以外,第三部分(自动驾驶系统作为计算机程序是否属于产品责任的适用范围)、第四部分(自动驾驶系统产品责任主体)、第五部分(权益侵害)、第六部分(自动驾驶系统中的产品缺陷)、第七部分(自动驾驶系统中产品缺陷的判断时点)都涉及自动驾驶系统产品责任的构成要件(因果关系除外)。第八部分和第九部分讨论的是自动驾驶系统产品中的产品跟踪观察义务及相应的警示召回措施。第十部分则是对现行争议和解决方案的评价。也就是说,Wagner论文的主要内容,是尝试将自动驾驶系统可能引起的产品责任依据现行法解决,即第823条第1款的生产者责任(交往安全义务)和产品责任法第1条的产品责任。Wagner在论文每一部分都会先回顾损害赔偿法的基本原理,然后尝试运用损害赔偿法基本原理来分析自动驾驶系统的问题。

Wagner论文的初步结论是:当受害人是机动车外的其他人时,考虑到受害人难以举证证明自动驾驶系统存在缺陷,受害人应当依据《道路交通法》第7条的机动车保有人无过错责任获得赔偿,在机动车一方保险人赔偿后,机动车一方保险人通过举证证明自动驾驶系统具有缺陷从而按照产品责任来向自动驾驶系统产品责任人追偿,即产品责任只是一种追偿的手段;当受害人是机动车驾驶人时,受害人直接依据产品责任要求自动驾驶系统的生产者承担责任。

值得注意的是,Wagner在论文中大量运用了美国法素材。尤其是在产品缺陷的认定上,Wagner没有严格按照产品责任法第3条的合理期待标准认定三种缺陷,而是借鉴美国法,运用“背离设计方案标准”认定制造缺陷、“成本——收益分析”及其具体化的“合理替代设计方案”标准认定设计缺陷。

在论文第二部分,Wagner讨论了生产者责任和产品责任的区别,为下文不再分开讨论两种责任做铺垫。Wagner一方面认为设计缺陷和警示缺陷具有过失因素(美国法背景),一方面又强调生产者责任重注意义务的客观化。

在论文第三部分,Wagner解决的问题是,自动驾驶系统不是物,如何纳入产品责任法的保护范围。Wagner的解决方案是,虽然自动驾驶系统不是物,但是可以通过类推适用产品责任。

在论文第四部分,Wagner讨论的是产品责任的主体,即最终产品生产者和零部件提供者。在此基础上,Wagner认为,最终产品生产者对全部产品的缺陷负责,零部件生产者对零部件的缺陷负责(判断时点:将零部件交付给最终产品生产者时)。此外,Wagner讨论了产品责任法第1条第2款中零部件生产者免责的两种情况,即零部件缺陷系零部件生产者按照最终产品生产者设计要求制造零部件、零部件缺陷因最终生产者的指示而产生(与其他部件协作之后发生)。不过,即使零部件生产者知道或应当知道零部件可能会因导致最终产品具有缺陷,零部件生产者也无须按照产品责任法第1条负责,而是第823条第1款负责。

在论文第五部分,Wagner重点讨论的是继续侵蚀性损害或后续损害,他借鉴了同质性标准,从而按照损害利益的对象是固有利益还是等值利益来确定到底是产品责任还是合同责任。

在论文第六部分,Wagner讨论了自动驾驶系统的缺陷认定,重点是设计缺陷。在这个部分,Wagner强调设计缺陷的责任不代表要求生产者提供绝对安全;公法上的安全标准技术标准只是判断设计缺陷的出发点和最低标准,满足技术标准不代表产品没有缺陷;设计缺陷背后的注意义务标准应当按照成本-收益分析来认定,具体来说,应当以是否存在提高安全且不会显著增加成本的合理替代设计为准;注意义务标准应当按照理性人的注意义务标准来认定而应当从系统的角度来认定,即生产者提供的程序系统引起的事故,能否为理性的算法避免;系统角度界定的缺陷概念,其背后的算法水准不能按照行业最优而定,可以考虑按照平均水准而定,由此,一旦算法引起的事故比平均水准的算法引起的事故多,多出来的事故就是产品责任的适用范围,问题在于,这一立场如何运用于实践?哪一个具体事故源于算法的产品缺陷?在这一部分,Wagner还讨论了扳道工困境。他认为,算法在遇到这类情况时,应当遵循的原则是将事故可能影响的所有当事人全部纳入考量通盘考虑,以尽量减少死亡为目的。在此基础上,算法的设计不应当优先保护儿童,也不能优先保护车内乘客和司机,也不能歧视违反交通规则的车外人员。

在论文第七部分,Wagner按照侵权法基本原理介绍了缺陷认定的具体时点,即823条第1款的生产者责任中注意义务适用事前标准(即投入流通时标准),产品责任法第3条则适用投入流通时标准。在这一部分,Wagner实际上认为,自动驾驶系统的缺陷不适用发展风险抗辩,即安装自动驾驶系统所带来的风险不是发展风险。

在论文第八部分和第九部分,Wagner讨论了产品后续跟踪观察义务。他认为,产品附件也可能属于产品后续跟踪观察义务的范围,开放系统和非开放系统的生产者负担不同的注意义务(比如苹果系统,用户可以信赖苹果公司的审核;安卓系统则不能,用户自行承担软件引起损害的风险)。虽然在一般产品责任领域,德国法基于成本考虑否认召回义务只承认警示义务,但Wagner认为,系统升级就是一种召回,故系统生产者负有召回义务。

在论文第十部分,Wagner认为,产品责任适用于自动驾驶系统不会影响法的安定性,也不会影响技术进步,且机动车保有人责任还会继续发挥作用,尤其是产品责任可能只作为追偿手段而发挥作用。不过,Wagner认为,机动车制造者实际上是准保有人,同时,使用机动车的人应当承担使用机动车带来的全部成本,即不能将事故成本推给机动车制造者。

【熊丙万 中国人民大学法学院助理教授】

这两篇文献相互关联,且与我们在往过读书会中所讨论的文献有密切联系。第一篇文献着重讨论人工智能体的法律主体性问题,或者说是否应当赋予法律人格的问题;第二篇文献从一个更具体的场景,讨论自动化系统,特别是自动驾驶汽车,引发的交通事故的责任承担问题。实际上,第一批文献也在不少地方讨论到了“是否赋予人工智能体以法律人格”是否会影响“民事责任承担”的问题。

我们之所以选择第一篇文献,不仅是因为这篇文献在1992年就发表了,而且,更重要的是因为,本文在讨论“人工智能体是否具备法律人格属性”这一问题时,深刻地意识到,这个问题不是一个简单地对错的问题,而且取决于我们在回答这一问题时,就“法律人格到底是什么”这一更根本性的问题所持有的的前见。当我们对“法律人格”本身赋予不同的认知维度和标准时,“人工智能是否为人”的结论,自然就不一样。另一方面,很有启发性的是,本文在长篇讨论中阐明:其实,从胎儿到未成年,到成年人,再到植物人;或者从伦理人格到法人这样的技术拟制人格,这些不同的主体,当我们都说他们具有法律人所说的格时,其实我说的“人格”的内涵并不一致。换句话说,我们在前人工智能时代根本就没有一套同意的“法律人格”界定标准。在这样的背景下,在一个抽象的层面追问“人工智能是人吗?”几乎没有太多的实质意义。

因为,在一个抽象的层面,对于这个问题,我们完全可以作出多套不同的回答。这一篇文献的启发直接关系到对第二篇文献的阅读。因为,第一篇文献的启发是,我们需要回归到一个实用主义的立场,就我们关心“人工智能体具备法律人格吗”这一问题背后关切的那些实质性问题揭示出来,已展开更务实的讨论。例如,第二篇文献讨论的损害赔偿责任承担问题。关于这一个实质性问题的讨论,一般来说并不会因为我们事先回答了“是否具有人格”就天然地获得了答案。相反,思维的方式可能是反过来,当我们就责任承担问题及其在特定法域的现行法体系下的位置安放之后,我们才能够更好地回答“人工智能体是否具备人格”这一更形而上的问题。

此外,这两篇文献还有一个很大的思维方式上的启发,也就是“二元划分思维及其弱点”。当我们设问的方式是“人工智能体具备法律人格吗”时,我们的思维方式主要还是一种二元划分的思维方式,非此即彼。其实,如果我们换一种设问的方式:人工智能体在何种意义上具备法律人格?那么,我们就很可能避免很多不必要的争议。

【丁晓东 中国人民大学法学院副教授】

人工智能特别是机器人人格的问题,我们读书会人工智能系列第一期的阅读文献,Ryan Calo的文章就有涉及,作者也提出机器人人格是问题。我的理解是,总体上说,法制史的发展历程越来越强调去人格化,因为现代法律一方面强调祛魅,强调把物甚至人当做客体来对待,这个逻辑延伸就是经济学会把人也当客体来分析。另一方面,不设立法律人格,也未必就不能从法律上去规制对象,分配责任。人工智能所提出的挑战,在我看来是由算法与机器学习带来的黑箱问题与不确定性问题。因此我个人也认为,不需要设立法律人格,可能需要的是如何从公法与私法框架来重新回应人工智能问题。这里的问题包括什么样的风险能被允许的(例如市场准入、产品责任等),风险如何被分配(例如侵权责任原则、保险等)。

【石冠彬 海南大学法学院教授】

赋予智能机器人以主体资格的话,在现行法律制度的构建上面并不存在任何理论障碍,无论从哲学层面或者说是法律制度的具体构建都是具有可行的,但是从目前的角度来讲,赋予智能机器人主体资格,似乎确实还不具有一个必要性与紧迫性,但是随着智能机器人的普及,未来如果期其独立进入各项领域代替人类进行相关活动,未来人类赋予智能机器人以主体地位的可能性还是非常大的,所以如何赋予智能机器人以主体资格,这一个问题是目前法学界必须面临的一个新问题。

具体来说,对于智能机器人的创造物是否应当予以知识产权保护的问题,个人认为不论是否赋予智能机器人以主体地位,都不影响法律保护智能创造物的著作权。也就是说,智能机器人创作的作品是符合目前著作权法所保护作品的内涵的。具体理由在东方法学2018年第3期的论文里面我有较为详细的陈述。核心理由之一在于对智能机器人创造物予以著作权保护具有现实必要性,目前机器人写稿、机器人绘画已经得到运用,未来很可能将要进行到一定的普及,在这种情况下如果不予以保护的话,智能机器人创造物可能将要引发著作权领域的混乱。举例而言,人类可以随便使用智能机器人的创造物,这种情况下,按照现有制度,却没有办法认定人类构成侵权,那么这个行为也就将成为一个合法的行为,显然很不合适。核心理由之二在于,如果对其进行保护的话,一定程度上也会促使,开发智能机器人的产业得到进一步的发展。按照个人观点,智能机器人所创造出来的作品的著作权应当属于智能机器人的所有权人,也就是说智能机器人的开发人在将智能机器人作为客体转让后,智能机器人作为作为知识产权主体所可能享有的一切权利也都予以转让。那么具体应当如何通过制度构建来保障呢?是否可以考虑如下两个途径,其一,如果不肯定智能机器人的主体资格,那么此时我们应该借鉴民法学民事行为理论仿照刑法学理论中的间接正犯制度构建一个支配型行为理论,什么意思呢,就是说,一个客体或者主体可以成为我主体完成创造行为所支配的工具,在这种情况下,智能机器人作为客体所创造的那个著作权就应当归属于主体,间接正犯理论的核心要点在于行为人支配他人实施的相应的犯罪行为,民事领域也完全有可能存在这种情况,其实现在的法律制度里面有是有规定的,比如说我们侵权责任法就明文规定,如果教唆帮助无民事行为能力人或者限制民事行为能力人实施侵权则由教唆帮助者承担责任,也就是说原则上面那个无民事行为能力人,或者限制民事行为能力人的监护人是不承担责任的,这在本质上就是间接正犯理论思维的体现,所以说据此如果认定,智能机器人创作的作品的著作权归属于起所有权人,老师认为是具有可行性的。其二,如果肯定了,智能机器人是具有主体资格的,那么此时肯定其的创作,我享有著作权,那就自然是不存在着任何问题了,比如我们现行法律里面规定的法人作品这个概念,嗯,就说明了一件事情,什么什么意思呢?就是说你现在创作的作品不一定要能够表达,传统著作权法理论里面认为必须能够表达人的情感啊思想啊,著作权领域予以保护的一个核心要点应该是,就是在于其独创性,而从另外一个层面上来说,智能机器人所创作的作品,一定程度上也是根据相应的程序支配下面所完成的,而这个程序本身就是代表了一个开发者的思想在其中的。

对于无人驾驶这一个问题而已,我今年跟西政的郑志峰做过一个商讨,我的核心观点是说,如果在举证责任的承担上没有困难,能够证明是这个自动驾驶汽车存在产品瑕疵,那按照产品责任走当然是可以的。但目前在技术上面这一个还是存在着一定的困难的,但如果单纯的直接通过保险制度来解决的话,似乎也不尽合理。所以就无人驾驶,未来若能够得到普及,我倾向于构建出智能机器人的主体制度。简单说,这个智能机器人用于无人驾驶,汽车在出厂的时候就应该给它设定一个强制保险,而这个强制保险的赔偿额度就相当于是,我们公司制度里面的这个注册资本,也就是说公司所享有的资产,也就是以这个资产为限进行赔偿。

概括而言,如果肯定智能机器人的法律人格,则应当将智能机器人视为自然人、法人、非法人组织之外的新型民事主体,但其本质上还将具有客体的属性,其依法享有限制性的民事权利能力,可以考虑确立如下三个基本规则:第一,基于智能机器人本身的特殊性,智能机器人因创作、劳动等民事活动而享有的财产权将由其所有者代为享有,其所有权人也有权决定将该机器人的财产予以处分。第二,考虑到智能机器人可能引起的侵权责任,立法还宜通过强制保险制度为出厂的智能机器人设立一个责任保险额度,从而解决可能出现的侵权问题。第三,人类代替智能机器人所享有的的财产权在机器人侵权情况下宜认定自动成为特定机器人的责任财产,但出于保护投资者的考虑,保险责任财产应当先于获利予以赔付,机器人侵权责任财产予以一次赔付后所有权人有权进行第二次投保。若被拒保,则该机器人不能再介入民事活动;所有权人让未续保智能机器人擅自进入民事活动的,所有权人应对智能机器人产生的一切民事后果承担连带赔偿责任。

【赵精武 北京航空航天大学法学/计算机博士研究生】

在人工智能的历史上,主要存在过“符号主义”的老派人工智能和“联结主义”的人工智能。符号主义命题狭窄,以解决问题为主。联结主义主要是对先验知识进行学习。法学界对关于争论颇多的人工智能创作物的归属问题,到目前为止,中文文献之中争议最多的问题不在于创作物的著作是否可以归属于人工智能,而是著作权究竟归属于人工智能背后的哪类人、创作物有无“独创性”、创作物是否够成“作品”。

我更感兴趣的核心问题是,什么是人工智能的人格?这里涉及人格讨论的哲学基础问题,在诸种理论学说之中,康德关于自然人人格及其主体性的理性、自由意志的伦理基础的论述等显然成为了人工智能讨论中最主要的理论依据。

首先,人工智能可否和动物一样成为法律主体?这是需要思考的第一个问题,但目前结合此种角度的探讨相对较少。其次,我们讨论人工智能的人格,是建立在人工智能发展现状现状上而言的,究竟是一种技术性的、拟制的工具性人格还是哲学层面的伦理性人格?我认为在当前弱人工智能的意义上的人工智能更多的类似法人制度,强调其责任承担,采义务本位的思路,可以理解为工具性人格,此类人格不能等同于伦理性人格,也与自然人无关,目前法律制度的着力点可以考虑放在工具性人格的探讨上。