民法哲学
当前位置: 首页 >> 民法哲学 >> 民法哲学 >> 正文

人工智能法律人格论批判及理性应对/朱艺浩

2022-12-14 作者: 点击:[]

原发表于《法学杂志》2020年第3期

内容提要:人工智能技术的进步使得法学界兴起“人工智能法律人格论”。然而,意志只能来源于自然人而非机器,人工智能也无法独立主张权利和承担义务,因此人工智能无法享有法律人格。赋予人工智能法律人格可能会严重冲击现有法律制度,使得其沦为自然人逃避法律制裁的工具,甚至加剧奴役和压迫。面对人工智能技术,需要坚持人类唯一主体地位,在现有法律框架内处理责任承担问题,不得随意拟制法律人格,根据其技术含量采取前期引导、中期约束、后期干预的立法逻辑,理性应对人工智能技术带来的挑战。

关键词:人工智能;人格论批判;理性应对

1956年达特茅斯会议首次提出“人工智能”概念至今不过60余年,人类社会正在以前所未有的速度迈进人工智能时代。2016年3月,AlphaGo以4比1的总比分大败人类选手。2017年5月,微软开发的人工智能程序“微软小冰”发布其写作的诗集《阳光失了玻璃窗》。2017年10月,在沙特首都利雅得的“未来投资倡议”大会上,由美国HansonRobotics公司制造的机器人索菲娅首次被沙特政府授予公民身份,成为世界上第一个机器公民。据美国未来学家Kurzweil预测,2045年人工智能的智力水平将会是现今所有人类智力的10亿倍。[1]面对人工智能技术咄咄逼人的态势,人类社会对人工智能取代人类地位的可能性产生了极大的恐慌,导致人工智能即将全面超越并取代人类的“人工智能威胁论”甚嚣尘上。为了解决人类/机器人关系所引发的各种法律、政策和伦理问题,法学界要求赋予人工智能法律人格的呼吁越来越多。在面临诸如人工智能究竟能否享有法律意义上的人格、能否成为主张权利并承担义务的合格主体等疑问时,法学研究不能罔顾基本事实仅凭主观臆断就简单粗暴地做出回答,而是要深入剖析人工智能的技术本质,合理设定人工智能的法律地位,理性应对人工智能技术带来的挑战。

一、人工智能人格论的法哲学基础及其理论生长

人工智能是否享有法律意义上的人格并非新问题,传统观点普遍认为人工智能仅仅是一项技术工具,但受到近些年人工智能技术快速迭代升级的影响,这一观点正在发生剧烈动摇。“人工智能法律人格论”颇有压制传统“技术工具论”甚至全面取而代之的趋势。

(一)人工智能人格论的法哲学基础

印度哲学家、社会学家P.R.Sarkar认为,精神和灵魂并非人类专属,精神存在于万物之中,虽然人类的精神最发达、意识层次更高,但人类也只不过是精神表现自我的表达工具之一。当技术发展到一定层次以后,有可能会成为比人类大脑更好的精神载体。[2]美国南加利福利亚大学法学院Stone教授认为,权利向某些新实体的每一次延伸都是有些出乎人们意料的。人们总是倾向于认为无权事物的无权性是出于自然的法令,而不是出于一种支持现状的法律约定。[3]Stone教授警示人们不要忘记一个显而易见的事实,即“人类的历史是排斥权利和获得权利的历史”,人类曾经将奴隶、女人、其他种族、孩子和外国人定义为地位低下、人格缺乏、没有权利的劣等人,但并不妨碍他们如今拥有合法的身份和地位,女人和孩子甚至还受到了法律的特别保护和优待。“阻碍我们理解机器人与人类之间存在相似性的是‘人类中心主义’的观点,即我们坚持认为生命必须严格按照人的定义来判定。”[4]在英国格拉摩根大学ColinR.Davies教授看来,人类知识分子不愿意接受机器具有产生创造性思维的能力的本质在于知识分子以有思考能力而自豪,而这种能力往往被认为是人类物种优于其它物种和机器的标志。[5]此外,法律主体的抽象性决定了“民法典不知道‘农场主、手工业者和工场主、企业家’,只知道作为法律主体的‘人’”,[6]即民事主体制度仅关心社会生活中抽象的“人”,而并不看重现实中具体的“人”是否为“自然人”,因而不能排除作为非自然人的人工智能获得法律人格的可能。

(二)人格论哲学基础上的理论生长

目前主张赋予人工智能以法律人格或主体地位的代表学说主要有5种,分别是主体说、雇员说、代理人说、有限法律人格说和电子人说。

1.主体说。美国加州大学洛杉矶分校的Abbott教授非常支持非人类作者和发明者对其成果享有法律权利。他认为,赋予非人类实体以发明者和作者身份是鼓励AI技术的增长和发展的全新方式。这种方式能够使AI程序的开发者和公司获得AI创作的智力成果的排他权,避免成果直接落入公共领域。[7]Davies教授认为,如果人工智能能够通过自己的努力在没有人类作者参与的情况下独立创作一件作品,并且其创作过程与人类的创作过程没有实质性的差异,那么AI在创作作品的过程中就不应该被当成是工具。[8]

2.雇员说。美国学者Kalin认为,“作者身份”一词需要重新定义,应当包括人类作者和非人类作者。就像“作者”一词不仅适用于个人,也可以适用于公司或组织一样,“雇员”一词也可以接受解释以满足时代发展的需要。通过把AI机器视为雇员,能够使得作者身份从AI传递给其开发者,不仅能够避免对“非人类实体是否享有作者身份”这一问题争论不休,也能够满足美国版权局对人类作者身份的现实要求。[9]

3.代理人说。学者许中缘认为,智能化的迅速发展使得突破传统民法“主客体二元划分体系”成为必要,智能机器人应当定义为“理性代理人”,因为它能够实现自己的任务,在结果不确定时能够实现最好的结果;同时,确认人工智能具有法律人格不会对以人为中心的主体制度造成危害,也不会破坏以人为中心的伦理体系。[10]

4.有限法律人格说。学者袁曾认为,人工智能不同于传统的工具或代理人,它具有高度的智慧和决策能力,应当将其定义为可以独立做出意思表示的智慧工具较为妥当。其本质上是为人类生产生活而存在的服务工具,因此可以授予人工智能以有限的法律人格。[11]

5.电子人说。2017年2月欧盟法律事务委员会向欧盟议会提出关于人工智能的立法建议,包括确立人工智能伦理准则,为人工智能重构责任规则,考虑赋予复杂且自主的人工智能“电子人”(electronicperson)的法律地位。[12]

二、人工智能享有法律人格的前提

法律意义上的“人格”概念起源于罗马法中关于人作为法律上的权利义务主体的规定。罗马法上关于人的概念有三种,即用于指代生物学意义上的人Homo,用于指代头颅的Caput以及用来表示某种身份的persona。[13]但无论是哪种概念均与“人”密切相关,说明人格最初的意义中必然包含人的要素。因此,无论是传统民法还是现代民法,均坚持“主客体二元划分体系”,主体与客体划分严格、界限分明,主体仅限于人类自身,而“人以外的不具有精神、意思的生物归属于物,是权利的客体”。[14]

但随着法律和科技的发展,主客体之间的鸿沟正在发生动摇,法律主体正在从“人可非人”逐渐转变为“非人可人”。在学术研究上,法律人格已经从仅有的“自然人格”扩展为“自然人格、拟制人格、虚拟人格、电子人格、有限人格”[15]共五类。然而,目前仅有自然人格、拟制人格和虚拟人格得到大多数国家法律的认可,根源在于它们具有的共性,即人格所产生的权利或义务关系最终都能够指向特定的“自然人”享有或承担。而“电子人格、有限人格”尚未得到法律确认的关键问题在于,在这两种人格情况下,无法找到承担权利义务的自然人主体。就自然人格而言,有学者认为必须具备生理学、心理学和社会学三个基本要素。[16]生理学要素要求必须有支持理性和自我意识的生命器官,心理学要素要求具有自我意识和独立的意志,社会学要素要求能够与他人互动,具有独立的社会角色。人工智能是人类创设出来的软件系统、人形机器或某种技术,不具有人体和人脑的生理学要素,显然不具有自然人格,那么人工智能是否能够通过法律拟制进而享有拟制人格或虚拟人格?

大陆法系认为,“社会存在”和“法律确认”是获得独立法律人格的两个必要条件,即任何法律主体都需要能够满足独立自主地作出意思表示并得到法律确认这两个条件才能获得法律人格,如果无法独立主张法律权利和承担法律责任也意味着无法得到法律确认。因而判断某一已经具有社会存在的实体是否享有法律人格需主要关注两点:一是具有独立作出意思表示的能力,二是能否独立主张法律权利和承担法律责任。

(一)人工智能难以产生独立意志

有观点认为,“正如法人具有独立意志,因而享有财产权一样,机器人也应该与法人一样,应当享有财产权。”[17]但是,这种观点混淆了“意志”的本质和来源。叔本华认为,意志来源于生命并与人类的血肉之躯紧密相连,“他的意志的每一真正的活动都立即而不可避免的也是他身体的动作,如果他不同时发觉这意志活动是以身体的动作而表出的,他就不曾是真实地要求这一活动。”[18]康德认为,自我意识来源于“人”,这使得“人”的地位无限提升到地球上一切其他“存在物”之上。意识的统一性使得“人”与人们可以任意处置和支配的、无理性的“物”在等级和尊严上截然不同。[19]德国法学家拉伦茨认为,人与物的最本质区别在于理性,缺乏理性的东西只代表一种相对价值,理性的人才是目的,[20]而这种理性有且仅来源于人类的意志。国内有学者认为,人与创造物的关系,无法也不应当脱离对自我意识的限定。脱离了“人”的“创造物”,虽然有一定的独立性,但不可能也不应当变成道德主体。将人的创造物升格为主体和目的会导致“人”的降格,“人”和“创造物”都会变得毫无意义。[21]

笔者认为,人工智能所谓的“意志”与法人的意志来源并不相同。法人是自然人为了共同的目标而设立的团体,是由自然人组成的集合,因此法人的独立意志仍然是来源于自然人个体的独立意志,也就是说,法人的意志归根结底是通过集体体现的个人意志。而人工智能技术的本质是“算法和数据处理,即使是人形机器人,也不过是一个算法主导的硬件系统”。[22]即便是人工智能具有独立意志,这种独立意志也并不是来源于人,而是来源于人工智能的程序计算结果。虽然2015年曾发生过日本日立公司任命其人工智能系统负责物流仓储管理的案例,[23]未来也的确有可能会出现由人工智能系统管理公司的法人类型,但人工智能系统能够管理公司,并不意味其发布的管理决策完全是脱离自然人而自主作出的。

(二)人工智能无法独立主张法律权利和承担法律责任

能否独立主张权利、承担法律责任对于是否具备独立人格具有重大意义。德国民法典认为,没有法律人格,就无法享有权利和承担义务,因而将法律人格界定为“赋予法人以享有权利和承担义务的主体资格”。[24]法律上的人被缩成了权利主体,而权利主体归根结底仅仅是权利和义务的联结点。[25]离开民事责任,享有法律人格“只是没有意义的侈谈”,[26]因此,无法独立主张权利、承担责任就意味着无法享有法律人格。即便是在人工智能技术最为先进的美国,其司法实践中法官也无一例外地将损害赔偿责任分配给自然人或自然人组成的法人承担。例如在StateFarm.v.Bockhorst案中,美国第十巡回法院认为,因计算机保险程序发生的难以预想的错误而造成的损失不能由计算机承担,而应该由被告承担。[27]在McEvansv.Citi-bank案件中,银行的自动存款机基于错误没有确认顾客的存款由此导致顾客的存款损失,应该由银行对此承担责任。[28]我国学者也主张人工智能无法享有人工智能作品的著作权和承担侵权责任,而应当由其开发者享有和承担。[29]上述案例和观点均表明,人工智能的责任承担完全依靠自然人或自然人组成的法人,其本身根本无法独立承担任何责任。既然无法独立承担责任,法律就完全没有必要为其创设单独的法律人格。

三、赋予人工智能法律人格可能带来的社会风险

德国社会学家乌尔里希·贝克认为,人类生活在自己所构造的风险社会中,社会带来的风险使得人类文明置于火山之上。“科技发展和使用问题”本身,被“对实际或可能使用的科技的风险进行政治和经济管理”这样的问题所遮盖,人类需要“主要关注技术-经济发展本身产生的问题”。[30]科技发展如果脱离理性的约束,便会与人类的幸福背道而驰。就当前人工智能技术发展状况来看,赋予其法律人格带来的社会风险极大。

(一)人工智能享有法律人格会严重冲击现有法律制度

首先,民法“主客体二元划分体系”是所有民事法律关系的基础,正如客体不可能是人身,只能是人身之外的利益[31]那样,主体也不可能是脱离人之外的其它客体。人工智能本身即是客体,属于物的范畴,无法占有同样是客体的财产。由于AI缺乏做出独立意思表示的能力,其对财产的处分有被法律认定为无效或效力待定的可能。现实生活中虽然有与AI进行交易的例子出现,但其本质上是与机器背后的自然人或法人进行交易,AI对财产的处分行为仍旧来源于自然人的预设和许可。如果AI能够占有财产,在人机交易的情形下与AI交易的相对方可能会陷入交易被判无效的巨大风险之中,或者不得不忍受AI的控制人行使合同追认权的漫长等待。其次,人工智能也无法独立承担法律责任。人工智能脱离人类控制会导致损害后果与原因之间因果关系中断,可能会出现无人对损害后果承担责任的情形。[32]虽然有学者主张为AI设立“赔付账户”[33]以解决民事责任承担问题,但对于具体侵权数额的认定仍然需要AI自主提出证据和主张,AI显然无法独立完成这一任务。同时,考虑到禀赋效应的存在,大多数受害人要求的赔付数额往往过高,赔付账户也不足以应对所有的赔偿请求。再者,人工智能也不适合承担刑事责任。在德国机器人杀人事件中,如果判定刑事责任全部属于机器人自身,惩罚问题也会变得非常棘手。[34]机器人自身没有钱财,无法判处罚金,惩罚机器人坐牢又显得非常可笑,判处机器人“死刑”将机器人销毁也并不足以抚慰受害人。那么可行的处理方式是把机器人抵给受损害的一方使用,但这种处理方式不仅会带来“主体重新物化”的问题,受害人也不大可能会再使用该机器人从而造成资源浪费,受害人的损失补偿问题也无法得到真正解决。此外,不同于生命有限的人类,人工智能程序可能永远存在,一旦它获得法律人格并成为作者,可能会导致作品版权保护期限的无限延长。[35]

(二)人工智能可能沦为自然人转移责任、逃避法律制裁的工具

人工智能技术目前尚未出现独立自主意识,即便是将来出现了具有独立自主意识的类人机器,由于技术壁垒和垄断,普通人也根本无法判断该机器人是否具有独立意识。如果概括性的赋予人工智能法律人格,意味着人工智能具有独立的法律主体地位,能够独立承担法律责任。此时,人工智能本身即能够成为隔绝不利法律后果的绝佳工具。而这种法律后果的隔绝可能成为某些违法犯罪分子实施违法犯罪活动、转移法律责任、隐藏技术原罪、逃脱法律制裁的工具。这会导致法律预防违法犯罪的失败,甚至引发纵容违法犯罪的恶果。

(三)赋予人工智能法律人格可能加剧奴役和压迫

人的尊严是现代法律的根本预设,奠定了法律主体成立的基础。[36]赋予人工智能主体地位将会违背“主客体不能置换原理”,[37]人有可能处于被人工智能支配的从属地位,这将导致人的尊严、自由荡然无存。英国物理学家霍金也认为,“人工智能会带来危险,或者成为少数人压迫多数人的新途径。”[38]计算机程序的复制已经变得极其方便,一旦有人给AI植入不良程序或危险意图,利用AI大规模实施报复社会乃至压迫人类等违法犯罪行为将会非常容易,始作俑者却可以利用AI的独立法律人格轻易逃脱法律制裁。此外,“人工智能时代对人类的文化水平和信息掌握程度提出了更高的要求,‘数字鸿沟’和‘边缘人’现象已经出现”。[39]如果赋予人工智能独立的法律人格,那些在幕后开发和利用人工智能技术的人必然会免于承担法律责任,这将使得那些无法跨越“数字鸿沟”的“边缘人”反抗利用人工智能技术实施压迫和奴役成为难以完成的艰巨任务。“算法的法律化”以及“算法替代法律”现象也会导致“决断是非的权利从法官的手中转移到程序设计者的手中”,[40]而这可能会进一步加剧压迫和奴役。

四、人工智能技术爆发时代的理性应对

(一)坚持主客体二元划分体系和人类唯一主体地位

主客体二元划分体系是当前所有法律关系的基石,不可轻易突破。坚持主客体二元划分体系关键在于坚持人类唯一主体地位。关于自然人的主体地位,托马斯·阿奎那认为:“自然人是上帝创造的唯一的既被作为造物又同时作为其它被造物之王的特殊造物。”[41]马克思也认为:“人是全部人类活动和全部人类关系的本质、基础。”[42]“任何一种法律制度总是在有意无意之中依赖某种法学理论,而任何法学理论又总是依赖关于人的理论。”[43]可以说,人类的主体地位是人类社会生存和发展的缘由和目的。人类创设出的种种法律制度归根结底是要永远保护着人类、服务于人类,而不是反其道而行之。机器人之父ISAACASIMOV创设的“机器人三原则”始终阐述着一条道理,即“机器人应当始终是服从于人类的‘物’,不可能与人类享有平等的主体地位,甚至凌驾于人类之上”。[44]人类用了数十万年的时间才从残酷的自然竞争中脱颖而出成为世间万物的主宰,没有理由再为自己设立一个甚至可能危及人类自身生存的平等主体。即便是未来AI具有了自主意识,这种平等地位也是断然不能赋予的。

(二)坚持在现有法律框架内解决人工智能的法律责任承担问题

促进人工智能发展的首要问题在于找到为人工智能技术承担责任的主体。鉴于人工智能技术的科技含量不同,应当分类探讨其责任承担问题。

1.弱人工智能责任承担。目前,解决人工智能责任承担问题的主流观点是将弱人工智能作为人类的辅助工具对待并类推适用相关法律规则。例如,澳大利亚国家运输委员会(NTC)在一份关于无人驾驶车辆监管改革的政策文件中指出,已有的法律体系能够满足无人驾驶汽车责任承担的需要,近期内无需改变澳大利亚自动驾驶汽车责任制度,[45]类推适用相关法律规则已经能够满足需求。联合国教科文组织与世界科学知识与技术伦理委员会认为,弱人工智能的责任承担方式有两种,一个可行的方案是采用责任“共享”或“分配”的方式,让所有参与机器人设计、研发、制造、销售和使用的主体都分担责任。另外一种办法是让机器人专家(研发者)始终对使用其产品所造成的任何伤害负责。[46]美国普林斯顿大学访问学者PeterAsaro认为,处理机器人所导致的损害问题与其它技术产品相同。机器人导致的所有损害问题目前都能够被民法中的产品责任条款所处理,他们可以被归责于机器人生产商和零售方的“过失”“警告不足”“未能履行合理义务”等条款。[47]对于所有人或使用人而言,如果有故意或者过失,应当对其行为负责。[48]

2.强人工智能和超人工智能的责任承担。

强人工智能具有一定的学习能力和较高的自动化程度,可以脱离自然人的控制自行执行任务,这的确可能会引起因果关系中断[49]而难以找到相关方承担相应责任。但是,这种因果关系中断仅仅指的是“行为”与“损害后果”的联系中断,而不是“责任主体”与“损害后果”的联系中断。由于人工智能仍旧归属于自然人或法人主体,即便是人工智能自主造成的损害也无法切断“责任主体”与“损害后果”之间的联系,此时可以借鉴民法关于“动物致人损害”的责任规则,要求人工智能的所有人承担责任。即便将来出现自动化程度更高的超人工智能,也可以利用信托制度、保险制度等方式解决其责任承担问题。例如2017年2月英国公布的新“汽车技术和航空法案”(VTABill)就将无人驾驶汽车引起的交通事故交由保险公司承担责任,保险公司仅在“车辆未投保”和“驾驶人疏忽”这两种情况下才能获得免责。[50]德国也在其2017年6月修改的《道路交通法》中通过“增加强制保险赔偿额度”的方式推动社会逐步接受和认可无人驾驶技术。[51]

(三)不得随意突破法律拟制权利的限度

法律拟制应当遵循必要的限度,这个必要的限度就是奥卡姆剃刀定律(Ockham'sRazor),即“如无必要,勿增实体”。郑弋教授认为,无论法律用何种方式为人工智能创设法律人格,人工智能导致的责任承担主体最终都是人类,这使得人工智能的法律人格显得多余和毫无必要。[52]现有法律体系已经能够很好地解决人工智能技术的责任承担和分配问题,完全没有必要赋予一个既无法主张权利也没有财产和意志的实体以法律人格和法律地位。即便是赋予人工智能以法律权利,这些权利也是缺乏道德基础的,仅仅是修辞性的法律权利而非真正的法律权利。[53]

(四)坚持前期引导,中期约束,后期干预的立法逻辑

迄今为止,尚没有确凿证据表明人工智能技术已经和将要对人类社会的生存和发展构成重大威胁,大多数开明人士也乐于见到人工智能技术为人类劳动者带来福利。有鉴于此,在人工智能技术发展前期,可以考虑运用政策手段以“服务于人类福祉”的理念引导技术发展,秉持不介入技术黑箱为原则,保持立法的“谦抑性”,避免为技术发展制造过多障碍。在人工智能技术发展中期,可以通过修改现行民法、刑法、侵权责任法、知识产权法等部门法的方式,对人工智能技术的不良现象进行必要约束,避免人工智能技术发展异化。具体方式可以考虑在民法修订中增加“特殊法律客体”、在侵权责任法中设置“机器人致害责任”专条等方式。在技术发展后期,可以考虑以专门立法的方式对人工智能技术进行整体干预,甚至设置与人工智能犯罪相关的刑罚和行政处罚,严厉惩罚违法自然人和销毁不服从人类指令的机器人。

五、结语

马克斯·韦伯曾断言,技术发展可能使人类未来生活在“技术知识的囚室”。[54]诚然,科技的发展如果脱离理性的约束便会与人类的幸福背道而驰,法律的发展也同样如此。如果人类随意利用法律为各种实体创设主体地位,未来也必将生活在各种法律主体束缚的“囚室”之中。技术的发展的确已经远远走在了法律的前面,但这并不意味着法律应当对新技术俯首帖耳、言听计从。现状和理性告诉我们,人工智能技术并非什么新鲜事物,也不大可能完全脱离人类的控制进而颠覆整个人类社会;本质上而言,它只是人类基于更方便、更高效地处理各种事务的目的所开发出来的、自动化程度较高的人造技术。面对人工智能技术带来的纷繁争论,法律人需要秉持技术开发者和投资人所不具备的冷静和稳重,在保持适度前瞻性前提下尊重事物发展的客观规律和立法逻辑,理性应对技术进步带来的挑战。

北京大学法学院教授、博士生导师张平点评:

人工智能技术的快速进步引发了法学理论界的极大关注,面对智能化程度不断提高的人工智能技术,理论界逐渐兴起了赋予其独立法律人格的呼声。目前对人工智能法律人格的研究仍然停留在表面,缺乏对该技术的法哲学基础的系统梳理,以及其是否具有独立意志、能否独立主张法律权利和承担法律责任的系统研究。

本文对上述问题作出了较为全面而深刻的梳理和探索。除此之外,文章还从社会风险的角度提示理论界赋予人工智能法律人格可能带来的一些严重问题,并在此基础上提出了诸多有益建议,包括坚持主客体二元划分体系和人类主体地位、坚持在现有法律框架内解决问题、不得随意突破法律拟制权利的限度以及在前中后期分别对待的立法逻辑等等。有理由相信,本文对于人工智能技术能否享有独立法律人格的相关问题进行了较为全面而深入的研究和探索,将会为学界后续开展人工智能法律人格方面的研究作出一定贡献。

[1]杜严勇:《论机器人的权利》,载《哲学动态》2015年第8期,第83页。

[2]Mcnally,Phil,and S. Inayatullah,TheRights ofRobots: Technology,Culture and Law in the 21st Century,Futures20.2( 1988) : 119-136,p.121.

[3]Christopher D. Stone,Should Trees Have Standing? Law,Morality,and the Environment,Oxford University Press,3rded ( 2010),p. 2.

[4]Mcnally,Phil,and S. Inayatullah,theRights ofRobots: Technology,Culture and Law in the 21st Century,Futures20.2( 1988) : 119-136,p.125.

[5]Davies,ColinR,An Evolutionary Step in Intellectual PropertyRights-Artificial Intelligence and Intellectual Property,Computer Law&SecurityReview 27.6( 2011) : 601-619,p. 604.

[6][德]拉德布鲁赫:《法学导论》,米健、朱林译,中国大百科全书出版社1997年版,第66页。

[7]Ryan Abbott,I Think,Therefore I Invent: Creative Computers and the Future of Patent Law,Boston College LawRe-view,vol. 57,no. 4,2016: 1079-1126,pp. 1098-1099.

[8]Davies,ColinR,An Evolutionary Step in Intellectual PropertyRights-Artificial Intelligence and Intellectual Property,Computer Law&SecurityReview 27.6( 2011) : 601-619,p. 608.

[9]Hristov Kalin,Artificial Intelligence and the Copyright Dilemma,Social Science Electronic Publishing ( 2017) : 431-454,pp. 440-441,446-447,449.

[10]参见许中缘:《论智能机器人的工具性人格》,载《法学评论》2018年第5期,第155-156页。

[11]参见袁曾:《人工智能有限法律人格审视》,载《东方法学》2017年第5期,第52页、第55-56页。

[12]参见司晓、曹建峰:《论人工智能的民事责任:以自动驾驶汽车和智能机器人为切入点》,载《法律科学》2017年第5期,第171页。

[13]参见周枏:《罗马法原论(上册)》,商务印书馆1994年版,第106页。

[14]梁慧星:《从近代民法到现代民法———二十世纪民法回顾》,载《中外法学》1997年第2期,第29页。

[15]杨立新:《人工类人格:智能机器人的民法地位———兼论智能机器人致人损害的民事责任》,载《求是学刊》2018年第4期,第87页。

[16]参见杨立新、张莉:《连体人的法律人格及其权利冲突协调》,载《法学研究》2005年第5期,第30-31页。

[17]同注释[10],第158页。

[18][德]叔本华:《作为意志和表象的世界》,石冲白译,商务印书馆1982年版,第151页。

[19]参见[德]康德:《实用人类学》,邓晓芒译,重庆出版社1987年版,第1页。

[20]参见[德]卡尔·拉伦茨:《德国民法通论》(上册),王晓晔、邵建东等译,法律出版社2003年版,第45页。

[21]参见李扬、李晓宇:《康德哲学视点下人工智能生成物的著作权问题探讨》,载《法学杂志》2018年第9期,第45页。

[22]胡凌:《人工智能的法律想象》,载《文化纵横》2017年第2期,第110页。

[23]Glenn McDonald,Meet the New Boss: The World’s First Artificial-Intelligence Manager? See: https: / / finance.ya-hoo.com / news / meet-the-new-boss-the-worlds-first-128660465704.html,last visited at 10 /25 /2018.

[24]孙聪聪:《人格作为法律主体的伦理与技术———基于历史进路的考察》,载《广西大学学报(哲学社会科学版)》2015年第3期,第83-84页。

[25]参见[德]卡尔·拉伦茨:《德国民法通论》(上册),王晓晔、邵建东等译,法律出版社2003年版,第57页。

[26]魏盛礼:《民事权利能力与民事责任承担的逻辑应对关系———兼评〈侵权责任法〉关于被监护人侵权责任的规定》,载《南昌大学学报(人文社会科学版)》2010年第3期,第52页。

[27]State Farm Mut. Auto. Ins. Co. v. Bockhorst,453 F. 2d 533 ( 10th Cir. 1972).

[28] McEvans v. Citibank,N. A. ,96 Misc. 2d 142 ( N.Y. Civ. Ct. 1978).

[29]参见吴汉东:《人工智能时代的制度安排与法律规制》,载《法律科学》2017年第5期,第131-132页。

[30][德] 乌尔里希·贝克:《风险社会》,何博闻译,译林出版社2004年版,第16页。[31]参见王利明:《民法总则研究》,中国人民大学出版社2011年版,第188页。

[32]参见许中缘:《论智能机器人的工具性人格》,载《法学评论》2018年第5期,第163页。

[33]Ugo Pagallo,The Laws ofRobots: Crimes,Contracts,and Torts,Springer Publishing Company( 2013),pp. 34-35.

[34]Mcnally,Phil,and S. Inayatullah. TheRights ofRobots: Technology,Culture and Law in the 21st Century. Futures20.2( 1988) : 119-136,p. 132.

[35]Hristov Kalin,Artificial Intelligence and the Copyright Dilemma,Social Science Electronic Publishing ( 2017) : 431-454,pp. 450-451.

[36]胡玉鸿:《人的尊严在现代法律上的意义》,载《学习与探索》2011年第4期,第106页。

[37]李扬、李晓宇:《康德哲学视点下人工智能生成物的著作权问题探讨》,载《法学杂志》2018年第9期,第49页。

[38][英]霍金:《人工智能可能是人类文明史上最糟糕的事件》,http: / / www.sohu.com / a /202859223-99968021,访问日期: 2019年10月31日。

[39]孙伟平:《关于人工智能的价值反思》,载《哲学研究》2017年第10期,第123-124页。

[40]Mcnally,Phil,and S. Inayatullah. TheRights ofRobots : Technology,Culture and Law in the 21st Century. Futures20.2( 1988) : 119-136,p.131.

[41][意]托马斯·阿奎那:《阿奎那政治著作选》,马清槐译,商务印书馆1997年版,第81-82页。

[42]《马克思恩格斯全集》,人民出版社1957年版,第118页。

[43]Iredell Jenkins,Social Order and the Limits of Law: a Theoretical Essay,New Jersey: Princeton University Press( 1980),p. 314.

[44]Jack M. Balkin,2016 Sidley Austin Distinguished Lecture on Big Data Law and Policy: The Three Laws ofRobotics inthe Age of Big Data,Ohio State Law Journal,Vol. 78,( 2017),1217,p. 1217.

[45]Regulatory reforms for automated road vehicles policy paper,pp.59-62. See: https: / / www.ntc.gov.au / Media /Re-ports / ( 32685218-7895-0E7C-ECF6-551177684E27).pdf,last visited at 10 /25 /2018.

[46]United Nations Educations,Scientific and Cultural Organization ( UNESCO) and World Commission On the Ethics ofScientific Knowledge and Technology ( COMEST). Preliminary DraftReport of COMEST onRobotics Ethics ( 2016),p.10. See: http: / / unesdoc.unesco.org / images /0024 /002455 /245532E.pdf,last visited at 10 /25 /2018.

[47]Asaro,P. M. 2012. A body to Kick,but still No Soul to Damn: Legal Perspectives onRobotics,in P. Lin,K. Abneyand G. A. Bekey ( eds.),Robot Ethics: The Ethical and Social Implications ofRobotics,MIT Press,London,pp. 169-186.

[48]Sophia H. Duffy and Jamie Patrick Hopkins,Sit,Stay,Drive: The Future of Autonomous Car Liability,16 SMU Sci.&Tech. LawRev. 101 ( Winter 2013),p. 104.

[49]吴汉东:《人工智能时代的制度安排与法律规制》,载《法律科学》2017年第5期,第128页。

[50]Vehicle Technology and Aviation Bill ( HC Bill 143). See: https: / / publications.parliament.uk / pa / bills / cbill /2016-2017 /0143 / cbill_2016-20170143_en_2.htm,last visited at 10 /25 /2018.

[51]冯洁语:《人工智能技术与责任法的变迁———以自动驾驶技术为考察》,载《比较法研究》2018年第2期,第151页。

[52]郑戈:《人工智能与法律的未来》,载《探索与争鸣》2017年第10期,第82页。

[53]刘振宇:《人工智能权利话语批判》,载《自然辩证法研究》2018年第8期,第36-37页。

[54]参见[德]乌尔里希·贝克、[英]安东尼·吉登斯、[英]斯科特·拉什:《自反性现代化》,赵文书译,商务印书馆2001年版,第74页。

上一条:论人格的纯粹性———以人格与财产的关系为中心/曹相见 下一条:侵权法规则与伦理诉求的沟通/张铁薇

关闭