视界 | 人工智能发展对现有法律的影响及对策

1437 2022-04-07 18:44

01

摘要:

人工智能的兴起为公众日常生活带来了巨大变化,无人驾驶、人脸识别、智能助力等一系列技术已经得到广泛应用,这些技术在方便了人们的生活的同时也给社会带来了很多困扰,侵犯公民隐私权、冲击传统法学教育、加速职业更新换代、变革司法裁判模式等等。人工智能时代所带来的难题绝非某一个部门法或者某一个学科所能解决的,本文从人工智能法律系统的法理学来源作为切入口,通过对人工智能造成的社会影响的分析,指出无论是法律推理系统、智慧司法还是法律的人工智能化服务都必须置于法律和伦理规范的规制之中。


关键词:人工智能 法律推理 法治

近些年来,人工智能技术发展迅速并且日渐成熟,我国也积极地参与到人工智能发展的全球化浪潮中。2016年7月,在国务院印发的《“十三五”国家社会发展科技创新规划》中把人工智能作为一项新一代技术列入规划;2017年3月,政府工作报告首次将人工智能列入;2同年7月,国务院又下发了《新一代人工智能发展规划》,在规划中提出“到2020年人工智能总体技术和应用与世界先进水平同步,到2025年人工智能基础理论实现重大突破,到2030年人工智能理论、技术与应用水平总体达到世界领先水平。” 新一代人工智能是国际竞争的新焦点、经济发展的新引擎,但是我们必须清楚的认识到人工智能在促进社会建设的同时也会给社会带来新的挑战,侵犯个人隐私、改变司法断案模式、冲击法学教育、造成技术性失业等一系列问题。面对2030年国家关于人工智能的建设目标:更加完善的人工智能法律法规、伦理规范和政策体系”,我们必须解决好这些问题。

①马治国,徐济宽:《人工智能发展的潜在风险及法律防控监管》,载《北京工业大学学报》2018年第18期,第65页。

 一、人工智能法律系统的法理学思想来源 

这部分对人工智能系统的法理学思想来源的分析,只是为了解释法理学对人工智能系统发展产生的一些影响,而不是对人工智能系统和法理学之间的关系做面面俱到的考察。

有什么样的法学理论就有什么样的人工智能与法律推理的模式。从法学理论和法律推理的角度看,大致而言,现有的法学理论可以分为两派:现实主义和实用主义。

(一)法律形式主义

1.法律形式主义是人工智能法律系统产生的理论基础

18世纪到19世纪,法律形式主义重视法律推理的形式方面,提倡将法律化成简单的几何公式。以奥斯汀为代表的英国分析法学家主张“法律推理应该根据客观事实、明确的规则以及逻辑去解决一切为法律所要求的具体行为。假如法律能够如此运作,那么谁做裁决,法律推理都会导向同样的裁决。” 分析法学家认为法治就是要求结论必须是大前提加小前提的逻辑推理结果,如果法官没有严格遵守三段论的推理而擅自得出主张就会破坏法治。分析法学家的这种机械的法律推理观体现了分析法学家对法官不以个人价值观扰乱法律秩序的主张,忽视了法官的能动向和自由裁量权,容易造成法律推理的僵化。自由法学家艾利希以“自动售货机”来形容法律形式主义的逻辑推理。从人工智能的作用即为思维提供机械的解释方面来说,法律形式主义对法律推理所做出的机械论解释,正好为人工智能系统法律系统的开发和发展提供了法律上的前提。从人工智能的起步阶段可得知,人工智能专家正是依据法律形式主义的三段论演绎推理进行模拟实验,使利用机器实现法律推理第一次从理论变成了现实。

② 张保生:《人工智能法律系统的法理学思考》,载《法学评论》2001年第5期,第15页。

2.法律现实主义

法律现实主义推动人工智能模拟进一步发展到法官的内在思维结构。法律现实主义主张法官在审理案件时严格按照三段论的要求,忽视了案件的复杂性和法官的主观能动性。法官作为独立的个体生活在现实社会中,法官在从事的法律活动时必然会受到个人的生活经验、学历、心情、思维方式等因素的影响,法官在审理案件时往往需要作出价值判断而不是机械的依据法条,从这个角度来讲法律现实主义对法律形式主义的僵化进行了深刻的批判。法官霍布斯有句著名格言“法律的生命不在于逻辑而在于经验”。这里的逻辑就是法律形式主义提倡的三段论演绎推理;所谓经验就是指一定的政治理论、道德、政策、直觉等。法律现实主义对法官个人主观能动性的强调和对法律推理灵活性的主张促使人工智能的研究从简单的模拟法律推理的外在逻辑性形式向探求法官内在思维模式的转变。

③(美)博登海默:《法理学——法哲学及其方法》,邓正来译、姬敬武译,华夏出版社1987年12月版,第478页。

3.开放结构

法律概念之“开放结构”进一步拓展了法律推理的模拟方向。法律形式主义过分强调法律规则和案件之间的一一对应关系,而忽视了案件的复杂性;法律现实主义否认一般法律规则的普遍性,试图从“行动中的法”取代“本本中的法”。从这可以看出法律现实主义在批评法律形式主义的时候过于偏激,从一个极端走向了另外一个极端,这两种方法似乎都不太可取。哈特在法律形式主义和法律现实主义之间采取了一种折中做法,他在强调逻辑重要性的时候又批判其局限性,既排斥法官审理案件时的随意性又强调其主观能动性,这种折中立场在哈特的“开放结构”的法律概念中得到了充分的展示。开放结构概念的提出为法官在面对疑难杂案时提供了新的解决思路。基于此,新的人工智能法律推理模型就可应运而生了。

 二、人工智能对当今社会的影响 

此部分仅对人工智能对社会各方面的影响做简单介绍,并非全部列举,进一步探究还希望参考其他学术论文或期刊等资料。

(一)民事方面

1.隐私权

人工智能对个人信息的收集区别于传统方式,主要通过各种端口侵入个人生活,收集个人信息。这种端口形式多样,如摄像头、手机的指纹识别和面部识别、定位仪、USB接口等其他方式。区别于传统的跟踪偷拍、非法搜查和监听监视等收集方式,人工智能更容易通过自主学习和分析获得包含个人隐私的数据,聊天机器人就是典型的例证。“图灵测试”⑤ 说明聊天机器人可以像正常机器人一样分析对方的心理活动,通过聊天在对方毫无意识的情况下获得用户不会随意透露的隐私数据,甚至推测出用户的更多隐私数据。

④ 祝高峰:《论人工智能领域个人信息安全法律保护》载《重庆大学学报》2020年第26期,第151页。

⑤ 图灵测试(The Turing test)由艾伦·麦席森·图灵发明,指测试者与被测试者(一个人和一台机器)隔开的情况下,通过一些装置(如键盘)向被测试者随意提问。进行多次测试后,如果机器让平均每个参与者做出超过30%的误判,那么这台机器就通过了测试,并被认为具有人类智能。

2.公民权

机器人是否享有与正常人一样的公民权呢?这一问题值得思考。目前存在的一些研究已经对机器人可能享有的权利进行了讨论,并提出了一些新的问题。比如:机器人是否享有生命权,是否可以保护自己不轻易遭受侵害,即电子人格;机器人是否可以拒绝长时间的奴役工作,即自由权;谁应该为机器人伸张权利;机器人是否可以有追求幸福的权利,即拥有自由选择消磨时间的方式?

3.知识产权

作曲家运用人工智能创造大量的音乐作品,谁是这些著作的著作权人?通过这些著作获得的利益应该如何处理呢?基于以上问题不同学者有不同观点。基于第一个问题,华东政法大学王迁教授认为“目前人工智能创作的内容都是运算规则和模板的结果,不能体现作者独特的个性,并不能认定为作品”。对于后一个问题,北京大学易继明教授在肯定了人工智能创造物版权的基础上,提出“对于只能只能作品上的权力配置,应该从所有者和使用者之间的约定优先,建立起以所有者为核心的权力构造”。

⑥高奇琦,张鹏:《论人工智能对未来法律的多方位挑战》,载《华中科技大学学报》2018年第32期,第89页。

(二)刑事方面

比如非法侵入计算机系统罪;非法获取计算机信息系统数据;非法控制计算机信息系统罪;提供侵入、非法控制计算机系统程序、工具罪;破坏计算机信息系统罪等罪,基本上都是按照物理空间思维来“外在化”的笼统设定为犯罪构成,并不是以数据信息属性和智能互联网的运行逻辑来“内在化”的作出细化,比如盗窃游戏装备等虚拟财产智能被认定为计算机领域的犯罪,这种规则逻辑难以对盗窃数据信息、侵犯虚拟财产、刷单等行为实施有效的规制和处罚。

如果机器人犯罪了,机器人是否具有刑法意义上的“主观能动性”,它是否要受到法律的制裁?机器人行动的程序是由人编写的,相应的法律责任由谁承担?如何避免机器人对人类的伤害问题?诸如此类的问题比比皆是,发人深思。

(三)司法方面

首先,法律的人工智能化在智慧司法中的运用应当是“有限智能化”。在新的社会背景下推进司法民主和司法责任有两大问题需要考虑:如何给法官减负以及如何防止法官推卸责任。对于前一问题的解决,主要办法是提倡调解或借助机器的记忆和检索功能提高效率、分散责任,但是采用机器自动生成判决容易造成算法支配审判的局面,对法官办案的结果很难评判并进行有效的问责。一旦让算法支配审判,法庭辩论环节、专家意见的意见的重要性都会有所减退,最终导致法官逃避责任、削弱司法权威、瓦解司法审判系统,甚至造成法律虚无主义。

其次,既有的司法解纷机制遭遇明显障碍。智联网时代对司法纠纷的解决形成最大的冲击是在互联网领域民事纠纷和刑事案件最为典型。传统的级别管辖和地域管辖陷入僵局,迫使我们必须思考网络空间的法律效力。同时,互联网犯罪的智能化和碎片化,使建立在传统级别管辖和地域管辖基础上的犯罪侦查系统也难以发挥最大作用。

⑦张清,张蓉:《“人工智能+法律”发展的两个面向》,载《求是学刊》2018年第45期,第105页。

(四)法学教育

大数据、人工智能、5G、云计算等技术带来的信息革命极大地改变了知识的传播途径,促进线下教学到线上教学的转变、从有形的学习空间到无形的学习空间的转变。人工智能对教育模式的渗透、智能技术在教育方法中的广泛应用、信息的获得越来越多样化和便利化,教与学的单项关系已经不再适应现今社会的教学模式,这就对发展新教学模式、提供新的教学平台、丰富个性化学习资源提出了更高的要求。

(五)律师行业

职业的更新换代是社会发展过程中的正常现象,每个时代都会有旧职业的产生和新职业的出现。一个较大的诉讼案件往往会涉及几百份的法律文书,过去需要花费大量的人力、物力、财力才能完成的工作,人工智能却能在很短的时间内兼顾正确率和效率的完成工作。相比一般律师人工智能有以下优点:第一,即时处理海量的数据并给出结论;第二,永不疲倦可以随时工作;第三,无非理性因素的影响,更加中立和客观;第四,能够最大限度的避免错误的发生。从目前来看,人工智能对一些初级工作和重复性工作具有明显的替代作用,这就意味着未来会有相当多的律师特别是初级律师会失去工作。在人工智能面前,律师是要被替换下来的马车夫还是要被替换下来的马还未可知。

⑧黄伟文:《从独角兽到AI:人工智能应否取代法律职业?》,载《法制与社会发展》2020年第26期,第166页。

 三、各国对人工智能发展的立法探索 

(一)美国

美国政府于2016年5月开始正式研究与人工智能相关的政策、伦理和法律方面的问题。2016年10月美国白宫发表了一篇题为《为人工智能的未来做准备》的报告书,报告书中指出人工智能的相关系统必须符合人类的愿望与价值、有效发挥功能、公开透明便于理解等发展原则。与此同时,美国科学技术会议网络和信心技术研究开发小委员会还发表了关于运用联邦政府预算研究人工智能的方针《美国人工智能研究开发战略计划》,对人工智能的开发提出了最小化的要求。美国电气电子学会也积极响应时代发展要求,发表了关于人工智能设计在伦理方面的报告书,报告书中主要提倡以下三条原则:第一,实现人权;第二,人与自然环境效益最大化;第三,减少人工智能带来的负面影响。2016年美国弗吉尼亚州州长签署了一条关于送货机器人的法律,允许送货机器人在符合法律的前提下在全州上路行驶,这是美国第一条关于送货机器人的立法。目前除了弗吉尼亚州之外,爱达荷州和佛罗里达州也提出过类似的有关机器人发展的草案。

来自不同学科、不同机构的专家们秉承“可接受、有责任”的理念结合成社群,专门对失控风险进行分析并给出对策。

⑨季卫东:《人工智能开发的理念、法律以及政策》,载《东方法学》2019年第5期,第9页。

⑩张清,张蓉:《“人工智能+法律”发展的两个面向》,载《求是学刊》2018年第45期,第103页。

(二)日本

日本作为机器人超级大国,希望开发并推广机器人技术以解决国内劳动力短缺问题。2014年9月,日本成立了“机器人革命现实委员会”,围绕“机器人革命”的相关监管和技术革新召开会议;2015年1月发布了《日本机器人战略:愿景、战略、行动计划》;2016年10月制定了《人工智能开发指针方案 (征求意见稿)》,经过讨论和修改,在2017年7月正式公布了《为国际讨论而作的人工智能开发指针方案》。日本的机器人发展战略主要涉及人工智能和劳动法、宪法、刑法、民法、国际法等领域的法律问题,当前日本法学界正在加紧研究这一课题。

(三)欧盟

欧盟有关机器人的法律项目发展始于2012年,2014年9月发表了机器人法律指南;2015年1月,欧盟议会法律事务委员会决定成立一个专门研究人工智能发展相关法律的工作小组;2016年5月,事务委员会发布了《就机器人民事法律规则向欧盟委员会提出立法建议的报告草案》,同年十月,发布了《欧盟机器人民事法律规则》;2017年2月,欧洲议会通过了《向欧洲委员会提出关于涉及机器人民事责任规则的提案》,提案中建议设立专门的欧盟机构、施行机器人登记制度、明确损害赔偿责任、保护知识产权等,要求欧洲委员会针对这些问题制定专门的欧盟法律;2018年5月,欧盟开始实施一般数据保护条例,对人工智能的开发做出了更严格的要求,涉及到个人信息的处理时本人有知情权和解释权;2019年所有政府、企业和社会团体等部门都可以参加欧洲人工智能联盟,在共同遵守指南的前提下推进算法、数据和技术方面的伙伴关系。

(四)英国

英国于2013年将“机器人技术及其自动化系统”作为“八项伟大的科技”的一部分,提出成为第四次工业革命全球领导者的目标。2016年,英国下议院的科学和技术委员会发布《机器人技术和人工智能》报告,重点阐述了在规范机器人技术和人工智能的开发方面英国将会如何面对人工智能开发带来的道德、社会和法律问题。英国政府2018年4月发布的《英国人工智能:有准备、有信心、有能力?》报告指出,英国是21世纪人工智能发展领域的世界领导者之一,拥有领先的人工智能公司、强大的学术研究文化、极具活力的初创企业生态系统,以及在法律、伦理、财政、语言等方面实力突出的一系列技术集群。目前,英国形成了以伦敦、剑桥、爱丁堡等高校集中城市为中心的人工智能产业集群,不仅拥有像“深层思维”公司、“快键”公司、“巴比伦”公司等在人工智能领域占有重要地位的科技公司,还孕育了“克莱奥”公司(Cleo)、“思维追溯”公司等在理财、自动驾驶行业开拓的人工智能初创公司。同时,英国全球顶尖的高等教育体系所形成的人才培养和科研转化机制,为其人工智能的发展提供了坚实、强大的科研能力和人才支撑。

 四、人工智能法律系统研究的难点 

(一)人工智能法律语言的规制

尽管人们对法律概念的理解可以多种多样,但是输入人工智能体系的语言只能唯一且确定。在现实生活中,法律家在面对某个问题做法律推理的时候可以根据上下文或者结合自己的生活经验做出多种解释,但人工智能只能依据事先录取好的法律规范最基础的法律判断,因此智能法律专家系统要想取得成功就必须突破自然语言研究工作。牛津大学有个程序组曾经研究法律自然语言的研究问题,但是却遭遇了重重阻碍,主要原因是目前法学界对某些法律概念也无法达到统一表述。有学者指出,人工智能在法律上的应用之所以还没有结出丰硕成果来,并不是由于人工智能研究的水平不高,而是由于法学研究的水平不高。这实在是一个发人深思的高见之名。

(二)法律推理系统的规制

无论是人工智能法律检索还是人工智能司法裁判,都必须基于最基木的法律语言而展开,这一点恰恰是人工智能需要攻克的难题。因为现有法律语言存在模糊性,不同学者对法律概念的内涵和外延认知有差别,对某一法律问题的理解可能法律职业共同体内部就有多种解释,而机器语言只做单向的精确推理,如需穷尽推理结果,必须在法律语言的确定性、法律解释的一致性和法律推理的多维性等方面预先加以规制。但是,法律问题往往没有唯一正确的答案,这是人工智能模拟法律推理的一个难题。选择哪一个答案,往往取决于法律推理的目的标准和推理主体的立场和价值观念。但智能机器没有自己的目的、利益和立场。这似乎从某种程度上划定了机器法律推理所能解决问题的范围。

(三)冲击现有生活秩序

滥用人工智能应用也带来道德、伦理上风险。人工智能没有意识更不会有道德判断。传统算法是人类制定规则,符合人类的价值观。而人工智能发展到今天已经从完全执行人类指令发展到可以从海量数据中吸取历史经验,自动生成判断。输出的结果可能符合某种逻辑但是并不符合人类价值观。最可怕的是随着人工智能的普遍使用,人类适应了机器思维,而不是机器学会了人的价值观。例如,片面强调生产效率,骤然的机器换人带来失业问题,不容忽视。

 五、解决人工智能发展风险的几点措施 

(一)突出法律在人工智能发展中的角色

尽管人工智能的发展存在很多方面的风险,但是人工智能的出现顺应时代发展潮流,势不可挡。我们应该相信法律可以减少人工智能发展带来的负面问题,促进人工智能技术的发展与革新。我国对待人工智能发展过程中的问题要采取慎重的态度,从事前预防、事中管控和事后监督三方面实现法律对技术领域潜在的风险实施防控和监管。第一,事前预防是指我们应该推动对人工智能技术发展情况的准确预测和跟踪研究,更加准确的把握产业技术发展趋势,将风险防患于未然;提高风险意识,重视风险评估和预测,分清短期关注重点和长期关注重点,确保把人工智能的发展规制在安全可控的范围;第二,事中管控是指建立评价体系,按照严格标准划分人工智能的智能等级,从而规范人工智能的应用范围;大力开发系统性的测试方法和指标体系,建设跨领域的人工智能测试平台,推动人工智能安全认证,对人工智能的关键性能进行评估;第三,事后监督是指重视企业自身建设,大力促进人工智能行业和企业自律,同时加大对数据滥用、侵犯个人隐私等违背道德伦理等行为的惩戒力度。促进企业的良性发展和技术创新,鼓励企业加强人工智能网络安全技术研发,强化人工智能产品和系统网络安全防护。

(二) 促进司法的智能化发展

当代司法方式必须转型升级才能适应只能互联网时代的法律变革。以往人们也会通过技术手段设计开发一些自动化系统,但它们都是按照预先设计的程序进行的简单机械作业。随着人工智能的飞速发展,基于数据和算法、反映智能互联网发展规律的智能化执法司法方式,会成为社会治理的一种变革趋势。一是智能辅助,如智能辅助司法、智能辅助政务中的图像识别、身份识别、证据认定 瑕疵审查等;二是智能服务,如智能化的大数据分析、政策咨询服务、电子查询系统等;三是智能执行,如智能化公共福利系统、智能化电子交警等。对于新兴的区块链技术,则基于法律框架,不仅通过预设自动执行的智能合约,在约束并引导人们的行为时引入技术,而且依靠技术使信息更加透明、数据更加可追踪、交易更加安全成为现实,大大降低了法律的执行成本,呈现出法律规则和技术规则协同作用、相互补充,法律与经济融为一体、逐渐趋同的态势,法律的约束与执行逐渐走向智能化。

⑪马长山:《智能互联网时代的法律变革》,载《法学研究》2018年第40期,第36-28页。

(三)提高律师职业素养

普遍认为,法律职业很久以来一直是人类社会各种职业中的塔尖职业,因为这种职业的技能需要人们经过很长时间的学习积累和训练才能够掌握,具有很高的准入门槛,并且从业者受严格的法律规范和伦理规范的约束,不易受科技发展的影响,但我们必须承认的是,人工智能目前的确已开始取代一部分低端的法律职业。囿于人工智能广泛运用的诸多前提要求,人工智能在短期内不可能淘汰法律人,律师行业应当更加合理地运用人工智能所带来的便捷,通过人工智能对数据的运算能力来提高自己的工作效率,同时也要提高自己的专业水平弥补人工智能在语言表达能力方面和经验法则方面的不足。总之,律师应当正视人工智能所带来的冲击,并利用这一机遇开拓自己的新天地。

(四)变革法学教学模式

虽然我国法学实践教学取得了显著成效,但依然存在实践教学资源不足、实践教学活动尚不能紧跟司法实务、高校与实务部门的协同育人机制不畅、实践实训课程建设水平不高、实习和论文的信息化水平还比较落后等现实问题。人工智能时代倒逼法学教育必须打破其原有的学科藩篱,适应时代要求培养社会所需要的“法律+技术”人才。首先,必须在师资结构上进行变革,即需要在其师资结构和课程设计中保持向其他学科知识的开放性。要适当引进其他学科的教师,同时要求本学科教师也要进修相关人工智能的基本知识。其次,转变人才培养模式,可采用联合培养的方式,即通过吸收计算机、知识产权、软件算法、数理统计等相关学科教师来教授相关课程。

⑫陈京春:《人工智能时代法学实践教学的变革》,载《山东社会科学》2020年第11期,第86-87页。

(五)加强国际合作

人工智能以其神速发展和已达到的智慧水平,给人意外之震撼。按照这条轨迹和速率,在未来的日子里,人工智能震惊人类的频率和烈度只会趋于密集和增高。法律对人工智能现实问题的解决,关乎人与机器未来发展的走向,颠覆冷兵器时代下人们对机器的浅显认识,打破人机交互的传统相处方式。目前,人工智能虽是各国提升竞争力的首选,但同时也是全球需要共同面对的巨大挑战。人工智能的异化、极端化是危及全人类的重大危机和不可逆风险,这不仅仅是国家或地区层面的问题。目前,我国将积极参与人工智能异化及安全监管等人工智能重大国际共性问题研究,并积极参与全球治理;同时,在人工智能法律法规、国际规则等方面可以多方寻求国际合作,共同应对危机和问题。在人工智能今后的发展过程中,我国应当以负责任大国的姿态做出表率,审慎地做好人工智能风险把控和防范的工作,并协同其他国家和地区共同努力维护人工智能技术的有序发展。同时,我们呼吁各国积极倡导“人类命运共同体”价值观,追求本国利益时兼顾他国合理关切,在谋求本国发展中促进各国共同发展,从而共同维护人工智能技术的有序发展,推动人类共同进步,避免不可逆的危机发生。

总之,在人工智能时代,人类社会的格局面临根本性的变更是:人工智能将作为千百年来首以类人化的智能参与并分享人类社会的实体存在。人类已然无法回避这一问题的存在和最终生,必须从当下开始认真梳理人工智能时代人与人工智能的关系,以适应崭新的社会格局和应对能出现的诸多风险与问题。

⑬马治国,徐济宽:《人工智能发展的潜在风险及法律防控监管》,载《北京工业大学学报》2018年第18期,第69-71页。

 

参|考|文|献|

 

[1]陈京春:《人工智能时代法学实践教学的变革》,载《山东社会科学》2020年第11期。

[2]黄伟文:《从独角兽到AI:人工智能应否取代法律职业?》,载《法制与社会发展》2020年第26期。

[3]祝高峰:《论人工智能领域个人信息安全法律保护》,载《重庆大学学报》2020年第26期。

[4]季卫东:《人工智能开发的理念、法律以及政策》,载《东方法学》2019年第5期。

[6]马治国,徐济宽:《人工智能发展的潜在风险及法律防控监管》,载《北京工业大学学报》2018年第18期。

[7]马长山:《智能互联网时代的法律变革》,载《法学研究》2018年第40期。

[8]张清,张蓉:《“人工智能+法律”发展的两个面向》,载《求是学刊》2018年第45期。

[9]高奇琦,张鹏:《论人工智能对未来法律的多方位挑战》,载《华中科技大学学报》2018年第32期。

[10]张保生:《人工智能法律系统的法理学思考》,载《法学评论》2001年第5期。

[11]季卫东:《人工智能时代的司法权之变》,载《东方法学》2018年第1期。

[12]张富利:《全球风险社会下人工智能的治理之道——复杂性范式与法律应对》,载《学术论坛》2019年第42期。

[13]易继明:《人工创造物是作品吗?》,载《法律科学》2017年第5期。

[14]郑戈:《人工智能与法律的未来》,载《探索与争鸣》2017年第10期。

[15]司晓,曹建峰:《论人工智能的民事责任:以自动驾驶汽车和人工智能机器人为切入点》,载《法律科学》2017年第5期。

 

作者介绍 姜亚莉(投融资业务中心I部)

新葡萄8883官网登录页面实习律师,主要从事于事业单位法律服务。