摘要:人工智能是否享有法律主体地位取决于其“智能”:“符号主义”设计理念下的人工智能难以具有主观能动性,而“联结主义”设计理念下的人工智能虽然亦受到事先置入算法的限制,但是随着技术的发展能够在具有理论上的无限求解可能性并具有可期待的主观能动性,因而可以在其智能范围内授予其不同于自然人的特殊法律主体地位。享有法律主体地位的人工智能具有受限制的意思表示能力,并且原则上由其自身承担法律后果。
关键词:人工智能 法律主体地位 人格 意思表示
一.问题的提出
2017年10月,机器人Sophia被沙特授予公民身份。这引发了世界范围的热议,有人认为人工智能开始正式走入了社会生活,势必会对人类构成威胁。有人则认为,人工智能系统被赋予法律上的人格,开启了一个机器人与人类并存的新时代。随着大数据、移动互联,乃至量子科技的飞速发展,人工智能技术的应用将越来越广泛,因此会对社会生活产生诸多颠覆性改变,不仅仅涉及科技、经济领域,也必将产生一系列的伦理、法律问题。
“这是一个最好的时代,也是一个最坏的时代”,文学巨擘狄更斯在以法国大革命为背景的小说《双城记》中如是写到。的确,以互联网技术为代表的第三次工业革命极大地扩展了人与人之间的联系、爆炸性地增加信息量级之后,以人工智能、大数据和互联网社会三者共同早就的第四次工业革命正在极大地改变着世界。一方面,在依托互联网建立的云计算,并以此为基础获得的大数据配合智能计算机的深度学习算法,人工智能系统成功地模拟了人类的智慧动力。不仅如此,在人工智能仅仅开始试用的领域如语言写作、信息检索甚至投资决策类领域中,其表现已经明显超越人类的能力,其解决问题的速度、定位信息的准确性以及能够连续长时间工作的耐受力方面具有显而易见的优势。人工智能已经被认为成为计算机技术领域的最前沿,这已经意味着生产力的进一步解放。而另一方面,物理学家史蒂芬-霍金对人工智能的担忧犹在耳边,以电影“终结者”系列为代表的讲述人工智能机器人脱离人类控制而“暴走”最终给人类带来毁灭性灾难的场景仍在眼前,人工智能系统引发的事故已经开始浮现:2016年由微软开发的聊天机器人Tay在Twitter上线后公开发表含有性别歧视、种族歧视、同性恋攻击等方面的言论,虽然事后微软表示这是由于黑客对漏洞的攻击以及Tay受到了某些信息源的刺激所致;1989年连续败给苏联围棋冠军古德科夫的人工智能机器人在众目睽睽下突然向金属围棋棋盘释放强电流杀死古德科夫;1978年受电磁波干扰的日本工厂的切割机器人转身切割工人。以上种种都反复说明了一个事实,硬币皆为两面。在人类已经不断用自己的理性认识、改变世界并开始创造“理性”的时候,就要做好一个准备,一个“理性”超越人类的且失控的准备。
法律的的作用既在于定纷止争,也在于未雨绸缪。吴汉东教授认为,人工智能在知识产权的获得、侵权责任承担、个人隐私的人格权保护等方面存可能在巨大的法律问题。基于人工智能的负外部性,有必要“以人工智能的技术发展与规制为主题,形成包含法律规则、政策规定和伦理规范的社会治理体系”[1]。郑戈教授则认为人工智能的立法须“指定一个现有的政府部门负责确立相关的行业技术标准、安全标准和个人数据保护标准,而这个标准不应当是自上而下武断强加的,而应当是对行业自身所发展出来的标准与公共利益、个人权利保护原则的综合考量,其制定程序应当遵循公共参与、听证等行政程序规则。”[2]
然而,需要特别注意的是,无论是基于人工智能的负外部性抑或是基于其行业标准进行规制立法或其他监管层面的顶层设计,都无法离开一个重要的事实:人工智能不同于传统的科技发展。以核能为例,我们能够基于核能双刃剑而可能产生的巨大负外部性,在核安全领域对核能行业进行严格立法和监管。这个制度框架的搭建必要性的基础是核能作为立法规范的客体具有特殊性及其所需兼具保护的法益——安全、高效和促进清洁能源的发展具有特殊性。一言以蔽之,传统的科技发展带来的社会变革所需要的制度指引以解决的问题是如何在对待新的客体,并在客体存在差异时仍在制度体系内识别、保护相关法益。然而,人工智能的制度设计不仅仅是客体差异引发的法律问题:虽是“人工”,却具有“智慧”的系统产生了类似于人类的活动,因此制度设计上也许对待人工智能首先要考虑的是人工智能本身是否是法律关系的主体而非客体。当然,如果从工具论的角度将人工智能仅理解为人类创造的工具,那么无论多么聪明、多么像人而不是人的人工智能都只是客体而非主体。然而,这种理解不但狭隘,且不合逻辑:工具和工具之间如何能产生法律关系?显然,人工智能之间是可以发生类似的法律关系。比如智能投顾开始逐渐成为代客理财的选择的今天,就能想象基金管理人的人工智能系统同证券市场上金融消费者雇佣的人工智能进行交易。在整个交易中,自然人或法人这样的传统法律主体只是背后的委托人或雇主。虽然这种交易目前还没有广泛开展,但可以想象的是这种交易在技术上完全可以实现。显然,此时的人工智能已经可以通俗地理解为从事这个领域的另一种“人”,在这个领域中的具体行为与自然人的行为产生的法律后果可能无异。因而,对于人工智能所需要考虑的问题已不同于以往科技进步带来的问题,即人工智能是否可以具有法律主体资格的问题。
二.人工智能主观能动性的决定性因素——设计理念
人工智能是否具有法律主体资格,这取决于其是否具有自然人相同或相似的属性与法律地位。从法理上说,一国公民是具有一国国籍的自然人,可以在其所属国享有法律规定的权利与义务,包括公法意义上的权利和私法意义上的权利。机器人公民无法像自然人一样行使权利、承担义务,其根本原因在于人工智能系统不具有主观能动性。主观能动性通常是指人的主观意识和实践活动对于客观世界的反作用或能动作用,是人之所以与物、动物相区别的核心要素。人类之所以具有主观能动性,是因为大脑的作用。人的大脑是人类思维的物理本体,是世界上最复杂的物质,其构造与运行机理的奥秘至今仍未被揭示。但是主观能动性应当具有理论上求解范围不局限于某个领域的特点。比如不同人在面临同一个问题或场景时,对问题或场景的描述都不相同,反应也不相同。并不存在一个内涵与外延确定的反应的全部方式集合,每个人并的反应并不是这个集合中元素或元素的组合。自然人遇到任何问题或场景首先要辨识,其次是反应,这个反应具有非常高的偶然性,伴随着人的主观情绪变化。而法人或非法人组织由于在法律上视为主体,而其本质却是不具有生物学上的意义,其问题的辨识和反应都是依靠自然人完成。只是通过私法上相应的归属规范将自然人的行为的法律后果归于法人或非法人组织,法定的自然人的行为或意思表示即视为法人或非法人组织的行为或意思表示。[3]拥有主观能性的法律主体可以行使权利、履行义务,正是因为法律赋予了其权利能力。因而倘若人工智能对问题的反应如同自然人能够进行开放式求解而非如同传统机器对特定类问题依靠穷尽解法求解,则可以认为人工智能具有有一定的主观能动性,也就具有了权利能力的基础。因此应当确定的是人工智能的基本原理,以确定其是否可能具有法律主体的相应资格。
一般认为,“人工智能”一词肇始于一九五零年代美国的一次学术会议,由来自生命科学、计算机、数学、神经科学等领域的学者聚集在一起的头脑风暴(Brainstorm)。由麦卡锡提议将这种人类造的可能能够感知、意识、学习甚至自主创造新的智能的机制(institution)称为“人工智能”(Artificial Intelligence)。目前常见的人工智能包括的皆是某个领域的人工智能如道路驾驶、下棋、计算等方面。从长远看,随着人工智能技术的进一步发展,在广泛的通用领域发展出通用人工智能(Artificial GeneralIntelligence)是可期待的。
从人工智能的技术特性看,其智能化的发展是基于不同的设计理念。早期人工智能的设计理念是符号主义(Symbolism),符号主义的理论前提是,“其一,人类富有智能地处理各项实务的能力,得归功于人类理性思维事物的能力;其二,人类理性思维事务的能力,等同于一种自动处理各种物理符号的内部心理能力”[4]。换言之,在符号主义视野下,人之所以能产生各种思想、表达和行为,是由于人本身产生的一系列物理符号的支持。各组物理符号包含了带有特定含义的符号,这些符号是人类活动的基础。各类符号的排列组合构成了我们想象、创作、发明的基础。因此,以符号主义为设计理念的人工智能重在提供一套符号系统,由系统识别所需要解决的问题,并通过符号的选取和排列拆分建立新的符号链条。可能在一个问题的解答中会产生若干符号链条皆是答案,由系统作出不断排除筛选后最终确定一个最优解。前述提到的Alfago就是基于符号主义的设计理念。而事实上,现存的从事某一领域的人工智能的设计理念大部分均是来自于符号主义。在这类人工智能中,问题解答的每一步都伴随着大量运算——对大量符号的选择和排列。这正是基于“任何物理符号系统若具有充分的组织形式和规模均会表现出智能”[5]的理念。此外,对问题的准确识别是符号主义系统的巨大问题。因为同一个问题可有不同问法,也就有不同的符号链条;而字面意思相同问题在不同情形下代表的含义则可能不同,此时需要准确找到问题对应的符号链条,要求超高的运算能力。符号主义理念代表了人工智能的设计从功能主义为切入点,以解决问题为目的,将一切问题识别为机器语言,将一切答案通过符号的排列组合选择而来。显然,这一类人工智能需要依托超高速的运算和超大量的符号存储。运算速度越高、符号容量越大,问题的识别越准确,提供的解答越多,最终解越优化,整个解答过程越迅速。然而,这一类人工智能仅能在限定的领域(符号容量)内做出识别与求解,其本质上依靠的仍旧是人类事先输入的符号和运算方式。尽管它在某些领域会显得非常智能比如完败李适时和柯洁的Alfago,但是这仍旧是来源于其对全部围棋落子求解答案符号的排列组合选择。因此这种人工智能可理解为性能格外突出的计算机,不能超越其设计使用范畴,亦没有任何主观能动性。其对问题的机械符号化理解使得任何问题的解决方式都十分单一,没有任何超越推理答案范畴的可能性。
另一种人工智能的设计理念称为联结主义(connectionism)。与符号主义相比,联结主义显然更具仿生学的特色。联结主义首先将智能视为大脑中神经元的联结和信息传导的结果。在人类大脑中,大量神经元相互联结并对刺激大脑的信息进行传递,使得人类大脑能够产生思维。这种刺激可以是视觉的、听觉得、嗅觉的等等。神经元则包括了能够接受刺激、传导信息的各个单元。因此,如果人工智能能够模仿人脑神经元接受刺激并进行信息传递,那么就能如同人脑一样产生思想进行思维活动,并且产生自我学习的能力。联结主义设计理念下的人工智能包含着人工神经网络系统,网络系统的神经元的联结可以改变。而最重要的在于人类事先向人工神经网络输入了控制和改变神经元联结的算法,在这套算法的指引下,人工神经网络受到刺激后,不同信息输入系统,神经元进行不同联结,传递不同信息,产生了仿生学意义上类似于人脑的反映。显然,在联结主义的设计理念中,事先输入的算法极为重要,这决定了人工神经网络对什么刺激有反应、对什么刺激没有反应,也决定了人工神经网络受刺激后的联结如何连接。事实上,这套事先置入的算法类似于人类的世界观,世界观是多样的、算法也是多样的。我们常常认为难以理解他人做出的某些行为而去向他讲道理,有时能讲得通有时讲不通甚至反被他人嘲笑。这是因为不同个体之间世界观不完全相同,而讲道则是基于个体的世界观宣扬方法论的过程。在世界观差别不大的情况下,方法论的宣扬可能被采纳,道理就讲通了。而世界观差别较大时,基于世界观产生的方法论差异极大,显然他人不大可能接受方法论的宣扬。同理,对于联结主义的人工智能来说,事先置入的“世界观”即算法决定了其神经元的联结,最终也决定了问题的求解。如果算法差异极大,那么最终的求解也必然差异极大。但是这套算法保证了所有的刺激均可以在算法的控制下实现某种信息的传递并得出人工智能的反馈。此外,对某种信息的一次接触后,神经元可以不断联结、不断改变联结、得出相似或相异的答案。这样,联结主义理念下的人工智能就可以通过自我信息的交互不断优化求解,产生类似于人类的学习能力,实现提高自身水平的过程。相比于基于高速运算和海量符号选择以实现智能化的符号主义模式,联结主义对所有问题识别为不同的刺激,自主依据人工神经网络的信息交互模仿在类似刺激下,人类的脑回路或反应,求解的答案不限于一个固定的答案池中的的选择,而是开放式的,且可以不断自主创设新的联以自我提高。Alfa Zero仅使用了四个神经网络专用芯片,通过三天的自我对弈490万盘棋,一出关即100:0横扫Alfago。[6]基于联结主义设计理念的人工智能已不再局限于数据库的存储量,因而产生了多维的求解视角。而最重要的在于其人工神经网络自我创设联结以实现强化学习的能力更是符号主义理念下的人工智能所不能具备的。
比较两种模式,符号主义设计理念下创造的人工智能非但不具有人的主观能动性,其有限求解的局限事实上使得这个显得非常“智能”的机器仅能在特定领域下对问题进行识别并寻求有限解中的最优解,既不能超越场景也不能跳出求解方式的有限性,因此并没有赋予其法律主体资格的必要。其一切活动终局性的结果是已然确定的,只不过具体的答案不同,可能对外产生的活动来源于人的指令或者设定,只是人将其作为具体活动方式的“顾问”,但活动的法律性质不会因人工智能产生任何变化。而联结主义的人工智能由于其自我创设联结从而具有学习能力,使得其不但能够不断提高求解的能力、扩大求解范围,且从技术上由于多样的联结方式突破了求解的固定最大范围,能够期待运用于广泛的场景中。因此,联结主义理念下的人工智能有了一定的主观能性,甚至在一定范围上有了意思表示之能力。
以联结主义为设计理念的人工智能突破了符号主义人工智能难以“具体问题具体分析”的能力限制,并在一定程度上能够实现自由意志的表达,虽然实现这种自由意志的表达的过程是人类设计的。当然这并不是说现代以此为设计理念的人工智能已经可以实现人机交互的高度自由化。这是因为现有技术下的人工智能虽然具有强化学习能力,但是这种能力基于算法的指引下通过比较不同联结,不断修正其参数后最终选择的结果。这种学习能力在初始阶段会显示非常高效的提高,因为不同联结差异较大,参数不断被修正,其能力提高较快。随着场景不断增加,问题的差异程度降低,联结的差异性也降低了,此时人工智能的学习效率下降。场景相似度较高的情况下,系统会将其默认为之前辨识过的场景。而场景辨识能力能力的高低,则取决于置入算法的科学性。因此虽然理论上联结主义可以无限度求解并不断提高学习能力,但是由于事先置入算法的限制,使得相似场景识别难以十分精确,所以此时人工智能无法准确辨别与之前相似场景的区别,求解必然不准确。若考虑算法的限制和场景识别的准确性,联结主义理念下的人工智能虽比起符号主义有了求解范围、学习能力和理论上应用领域的提高,但是由于置入算法的限制,导致了其辨识场景精确度的限制,仍然难以作为如同人类一样能够对各类场景做出完全真实意思表示,或者说,其意思表示能力受到了算法的限制。因此,算法的重要性不言而喻,“对于人工智能最重要的就是使得其算法能够像具有解决问题能力的自然人一样有效”[7]。当然,从发展的眼光来看,目前任何对人工智能下结论的观点都是轻率的。应当强调的是现代的部分人工智能系统已经具备了一定的深度学习能力,但这依然是建立在其事先所设定程序和既有数据基础上的,并非自觉自发地的自我学习能力。因此,那种轻言人工智能系统全面取代人类,甚至可能灭亡人类的观点是不负责任的,也是站不住脚的。不过,对于那些辨识场景区别较大、精度要求不高的工作,联结主义理念下的人工智能系统已经开始并会越来越多地替代人类,其发展势头之迅猛,怎么估计都不为过。随着越来越多的“Sophia”出现,对其进行正确引导、予以规范化管理,就成为下一步人工智能发展的关键。从这个意义说,随着人工智能越来越多地参与法律活动,甚至人工智能已经开始代替人类从事法律行为的如今,赋予其法律主体资格不失为一种有益尝试和可供选择的路径。但是法律主体资格亦不单一,将人工智能视为人或其他主体则需要进一步探讨。
三.人工智能的法律主体资格
联结主义人工智能在一定程度上具有了自然人所具有的主观能动性,甚至具有了意思表示之能力。在学术界仍存在不少反对人工智能具有法律主体资格的声音:“以这种拟人化的想象来理解机器人,试图制定规范来约束它们的行为,甚至赋予它们法律主体资格,这便显得有些不合时宜了”[8]。事实上,否认人工智能具有任何法律主体地位的学说如“奴隶说、工具说”[9]都未能考虑到人工智能已在一定程度上具备了意思表示能力。[10]
(一)人工智能是否是“人”
在现行法律体系下,法律主体或法律关系的主体依法域变化。在宪法法域下,法律主体是公民和国家;在行政法法域下,法律主体是行政机关与行政相对人;而私法领域下,则是自然人[11]、法人及非法人组织。从法解释学上,法律主体的范畴盖然不能超出上述范围。
人工智能法律主体资格之考虑应该不应扩展到宪法领域。以Sophia为例,可以看出公法层面的法律人格对于人工智能系统没有实际意义。首先,人工智能系统不具有生理意义上的性别区分。性别是生物学上的概念,人类分为男性女性,是因为其天然的身体构造以及内在基因差异而成的。虽然Sophia被认为是一名女性,但这仅仅是开发者对其外形和行为模式的性别设定。近期,Sophia甚至为沙特的女性权利呼吁,但这并非因为其具有真正的女性身份,不过是其控制者的商业炒作而已。其次,人工智能系统不能成为宪法意义上的权利享有者和义务承担者。正如法人无法享有宪法上的选举权与被选举权一样,赋予不具有自主意识的主体以政治权利是可笑的、荒唐的,更无必要。最后,人工智能系统应该为人类社会服务,没有必要赋予其“人权”。人类社会的法律制度之所以赋予人工智能系统以法律人格,目的是更好地利用科学技术改造社会,服务人类。
事实上,作为私法上法律主体的自然人,指的是法律上的人而非生物学上的人。虽然现代民法鲜有不将生物意义上的人视作法律上人的作法即不赋予其自然人的民事权利能力。区分法律上的人与生物学上的人似乎没有什么意义,但是,这一点对于明晰自然人随着民事主体制度的建立而确立其法律主体地位、理解自然人的范畴大有裨益。
如果说生物学上的人指的是作为人类这个生物种群概念,那么法律上的人则是在生物学的人上附加了“人格”的特征。法律上的人,“是享有法律人格,并据以独立参加法律活动、享有权利、履行义务、承担责任的主体。”[12]因此,倘若生物意义上人不具有独立参加法律活动、履行权利义务并承担责任的资格,则不能视为法律意义上的人,古罗马时期的奴隶即是如此。自原始社会发展而来,法律上的人呈现出逐渐与生物意义上的人范畴不断接近的趋势。封建时期法律意义上的人与人之身份息息相关。贵族或平民、男人或女人这些都影响了完整意义的法律上“人”之认定。随着市民社会的兴起和资本主义萌芽的出现,平权思想的勃兴使人们开始意识到生物意义上的人均应为法律所承认为主体。随着法国大革命将“人生而平等”的理念不断推向全世界,及至今日,现代文明国家已经不在法律主体资格的确立方面对生物意义上的人作出任何差异性规定了。
在现代区分公私法的法律体系中,自然人的概念也就与生物意义上的人的概念外延几乎重合,是指“具有生命的人类个体,是一个相对于法人的民法概念”[13]。自然人与同是作为民事法律主体的法人与非法人组织相比,最明显的特征即是具有生命。生命的长短、延续受到自然的支配亦受到人力的影响,但绝非人力所彻底改变。这也是生命最大的特征。如前所述,与民事法律客体的物相比,现代民法上自然人的概念外延已经几乎与生物学意义上的人概念外延重合,但认为认为自然人就是生物学意义上的人或具有生命的人则未免不合时宜。事实上,赋予生物学意义上的人以人格是自然人概念内涵中核心的因素,而康德哲学中最为重要的论断就在于人只能作为目的而绝不能作为工具,这正是人格笼罩下自然人的属性。古罗马时期没有人格笼罩的人就会被当做工具或者物对待。人工智能不论发展的哪一步都不能超出人类所创造的工具这一本质属性。人工智能系统的底层技术主要是计算机运算、大数据以及移动互联网。在这个基础上,人工智能可以完成非常复杂的计算,并据此作出在速度上远超自然人的判断和决策,而且在这个过程中,不受外界的任何干扰,排除了人类在行为决策中的怯懦、犹豫、患得患失等人性弱点。在Alphago几次以绝对优势战胜世界顶尖围棋选手的比赛中,可以清楚地看到这一点。不过,人工智能系统的能力范围是以事先被输入必要的数据、设定目的程序实现的。设想一下,如果让只设定了围棋程序的Alphago与国际象棋选手去比赛,结果会如何?这样的Alphago是否有一天对国际象棋产生兴趣,主动自觉地去学习国际象棋?除了那些可以凭借明确规则、准确地计算可以完成的工作,人工智能系统是否可以主动从事个性化的工作,如艺术创作、烹饪、情感陪护等?这些问题的答案至少到目前为止是否定的,其行为模式都是由人类预先设定好的,其目的也在于为人所设定的目的服务。由此观之,人工智能是无法归类入人(自然人)的范畴的。
由此可以看到,人(或自然人)最重要的法律特征和法律上的属性在于人格,使得其不能作为工具而只能作为目的。显然,人工智能不是“人”,因为它不符合人(或自然人)这一特质。
(二)人工智能能否成为其他法律主体
如前所述,依据康德哲学,人(自然人)不能作为工具而只能作为目的的属性从根本上排除了人工智能属于法律意义上人的可能性。那么,人工智能是否可以超脱民事立法中自然人与法人二元结构而作为其他的主体存在呢?虽然从实证法的角度讲这是无法通过任何现有的法律释义解释出来,但是作为新兴领域的人工智能倘若确有作为法律主体的必要,则之后的制度设计未尝不能作出更改。
民事主体制度也随着历史变迁不断变化。在法人未得到民事立法确立其主体资格之前,只有部分自然人享有法律主体资格。在法人的法律主体资格得到法律确认后,法人开始与自然人一样具有了人格。[14]由于“法的人格者等于权利能力者”[15]这种独立的人格是法人之所以区别于其成员独立存在的原因,也是其享有权利、承担义务的原因。[16]人格是权利义务的起点,享有独立人格的法人便可以以自己的名义独立地从事经营活动并独立承担民事责任。由此,赋予法人人格便赋予了法人独立法律主体地位。这一点上似乎法律的目的就是承认法人的人格,法律主体地位是法人获得人格后的客观结果。但实际上,从法人的起源上看,逻辑则是恰好相反的。赋予法人法律上的主体资格并不是因为赋予了其人格客观导致的结果,反而是之所以赋予其人格就是因为需要一个具有主体资格的法人出现。具体言之,出于功能主义的需要,经济发展需要一个能独立行使权利、履行义务和承担责任的法律实体,因此法律上需要将人与财产的集合体视为法律上能够与自然人相并列的主体,因而赋予其人格,使得其具有了法律上的能够以自己的名义行使权利履行义务的资格。从这个角度上讲,法人是法律的产物。[17]也正是由于法人是法律的产物,因而其作为法律主体受到了与自然人不同的约束。比如现代民法不会因为自然人财产减少等原因减损其人格,而法人可能因为其责任财产不当减少,或沦为内部人的工具而导致其人格形骸化。
对应到人工智能,现行民事主体二元结构下[18],人工智能难以取得一席之地。但是如前所述,联结主义理念下人工智能的出现使得其具备了主观能动性。随着人工智能的不断发展,智能化强于sophia或Alfa Zero的人工智能会不断涌现在越来越重要的领域。比如根据彭博社报道,首个由人工智能管理的全球股票ETF已经在2017年11月开始交易。可以预见的未来,人工智能将更多地参与需要大量人工计算和分析的领域。而对于类似担任基金经理的人工智能系统,显然需要有能力接受自然人的委托,和其他自然人甚至人工智能系统进行交易,这都需要其本身具有法律主体资格。因此同样出于功能主义的考量,法律授予这类人工智能以人格,使其获得法律主体地位。2016年,欧洲议会向欧盟委员会提出为机器人制定民事规范(Civil Rules on Bobotics)的报告,第50条f款表明,“从上远看,应当为机器人创设特殊的法律地位,以保证复杂的自动化机器人能够作为电子人(electronic person)的法律主体存在。这样它们有承担弥补自己造成损害的责任,并且能在其自主做出行为决策或以任何方式与第三方交往时享有电子人格(electronic personality)”[19]。
如同最初法人获得法律主体地位一样,现行法律同样不需要局限于现有民事主体分类,完全可以新创设一个特殊的人工智能法律主体。当然,人工智能毕竟是由于智能才享有的法律主体资格,因此其资格也受到了技术的影响。不分青红皂白一律赋予其法律主体资格并不合时宜,仅对联结主义理念下的人工智能,在其智能范围内授予其法律主体资格更为合适。
此外,也并非所有联结主义理念下的人工智能均可享有法律主体地位。第一,比如Alfa Zero这样的人工智能,尽管其智能化程度很高,学习能力也很强,但是没有必要授予其法律主体资格。因为它仅用于围棋领域,无论围棋水平多么出神入化,都不存在从事法律行为、行使权利与承担义务的可能性,亦丧失了其具有法律主体地位的目的。这并不是说只有设计目的是从事法律行为的人工智能才能行使享有法律主体地位。因为倘若人工智能的目的是从事事实行为如发明、创作或准法律行为如催告等,仍与其权利义务相关,此时仍有必要承认这类人工智能具有相应的法律主体地位,其因此才可能基于创作出作品而享有著作权。[20]而权利与义务的原点即是权利能力,是以,对于设计目的没有必要授予其权利能力的人工智能或从事领域与权利义务无关的人工智能如下棋、唱歌、跳舞等,不应授予其法律主体地位。
第二,人工智能的法律主体地位毕竟是基于社会发展需要而由法律认定的,其获得法律主体地位后行使法律行为、参与法律关系产生的法律问题难以机械套用传统的民事主体规则。法律应该严格控制人工智能系统法律人格的取得,规定较高标准,并且由相关机构进行实质性审查,履行类似法人登记的手续才能赋予。
四.人工智能的意思表示和法律后果承担
如前所述,可以承认人工智能系统以私法意义上的法律主体地位。接踵而来的是两个问题。其一,被赋予了一定权利能力的人工智能将会以具有法律人格的法律主体参与各种各样的市场交易,换言之,人工智能需要从事各种各样的法律行为。而在其从事法律行为的核心就是意思表示。那么人工智能的意思表示如何形成,是否应该对意思表示作出相应限制?其二,作出意思表示的人工智能从事一定法律行为后,法律后果如何承担?
(一)人工智能的意思表示
首先,同作为法律的产物,不妨考察与人工智能法律主体相似的法人的意思表示如何形成。毋庸庸质疑的是,法人本身不能思考也不能表达。如前所述,其意思表示是通过法律上的归属规范将本质上人的意思表示归属于法人。因此,法人的意思表示是由其法人机关或者说由人组成的法人组织机构实现的。一方面,法人具有法律主体资格,对外能以自己名义活动。这一点就体现在法人自己的名称或曰商号(虽然商号非法人独有);拥有独立的财产,这个财产基础完全独立于法人的组织机构或设立法人的自然人,这也是法人人格的物质基础;凡有人格者必有思维。[21]拥有了法人人格后,法人依靠法人机关进行思考和活动,法人机关也犹如人之大脑一般代替法人决策,代表法人对外活动。而法人机关依法必须设立的原因正因为其代表法人做出意思表示、从事法律行为。法人的意志由法人机关实现,人工智能系统的意思仅凭其运算能力和基于大数据的分析,可否形成独立的意思?这个问题又要回到两种设计理念下的人工智能。如前所述,符号主义理念下的人工智能限于其有限的问题辨识与求解,本身不应享有法律主体地位,不具有法律人格,因此当然没有意思表示能力。具有法律主体地位联结主义理念下的人工智能,在某个领域如股票交易、基金买卖等方面实现了高度智能化。可以说在这个领域内比人类专家或专业的投资经理还要专业,并且可以期望对此领域内的问题与场景实现了高度辨识,也能够做到通过不断的自我学习提高水平并且其理论上无限求解下实现了“具体问题具体分析”。因此,可以人为联结主义理念下的具有法律主体资格的人工智能在其从事的领域内,基于问题与场景识别、算法指挥下的创设联结并传递信息最终得出求解的过程即为其意思表示的过程。
其次,如果将这种机器依靠技术手段进行信息处理并表之于外的过程视作意思表示的过程,那么事实上此与无论是自然人或是法人的意思表示具有了巨大区别。前已备述之,本质上法人依靠自然人进行意思表示。而自然人进行意思表示的过程是其行使主观能动性的生理过程。承认人工智能具有一定的主观能动性却无法保证这种基于运算和信息交互的主观能动性能如同人类的主观能动性一样“可靠”。这种担心主要源于我们队机器人思维过程的“黑箱”无法完全认知。事实上,虽然人工智能是人类创造的,联结主义设计理念下的人工智能的也不断在模仿人类的思维过程创设联结,其置入算法也是人类设计的。但即使如此,其联结的具体方式、传递信息与处理信息的过程仍使“黑箱”。因此会担心一旦人工智能出现“暴走”情形,做出反常的意思表示和决策将带来的巨大法律风险。但事实上,人类对自身基于生理上的意思表示过程,即信息的输入、处理和决策的思维过程也不完全了解,对于人类来说也是“黑箱”。此外,人类的思维过程常常更加不合理、更加反常,且更会受到场合、时间、身体状态等各种非理性因素的影响。然而除了现代民法设置的行为能力上年龄与精神状态的限制,没有人会质疑为何承认人类意思表示能力,仿佛精神正常的成年人的意思表示能力都是一样的,一定不会做出超乎理性的选择。因此,并没有必要对人工智能的非人类心理决策过程过分担心。不过,考虑到人工智能确有“暴走”的可能,可以对适用人工智能进行法律活动的领域比如股票交易进行限制。比如限制其交易的价格、数量、交割方式等。这种限制既包括技术上的事先限制,亦即提前在人工智能系统中置入限制使其无法做出超越范围的意思表示,也包括法律上的明示限制,亦即向交易相对人或市场公开其使用人工智能交易的事实,并明示超过某个范围的意思表示无效或效力待定但赋予相对人撤销权。这样,既不会阻碍人工智能的广泛使用使人类生活更加便利,也不会因为不承认人工智能的意思表示能力而造成大量使用人工智能进行交易的场景下法律效果待定或无法评价的情形出现因而阻碍交易,并且能够防止极端情况下人工智能因“暴走”而做出极端的反常意思表示损害交易相对人或委托人的利益造成难以弥补的损失。
(二)人工智能从事法律行为的后果承担
论及人工智能从事法律行为的后果承担,首先应当明晰法律后果的承担本质上也是权利如何行使、义务如何履行、产生的违约或侵权责任如何承担?[22]仍不妨考察法人从事法律行为的后果承担。事实上,法人具有法律主体资格,其具有法律人格必然得出法人能够以自己的名义从事法律活动,行使权利、履行义务、承担责任。只是这个过程可以由法人机关代表法人进行,比如法定代表人提出抗辩权、行使合同中的撤销权等;也可以由法人本身进行,如法人以自己的财产承担责任。事实上,法人独立的财产是法人具有法律人格的物质基础,而由于法人财产的减少减损了法人的责任财产,实际上降低了法人承担责任的能力,因而法律对法人财产减少的行为做了较为严格的限制。一方面法律对法人财产减少(减资)作了程序性规定以保证法人的责任承担能力不至于降低到损害第三人利益[23];另一方面,则从反面规定了未依法减损法人财产因而导致法人责任承担能力降低甚至损害第三人利益情况下的后果——此时很可能导致法人人格被否认,使得法人背后的自然人承担责任。[24]
人工智能享有法律主体地位,拥有法律人格决定了人工智能必须能够独立承担法律后果。享有法律主体地位的人工智能在其从事法律活动的领域,可以行使权利、履行义务。关键的问题在于责任的承担。法人从事法律活动以其全部财产负责,股东仅以其出资为限承担责任。而人工智能不同,人工智能享有法律人格的基础不是其财产,而是其类似于人的“智能”。“具有独立意志的人工智能产生的责任无法苛责新技术的创造者”[25]。是以,要求人工智能背后的设计者承担人工智能的责任似乎无限加重了设计者的工作,使得设计者再也不敢创新。但是将人工智能难以以其财产承担责任的风险归于与人工智能进行交易的相对人又似乎不公平。因此应当在两个维度上设立人工智能的责任承担制度。
一方面,原则上人工智能的责任由其自身承担。法人的法律行为后果由其自己独立承担,但其最终权益归属于它的股东。可以考虑为人工智能系统设置类似公司股东的权益归属主体,由人工智能系统的开发者、受让者等相关主体充当。而人工智能从事法律行为的责任承担上,可以考虑为人工智能设立类似公司注册资本的基金,以保证人工智能参与法律活动的初始具有一定的责任财产。随着人工智能参与交易的增多,人工智能因此获得的营利也会增多,其客观上的责任财产也会则多。此时可以对基金基础上增加的财产设立公积金,如公司法上将一部分营利纳入法定公积与资本公积。这个公积金成为人工智能责任财产的一部分,提高了人工智能承担责任的能力。多增加的财产纳入公积金一定比例后,其余的均可作为待分配利润将其分配给权益归属主体。
另一方面,施行强制保险制度。随着科技的进步,高速、核能等现代科技在极大地解放劳动力的同时也往往伴随着潜在的风险,虽然科技工作者长期致力于将风险降到最低,但是一旦发生风险往往意味着巨大的损害发生。人工智能科技也是如此。保险制度能够在“由于人工智能潜在的不可预估性使得人工智能一旦利用不当,可能造成难以估计的重大危害”[26]时,以较小的经济成本通过保险分担风险。而在人工智能领域,英国下议院在2006年提出一份有关无人驾驶汽车法律责任问题的提案,提出汽车强制险在能够驾驶者将汽车控制权完全交给自动驾驶系统时为其提供保障。[27]事实上,对可能产生侵权责任的人工智能投保强制责任险,将“大大减少人工智能侵权事件发生时的经济赔偿纠纷,直接促进人工智能行业的良性发展。”[28]
五.结语
人工智能系统基础技术的发展突飞猛进。如量子技术在人工智能领域的应用,对其大数据计算和处理能力的提高将是革命性的;物联网技术的飞速发展,使得人类社会将很快就会进入到一个“万物互联”的时代;更为重要的是,各国政府、许多科学家以及无数的商业公司,对人工智能越来越重视。最为凸显的问题就是人工智能在能给人类社会带来显而易见的便利的同时,其法律地位也受到了越来越多的关注。而人工智能是否具有法律主体地位取决于其“智能”性,而在目前的技术条件下,其“智能”性则取决于其设计理念。“符号主义”理念将问题转化为符号,依托高速运算,求解也在符号的有限排列组合中寻求最优解,难以具备作为法律主体的“主观能动性”,亦难以行使权利、承担义务。而“联结主义”将人工智能的设计依据仿生学原理,创设了类似于神经元的联结。事先置入的算法对问题与场景的刺激进行识别后,人工智能可以自我创设联结,不断提高求解的水平。基于联结主义下人工智能可以实现理论上求解可能的无限,并在一定领域具有主观能动性,实现“具体问题具体分析”,虽然仍然受到算法和问题辨识准确性的限制,但是随着算法的不断提高,其具有无限发展的可能。因此赋予“联结主义”理念的人工智能特殊的法律主体地位符合经济社会发展的需要,而这毫无疑问地会带来人工智能系统指数式增长,沙特政府赋予Sophia公民身份,其实际的法律价值难以评述,但至少,其象征意义非常重要。这意味着二元法律主体制度受到了严重的冲击以及新法律主体的诞生已近在眼前。见与不见,变革已经开始,这值得我们深思和认真对待。
来源:《人工智能法学研究》2018年第1期,社会科学文献出版社2018年版
注释:
[1]吴汉东. 人工智能时代的制度安排与法律规制[J]. 法律科学(西北政法大学学报), 2017, 35(5).
[2]郑戈. 人工智能与法律的未来[J].探索与争鸣, 2017(10).
[3]如《民法总则》第六十一条 法定代表人以法人名义从事的民事活动,其法律后果由法人承受。
第一百零五条 非法人组织可以确定一人或者数人代表该组织从事民事活动。
[4]徐英瑾.《心智、语言和机器一维特根斯坦和人工智能科学的对话》[M],北京:人民出版社,第32-33页。
[5]Haugeland J. Artificial intelligence: the very idea[J].Philosophical Review, 1989, 7:3-11.
[6]新闻参见https://www.sohu.com/a/198953993_614076.
[7]Mccarthy J. What is Artificial Intelligence?[J]. Communications ofthe Acm, 1998:1 - 4.
[8]郑戈. 人工智能与法律的未来[J].探索与争鸣, 2017(10).
[9]Hristov K. Artificial Intelligence and the Copyright Dilemma[J].Social Science Electronic Publishing, 2017(57):442.
[10]参见袁曾. 人工智能有限法律人格审视[J].东方法学, 2017(5).
[11]我国《民法总则》第十三条将《民法通则》第九条规定的“公民”改为“自然人”,这是确立民事主体制度的体现,将“公民”这一具有宪法意义上公法权利的主体与私法领域上民事主体加以区分。
[12]徐文. 反思与优化:人工智能时代法律人格赋予标准论[J]. 西南民族大学学报(人文社科版), 2018(7).
[13]陈甦主编. 民法总则评注(上册)[M].法律出版社2017年5月版,第86页。
[14]但法人是否具有人格权这个问题仍存在争议。参见王利. 人格权法研究[M]. 中国人民大学出版社, 2012,第164页.
[15]北川善太郎, 仇京春, 李毅多. 日本民法体系[M]. 科学出版社, 1995,第56页.
[16]Prentice, Daniel D. Gower's principles of modern company law /[M].Sweet & Maxwell, 1997,p.77.
[17]参见施天涛. 公司法论.第3版[M]. 法律出版社, 2006,第5-7页. 在法经济学上,法人究竟是法律的产物还是契约的产物是一个悠久的命题,这里不讨论法人的性质为何,只想强调法人概念的出现是法律基于功能主义的考量而创造的。
[18]民事主体为二元结构或三元甚至多元结构存在争议,但不是论述重点不再赘述。
[19]European Parliament. Report with Recommendations to the Commissionon Civil Rules on Robotics, A8-0005/2017:18.
[20]如017年5月,微软智能机器人“小冰”的原创诗集《阳光失了玻璃窗》正式出版,售价近50元。是人类历史上第一部100%由人工智能创造的诗集。参见孙占利. 智能机器人法律人格问题论析[J]. 东方法学, 2018(3).
[21]参见施天涛:《公司法论》(第三版),法律出版社2006年版,第6页。
[22]理论上,即使人工智能从事的是私法上的行为,仍然可能产生公法上的责任。比如作为基金管理人的人工智能可能由于违规交易而产生公法上的责任。但是这个问题更为复杂,本文仅讨论民事责任。
[23]如《公司法》第一百七十七条 公司需要减少注册资本时,必须编制资产负债表及财产清单。
公司应当自作出减少注册资本决议之日起十日内通知债权人,并于三十日内在报纸上公告。债权人自接到通知书之日起三十日内,未接到通知书的自公告之日起四十五日内,有权要求公司清偿债务或者提供相应的担保。
[24]如《公司法》第二十条 公司股东应当遵守法律、行政法规和公司章程,依法行使股东权利,不得滥用股东权利损害公司或者其他股东的利益;不得滥用公司法人独立地位和股东有限责任损害公司债权人的利益。
[25]Buchanan B G, Headrick T E. Some Speculation about ArtificialIntelligence and Legal Reasoning[J]. Stanford Law Review, 1970, 23(1):40-62.
[26]O'Neil C. Weapons of Math Destruction: How Big Data IncreasesInequality and Threatens Democracy[M]. Crown Publishing Group, 2016,p.3.
[27]参见宋云霞等:《海上丝绸之路安全保障法律问题研究》,载《中国海商法研究》2015年第2期。
[28]袁曾:《人工智能有限法律人格审视》,载《东方法学》2017年第5期。