导言
如果以宽松的标准看,人工智能早就在我们的生活中,扮演着辅助性的工具角色。一直以来,它们都在从事着单调无聊、肮脏和危险的工作:在自动化工厂里,它们千百遍的重复着同一个动作,既准确又不辞辛劳;在肮脏的下水道中,探测者管线的断裂和泄漏;在战场上,无人战斗机在奋不顾身的消灭着敌人。随着人工智能的进步,它们都开始承担更多更复杂的任务:它们可以帮助研究和教育工作的展开,它们可以丰富我们的娱乐,它们可以在医疗方面发挥重要的作用,甚至它们还可以照顾老人、看护孩子。然而,这种原本乐观的景象,在一夜之间被颠覆了。一个震撼性的事件,是AlphaGo成为第一个击败人类职业围棋选手、第一个战胜世界围棋冠军的智能机器人,这严重激发了人类在智力领域前所未有的挫败感。一旦这些与电影、小说早已展示的科技负面形象结合起来,一场反省人工智能的讨论就将持续而普遍的上演。
在这场讨论中,法律必然是其中的主角之一,因为法律的功能就是“在广泛的领域中,指引、计划和控制我们的生活”,包括人工智能在内的科技发展当然包含其中。但讨论不能是杂乱无章的,必须对症下药,一切的起点都是这篇文章的标题:什么是人工智能对于法律的挑战?在这篇文章中,我将首先区分出这种法律挑战的基本类型,并指出其中的错误和薄弱之处(第一和第二节);然后,再回头讨论人工智能与其他科技发展之间存在的某些关键性区别(第三节);接下来,我将集中讨论人工智能所引发的两个真正严峻的挑战,以及可能回应的初步方向;最后,是个简要的结论。
一、“挑战”的基本类型与一个错误的方向
这篇文章不可能讨论所有人工智能所引发的问题,所以就像题目所限定的一样,我的讨论主要在法律的领域内展开。这种讨论定位的确定,将会使得“你(讨论者)不像科学家一样了解人工智能”之类的批评,至少变得意义有限,因为此处主要涉及的,并不是科学的话题,而是法律的话题,此时法学家明显比科学家更有发言权。当然,讨论的顺利展开,必然开始于对这种“法律挑战”之性质的判断。这就需要讨论者将注意力从具体的关心中暂时离开,转而关心战略性的问题,看看人工智能之法律挑战的基本结构,从中找到最有讨论意义的那个或那些,再转回头面对自己认为最有重要性的话题。经过这样的反省态度,讨论者才可能以更好地方式面对人工智能对法律的挑战。本节就用来完成这个任务,并且紧接着指出哪个方向是错误的。
(一)什么是人工智能的“法律挑战”?
显然,随着人工智能应用的领域越来越广泛,它的影响力也在政治、经济、伦理甚至生活的所有方面,以越来越明显的方式呈现出来。但是,这些影响力并不一定能够被叫做“挑战”,如果它是以纯粹工具的方式改善了我们的生活,那么这种工具性的效果就不能为视为某种挑战。就像利用大数据为被拐骗的儿童找到亲生父母的做法一样,这是我们欢迎的改变,但这并不是挑战。要想将由它所引发的某种改变视为挑战,那么必然是因为,这种改变导致既有的做法或者看法被迫要做出某些相应的修正,或者必须创造出全新的做法或者看法。看法与做法的不同,背后依赖的是观念(belief)与行动(action)的区分。如果将关于观念的称为“理论的”(theoretical),将关于行动的称为“实践的”(practical),那么人工智能所带来的挑战,就可以分为理论上的挑战与实践上的挑战。如果再将这对区别带回到法律领域,那么人工智能的法律挑战,就可以区分为人工智能对于法律的理论挑战与人工智能对于法律的实践挑战。
简单说,作为被挑战者的法律,人工智能在理论上的挑战意味着,传统关于法律的某些观念或者看法,已经无法与人工智能匹配,因此要做出相应的修正。就目前的讨论状况而言,这种理论上的挑战,主要涉及的是关于法律的概念或性质的看法,其中的关键问题是,人工智能所依赖的“算法”是否对法律的性质提出了挑战?其中,一个较为极端的看法人为:在人工智能的时代,算法就是法律,于是传统上统治这个话题的“自然法”与“法实证主义”的主张都是错误的。显然,人工智能对法律的这种理论挑战,跟人工智能的实践效果没有直接关系,当然更不用说它所引发的各种科技风险了,它们最多是富余性的结果而已。
相应的,人工智能对法律的实践挑战,涉及到两个类别话题:第一,人工智能的运用,是否改变了司法裁判的性质,以至于法官必须以人工智能作为裁判的基本工具?尤其是,司法裁判能否借助大数据来克服传统法律推理模式存在的某些缺陷——主要是裁判者因为自由裁量所导致的恣意裁判问题,以及能否通过实现司法裁判在结果上的一致性而获得判决的公信力。第二,如果将法律做功能性的限定,那么法律就是一套风险防范与救济机制,于是这个挑战的基本预设是:法律的传统风险防范和救济机制,由于已经无法匹配人工智能所引发的科技风险,因此必须做重新的设计和规划。例如,像自动驾驶的例子,突破了传统交通事故责任主要由驾驶者承担的传统做法,而必须将硬件的制造商和软件的设计者包括进来,这至少看起来不同于传统的交通事故的制度设计。或者,由于人工智能的发展,对商业秘密的窃取变得越来越容易且不易被发现,这就给了传统保护商业秘密的法律制造全新的难题,等等。当然,如果将利益的分配中的不利者也计算在内,那么某种利益分配方式也将被纳入到实践挑战当中,例如谁应当享有人工智能创造出来的作品的只是产权问题,严重地挑战了保护知识产权的既有制度设计。
显然,已经被初步区分出来的这三个讨论方向——人工智能对法律性质的理论挑战、人工智能对司法裁判的实践挑战以及人工智能对风险防范与救济机制的实践挑战,基本上囊括了目前所有具体的话题。然而,虽然这些讨论正在分别被展开,但它们都因为某些原因难以为继。其中,在我看来,人工智能对法律性质的理论挑战,基本上是错误的,因为它过分忽视了关于法律性质的一般看法,本节余下部分就处理这问题。而另外的两个讨论方向非常脆弱,要么是因为它建立在存疑的前提之上(司法裁判问题),要么是没有注意到人工智能的风险与传统科技风险之间的关键差别(实践挑战问题),这是下一节的任务。
(二)算法就是法律?
在一本极为畅销,出版一年就再次印刷的著作封套上,有这样一段话“一个算法时代的确切含义是什么呢?算法是如何工作的?我们的生活如何被它控制?以及,我们如何抵抗它?算法无处不在,它组织着我们世界中存在的几乎无限的数据。从我们每一次的搜索、喜好、点击和购买中,算法决定了我们得到的消息,决定了我们看到的广告,决定了我们能得到的信息,甚至决定着谁是我们的朋友。这些复杂的配置不仅在数字和物理世界中形成知识和社会关系,而且也决定了我们是谁,我们可以是谁,无论是在线还是离线。算法创造和再造我们,利用我们的数据来分配和重新分配我们的性别、种族、性取向和公民身份。他们可以识别出我们是名人,或者把我们标榜为恐怖分子。在这个无处不在的监视时代,当代的数据收集,不仅仅是收集关于我们的信息。像谷歌、脸谱网和国家安全局这样的实体,也决定了信息意味着什么,它们构建我们的世界和我们在这个过程中的身份。我们几乎无法控制我们在算法上是谁,我们的身份对我们没用,但对其他人有用。”
从这段语带悲情的表述中,可以发现一个越来越明显的事实:作为人工智能技术基础的算法,正在以全面和整体的方式重新塑造我们的生活,于是算法对我们生活的影响是普遍而重要的:由于不存在领域上的限制,所以它是普遍的;由于它能够决定并改变我们的身份和生活样态,所以又是重要的。显然,同样能够以普遍而重要的方式决定我们生活的,除了正在到来的人工智能时代的算法,还有传统社会中的法律和道德,于是算法就必然会同法律和道德相会在一起;或者说,领域的重叠性,导致它们之间必然存在着竞争关系。因此,你不可能将算法和法律视为两个各自独立的领域,于是最终的看法只有两个:要么法律受制于算法,要么算法受制于法律。除此二者外,别无其他选择。于是,一种激进的看法出现了:算法就是人工智能时代的法律,甚至,传统的法律已经因为某种原因而“死亡”。
然而,在我看来,这种“算法即法律”的说法是彻底错误的,即使算法的确全面而重要地塑造了人工智能的时代,但是它依然要受制于法律的统治,而不是翻转过来,反而成为那个时代的法律。篇幅所限,此处我只出示一个关于法律性质的理由:一个规范体系如果是法体系,那么它必然是全面(comprehensive)且至高无上(supreme)的,这是法律在概念上的要求。所谓全面,指的是法体系必然主张自己具有调整任何类型之行动的权威,所以它不同于其他的制度化体系。那些体系都只是为了实现特定的有限目标,因此在这个相应的领域中拥有权威,例如体育规则体系只在体育领域拥有权威;但法体系不承认有任何的限制,所以法体系既可以接受体育规则体系所包含的做法,也可以干脆越俎代庖制定全新的标准。所谓至高无上,指的是法体系必然主张自己在所在的社群中,并不存在另外一套法体系能够对同样的社群做出至上性的主张;因此,即使算法体系再重要,它也无法获得如同法律的地位。
这一点,并不是特定法哲学主张者的个别言论,这是事实上必须被接受的关于法律性质的最基本判断,而且如果否认了这些内容,那么法律的重要性也就荡然无存,法律就变成了一个不重要的话题。同理,特定算法无论是或者不是法律的内容,这件事情都跟算法本身的地位和重要性关系不大,而是法体系事实上接受或者不接受的结果。因此,即使在人工智能的时代,算法也不可能是法律,它反而是法体系所要调整的对象;所以,在那个时代,法律不但没有死亡,它也不可能匍匐在算法之下,反而是算法的主宰者和拘束者。
当然,这会引发另外貌似有力的反驳意见:法律专家有能力掌握算法吗?如果没有能力,还谈什么主宰和拘束呢?回应的意见其实非常简单:即使是尚未人工智能的时代,法律专家也无法像医生一样,熟练掌握医疗知识和做手术的技术,他们在面对医疗问题和医疗纠纷时,必须尊重和听取医生的专家意见。但是,最终做出决定的,依然是作为法律专家的法官,而不是作为医疗专家的医生。其实,在任何具有一定专业性的领域,都会存在类似的疑问和回答:无论是人工智能、医疗、知识产权、环境污染、气候变化这些更加专业的领域,还是较为传统的产品制造、体育比赛这些具有一定专业门槛的领域,甚至是种植这种专业门槛极低的领域。法律专家不可能是面面俱到的每个领域的专家,这根本就是不可能的,也是做不到的;但他必须得是真正的法律专家才行,才能在法律的基础上甄别其他专家的同行意见,然后做出法律上的妥当决定。
二、两个脆弱的讨论
既然人工智能对法律的理论挑战是不成立的,这个部分就应当被排除在在外。于是,既有的讨论就剩下了两个关于法律实践的基本话题:人工智能能否克服传统司法裁判模式的缺陷,以及人工智能对传统科技风险的化解机制的挑战。本节就用来处理这两个问题。将它们合并处理,表面的原因当然是因为它们都属于人工智能的实践挑战,但更重要的理由在于:我认为这两个相关讨论非常脆弱。之所以这样说,是因为它们对人工智能的思考不够充分和彻底,以至于讨论的基础不太牢靠。我希望,对这两个讨论的仔细分析,将会逐渐澄清人工智能的某些特殊性,并由此获得关于人工智能关于法律挑战的整体形象,这是下一节的任务。
(一)人工智能与司法裁判理论的性质
依据理论家的分析,包括人工智能在内的“新科学”(neuroscience)在法律领域的运用,可以区分为三个层次:第一,在证据(proof)上,它有助于确定作为裁判基础的事实问题,但这与法律的改变没有关系,因此称不上一种挑战;第二,在法律准则(legaldoctrine)上,一旦既有法律准则无法应对新科学所引发的法律争议,那么就会引发法律的改变,因此它可能成为一种挑战;第三,在理论(theory)上,新科学有可能挑战既有的理论前提或者理论假设,所以也可能构成一种挑战。
很明显,前面所说的理论挑战,涉及的就是第三种类型,它以“算法即法律”的主张挑战了传统的法概念。现在,就需要回头考虑法律准则领域的挑战了,也就是前面所说的实践挑战。表面上看起来,这只会存在一个形态,就是人工智能对于法律准则的挑战;但是,如果注意到“证据+法律准则”这个司法裁判的基本形式,那么人工智能同样可能在这个部分形成挑战。换言之,由于人工智能显然能够更好的发现事实,如果它还能够因为某些原因更好地做出裁判,那么人工智能将会全面改进司法裁判的得出方式,人工智能的审判将会成为司法裁判的标准形态。
粗略的讲,如果承认司法裁判的三重功能主张:解决纠纷、将法律具体化、为未来的行动提供行动指引,那么因为在这些问题上的不同看法,可以将裁判理论大致上区分为形式主义的(Formalism)与现实主义的(Realism)。其中,形式主义认为,司法裁判必须以“法律规定”(legalstandards)作为法律决定的唯一“正当化根据”(justification);即使司法裁判必须要考虑法律规定之外的因素,但这些因素并不是以“正当化根据”的方式发挥作用;相反,现实主义则认为,法律规定并不是法律决定的唯一正当化根据,此外的经济、社会、政治以及结果上的考量等因素,必须同法律规定一起权衡,以便获得妥当的判决。
在这个基本结构之下,人工智能、尤其是大数据对于司法裁判的介入,就基本上从属于现实主义的传统。这是因为,当面对特定案件时,人工智能不但有能力识别出同类判决的海量数据,并且将它们进行合适的分类,然后在此基础上分析、总结出基本的模型,然后再将所获得的模型应用到待决案件中,最终实现类案类判的结果。例如,面对醉酒驾驶的待决纠纷,人工智能能够将所有已经公开的同类判决找到,并从中构造出醉酒驾驶的基本模型,然后再判断出待决案件属于哪种模型,最后依据该模型作出裁判,以便实现类案类判的效果。显然,此时作为裁判正当化根据的,并不是或者至少不完全是法律规定,而是既有的生效判决(或从中获得的模型),因此这必然在基本属性上,属于某种现实主义式的裁判理论。
正是因为在整体上,人工智能对于司法裁判的改造,仍然被传统的裁判理论所容纳,所以这尚称不上是一种挑战,这是我为什么说它是脆弱的一个原因。而且,它因此也会面对现实主义早被揭示出来的那些困难的反复折磨:一方面,由于将判决(或者由此得出的模型)视为判决的根据,而法律又是判决的根据,所以会导致一个自相矛盾的主张:判决就是法律,而传统上认为的那些“法律”不再是法律、反而是某种法律渊源;另一方面,类案类判(或同案同判)成为了司法裁判的价值追求,这甚至能够挑战依法裁判的基本前提,这种看法在多大意义上能够成立?
虽然它大致上可以被认为从属于现实主义这个阵营,但是一个重要的方面,它又不同于现实主义,所以仅在此处,形成了人工智能对于司法裁判的挑战。这个部分,就是对于自由裁量的看法。无论是当代的形式主义、还是现实主义,它们大体上都承认:司法裁判过程中,裁判者不可避免地要运用价值判断(自由裁量),他们之间的争论主要发生在自由裁量的地位和性质的问题上。然而,人工智能对于司法裁判的介入,基本上是通过建构模型的方式,将自由裁量或价值判断这个部分排除在外。之所以出现这个结果,表面上的原因是,作为价值判断的自由裁量是无法被人工智能以理性的方式精确模型化的,或者说它无法被弱人工智能所兼容。然而,更深层次的原因,是围绕“价值(道德)判断的性质”所发生的争议。显然,“打人是错的”与“水是无色的”都是涉及真假、对错的判断,并且从弱人工智能的识别功能看,“水是无色的”这个判断“的确”是真的,但它却无法识别出“打人是错的”这个判断是真的。
于是,人工智能在解决涉及艰难价值判断(道德悖论)的问题时,所采取的一个主要做法,是去总结人们在这个问题上的不同态度,然后根据这些态度做出决策。例如在面对“电车难题”,它要去建构出在何种情况之下,多数人认为应当压死原来轨道上的五个人、还是另外轨道上无辜的一个人;然后,再分析自己正面对的是哪种情形,最后做出压死一个人或五个人的判断。简单说,由于弱人工智能本身并无能力做出价值判断,因此人工智能一旦统治了审判,那么它会将价值判断彻底驱逐出去,这在事实上会贬低道德判断重要性,这严重挑战了人的道德主体的地位。
(二)针对性的解决策略
法律如何应对科技挑战是个老旧的话题。只要存在着科技上的点滴进步以及由此带来的社会生活的某种改变,都会给建立在过去基础之上、无法准确预测未来的实在法体系造成困扰。不过,这些困扰并不一定能够被视为对实在法体系的“挑战”,因为法体系本身所拥有的某些特点、尤其是它必然存在的解释空间,会使得某些新出现的情况能够被这些部分所容纳。例如在电气时代的“电”这种无体物能否成为盗窃罪的客体,不会太久地困扰着刑法学者。当然,另外一些新出新的情况却无法以如此简单的方式解决掉,它必须要做某些法律上的修正或者创造,这至少在当时构成了科技对法律的挑战。例如大工业的时代为应对产品质量所带来的损害,某种类型的严格责任就会被创造出来,取代了传统上的过错责任。
由于人工智能对于我们的生活的影响是全面的,以至于很多讨论者不加反思地认为,这些影响会对法律构成挑战。然而情形并非总是如此。如果承认以下这个区分,那么人工智能所引发的实践问题仍然可以在这个框架内解决,那么它们就无法被视为“对法律的挑战”,因为这意味着,实在法体系本身足以应对这些问题,而无需做出某些改变。显然,特定法律规定的含义,可以区分为“字面意义”与“体系意义”。其中,字面意义主要是依赖于语词的含义来获得,例如“交通肇事致人死亡,为交通肇事罪”中的“死亡”,在字面上必然包括自然死亡与宣告死亡两种类型;相应的,“体系意义”具有明显的理论性,它依赖于对“法体系”本身的某种理论来获得,同样是交通肇事罪的例子,基于对刑法的不同认识,可能获得交通肇事罪只针对造成他人自然死亡结果的情形。
以这个标准来反省人工智能引发的问题,就会发现其中的很多部分根本就不是“对法律的挑战”,虽然人工智能的运用在其中起到了非常重要的作用。这就是我为什么认为这种讨论非常脆弱的核心原因。最明显的例子是“快播案”:一个本身并不含有淫秽视频的、技术中立的播放器软件,由于被单个用户用来观看淫秽视频,那么这个视频就可以被其他用户分享,由此成为某种淫秽物品的“传播”,那么快播公司是否成立犯罪?显然,你是否认为这构成犯罪,你所真正关心的其实都不是快播软件本身,而是“刑法应当如何面对中立帮助行为”这件事情;如果讨论者能够在后一个问题上获得了论证优势,那么他的看法就具有了充分的法律根据。类似的情况非常多,在我看来,几乎所有类型的网络犯罪,基本上都可以在实在法体系中获得解决,因此都不能被视为一种挑战。同理,像前面提到的自动驾驶汽车引发的法律责任问题,同样也能够在实在法体系中得到解决,也不能被视为一种挑战。
其中的基本标准是:一旦能够将该法律问题中的人工智能视为纯粹的工具,那么此时争论的核心就转向了人、而不是作为工具的人工智能,此时法律问题与人工智能问题就可以被分别来处理,并且其中对人工智能的看法并不影响对法律的看法,这就不成其为“人工智能对法律的挑战”。反之,如果无法将人工智能的问题与法律问题区别开来,并且对人工智能的看法将会影响到法律上的看法,那么这就构成了人工智能对于法律的挑战。最为典型的例子,就是人工智能作品的著作权问题。一种看法认为,人工智能作品,由于无法体现创作者的个性,因此不能被视为真正的作品,也无法以著作权的方式来加以保护;对应的看法认为,由于人工智能具有创强的学习能力,因此它所创作出来的智力成果与人的作品之间并没有区别,因此仍然应当以著作权的方式来加以保护。显然,无论是论辩的哪一方,他们都必须直面人工智能这个问题,并通过论证或至少预设了某种特定的立场,来支持自己在法律问题上的主张。也就是说,这个话题不能离开人工智能的地位问题而单独展开,依据如上的标准,这的确是一种人工智能对于法律的挑战。
三、人工智能的特殊性
显然,从两个脆弱性的讨论中,可以得出这样的教训:如果仅仅将人工智能视为一个跟法律相关的话题,并且将二者简单嫁接在一起,将会导致方向上的混乱和结论的任意。这迫使讨论者必须回头重新思考人工智能这件事情的性质,然后再将它跟法律上的讨论以正确的方式联系起来,才可能找到稳妥的讨论方向,由此获得的结论才具备可信性。在我看来,人工智能之所以引发如此广泛而热烈的讨论,是因为它在某一点上明显区别与关于其他的科技问题,这就是人作为人的地位。如果没有注意到这一点,那么讨论就会缺乏针对性。
在起点上,在所有关于科学的话题中,首先需要注意的是,要区分作为“知识探寻”的科学与“作为知识运用”的科技。由于科学与知识联系在一起,并且知识被视为人类所拥有的“内在价值”之一而存在,因此它受到“学术自由”的严格保护,对它的任何限制都是缺乏充分理由的。然而,科技是不同的,作为科学(知识)的运用,它必然同“我们的生活”联系在一起:如果它能给我们的生活带来好处,那么它就应当获得鼓励和支持;反之,对它的限制就具备充分的理由,且法律必然是其中最有力的限制方式。因此,作为纯粹知识探寻的人工智能研究,无法以任何理由来加以限制;然而,作为知识运用的人工智能实践,却因为会制造新的社会问题而需要法律应对,甚至因为引发了严重的危险,而成为被限制的对象。
但是,不同于传统的科技问题,人工智能所引发的问题具备明显的特殊性,这给相应的回应方式也带来很多的麻烦。其中最重要的差异在于,传统的科技运用,能够明显的区分出运用的主体与运用的工具这两个不同的部分。其中,运用的主体就是人类,而运用的工具就是科技成果。例如,人类发明了汽车这样的交通工具,人类就是汽车的驾驶者(运用者),而汽车是人类使用的工具。此时,科技是以“工具”的形象出现的,它之所以要被发明出来,也是因为它通过强化或补足作为使用者的人类在生理上的先天能力,来更好的服务于特定人类目标的实现。毕竟,人类单凭自身的身体条件,是不可能每小时行进50公里的,更不会如同汽车一样行进超过100公里。
一旦这种工具性观念成立,那么就会导致另一对有用的区分:科技的正常使用与科技的不当使用,并且只有当科技的正常使用会产生大规模的风险时,它才是必须被限制的对象。这是因为,科技作为增强人类能力的工具,它本身就是双刃剑:它既可以被运用于正确的目标,例如用刀来削苹果;它也可以被用来服务于错误的目标,例如用刀来杀人。如果为了避免用刀杀人的错误结果,就禁止刀这种工具所带来的其他便利,这显然是缺乏理由的,否则任何工具都应当一概被禁止,无论是不是有人类发明或创造的。因此,科技所引发的风险,只能是科技的正常使用就会带来的风险。其中,最近讨论较多的例子,就是转基因技术的风险问题。不过要注意,由于其中的“使用关系”的存在,因此如同限制科技的不当使用一样,科技风险的针对对象,始终还是作为科技运用者的人、而不是科技本身。也就是说,由于主体与工具的截然两分,包括法律在内的一切因应方式,都是围绕着如何限制人类的特定行动(对特定工具的正常使用)而展开,而并不直接针对作为工具的科技成果。
然而,这一切在面对人工智能的问题时,都发生了某些关键性的改变。其中最重要的是,人工智能,一方面如同传统科技一样强化或补足了人类生理能力的某些限制;另一方面,它开始获得原本由人类所独享的某些智力上的能力,尤其是建立在大数据基础上的深度学习而来的分析能力和决策能力。当然,如果这种智力能力,仍然只是被用来补足人类智力上的某些局限——例如你不可能在短时间内识别并计算出海量的数据,那么它还是可以在工具的意义上被对待;相应的,由此所引发的风险仍然是人的问题,无论是使用者还是创造者。例如自动驾驶汽车引发的事故责任,基本上只能在使用者(驾驶者)与创造者(硬件制造者与软件编写者)之间按照某些标准来分配,或者以保险或理赔基金等社会责任的方式应对。
然而,人工智能所具有的两个额外的特点,导致这种“使用者与工具的两分”变得极为困难:其一,由于人工智能具备智力上的学习能力,因此它改变了过去使用者和工具之间形成的“单向”服务关系,也改变了人工智能只能作为工具的单纯身份。这就是说,人工智能在服务于人类生活的时候,是以带有“反省”色彩的方式来起作用的;也就是说,它所拥有的智力能力,开始有能力将被服务的使用者当作分析的对象,并在这个基础上来调整自己的“服务”行为。于是,使用者和工具的地位都同时开始复杂化:人类,既是使用者(受益者)、又是被分析的对象;人工智能,既是服务于人类的工具,又是对人类(行动)的分析者。于是,人工智能在我们眼中,始终还是工具;但我们在人工智能的“眼”中,就变成了数据。因此,不同于其他类型的科技风险,仅仅将限制的对象设定为作为使用者的人类,至少基于效果上的考虑,还必须同时将人工智能本身的智力能力,纳入到考虑的范围之中。这使得传统上限制科技风险的手段,变得难以应付。
其二,更根本的改变在于,正是由于人工智能具备某些智力上的能力,并且这是一种在特定方面超越于人类的能力,因此它无法被断然地认定为纯粹的工具;否则,就有可能贬低了智力能力本身的重要性,也就同时贬低了人类所拥有的独特地位,因为这个独特的地位来自于人的理性能力。于是,一个基本的思考方向就变成了这样:人工智能是不是人?如果它不具备人的地位,那么我们为什么因为拥有同样或类似的智力能力而被叫做人?一个初步的回应方式可能是:我们可以像创造出“法人”的说法一样,将人工智能“看做”人。然而,这种妥协性的拟制做法无济于事,因为此中所运用的“拟制”方式的真实含义是:虽然X不是Y,但基于某些考虑,必须将X视为Y(,但X仍然不是Y)。因此,这种做法在一开始,就直接否定了人工智能的人的地位,但“它是不是拥有人的地位”其实是讨论的前提、而不是结论,所以这种论证方式本身就犯一种被叫做“乞题”(question-begging)的错误。如果一旦承认人工智能拥有人的地位,那么再将它视为纯粹的工具,并且在不考虑它的这个地位的基础上,来限制由它引发的风险,这个做法就缺乏正当性上的根据。
当然,在强人工智能和弱人工智能两分的基础上,“人工智能是不是人”的问题,存在着非常不同的答案。按照通常的标准,在被给定目标的基础上运用智力能力来追求这个目标的实现,属于弱人工智能;如果在运用智力能力来追求特定目标的实现之外,人工智能还具备自己设定目标的能力,那么这就是强人工智能。显然,即使是弱人工智能,除了不具备自己设定目标的能力之外,它也拥有在这个部分超越人类的能力;如果它同时还能够自己设定目标,那么就不是人工智能是不是人的问题了,而是我们人类还是不是具备人的地位的问题了。所以,我们现在真正需要讨论的,并不是强人工智能是不是人的问题,而是弱人工智能是不是人的问题。也就是说,必须要在排除强人工智能的基础上展开讨论,这是因为:任何作为工具的科技之所以被发明出来,都是因为它比我们身体上的自然禀赋更好。人眼在黑暗中无法看清物体才发明了手电筒,有光才会亮的手电筒因此就是喜剧电影的桥段。由于科技比我们的自然禀赋要好,如果它还能拥有跟我们一样的自我设定目标的能力,这种强人工智能就显然就是“更好”的“人类”,我们反而成了低等级的智能生物。在那个时候,讨论者就不再是我们、而是强人工智能了;讨论的话题也就不再是如何对待人工智能、而是如何对待我们了。
有了这些准备,我过去一直主张的、用来应对传统科技风险的“预防原则”(PrecautionaryPrinciple),在面对人工智能所引发的科技风险时,就是错失重点的。这是因为,预防原则所针对的,只能是科技正常使用所引发的、大规模的(large-scale)、身体物理损害(physicalharms)的、直接的人为风险(man-maderisk)。而人工智能所引发的,当然符合正常使用、大规模和人为(风险)这三个条件,但是它却并不符合身体损害和直接风险这两个条件。这是因为,纵使人工智能的正常使用,的确会像后面讨论的一样,会引发对人的尊严和隐私上的侵害,但这并不必然带来身体损害;同样,人工智能的运用可能会引发某些行业的失业潮并侵害了失业者的利益,但即使这是一种损害,也只能是对失业者的间接损害,理论上失业者可能获得由人工智能带来的新的工作机会。所以,预防原则的无效,就迫使我们必须寻找其他的、有效针对人工智能的科技风险的应对方式。
四、应当从哪里开始?两个基本的挑战
阅读到这里,读者应该已经发现我的基本主张和论证策略了:并不是所有由人工智能所引发的与法律有关的问题,都能被合理的称为“人工智能对法律的挑战”,这或者是因为它本身就是错误的讨论方向,例如人工智能对于法律性质的改变;或者是因为它本身与人工智能之属性的讨论联系较少(我称之“脆弱”),例如人工智能的裁判与策略性的应对方式。换言之,只有那些与关注人工智能之基本性质的讨论紧密相连的法律思考,才能称得上是人工智能对法律的挑战。然而,并不能因为这样的讨论限缩了人工智能之法律挑战的范围,就认为这个话题的重要性被减弱的。因为,这个话题的重要性,并不来自于它在范围上的广泛性,而是来自于它在挑战上的彻底性——人工智能挑战了人作为“人”的地位,这显然是一种前所未有的挑战。因此,对于人工智能的性质的理解,同时也是一种人类对自我的理解过程。只有在这个认识的基础上,才能够发现其中存在的问题以及法律可能的回应。
做了这么多的清理工作,该到了直面问题的时候了,那么在我看来人工智能对法律的真正挑战是什么呢?其实这个看法在前一节已经大致表达出来了,它主要表现在两个方面:其一,由于人工智能与人类之间不再是工具角色的单向服务关系,因此即使是弱人工智能也会导致某种人类的“客体化”,这在法律上的效果是,它严重挑战了人作为道德主体而拥有的尊严。其二,由于人工智能具备识别与决策的智力能力,这会与人的理性能力之间形成某种对照关系,以至于我们必须重新审视我们所拥有的理性到底是什么,于是会对某些法律问题的看法做出改变。接下来我将更详细地讨论这两个问题。
先来看人工智能对人的尊严的挑战。理论家通常认为,存在两种不同类型的人性尊严:第一种人性尊严概念,我称之为“人的尊严”。它主要是说,作为物种(spices)的人类,基于独有的人性尊严,能够在诸多物种之中居于较高的支配地位;或者说,基于这种物种的人性尊严的概念,人类就获得了一个独特的位置,即他是唯一可以以工具化的方式对待或者利用其他物种的生物。当然,这种物种化的人性尊严概念,仍然受制于两个基本限制:其一,与人性尊严相关的道德准则的拘束,例如不得以残忍的方式对待其他物种,因为“残忍”本身是违反道德的举动,并且这本身会削弱人性尊严这个价值对于人类之优势地位的保障。其二,虽然人类可以以工具化的方式利用其他物种,但这同时也意味着,人类由此对整个生物界负担更多的道德责任,例如环保、保持生物多样性之类的责任,将是人类这个独特物种的独特道德责任。
第二种类型人性尊严的概念,我称之为“个体尊严”。它并不是相对于其他物种而言的,而是强调每个个人作为拥有人性尊严的个体,本身就值得其他个体的尊重,并且也无法为其他的个体所替代。这个关于个体地位的人性尊严概念,因此必然蕴含两项基本的主张:其一,个人的内在价值的原则,每个人的人生都有一种特殊的客观价值,这种独特的客观价值并不因为人的贡献的大小而有所改变,因此,特定个人是因为拥有“人”的地位,进而具有道德上的重要性,而不是因为他所能实现的任务来决定着他的价值。其二,自我责任的原则,即每个人既是自己人生的最终决定者、也是人生是否成功的责任承担;换言之,每个既要自主决定什么是在自己看来成功的人生,同时也负担着努力促使其成功的特殊道德责任。
现在就可以明白,为什么人工智能构成了对人性尊严的严重挑战,并且这是对于“人的尊严”与“个体尊严”的同时挑战。就人的尊严而言,由于人类在运用人工智能获得某些便利的同时,他又以“数据化(生存)”的方式,成为人工智能的分析对象。这种运用理性能力相互评价的情形,过去除了发生载作为理性生物的人类之间,从未发生载人类和其他物种之间。然而,人工智能的发展——即使是弱人工智能——改变了这一切,以至于出现人工智能将人类工具化对待的可能(,即使人工智能是不是个全新的物种仍然值得进一步的讨论),这显然已经构成了对物种意义的人性尊严的挑战。
与此同时,个体地位的人性尊严(个体尊严)也处在挑战当中:一方面,由于人工智能(尤其是智能互联网)会通过你的使用记录下你的喜好和倾向,并因此主动向你提供满足你过去那些倾向的服务,于是你就开始被人工智能“饲养”,于是你在反思的意义上塑造自己生活的能力被人工智能严重侵蚀,你的生活至少部分是由人工智能、而不是由你自己来决定的生活。另一方面,你的所有信息都因为对人工智能的使用而被记录下来,而且这些信息会被永远的记录下来,以至于你“赤裸裸地”暴露在人工智能面前,同时也“赤裸裸地”暴露在其他使用者面前,任何人都不能幸免,这同样是对人性尊严的严重挑战。因为这样一来,你丧失了对自己生活的控制,无法自主地决定是否将自己的生活暴露出来,也无法自主地决定将哪一部分暴露出来,于是你缺乏了自我保护的能力。
那么,这种对人性尊严的挑战又如何是一种“法律挑战”呢?必须注意,法律中早就有对人性尊严的保护方式,无论是比较一般性的“人权”(humanrights)概念和制度,还是更为具体的“隐私权”(privacy)问题。然而,无论是既有的理论讨论,还有原来的制度设计,基本上只建立在对“个体尊严”的保护上,它们均缺乏对“人的尊严”的考虑。这种状况极为明显,例如已经被欧洲议会2016年4月通过的《一般数据保护条例》(GeneralDataProtectionRegulation)所验证,其中的第15条至第22条规定了访问权、更正权、擦除权(“被遗忘权”)、限制处理权、数据携带权、一般反对权和反对自动化处理等权利。在我看来,这种制度化的方式,仍然缺乏充分的彻底性,因为这些权利类型的规定,仍然主要是针对“个体尊严”的更强保护,但在“人的尊严”的问题上,仍然存在进一步斟酌的空间。
面对这种情形,法律必须要给出综合性的回应。在我看来,无论具体回应策略最终是什么样子,基本上只能是欧洲议会《一般数据保护条例》的“权利保护”方式。之所以要以“权利”(rights)为核心,一方面是因为,无论怎样来理解权利,它都会跟人的尊严发生直接或者间接的关系;另一方面是因为,权利所拥有的独特规范力表明,一旦我们主张“这是我的权利”时,要想压倒这种主张就会变得困难,于是权利就会因为具有明显的防御型效果,从而成为保护我们的人类尊严的首要工具。有两个相关特点,值得进一步说明,第一,这种“权利”,首先一定是一种道德权利(moralrights),而不是法律权利,这不仅仅是因为这种权利是建立在人性尊严这个道德概念的基础上的,也是因为实在法体系通常不太容易事先已经包括这种权利。第二,实在法体系对于这种道德权利必须保持开放性的态度,也就是说,只要它具备道德上的基础,那么就必须将它同时视为法律强制实施(enforcement)的内容,或者更进一步将它直接接受为法律权利。
再来看人工智能对理性这件事情的反省。这件事情在中文的作品中讨论较少,一个重要的原因可能是,它所从属的“自由意志与责任”这个话题,并未获得足够的关注。篇幅所限,此处我只能展现这件事情的基本结构。假设我在睡梦中,你用我的手扣动扳机打死了一个人,那么我要承担导致他人死亡的责任吗?如果你威胁我如果我不打死别人,你就打死我,那么我要承担导致他人死亡的责任吗?如果我为了某些目的打死某人,我要承担导致他人死亡的责任吗?显然,答案会从“没有”,到“有一部分”,再到“有”。这些答案,显然是依赖于我杀人时“自由意志”(freewill)的多少、有无来作出判断的,因为“责任”(responsibility)通常被认为是对“自由意志”的回应(responseto)。反之,即使出现跟自由意志无关的不利后果,也没有人应当承担责任,例如我只有70的智商。简单说,一个不利后果,是由我自己依据自由意志选择的,那么我就有了责任;如果它是被决定的,那么任何人都不会有责任。
人工智能在理性方面的挑战跟这个话题紧密相关。人工智能的基础通常建立在某种化约论的基础之上,它在模拟人脑的思考方式时,将所有的人脑活动简化为经验性的神经反应。通过将它电子化,是的人工智能如同人脑一样进行理性的计算。然而,在这个过程中遇到了自由意志的挑战:要么将自由意志同样化约为某种神经反应,但这件事情很难成功,因为自由意志的选择和价值判断以及审美之间存在明显的联系,例如我就是相当教授、而不是官员,这很难被说成某种神经反应的结果。所以,至少在弱人工智能的条件下,它基本上被人工智能排除在理性能力之外,这就是认知对于情感的排斥。
这件事情,至少引发了两个相关的挑战:第一,如何认识责任的问题。具体来说,如果真的想人工智能的研究所得出的结论那样,所有自由意志的活动都跟理性没关系,那么我们如何承担责任?也就是说,这个挑战的核心,是关于责任的根据的问题,尤其是刑事责任的问题。第二,这个讨论就同前文中所谈到的人工智能的司法应有联系起来了,由于自由意志显然是自由裁量的基础,那么人工智能是否因此获得了在裁判理论上的优势,因为它获得了合理排除自由裁量的恰当理由。这两个问题都非常复杂,写在此处的目的并不是去仔细讨论它们,而是提醒尚未被中国学术界注意的这些问题,其实也是人工智能所引发的严峻挑战。
五、结论
这篇文章的目的,并不是为了直接应对人工智能对法律的诸种挑战,而是分析这种挑战的性质和类型。因此,这是一篇关于“战略”问题的讨论,它并不关心具体的“战术”问题。之所以这样做,是因为在我看来,既有的讨论展开地过于迅速,以至于盲目和凌乱。为了更好地应对人工智能对法律的挑战,讨论者需要让脚步放缓,回过头来思考一下,这是一种什么样的挑战。在我看来,目前的讨论对人工智能对人性尊严的挑战关心不够,尤其是对于作为物种意义的“人性尊严”的问题缺乏充分的讨论;而且,对于“自由意志与责任”这个话题更是基本上没有涉及。这两个部分理应成为关注的重点,尤其是人工智能对于人性尊严的挑战与回应,应当是各种策略化回应举措的核心。(注释略)