郑戈 :人工智能与法律的未来

选择字号:   本文共阅读 3014 次 更新时间:2017-11-11 10:00

进入专题: 人工智能   法律  

郑戈  


人工智能的迅猛发展不仅仅是一个科学技术领域的新现象,它正在迅速改变人类社会的经济形态、社会交往模式和政治-法律结构。起源于农业社会(无论是古罗马还是亨利二世时代的英国)的“现代”法律体系,能否成功应对人工智能所带来的新的风险和不确定性,能否在人工智能时代继续维持秩序与变革、守护与创新、价值与事实之间的动态平衡,这是今天的法律人所必须面对的紧迫问题。


现代性与人类能力的机器替代

人工智能是现代工业文明发展的必然产物。早在“现代性”刚刚发端的时代,现代政治哲学的奠基者霍布斯,便开始把人和人类社会构想为当时最为精巧的机器——钟表。在《论公民》的“前言”中,他写道:“对于钟表或相当复杂的装置,除非将它拆开,分别研究其部件的材料、形状和运动,不然就无从知晓每个部件和齿轮的作用。同样,在研究国家的权利和公民的义务时,虽然不能将国家拆散,但也要分别考察它的成分,要正确地理解人性,它的哪些特点适合、哪些特点不适合建立国家,以及谋求共同发展的人必须怎样结合在一起。”1611年出现的“机械人”(Automaton)一词就是那个时代的社会想象的产物,它是指借用钟表齿轮技术而制造出来的自动机械人偶。虽然这种人偶还完全不具备任何意义上的“智能”,但它却体现了促使“人工智能”最终变成现实的那种思路:人的身体和大脑最终都可以用机器来模拟。

到了19世纪,随着自然科学尤其是物理学的突破性发展,法国哲学家开始设想研究人类行为和人类社会组织方式的学科最终可以达到物理学那样的成熟状态。人们将可以通过观察、统计和分析而发现近似于自然规律的社会规律,从而“研究现状以便推断未来”。这就意味着不仅个人的身体和大脑功能可以借助物理学法则用机器来取代,而且社会的组织机制包括法律,最终也可以由机器来操作和管理。

在孔德的时代,由于技术手段的欠缺,孔德的野心还无法变为现实。基于有限样本的统计分析,还远远无法使社会预测达到物理预测那样的精准性。但大数据存储和分析已经使样本分析有可能为整全数据分析所取代,并且日益实现动态化和分析者与对象之间的互动化。换句话说,机器通过“深度学习”也可以变得具有社会性,并且参与人类社会的各种活动,包括游戏和工作。 在孔德的时代,英文中又出现了Android(人形机器)一词,其词根是古希腊文中的andro(人)和eides(形状)。人是语言的动物,一个新语词的出现必然是因为新的事物出现在了人们的现实生活或想象之中,而它能够被普遍使用并成为语言的一部分,则是因为很多人都分享着它所表达的现实体验或想象。

在工业化时代,用机器来取代人的劳动已经成为一个普遍现实,马克思和恩格斯的经典著作中有许多对这种现实中工人阶级悲惨处境的描述,和对造成这种状态的生产关系和社会制度的批判。1920年,捷克作家卡雷尔·卡佩克(Karel Capek)创作了《罗素姆的万能机器人》(Rossumovi univerzální roboti)剧本,发明了如今通用的Robot(机器人)这个词汇,它的辞源是波兰语中的强迫劳动(Robota)和工人(Robotnik)。如果说工业化时代的机器(无论是不是人形的)所取代的只是人的一部分体力劳动,那么作为工业化升级版的人工智能则是这个过程的自然延伸,它旨在取代人的一部分脑力劳动。

人类一直在试图强化自己的能力。比如,过目不忘一直是中国传统文人最为欣赏和希望得到的能力之一。《三国演义》中的张松,在接过杨修递给他的《孟德新书》并快速浏览一遍之后,说这哪里是什么新书,分明是战国时无名氏所作,为曹丞相所抄袭。杨修不信,结果张松把该书内容背出,一字不差。但如今的人工智能已经能够轻松地做到这些,乃至更多。

人工智能实际上已经可以将脑力劳动和体力劳动、感知和思维、决策和执行结合到一起,从而更像是一个完整的人。至于是否具有“人形”已经不再重要了,任何关于“人工智能”的拟人化想象都是不必要的。有了物联网、大数据和云计算作为支撑(或组成部分)的人工智能,可以通过它的感官(遍布各处的传感器)获得千里之外的数据,利用自己无比强大的记忆力(联网计算机和云存储)来沉淀和消化数据,利用自己远胜于人类的计算能力(算法和基于“神经网络”技术的深度学习)来处理数据,并在此基础上作出判断和“决策”。

目前,人工智能正以惊人的速度在两大领域推进:一是“合成智能”(synthetic intellects),即我们通常所说的机器学习、神经网络、大数据、认知系统、演进算法等要素的综合应用。它不是传统意义上的编程,也就是说,它突破了“机器只能做程序员编排它去做的事情”这一局限,你只要给它一大堆人类穷其一生也无法浏览完的数据(在互联网的帮助下,这意味着你只要把它联网并通过编程使它具有搜索功能),包括人类智力根本无法理解的无结构数据,再设定某个具体的目标,最终系统会产生什么结果完全不可预见,不受创造者控制。围棋智能体AlphaGo先后打败李世石和柯洁,并以“独孤求败”的姿态“宣布退役”,只是合成智能小试牛刀的一个例子。

另一个领域是“人造劳动者”(forged labors),它们是传感器和执行器的结合,可以执行各种体力劳动任务,从海底采矿、外空维修到战场杀敌。当然,离我们生活最近的例子是自动驾驶。这两个领域的结合不仅意味着“机器人”的“头脑”和“四肢”都是很强大的,还意味着“机器人”的大脑、感官和手足是可以分离的,手脚(执行器)可以延伸到离大脑(中央处理器)十万八千里的地方。在“万物联网”的时代,只有不联网的东西才不在人工智能的可控制范围之内。

正因为如此,越来越多的人开始表示出对“人工智能”的担忧。乐观派认为人工智能是对人类能力的强化,它本身仍然处在人类的控制之下,因为它没有“自我意识”和情感。没有我执,也便没有“贪、嗔、痴”,不会对人类构成威胁。甚至不能算是真正的智能,因为智能的内核是“主体的自由”以及主体对这种自由的自我认知和主动应用。但即使我们承认乐观派对事实的描述和判断是正确的,也已经有了担心的由头。

人工智能显然不成比例地强化了一部分人的能力,即那些站在人工智能发展前沿的“大数据掌控者”和人工智能开发企业的能力,同时使越来越多的人变成难以保护自己的隐私和自由并面临失业风险的弱者。换句话说,以前可以自认为比蓝领工人社会等级更高的白领脑力劳动者,如今也变成了新的随时可能被机器所替代的劳工。当强弱悬殊越来越大,而且强者对弱者的剥削和控制越来越以“物理法则”而不是赤裸裸的暴力面目出现时,“强者为所能为,弱者受所必受”的局面就会成为普遍现象。自由与必然之间的关系,因人工智能的出现而越发成了一个由社会分层(阶级)决定的事务:越来越少的人享有越来越大的自由,越来越多的人受到越来越强的必然性的束缚。

由于法治迄今为止被证明是保护弱者权益、使人避免落入弱肉强食的丛林法则支配的最有效机制,所以,当人工智能所带来的新风险被许多人感知到的时候,人们自然希望法律能够因应这种风险提供新的保障。但法律自身也面临着人工智能的猛烈冲击。


人工智能对法律应对社会变迁的传统模式的挑战

法律是人的有限理性的产物,法律规则本身也体现并顺应着人的局限性。正如麦迪逊所言:“如果人都是天使,就不需要任何政府了。如果是天使统治人,就不需要对政府有任何外来的或内在的控制了。”这个说法当然针对的是人的贪婪和野心,但也拓展到人的有限认知和计算能力。即使一个人充满善意,他也可能因为自己的能力所限而对自己和他人造成伤害。而法律规则的设计和执行,都会把这种有限能力纳入考虑。实际上,人类社会所有的规则,包括游戏规则,都是有局限的人为有局限的人设计的。

下过围棋的人都知道“金角银边草肚皮”这个基本的布局规则,这个规则的理由有两个:一是效率,在角上无论是做眼还是吃掉对方棋子需要的步数都最少,在角上,做一个真眼需要三步棋,吃掉对方一个子只需要两步棋。二是计算能力,给定的边界越多,需要考虑的可能性越少。效率考量使得AlphaGo在布局阶段与人类高手相比并没有太大的区别,仍然是先占角后取边。但在序盘和中盘阶段,AlphaGo却更敢于向中腹突进,这是与它更强大的计算能力相适应的。

实际上,由于人认识到自己的局限性,所以在设计规则的时候所考虑的都是所谓常人标准,即以具有中等智力和体力水平的正常人作为规则可行性的判断标准。而且,为了形成稳定的社会秩序,法律往往还会设置比常人标准更低一些的安全线。从这个意义上讲,法律是一种保守的社会力量,不以满足具有创新精神和创新能力的人士追求“更快、更高、更好”的野心为目的。梁漱溟先生所说的“经济进一步,政治进一步,循环推进”,也适用于法律。法律调整经济-社会关系的方式从来都是回应性的。在技术发展和社会-经济结构变化缓慢的农业社会和早期工业化社会,这种保守倾向使法律发挥了很好的维持社会稳定的作用。

但在人工智能时代,它却使法律滞后于技术和经济的发展,使那些把握先机的人获得了巨大的边际回报。比如,互联网金融和电子商务在中国的迅猛发展就是在相关法律缺位的情况下发生的,等到立法者开始制定规则来规范这个领域,法律所约束的只是后来者,并且自然地巩固了先占者的垄断地位。同时,先占者又利用已经积累起来的经济、技术和资源(数据)优势,开始抢占未被法律规制的新领域。如此层层递进,最终使得循规蹈矩、永远在法律规定的范围内活动的人们与他们之间的差距越来越大。

同时,正如石油是工业化时代最宝贵的资源一样,数据是人工智能时代最重要的资源。掌控的数据越多,供人工智能“学习”的资源就越多,也就越容易在这个领域取得突破性的进展。这一事实导致了这样几个结果:

第一,它使个人的隐私和自由变得非常脆弱。这一点我已经在此前的一篇文章中做了详细分析,这里不再赘述。(详见:郑戈:在鼓励创新与保护人权之间 ——法律如何回应大数据技术革新的挑战 | 反思大数据)

第二,它使得传统制造业和其他与互联网没有直接关联的行业处在很明显的劣势。因为人工智能不是一个传统意义上的新“行业”,也不是一种覆盖人类生活全部领域的技术。最早进入互联网领域的企业因其行业特性而自然成了“大数据掌控者”,而人工智能对大数据的依赖又使得它们自然成了人工智能领域的先驱,进而,它们又可以利用自己在人工智能方面的优势介入所有传统行业,包括农业。

比如,通过在农作物上安装生物传感器来获得比实验室作业更加直接和可靠的植物生长数据,从而获得农业科技方面的突破。实际上,这并不是一种假设,而是谷歌和阿里巴巴等公司正在做的事情,“精准农业定点解决方案”(Precision Agriculture Point Solutions)和“植物云”等概念都对应着某种特定的商业模式。无论是政府还是社会对这种新生事物都有一种好奇和乐见其成的心态,希望看到结果后再采取行动,而当结果发生时,且不论它本身是好是坏,这些大数据掌控者全方位的优势必然已经形成。

第三,由于这些企业已经掌握了比政府所掌握的更多的关于公民(作为消费者)的信息,热衷于建设智慧城市、智慧政府、智慧法院的公权力部门也不得不求助于它们,浙江省法院系统求助于淘宝来获得当事人真实住址信息,只是一个还不那么“智能”的例子。这将模糊公权力与私权力之间的边界,使政府本来应该监管的对象成为政府的合作伙伴乃至实际控制者。

第四,这些掌握人工智能应用技术的企业,可以用人工智能来分析任何数据,包括消费者行为数据、政府决策数据、立法数据和法院判决数据,并生成对策。这些对策有些要求线下的人际沟通,而有些则完全可以通过线上操控来完成,比如谷歌和百度的搜索结果排序,京东、亚马逊和淘宝的有针对性的商品推荐,等等,从而诱导个人消费行为和政府决策行为、立法行为。而这种诱导往往以非常隐秘的、合乎人性的方式展开,不会让人觉得有什么不好的事情正在发生。

由此导致的结果便是,人们都“自愿服从”于某种他们看不见的力量,而这种力量借助“人工智能”的超强“脑力”使得法律和监管完全找不到对象,乃至被它牵着鼻子走。用脸书(Facebook)创办人扎克伯格的话来说,我们正在进入“算法”而不是法律统治人的时代。而算法在表面上就缺乏法律的无偏私性和一般性:它毫不遮掩地服务于设计者植入其中的目的。

第五,一旦人工智能被应用于本来就充满流动性、风险与不确定性的金融市场,便可能带来既无创新价值,又危害巨大的灾难性后果。2010年5月6日,美国股市发生了“闪电崩盘”,一万亿的资产价值瞬间蒸发,股价齐跌9个百分点,道琼斯指数急落1000点。美国证券交易委员会(SEC)花了半年的时间才搞清楚发生了什么:原来是不同炒家的计算机程序在相互竞争的过程中导致了失控,在这个被称为高频交易的神秘世界里,这些系统可以“迅雷不及掩耳”地收割小型获利机会,还可以相互探测和利用彼此的交易策略。

像这样的人工智能对决不仅存在于股票市场,还存在于任何投机性的多方博弈市场。事后追责型的法律对策,无法阻止人们在巨大利益的引诱下,利用人工智能进行这种损害范围无法控制的赌博式行为。

在人工智能所带来的人类生活世界的一系列改变中,以上只是几个比较突出的直接挑战传统法律应对模式的例子。随着人工智能应用领域的不断扩大(这是必然会发生的),它对现代法律体系的冲击会越来越强烈。

然后,习惯于在固定的思维框架(法律教义)中来思考问题的法律人,很难跳出这种框架去面对和理解日新月异的社会事实。在下面一节,我将以欧盟的“机器人法”立法建议以及美、德两国的无人驾驶立法为例,来说明这种传统思维方式在应对人工智能问题时的局限性。


人工智能对法律职业的冲击

(一)人工智能的“法律人格”

1942年,美国科学家和科幻小说作家伊萨克·阿西莫夫,在短篇小说《转圈圈》中提出了“机器人的三条律法”:第一,一个机器人不得伤害一个人类,也不能因为不作为而允许一个人类被伤害;第二,一个机器人必须遵守人类施加给它的规则,除非这些规则与第一律法相冲突;第三,一个机器必须保护自己的生存,只要这种自我保护不与第一或第二律法相冲突。但机器人发现自己无法同时遵守第二和第三条律法,因此它陷入了不断重复自己先前行为的循环。

这种情况不会发生在人身上,也不会发生在其他生命体身上,因为,正如霍布斯所说,自我保存是第一自然法。人会本能地在自我保存与勿害他人之间选择前者。逆此而行的利他主义行为有时也会发生,但要么是道德教育或宗教信仰的结果,要么是出于保护后代的延伸性自我保存目的。只有严格按照人类植入其程序(算法)之中的规则来行事的机器人,才会陷入这种无解的怪圈。

在阿西莫夫提出机器人三大律法的前一年,德国工程师康拉德·楚泽刚刚发明世界上第一台能执行编程语言的计算机Z3,这套继电器式计算机只能存储64个单词的内容,而且运行速度极其缓慢。显然,阿西莫夫还很难想象今天任何一部普通个人电脑的计算能力和存储空间,更不用说互联网和云计算了。因此,他把机器人想象为一个具象化的、能够伤害人的身体也能被人伤害的物体是可以理解的,而且实际上已经是非常有远见的。但如今的法学家们仍然以这种拟人化的想象来理解机器人,试图制定规范来约束它们的行为,甚至赋予它们法律主体资格,这便显得有些不合时宜了。

2016年,欧洲议会向欧盟委员会提出报告,要求制定民事规范来限制机器人的生产和市场流通。其中第50(f)项建议:“从长远来看要创设机器人的特殊法律地位,以确保至少最复杂的自动化机器人可以被确认为享有电子人(electronic persons)的法律地位,有责任弥补自己所造成的任何损害,并且可能在机器人作出自主决策或以其他方式与第三人独立交往的案件中适用电子人格(electronic personality)。”

但在如何落实这种“法律人格”所必然带来的民事行为能力和责任能力规则时,这份报告并没有提出具体的方案。如果机器人对人造成了损害,究竟是适用罗马法中的“缴出赔偿”(noxoe deditio)原则(即把机器人交给受害者或其家属处置),还是让机器人支付赔偿金或坐牢(在这种情况下,最终承担责任的仍然是机器人的“主人”,因为机器人不可能有独立的收入,限制它的“自由”则等于剥夺了其“主人”的财产权)?

由此可见,机器人无论以何种方式承担责任,最终的责任承担者都是人,这使得它的“法律人格”显得多余和毫无必要。

实际上,这份报告在具体的规则设计部分也自动放弃了适用机器人“法律人格”的努力,比如,它提议制造商为他们的机器人购买强制性保险。此外,还要设立专门的基金来补充保险机制,主要的出资人也是制造商、经销商和其他利益相关者。这套保险机制的覆盖范围不仅是机器人,还包括机器管家、无人驾驶汽车和无人机等。该报告还提议设立专门的“欧洲机器人和人工智能局”来管理被归类为“智能机器人”的机器。这体现了传统的官僚机构思维方式。

这份报告指出,机器人的销售在2010—2014年间增加了17%。涉及机器人的专利申请在十年间增加了三倍。德国人均拥有机器人的数量已位居全球第三,仅次于韩国和日本。仅在2015年,全球销售的机器人就达到50万个左右。预计到2018年,全球将有230万个机器人在活动。但它并没有提供这些机器人实际造成损害的数量和类型。

德国主要的工程和机器人行业协会VDMA发表了反驳声明,指出政治家的担心是科幻小说看多了的结果,目前人工智能给人类带来的好处远远多于坏处,立法者不应该仓促出台规制措施来阻碍工业4.0的发展。在具有无限潜力的人类发展领域,充分的讨论是有必要的,但没有必要制定出详细的法律规则。

(二)自动驾驶汽车

2017年5月,德国联邦议会和参议院通过了一部法案,对《道路交通法》进行了修改。它允许高度自动化和完全自动化的汽车作为交通工具上路。但为了符合1968年《维也纳道路交通公约》第八条“每一部车辆在行驶时都必须有驾驶员在位”的规定,它没有允许自动驾驶汽车变成“无人驾驶”汽车。它规定,当自动驾驶系统启动之后,司机可以转移注意力,比如去读书或上网,但她必须保持足够的警觉,以便在系统发出请求时恢复人工控制。它还要求高度或完全自动化汽车安装记录驾驶过程的黑匣子,在没有卷入交通事故的情况下,黑匣子信息必须保存半年。如果自动驾驶模式正在运行过程中发生了事故,责任在于汽车制造商。但如果自动驾驶系统已经发出了请求人工控制的信号,责任便转移到了汽车上的驾驶人员身上。

在这部法律通过之前,法学家弗尔克·吕德曼(Volker Ludemann)教授曾经在联邦议会发表专家意见,指出法律草案有四个缺陷,这些缺陷虽然后来部分得到了修正,但其给司机带来的不确定性以及隐私问题却仍然存在。

在新法下,司机不知道该怎样做才能避免法律责任,自动驾驶汽车无法实现真正的“无人驾驶”,也就是车上只有乘客而没有驾驶员,阻碍了自动驾驶汽车的商业化发展。试想,如果一个人花比传统汽车贵得多的价钱购买了自动驾驶汽车,却时刻必须保持警觉,而且要在自动驾驶系统控制汽车操作一段时间后瞬间介入,应付紧急情况,这实际上对驾驶员提出了更高的要求。

新法把自动驾驶汽车造成人身伤亡的最高赔偿额度提高到1000万欧元,比原来的最高赔偿额度增加了一倍。虽然这笔赔偿在多数情况下将由保险公司支付,但保险公司无疑会提高保费,这也增加了自动驾驶汽车车主的负担。此外,黑匣子信息保留半年的规定也增加了个人数据和隐私被滥用的风险,因为自动驾驶汽车上遍布的传感器和摄像头会记录下非常多的个人私密信息。

与德国立法模式相对照,2017年9月在美国众议院通过的《自动驾驶法》(Self Drive Act)则采取了一种完全不同的思路。它没有改变现有的道路交通规则和与事故责任相关的侵权法规则,而是用宪法和行政法的思维方式划分了联邦与各州之间在规制自动驾驶汽车方面的责任,明确了交通部在确立自动驾驶汽车硬件安全标准、网络安全标准、公众知情标准等方面的具体义务和履行时间表。

其中第12条强化了隐私权保护,要求制造商和经销商只有在提出了满足一系列具体要求的“隐私权保障计划”的前提下,才可以供应、销售或进口自动驾驶汽车。这些要求旨在确保自动驾驶汽车的车主和使用者对自己的个人数据和隐私有充分的控制能力,不至于在自己不知情的情况下任由制造商或程序设计者使用自己的个人数据。这部法律目前还没有在参议院获得通过,其内容还可能会有进一步修改,但基本框架应该不会有大的改变。

(三)算法设计者必须遵守的伦理规范

与上述约束自动驾驶汽车制造者和使用者的规范不同,德国交通部长任命的伦理委员会最近提出的一个报告,展现了一种完全不同的思路:要求算法(即软件)编写者遵守一系列伦理法则。其中提出了20条伦理指导意见,核心是把人的生命放在首位。比如,其中第七条要求:在被证明尽管采取了各种可能的预防措施仍然不可避免的危险情况下,保护人的生命在各种受法律保护的权益中享有最高的优先性。因此,在技术上可行的范围内,系统必须被编程为在权益冲突时可以接受对动物和财产的损害,如果这样可以防止人身伤害的话。第八条规定,诸如伤害一个人以避免对更多人的伤害这样的伦理难题不能通过事先编程来处理,系统必须被设定为出现这种情况下请求人工处理。


法律如何更加“智能”地应对人工智能

正如尼古拉斯·卡尔所指出的那样,人工智能是历史悠久的人类工程学的最新发展,而人类工程学是艺术和科学结合的产物,它是为人类追求真善美的目的而服务的。人类不能被人工智能不断增长的能力牵着鼻子走,乃至被带入完全不受人类控制的未来。在笔者看来,为了更好地应对人工智能带来的新风险,在保护创新的同时确保人类生活的美善品质,可能的法律发展包括以下几个向度。

首先,现有的法律模式没有摆脱传统的具象化乃至拟人化思维方式,仅仅将有形的智能化机器或“机器人”纳入规制范围。但是,正如本文已经明确指出的那样,这些有形的机器只是人工智能的一种表现形态,即“人造劳动者”,它们都受一种无形的、弥散化的智能的控制,这种被称为“合成智能”的由算法、网络和大数据组成的无形、无界的存在,才是人工智能的智能所在。

正如李彦宏等敏锐地指出的那样:“……也许真要靠算法的顶层设计来防止消极后果。人工智能技术可能不只是理工科专业人士的领域,法律人士以及其他治理者也需要学习人工智能知识,这对法律人士和其他治理者提出了技术要求。法治管理需要嵌入生产环节,比如对算法处理的数据或生产性资源进行管理,防止造成消极后果。”这种“顶层设计”,我们可以称之为“人工智能社会的宪法”,它的制定或生成需要法律人和程序员、人工智能专家的合作,以便使算法进入法律,法律进入算法,从而使人工智能的基础操作系统符合人类的伦理和法律。

其次,为了做到这一点,政府应当在发展人工智能方面加大投入,吸收更多的人工智能人才参与立法、行政和司法工作,避免使自己远远落后于商业力量。这在我国比较容易做到,因为顶尖的大学和科研机构都是国家资助和管理的。如果这些人才中大多数都转而为商业机构服务,不仅无法体现社会主义的优越性,也不利于让人工智能向服务于社会公共利益的方向发展。

再次,从现有的各国立法模式来看,欧盟和德国直接修改民事规则和交通法规的做法,是在事实不清、需要解决的问题不明朗的情况下做出的仓促选择,既不利于鼓励创新,也不利于保障公民的权利。在目前这个阶段,比较稳妥的方案是美国式的公法模式,指定一个现有的政府部门负责确立相关的行业技术标准、安全标准和个人数据保护标准,而这个标准不应当是自上而下武断强加的,而应当是对行业自身所发展出来的标准与公共利益、个人权利保护原则的综合考量,其制定程序应当遵循公共参与、听证等行政程序规则。

最后,德国的自动驾驶汽车程序设计伦理规范是一个可取的思路。由于人工智能的核心在于算法,算法的设计决定着智能化机器的“行为”。而对于普通人和大多数立法者、执法者和司法人员来说,算法是一个“黑箱”,人们只能看到它所导致的结果,却无法看到它的运作过程。

制定相关规则来约束算法设计者的行为,在发生可疑后果的时候要求程序员用自然语言来解释算法的设计原理,并且追究其相关责任,这显然是一种治本之法。但正如德国模式也只是把这种思路落实为建议性的伦理规范一样,这种规则变成法律仍有很大难度,需要立法者、执法者、司法者和公众都有一定的人工智能知识,能够及时发现可能由算法导致的危害性后果。

在人工智能知识像“普法”一样被普及开来之前,一个过渡性的做法是设立由相关领域专家和法律职业人士共同组成的伦理委员会或“人工智能法院”,按照风险防范而不是纠纷解决的思路来处理相关规则的落实问题。


    进入专题: 人工智能   法律  

本文责编:frank
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 法学 > 理论法学
本文链接:https://www.aisixiang.com/data/106807.html
文章来源:本文转自《探索与争鸣》2017年第10期,转载请注明原始出处,并遵守该处的版权规定。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2024 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统