雷磊:数字司法的理论反思:意义、问题与监管

选择字号:   本文共阅读 189 次 更新时间:2024-12-09 19:07

进入专题: 数字司法   可计算空间   机械裁判   人工监管  

雷磊  

 

【摘要】数字司法标志着司法3.0阶段的到来。在这一阶段,人工智能的角色已从“数字书记员”演变为“法律同伴”,技术深度赋能司法体现为最大化司法裁判的可计算空间,表征为法律规则的再规则化,事实认定的数字模型化以及自动联结案件事实和裁判结论。但数字司法也产生了用技术手段消解程序空间,用数据运算隐匿评价余地和用可能性取代规范性的问题,问题产生的根源在于用技术替代主体意义上的“人”的倾向。由此,要强化对数字司法的人工监管,既确保其追求数字正义的正确价值导向,也要建构和完善相应的监管机制。数字司法的力量来自数字技术与司法裁判之价值目标间的相符,弱点则来自两者的相悖。因此,数字司法何去何从,最终还是取决于法律(或者说人)的调控。

【关键字】数字司法;可计算空间;机械裁判;人工监管;司法3.0

 

一、引言:司法3.0阶段的到来?

当下,数字经济已成为中国式现代化的重要驱动力量。在数字经济早期,为了给新技术和新产业留下发展空间,相比于“通过系统立法全面控制风险”,更有效的途径是“通过灵活判例解决实践问题”。[1]因为法律系统在本质意义上是做出决断,维持有关法律沟通与社会运作,而承担起中心任务的就是司法与法院。[2]因此,如何让数字司法成为保障数字经济健康发展的良法善治,为高质量发展和高水平安全保驾护航,已经成为推动司法工作现代化的重要议题。[3]近年来,最高人民法院先后颁布《人民法院在线诉讼规则》《关于加强区块链司法应用的意见》《关于加快建设智慧法院的意见《《关于规范和加强人工智能司法应用的意见》等文件,助推数字司法建设。数字司法建设被认为是新时代实现数字社会治理的内在要求,是助力实现数字正义的关键环节,是护航数字中国建设和助力国家治理现代化的题中应有之义和重要实现路径。[4]

因此,司法在应对数字技术的同时,也被数字技术深刻改变。传统的司法模式仅着眼于将法律规则适用于特定的事实情境,数字司法则在这一适用过程中融入了技术要素。技术赋能司法的路径分为三个层级:第一层级,以线上操作为核心,将诉讼环节进行数据化处理,如远程庭审、电子送达等;第二层级,人工智能辅助审判,如文书部分内容智能生成、类案检索等;第三层级,技术驱动治理,实现纠纷预防与化解。[5]与此相应的是数字时代司法发展的三个阶段:司法1.0阶段没有改变司法裁判的核心环节,而只是简单将法律适用过程“线上化”“数据化”;司法2.0阶段致力于将技术与法律规则一起(辅助法律规则)适用于特定的事实情境;当下初露端倪的司法3.0阶段则追求将法律规则转变为技术自动运用于特定的事实情境。在司法2.0阶段向3.0阶段转变的过程中,技术与司法的关系开始从单向赋能转向融合发展,建立起以协同性、分层性、复合型为特征的技术治理范式。与此相应的,是“智慧法院”建设向“数字法院”建设的转变。在我国近年来的司法实践中,上海数字法院建设和浙江全域数字法院改革就是这一方面的代表。浙江省高级法院以线上线下深度融合、内网外网共享协调、有线无线互联互通为基本要求,沿着从“数字建设”“数字应用”到“数字改革”的发展路径,将整个浙江法院审判执行、办案办公等各项工作,全面、彻底的数字化,全力打造新时代“全域数字法院”变革高地。[6]而上海法院经过近一年多的探索,已形成大数据平台、研发模型平台、自动运行平台“三大平台”,建立了数助办案、数助监督、数助便民、数助治理、数助政务“五大板块”的体系架构,构建起上海数字法院的技术根基和基础框架。[7]

这种转变意味着什么?法律人应如何在数字技术的热潮中对于数字司法的趋势进行冷思考?下文将首先阐明数字司法对于司法实践的现实意义(第二部分),接着剖析它可能带来的问题,即数字司法对“司法”活动的性质及其意义带来的挑战(第三部分),然后尝试指明如何对数字司法本身进行人工监管(第四部分),最后得出结论。

二、数字司法的意义:技术深度赋能司法

(一)从“数字书记员”到“法律同伴”

在司法治理技术的同时,技术也在赋能司法。从司法1.0阶段到司法3.0阶段的发展过程,也是技术赋能司法的程度不断加深的过程。

在司法1.0阶段,人工智能扮演着“数字书记员”的角色。人工智能可以对司法工作中的一项或几项独立的事务提供智能支持,但法官依然需要完成主要司法工作。如最高人民法院于2022年12月发布的《关于规范和加强人工智能司法应用的意见》(法发[2022]33号)对于人工智能司法应用的定位就基本只是这一角色的定位,因为它将司法人工智能系列应用场景设定为全流程辅助办案、辅助事务性工作、辅助司法管理、服务多元解纷和社会治理等等。因此,司法1.0阶段的人工智能基本只是人类法官的“数字化工具”,只不过相比于传统机械工具更加高级和高效而已,对法官的主体地位、裁判结果没有实质影响 [8]

在司法2.0阶段,人工智能扮演着“法官助理”的角色。人工智能在有限条件下可以实现由算法进行辅助审理裁判,但并不取代人类法官的主要工作。这个阶段人工智能辅助司法的路径有两个:一个是正向路径,也就是由法官、律师等专家将特定类型案件的所有法律规范、以往主要判例确定的裁判标准梳理出来,制作成人类可以理解的知识图谱,再由软件工程师转化为机器算法,然后通过大量已经人工标注的生效裁判文书进行预训练,不断调整优化算法和参数,最后得出一套可以应对特定案件的专家型智能审判算法。[9]也就是,在搭建系统时,通过知识采集将法律专家头脑中的知识和推理过程提取出来,然后把提取的知识编写为复杂的决策树形式,再注入计算机系统,并提供了流程图。这就是“基于规则的专家系统”。[10]另一个是反向路径,也就是通过人工智能和数据共享对法院以往发生的错案类型进行要素化、标准化解构,提炼出通用的“错案规则”知识图谱并嵌入办案系统,在一些高发频发的领域、环节、案由中实时预警和提示,以减少和避免后续类似案件中发生类似的错误。于此,算法不决定任何案件的审理结果,仅仅提示以往类似的判决可能存在错误,最终是否采纳的决定权仍在于法官。[11]如果说正向路径追求的是“同案常同判”的话,反向路径实现的就是“同错不同犯”。

在司法1.0阶段和司法2.0阶段,人工智能对于审判活动作用均有限,只不过前一个阶段纯粹是工具性的,而后一个阶段已经开始具备智慧色彩。与此不同,在司法3.0阶段或者说数字司法时代,生成式人工智能开始扮演“法官同伴”的角色,“人机协作”或“人机共融”成为数字司法的趋势。数字司法相对于以往的信息化、智能化司法,或者说“数字法院”相对于“智慧法院”的超越升级具体体现在:一方面,智慧法院的核心在于法律信息和流程的数字化、在线化,以及诉讼模式由线性封闭向集成开放智能转变。即,通过庭审语音识别、电子证据展示、文书自动纠错、电子卷宗随案生成、智能辅助办案、审判流程管理等模块化应用,借助大数据、云计算、区块链、人工智能等新技术,逐步将个体分散的司法实践和经验,深度集成整合为开放、共享、智能的综合运用模式。智能化辅助司法既提高了法院“数据治理”管理能力,也提升了法院“数字辅助”服务水平。与此不同,数字法院的核心是凭借生成式人工智能强大的数据分析能力和反应速度,实现审理过程、办案程序、决策输出方面的指引和监督。即,在案件审理过程中,不同功能模块共同完成审理过程的数据化、清单式指引,提高司法供给能力;通过法院网络及终端设备,实现审判流程的智能监督;将类案裁判经验、证据规则经验转化为智力支持,促进司法决策的优化输出。

另一方面,在智慧法院建设阶段,虽然产生了文书审查与生成、数据的分析与预测等成果,但受限于生产者或使用者法律知识的匮乏,这些成果大多以模块化、碎片化的形式被呈现出来。[12]各应用成果之间兼容性不足,不仅难以满足司法审判的集约型管理、全场景整合、全流程覆盖的智能化需求,而且极易造成资源浪费与重复建设。[13]与此不同,生成式人工智能采用的是通用的大语言模型,也即利用大规模语料数据进行预训练的语言模型。大语言模型是一种基于深度学习的神经网络模型,通过概率预测生成与训练数据相似的新文本。这种模型与普通语言模型最大的区别,在于前者通常具有大量的参数,并且在训练过程中使用巨量的文本数据。它能自动对库中资料进行语言学分析,提炼出普遍的语法逻辑,训练语言理解和文本生成的能力,再加之人工智能神经网络参数,来模拟人类思维模式,最大程度达到类人化。[14]超大语料库、深度学习能力、生成能力和创造能力是生成式人工智能的基本特征。同时,应用于司法场景的人工智能在通用的大语言模型的基础上进行微调,也即引入司法领域的数据集对已经过训练的大模型进行更进一步的训练,就会产生更为专业的司法人工智能模型。生成式人工智能借助通用化的大语言模型技术架构,极大改善了碎片化、零散化的司法成果产生路径,提升了数字科技在司法裁判中的嵌入能力,实现了从司法数据共建共享、司法资源共通共享到司法知识共学共享的转变。在未来的人工智能与大数据技术支持下,每一个法律领域都有能够涵盖所有裁判规则的数据库与知识图谱,而这种知识的存储与呈现与传统工业时代不同,是一种经过解构和标准化、数字化的规则,并且通过机器代码同时生成了相应的算法语句。[15]

总之,传统的智慧法院建设过程中,法院的工作流程、机制、方式并没有发生根本性的变化,主要是把立案、审判、执行、管理等工作,由线下转为线上,也就是“业务数据化”,整体水平仍然处于数据生成和数据载体阶段。数字法院不仅仅是一种技术变革,更是一种理念、思维和机制的根本性改造,是综合运用大数据思维,通过新技术收集和分析海量司法数据,推动“数据业务化”,通过数字化改造重塑业务流程、组织架构和体制机制,最终带动审判质量和效率发生重塑性变革。可以说,从智慧法院建设到数字法院建设,是由“器”而“道”的转变。当然,这种转变并非取代,而是升级。因为数字司法是对人工智能辅助司法的延续和发展,是智能化司法的最新阶段。

(二)最大化司法裁判的可计算空间

技术深度赋能司法的最大体现不在于节约司法成本、提升司法效率,有效化解“案多人少”的矛盾,或者推进因司法公开和数据留痕而实现程序公正的客观效果,[16]而在于最大化了司法裁判的可计算空间。

对智能化司法最大的批评在于“机械裁判”,因为符号化、算法化的运算过程是机械的,而“裁判不等于计算”,“算法更非法律”。就像考夫曼(Kaufmann)所指出的:“如果人们在其中不保证将始终变动的生活关系的独有性和特殊性在法律的发现过程中引入,那么纯粹从法律规范演绎出来的'争议'将会是一种'永久的,重复相同的'僵化机械论,一种是电脑的'正义',一种是非人性的'正义'。”[17]但是这种指责似乎过于简单化了。虽然算法不是法律,但算法对社会生活和个人行为的塑造以及执行公共职能的优势已经初步产生了与法律在功能上融合的空间。[18]这种融合之所以可能,是因为裁判/法律和计算/算法拥有两个共同点:一方面,裁判与计算都是理性的过程。这并非说人(裁判者)的理性与人工智能的理性完全是一回事,而是说两者至少部分共享了这样一种“通用的”理性思维:(1)为了一个目标进行的有限步骤内可完成的运算;(2)这种有限步骤的运算存在一个构造性的程序,成为一个能行过程,即理性思想产品是由必然方式生产或制造出来的,而不是随意的或跳跃性的偶然结果;(3)这种运算总是内在一致的,不能包含矛盾或悖论。[19]在此意义上,生成式人工智能和法律人都具有理性思考的能力。另一方面,法律与算法看起来都具有“规则性”这一核心特质。[20]法律是一套规则的体系,而规则是以一般性的方式来指引人们的行为的,它的本质就在于一种“稳固的一般化”[21]。这种稳固的一般化决定了法律规则会向裁判者屏蔽一位敏感的决策者在其他情形中会考虑的因素 [22]如果这种情形被叫作“形式主义”的话,那么法律推理在某种意义上就具有形式主义的性质。因为所谓“依法裁判”恰恰就体现为,将法律规则规定的法律后果联结于符合该规则之构成要件的个案,而不考虑个案的特殊性和规则背后的实质理由。法律人工智能运行的基本原理是将开放的法律数据通过自然语言处理后,输入机器学习的算法中,然后得出一种或多种用于预测的模型。在此,机器学习算法的目标并非复现法律推理,而是通过一种自动化的方式用多种预设配置将输入值与输出值关联起来。[23]但无论如何,算法本质上同样是一种规则,它与法律规则共享着条件式命题的基本结构:C→R。只不过在法律规则的情形中,C代表构成要件 R代表法律后果。而在算法的情形中,C和R都是数据,其中C是输入值(数据),R是输出值(数据)。因此从功能的视角看,“法律与算法都是为实现特定目标而构造的指令集。两者都以过滤信息、建构模型为手段,具有降低认知负担、提高认知效率的功能”。[24]

就此而言,司法裁判至少在最低限度(如果不是最高限度)的意义上与机器学习算法的运行保持着一致性,即依据既定的规则“计算出”结论的理性活动。司法裁判中规则的决定空间,就是它的可计算空间。司法裁判的可计算空间预设了两个前提:一是法律语言的可计算,也即法律语言可以用形式上的逻辑符号来表达,实现计算语言与法律语言的互译;二是法律推理的能计算,也即司法人工智能在有限步骤内甚至在特定的步骤内得出确定的结果。[25]而生成式人工智能对司法裁判的深度赋能,就展现为最大化地利用了这两个前提及可计算空间。具体而言,这表征在三个方面:

一是法律规则的再规则化。法律规则因模糊、歧义和评价开放等原因留下了有待填补的裁量空间,而类案同判在某种意义上正是为了约束后案法官的裁量权。其基本方式是根据前案的裁判规则来判决同类后案,而这种裁判规则就是先案所适用之法律规则的具体化。如果同类案件不断出现,而同一裁判模式反复运行,先案所确立的裁判规则就会越来越稳固。生成式人工智能基于其技术优势,以海量的类案裁判数据为坐标系,通过类案推送接入关键信息、案件事实等数据要素,进行类案比较智能标引,通过概率预测模仿法官对待决案件进行判决预测。[26]必须指明的是,这些类案背后的裁判规则或许从未被明确表述,而生成式人工智能也可能因学习到越来越多的类案及其处理结果,而不断地对一开始的裁判规则进行微调,从而使之越来越精确。[27]例如,在交通事故责任案件中,关于当事人主/次责任的认定及相应的赔偿额分担,因法规则的模糊性而存在不确定性,往往需结合违法情节严重程度、受害人受伤程度、履责能力等因素来综合计算。而大语言模型系统将“主/次责任”列为一个抽象的模糊集合,这是一个包含着无限若干连续元素的集合,系统根据具体的案件事实不断进行微调,对责任双方的承担比例做出微调。以此方式,生成式人工智能就实现了法律规则的再规则化,从而使得依法(规则)裁判之要求的实现程度越来越高。

二是事实认定的数字模型化。生成式人工智能能够运用数学语言来表达事实认定领域的认知过程,即运用数学概率以及符号将待证案件事实要素表达为一组数字,再依次审查证据的真实性、合法性、关联性。具体而言,生成式人工智能进行证据审查要经过四个步骤:第一,对待证案件中的各种要素进行提取、储存、分析,建立相应的数据集;第二,通过深度学习能力和算力,进行场景文字识别、证据瑕疵手动标注等分析校验;第三,通过对历史案件文书、证据材料生成若干规则,分析证据的真实性、合法性、关联性;第四,构建可视化的证据链条、案件知识图谱,辅助法官进行事实证据认定。[28]此外,生成式人工智能可能凭借自身智能,输出超越输入证据数据限定的结果,从而弥补案件事实中的缺失环节,或至少给法官完整还原案件全貌提供参考。[29]

三是自动联结案件事实和裁判结论。人工智能的机器算法会自动将作为输入值的案件事实与作为输出值的裁判结论关联起来,关联的依据就是基于对类案裁判的深度学习而建立的规则C→R。当然,于此,生成式人工智能并不像人类法官那样能够理解从C到R的内在意义,因为它没有“观点”,只有“观察”;没有“判断”,只有“复述”;无法“理解”,只能“表达”。[30]所以,尽管法律规则和算法规则都具有C→R的结构,但在法律规则那里,→代表归属关系,而在算法规则这里,→只代表相关关系。[31]尽管如此,只要历史数据(类案裁判)是正确的,且裁判模式会反复出现,从功能主义的角度看,是归属关系还是相关关系似乎也并无差别。所以,虽然类案同判并非是法官的法定义务,但智能化类案推送事实上会对后案的裁判者产生巨大压力,引导着裁判者将类案裁判的后果联结于待决案件。

所以,只要依法裁判是司法裁判的基本要求,而依法裁判又可以在功能上被还原为理性计算,那么数字司法就有其存在的可能性甚至必要性。在此前提下,就像2017年《最高人民法院关于加快建设智慧法院的意见》所指出的那样,要深挖法律知识资源潜力,提高海量案件案情理解深度学习能力,基于案件事实、争议焦点、法律适用类脑智能推理,满足办案人员对法律、案例、专业知识的精准化需求,促进法官类案同判和量刑规范化。因为司法裁判的确存在着这种意义上的可计算空间。但是,这并不代表司法裁判活动的全部。

三、数字司法的问题:技术能否替代司法?

正所谓成也萧何、败也萧何,对智能化司法之“机械裁判”的批评的确包含着部分真理。智能化司法的这种“机械性”体现在:忽视了司法的对抗性与亲历性,用技术手段消解了程序空间;忽略了对个案的特殊考量,用数据运算隐匿了评价余地;将规范问题还原为事实问题,用可能性取代了规范性。

(一)用技术手段消解程序空间

司法裁判是一个三维的立体过程,而非二维的平面活动。当事人、代理人和法官在受到法律规则导控的过程(也即法律程序)中展开对话和论辩,达成共识。法律程序的意义恰恰在于,通过程序化商谈的过程来寻求正确的裁判结论。有时候,相比于特定裁判结论本身,达致这一裁判结论的程序同样重要。因为它是程序的多方参与者达成从认识到行动之整合的“整全性实践”。[32]这种程序之展开,其实是对各方参与者之主体性的认可:特定司法裁判结论不仅是恰当的,而且更重要的是,它是“我们”通过程序参与塑造出来的。这就是“司法的剧场化”所蕴含的价值:在以“剧场”为符号意向的人造建筑空间内进行的司法活动内化了人们的理性精神和品质,凸显出程序和秩序观念,促成了法律活动的技术化和专门化,增强了法律的神圣性和权威性。[33]

但是,数字司法对司法裁判的过程作了扁平化处理,用算法的二维程序去取代司法的三维程序。[34]当技术手段、数据与自动化决策不可避免地成为司法实务运行的主要手段时,一切貌似秩序井然和明白易懂,人类却在司法活动中愈加依赖技术而逐渐缺乏主观能动性。平面化的机器决策不断侵蚀立体化的人类决策,而数字司法所追求的与其说是“类案同判”,不如说是法律自动化的倡导者所认为的将决策权委托给算法系统。[35]因此,数字驱动下预测性司法的运行逻辑与程序公正的核心要素(尊重、中立、可信、参与)会产生不同程度的内生冲突。[36]

一方面,数字司法会忽视司法活动的对抗性。在智能化司法中,纠纷案件本身属性特征变化和技术驱动治理效能的发挥,使得庭审中“两造对抗”的必要性不断弱化。在此背景下,有论者认为有必要进一步发展“弱对抗性”或“非对抗性”纠纷解决机制,如设置民事侵权领域的“行为禁令”。[37]新的纠纷解决机制应否设立另当别论,即便我们将生成式人工智能作为诉源治理的一种技术手段,也要看到它对司法责任的逃避、司法公开的阻碍和司法公平的忽视等潜在风险。[38]更何况,司法活动的对抗性本就是查明事实真相、进行规范论证的有效外部环境。另一方面,数字司法会忽视司法活动的亲历性。法官需要有诉讼程序的亲历性,需要接收到当事人和证人直接言词的信号,要有双方当事人及其代理人当面的质证和交锋,才能通过程序来求得最佳法律判断。[39]而在技术路线下,司法会变成一百年前就被诟病的“自动售货机”式的司法,甚至司法会沦为大数据和算法底下的一场机器化的侥幸赌博。诉讼程序的亲历性、直接言词性就会大打折扣。[40]因为它其实将司法决策大大前移了:如果司法决策依赖技术系统生产、提供信息,并将信息结构化与要素化,那么此时法官做出司法决策,就如同医生放弃了听取患者倾诉症状,转而只对化验结果、检测报告和病例检查照片保持信任,用一种片面的观点取代了另一种片面的观点。[41]不亲历参加庭审的法官,就如同不进行望闻问切的医生一样容易犯错。进而,被要求依据类案推送来审理类案的法官,也无法让其承担责任。所以,智能化司法可能有违“让审理者裁判、让裁判者负责”原则。

(二)用数据运算扼杀评价余地

有学者归纳出人工智能司法裁判存在“三不能”,即对复杂性案件的理解不能、对法治热点案件的调控不能、对新型疑难案件的推理不能。[42]进而论者倡导,未来司法的构造,应当是“人类法官解决复杂案件”“智能算法解决简单案件”两种裁判模式及其诉讼程序的展开与衔接。[43]事实上,因为社会背景的变迁和特殊事实因素的存在,很多案件都可能成为复杂案件。算法化运行的人工智能只能确保统一裁判,但无法确保正确裁判,因为形式上的“类案同判”却可能因忽略对个案的特殊考量,导致实质上的“同错同犯”。这里所说的“个案”,可以指先前的“类案”,也可以指待决案件。

智能化司法的正当性取决于两个前提,即依据历史数据裁判是正确的,且裁判模式会反复运行。[44]但是,一方面,依据历史数据裁判未必正确,因为作为历史数据的先前判决未必正确。无论如何智能,司法裁判所依赖的初始司法数据总是由人类法官来提供(标注)的。而人类法官所作的未必能经受时间的考验,且由于既判力等原因无法得到纠正。如果是人类法官审理后案,就可能摆脱历史数据的制约,重新实现个案正义。哪怕是在遵循先例的法律体系中,也存在可供使用的推翻技术来纠正错误。但是在智能化司法的环境中,只能一次次复现历史数据的结论。而且吊诡的是,如果历史数据或先前判决是错误的,那么遵循类案同判的逻辑,运用人工智能裁判会导致错误的结果一次次在后来的判决中复现,这就会出现越错误反而越正确的荒谬情形。另一方面,裁判模式也未必反复运行,因为现实中始终存在差异化判决的可能。因为作为案件裁判背景的社会环境和公众价值观念可能会发生变化,新出现的案件也可能存在前案不具备的额外特征。无论哪种情形,都证明后案已“不同于”前案。面对此种情形,人类法官可以运用“区别”技术来摆脱历史数据的制约,支持差异化判决的正当性。[45]。然而,在智能化司法的环境中,后案只要出现了与前案相同的事实特征,就会被识别为类案,其案件事实就会被前案的裁判结论自动联结。人工智能并不具有自由意志和道德能力,也无法对司法裁判所面对的人和事做出价值判断。

它能够对法律规则进行再规则化,这固然可以将人类(前案法官)的价值判断转化为可中立适用的具体规则,但也会使得先前的价值判断被一再固化,从而扼杀了后案裁判中“有所不同”的评价余地。司法创新的空间,正在于对价值判断保持向着历史传统和社会变迁的适度开放性。但是,人工智能却是无历史、无社会、无价值观的,它要做的只是程序运行和结果输出。所以,算法决策面对复杂疑难案件,能够促进形式正义,却很难实现实质正义。[46]

(三)用可能性取代规范性

数字司法更深层次的问题是带来一种价值追求的改变,也就是用可能性来取代规范性。司法裁判是规范性的,而规范性预设了人类(包括人类法官)拥有的自由意志。即使经验数据可以用来解释影响司法裁判的某些因素,裁判的正当性也不能依赖于既往案件的规律性,除非存在一个更高的规范,即新的案件应当按照过去类似案件的裁判方案进行处理。这里的“应当”本身就是一种规范性判断。如果我们做出了这种规范性判断,它实际上就已经为司法裁判树立了一条规则,也就是“类似案件应当类似判决”。[47]一方面,这意味着,法官可以受这条规则的指引,从而实现类案类判的后果;但他也可以不受这条规则的指引,此时他就要承担相应的责任(如错案追究甚至受到违法裁判的评价)。自由意志赋予了他选择的余地,他也要为自己的选择负责。另一方面,正如大多数规则那样,这条规则也不是绝对的,它并不构成司法裁判的绝对义务,而至多只是提出了一种可以被凌驾的道德要求。[48]换言之,为了实现正确裁判的要求,有时法官可以运用自由意志摆脱这一规则的约束,当然前提是要为此承担充足的论证负担。因此,司法裁判就呈现为法律推理,也即为裁判结论的成立提供论证和理由。说理,是司法裁判活动区别于其他纠纷解决活动的特性所在。

但是,司法人工智能的运用将排除人类(包括法官)运用自由意志的空间。法律对人的行为的指引,正是以人的自由意志为中介的。人有是否按照法律的要求去行事的选择自由,当然这也意味着他必须为不服从法律的要求而承担相应的法律后果。换言之,违法事实的可能存在,正是法律的规范性的表现。规范之所以不同于事实,正是因为后者永远可能与规范的内容存在缝隙。但人工智能会消弭这种缝隙。由于机器学习的引入,外在的、稳定的法律体系将被自我适应、自我迭代和自我完善的互动调节机制所取代。传统法律用固定的文本来维持社会期望的稳定,机器学习则使用当前操作作为下一指令的基础,并基于实际状态而不是规范期望作为策略决断的依据。这样,法律不仅借助国家暴力威慑让人“不敢违法”,还基于算法对操作过程的控制,令人“不用违法”也“不能违法”[49]比如,在互联网著作权保护中,智能合约技术可以将合同以程序代码形式写入区块链中,为作品创作和版权交易等行为提供无法篡改的数字证明,实现作品确权、授权及利益分配全程自动化。一旦有未经授权作品内容上传,就会自动触发执行系统,这样就从源头避免侵权的可能性。[50]再如,自动驾驶系统的设计者可以将闯红灯违法写入自动驾驶的代码中去,这将在自动驾驶汽车广泛普及后避免发生闯红灯这一违法行为。[51]同样的道理,裁判规则会转化为行为规则。如果数字司法所发现的“司法规律”被后来的人工智能系统设计者写入代码,变成公民的“行为规律”,那么就将不存在应不应当遵守它的问题,而只存在能不能违反它的问题(几乎是不可能的)了。

因此,算法不具有规范性。它的目标并非复现法律推理,而是寻找判决中各个参数间的相关性。[52]如前所述,它只是依据裁判的历史数据建立起了案件事实信息与裁判结论信息间的关联性,并没有证明前者就是后者的理由,更没有提供为什么前者是后者之理由的理由。算法的扁平化运行在消解程序空间的同时,也消解了论证和说理的空间。在智能化司法中,只需知道“是什么”(先前的类案是怎样裁判的?)就可以了,没有必要知道“为什么”(为什么应当这样裁判?)。[53]所以,前文说法律与算法都具“规则性”并不十分准确,因为这只是从外观或者说功能的角度而言的。但是,如果我们将“应当”或“内在观点”视为“规则”的必要内核,那么严格说来,通过历史数据的反复运行,算法并没有建构出新的规则,充其量只是确定了同一裁判模式的规律。规律不是规则。所以,如果将法律与算法都作为得出特定结论或主张的工具的话,那么法律是一种规范性工具,而算法是一种非规范性工具。规范性工具总是讨论“应当”做什么,而非规范性工具只讨论“能”和“不能”做什么的问题。[54]智能化司法将法官应不应当按照类案裁判的问题,转变成了法官能不能按照类案裁判的问题,用结果预测(诱导)取代了说理论证。在此意义上,很难说智能化司法进行了真正的法律推理,因为它根本不具有法律推理的规范性,尽管算法运行依然是一个(计算意义上的)理性过程。

上述数字司法的问题,可以被统称为“数字代码化的悖论”。若要消解这一悖论,就要界定代码化的场域,明确司法裁判在什么情况下可以代码化,什么情况下不应当代码化。可以肯定的是,法律不可能全部被代码化,代码运行的规则不能完全替代法律规则。智能化审判系统的价值在于辅助法官更好地行使审判权,而不是替代法官判决。[55]数字司法的运用产生了用技术手段消解程序空间,用数据运算扼杀评价余地,用可能性取代规范性三个问题。无论是哪一个问题,其根源都在数字司法用技术替代了主体意义上的“人”,而无论是在司法裁判还是在别的法律活动中,人永远是不可替代的。

四、数字司法的人工监管

确保一切技术的运用符合人类的福祉,促进科技向善,永远是新科技时代的主基调。数字技术能够深度赋能司法,但也会在司法活动中带来更多和更深层次的问题。由此,确保数字司法活动始终处于人类的监管之下,就成为重要议题。这种监管不仅要求数字司法有正确的价值导向,更要求数字司法在此价值导向下构建或完善相应的制度机制。

(一)数字司法的价值导向

数字司法要追求“数字正义”[56]数字正义并非全新的正义类型,而是正义价值在数字技术背景下的新表达与新形态。因此,数字正义仍然具有传统正义蕴含的维护人权、秩序、伦理等方面的良好价值取向,只是其优势在于依托数字技术提升正义的效率与效果。[57]在司法活动中,数字司法要追求两项正义原则,即“触达司法”与“接近正义”。[58]

触达司法原则要求每个人都有平等的机会享受法院提供的数字化服务。智能化司法在“用技术手段消解程序空间”时,也产生了“数字鸿沟”问题。由于不同主体的经济状况、学习能力等差异,以及数字化、智能化社会引发的社会结构和社会关系变革等原因,在获取、理解和运用相应信息并享有数字红利时就会形成“数字弱势群体”。[59]这反映在司法活动中,就是出于人们在数字诉讼能力和数据举证能力方面的差异以及公共数据开放不足等原因,引发的诉讼上的“权利鸿沟”。[60]数字司法在用技术手段消解程序空间的同时,可能扩大这种数字鸿沟,从而剥夺诉讼主体充分参与司法程序的权利。因此,数字司法既要避免当事人因技术设施、工具等物质基础的拥有程度差距而产生的“接入鸿沟”,也要避免因使用新技术、使用技术能力高低等因素导致的使用程度差距而产生的“使用鸿沟”。[61]正如2022年印发的《最高人民法院关于规范和加强人工智能司法应用的意见》指出的,要保证人工智能产品和服务无歧视、无偏见,不因技术介入、数据或模型偏差影响审判过程和结果的公正,同时尊重不同利益诉求,能够根据司法需求公平提供合理可行方案,充分照顾困难群体、特殊群体,使其在司法活动中获得必要帮助,实现智能化司法服务对各类用户的普适包容和机会均等。

接近正义原则要求,数字化的司法服务相对人工司法而言必须更能够促进正义的实现。它包括两个方面:一方面是形式化方面的可视性,即法院的系统工作程序与司法的运作流程必须是信息化公开的。类案推送和智能算法推荐都只是司法裁判程序的起点,而非终点。同时,为了尽可能限制“算法黑箱”,算法要尽可能地做到可解释和可问责。可解释首先意味着算法的透明性,也即“外部人”(社会公众)公开知晓算法运行方式的可能性。[62]问责是一种事后规制,这种规制方式既能把一些很难获知且不一定有用的技术细节,利用事后规范或者追责的方式抹平,也在信息成本方面有着天然优势---行为和后果往往在事后更容易得到明确,这点对于复杂算法所引发的后果尤其显著。[63]另一方面是程序化方面的对话性,即诉讼程序与纠纷解决方式必须尊重各方的主体性、参与性,具有民主性,注重交往沟通之过程。不能完全将司法活动还原为扁平化的二维计算活动,各方当事人的参与性、司法的亲历性、裁判的论辩性等都要得到维系。裁判结论不单纯是算法计算的结果,也必须是在程序法和证据法导控下,各方主体进行充分商谈、达成价值共识的后果。智能化算法所支持的类案同判的结论尽管具有初始优先性,但并不具有终局性。正确裁判的要求始终不能为统一裁判所取代,数据运算也不能扼杀个案的特殊性和评价余地的存在。裁判者始终处于历史、社会、文化背景之中,始终要有个案意识和价值敏感性,要在依法裁判之外兼具对个案正义的关怀,不仅将裁判的合法性和法律效果,而且将裁判的说服力和社会效果也作为重要目标。如果说形式化方面的可视性是一种“看得见的正义”的话,那么程序化方面的对话性就是一种“说得出的正义”。唯有如此,才能抑制智能化“机械司法”的负效应,趋向于“数字正义”。

(二)数字司法的监管机制

价值导向要落实为制度机制。《最高人民法院关于规范和加强人工智能司法应用的意见》(以下简称《意见》)提出,应“保证人工智能司法应用不得违背公序良俗,不能损害社会公共利益和秩序,不能违背社会公共道德和伦理,健全风险管控、应急处置和责任查究机制,防范化解人工智能司法应用中可能产生的伦理道德风险”。这也应当成为数字司法人工监管的总方针。具体而言,数字司法的人工监管要建构和完善如下五套机制。

其一,应用场景机制。通过制度规范明确司法人工智能技术应用的范围、场域以及禁止性规定。原则上,司法领域中的重复性、可替代性工作均可由人工智能承担。例如,可以将风险评估工具引入审查逮捕及羁押必要性审查阶段,替代取保候审保证金制度,让被追诉人享受科技红利,避免因经济困难而被剥夺取保候审的机会。同时,也要为司法人工智能设置进入领域的负面清单。凡是可能导致不可欲的司法风险,可能造成当事人权利减损,可能冲击既有司法正义结构的人工智能应用都应当列入负面清单。[64]在诸应用场景中,司法人工智能都须符合“可信可控”的要求,而这一要求应当转化为过程和/或过程中的相关约束,并将这些约束锚定在司法人工智能系统架构中。这些要求的实现应依托于系统应该始终遵循的一系列规则“白名单”(行为或状态)、规定系统永远不可逾越的行为或状态的限制“黑名单”,以及关于系统行为的相关规则和限制或更为复杂的可证明担保的组合。确保可信可控的司法人工智能架构的适应性需要在该循环的三个步骤中满足相关要求:在“感知”阶段,司法人工智能系统的开发应认识到确保符合要求所必需的所有司法环境因素;在“设计”阶段,司法人工智能系统应该只考虑符合司法裁判之性质和要求的设计;在“行动”阶段,司法人工智能系统的行为应限于可以满足司法裁判之要求的行为。

其二,数据审查机制。司法人工智能运行的结果很大程度上取决于数据的质量,数据构成了司法人工智能的运用环境。一方面,要对数字司法活动的输入端进行合法合规性审查。在司法裁判中,有关案件本身的信息对法律事实认定与司法决策生成至关重要。因此,数字司法仍然要坚持“信息准入制度”,对信息的质而非信息的量进行控制。例如有关举证的规则,不将“传闻”或者个人意见作为证据,除非伴有严格的受控条件。[65]另一方面,也要对数字司法活动的输出端进行合法性和合伦理性审查。法院除了应对输出数据(裁判结果)进行合法性审查(是否合乎法律和法律的价值)外,还应对输出数据进行合伦理审查,明确伦理审查机制、风险处置、违规处理等规则流程。此外,数字司法活动中对数据隐私和安全的维护也十分重要。正如2019年国家新一代人工智能治理专业委员会发布的《新一代人工智能治理原则》所提出的,人工智能发展应尊重和保护个人隐私,在个人信息的收集、存储、处理、使用等各环节应设置边界,建立规范,完善个人数据授权撤销机制,反对任何窃取、篡改、泄露和其他非法收集利用个人信息的行为。同时,也要坚持总体国家安全观,确保司法人工智能产品和服务必须依法研发、部署和运行,不得损害国家安全,确保国家秘密、网络安全、数据安全不受侵害,努力提供安全、合法、高效的智能化司法服务。

其三,算法评估机制。《互联网信息服务深度合成管理规定》(2022年11月颁布,2023年1月开始施行)第15条规定,深度合成服务提供者和技术支持者应当加强技术管理,定期审核、评估、验证生成合成类算法机制机理。《意见》也要求,构建面向司法公开、司法为民、司法管理的信息化评估体系,确保司法公正、廉洁、高效。据此,为了最大限度地防止算法偏见、算法漏洞、算法黑箱等问题引发的司法不公问题,要构建算法评估机制。一方面,从算法评估机制的启动途径看,应建立主动启动和依申请启动相结合的机制。主动启动是指,在引进司法人工智能系统时,法院应当成立由法官、律师以及法学、社会学、计算机科学与技术学等相关领域专家参加的算法评估委员会,或者委托具有算法审核能力的第三方机构,对司法人工智能算法的合法性与公正性进行审核。而依申请启动则是指,算法失灵或错误导致裁判错误,最终损害的是当事人的合法权益,故应当赋予当事人质疑算法的权利。另一方面,从算法评估机制的阶段性看,应建立事前评估与事中评估相结合的机制。既要建立算法规则事前评估机制,以严格的程序规范从数据收集、信息挖掘到算法编程等一系列人工智能的基础行为,有效保障算法的合法性和合理性;也要建立算法决策审查与检验机制,确保关键流程的透明化、可控性与可追溯性。[66]当然,由于信息的不对称和专业能力的差异,无论是哪种评估机制,都需要先由系统开发商负责对算法的工作原理进行解释说明。[67]这就要求司法人工智能的算法透明可信,保障人工智能系统中的司法数据采集管理模式、法律语义认知过程、辅助裁判推定逻辑、司法服务互动机制等各个环节能够以可解释、可测试、可验证的方式接受相关责任主体的审查、评估和备案。

其四,裁判纠偏机制。哪怕是生成式人工智能,在司法活动中也应仅起到辅助性作用,最终决策仍需由司法人员审查后自行做出。也即,以轻推为限度确保司法人员的决策自主性。[68]这里包括三个方面:第一,必须坚持司法人工智能的辅助地位和审判组织的自主地位。正如《意见》指出的,无论技术发展到何种水平,人工智能都不得代替法官裁判,人工智能辅助结果仅可作为审判工作或审判监督管理的参考,确保司法裁判始终由审判人员做出,裁判职权始终由审判组织行使。通过司法人工智能系统获得的结论只能作为审判工作的参考,审判组织做出的司法裁判才具有法律效力。第二,必须坚持明确司法活动参与者应用司法人工智能技术时的选择权与豁免权。法官在选择司法人工智能辅助办案中,发现人工智能产品和服务存在问题时,有权随时退出。各类用户有权选择是否利用司法人工智能提供的辅助,有权随时退出与人工智能产品和服务的交互。第三,必须明确司法责任最终由裁判者自己承担。法官一旦发现自动化裁判过程及其后果违法背德,就应对裁判进行纠偏,否则将承担相应的法律后果。

其五,责任承担机制。人工智能司法不能违背社会公共道德和伦理。中共中央办公厅、国务院办公厅2022年印发的《关于加强科技伦理治理的意见》指出,要将科技伦理要求贯穿科学研究、技术开发等科技活动全过程,促进科技活动与科技伦理协调发展、良性互动,实现负责任的创新。为此,要明晰科技伦理审查和监管职责,完善科技伦理审查、风险处置、违规处理等规则流程。当司法人工智能技术应用产生社会风险时,司法人工智能技术的开发者、服务提供者与使用者各自应当承担具体法律责任。应当组建司法人工智能伦理委员会等机制,综合采用伦理审核、合规审查、安全评估等方式,防范化解人工智能应用过程中的安全风险。[69]在构建责任机制时,也要处理好安全与发展的关系,法律责任的设定应当合理适度,不能因为追责机制的建立而束缚研发人员的创新精神,阻碍司法人工智能技术的创新发展。[70]在追究通用人工智能活动中的司法责任时,要总体保持包容合理的限度,严格区分故意、过失与不可抗力等行为人主观状态,构建科学的司法责任追究机制。

显然,上述五套机制的建立主要依靠的是软法(soft law)而非硬法(hard law)。它们既不将“安全”作为至高价值,从而避免过度严苛地限制司法人工智能和数字司法在未来的发展;也不将“自由”作为至高价值,从而避免过于倾向产业保护而忽视了司法活动的特性。它们要实现的,更多是两者之间的平衡,既最大限度地利用司法的可计算和智能化空间来获得红利,也要抑制其不符合司法价值追求的面向,从而实现合乎司法裁判之性质的数字正义。之所以运用软法而非硬法,也正是因为如何达致这种平衡尚无固定的模式,需要为未来司法实践的探索容留较为灵活的余地。

五、结语:法律与技术的纠葛

数字司法是法律与技术相纠葛的典型场合。数字技术的核心意识形态是:一切事物都可以数学化、计算化、模拟化、数据化,让信息成为理解、阐释、处理和支配世界的通用概念。在传统时代,技术是工具、客体和对象,重点是法律如何监管与规制技术;而在当代,伴随技术的信息化和数字化,技术架构成为社会沟通展开的底层装置,成为法律运作的基础设施。法律与科技互为系统与环境,形成系统间或松散或紧密的结构耦合关系。[71]这反映在,一方面,法律规制着技术活动。尤其是司法审判,具有灵活性、开放性、包容性等优势,可以通过个案审理,灵活确立规则,循序渐进推动网络空间依法治理。[72]另一方面,技术也在规训司法。从某种意义上说,在智能科技越来越嵌入我们生活的方方面面的当下,传统的技术中立原则已不再适宜。技术既有其技术面向,也有其价值面向。技术作为实现特定社会目标的工具,其价值来源不是自身功能,而是外在的社会目标。[73]这种社会目标,是技术的创造者和使用者一起赋予的。简言之,是人赋予的。所以,法律与技术的纠葛,本质上是人所追求的不同价值之间的纠葛。

数字司法既有其力量,也有其弱点。其力量来自数字技术与司法裁判之价值目标在某个面向(依规则裁判)上的相符乃至强化,而其弱点恰恰来自数字技术与司法裁判之价值目标在其他面向上的相悖。2024年2月和5月,OpenAI公司先后推出了文生视频大模型Sora和多模态大模型PT- o,它们在司法裁判领域的应用值得期待。但无论怎样发展,“机器而非人类终将成为正义的仲裁者”[74]这一景象不能也不应成为未来的现实。归根到底,数字司法活动所展现的,并非“机器与人类”的关系,而依然是人与人之间(以机器为媒介)的关系。数字司法何去何从,最终还是取决于法律(或者说人)的调控,取决于我们对数字正义的追求。

 

雷磊,中国政法大学钱端升讲座教授、法学博士。

【注释】

[1]高艳东:《数字法治中的立法消极与司法能动》,载《南京社会科学》2024年第2期,第74页。

[2]参见[德]尼克拉斯·卢曼:《法院在法律系统中的地位》,陆宇峰、高鸿钧译,载《清华法治论衡》2009年第2期,第127页及以下。

[3]张文显:《推动数字司法全方位深层次高质效融入数字治理体系》,载《法制与社会发展》2024年第2期,第2页。

[4]参见卞建林:《立足数字正义要求,深化数字司法建设》,载《北京航空航天大学学报(社会科学版)》2022年第2期,第23一24页。

[5]参见洪学军:《数字司法的导向模式与实现路径探究- -以治理逻辑与内容创新为切入点》,载《数字法治》2023年第2期,第140、144页。

[6]参见李国毫:《“浙江全域数字法院”改革:以数字正义保障“公正与效率”》,载中国法院网2023年5月30日,https://www。chinacourt。org/article/detail/2023/05/id/7315037。shtml。

[7]参参见贾宇:《数字法院开启审判新变革》,载微信公众号“上海高院”,2024年3月6日。

[8]参见陈罗兰:《论法院数字共同体的构建:以人工智能辅助司法为视角》,载《法学》2024年第1期,第133—134页。

[9]同上注,第134页。

[10]参见[英]理查德·萨斯坎德 《线上法院与未来司法》,何广越译,北京大学出版社2021年版,第270页。

[11]见前注[8],陈罗兰文,第135—136页。

[12]参见李占国:《“全域数字法院”的构建与实现》,载《中外法学》2022年第1期,第15页。

[13]参见周佑勇:《智能技术驱动下的诉讼服务问题及其应对之策》,载《东方法学》2019年第5期,第17页。

[14]参见冯志伟、张灯柯、饶高琦:《从图灵测试到C hatGPT-人机对话的里程碑及启示》,载《语言战略研究》2023年第8期,第2页。

[15]见前注[8],陈罗兰文,第139页。

[16]这方面的论述参见冯姣、胡铭 《智慧司法:实现司法公正的新路径及其局限》,载《浙江社会科学》2018年第6期,第68一70页。

[17][德]阿图尔·考夫曼:《法律哲学》,刘幸义等译,法律出版社2011年版,第143一144页。

[18]郑玉双:《新兴科技的法理疆域》,光明日报出版社2024年版,“序言”,第9页。

[19]参见赵汀阳:《人工智能的神话或悲歌》,商务印书馆2022年版,第13页。

[20]之所以说“看起来”,只是从功能主义的角度而言的。事实上,算法并不能产生规范意义上的“规则”,而只能产生事实意义上的“规律”。本文第三(三)部分还将回到这一问题上来。

[21]See Frederick Schauer,Playing by the Rules,Oxford University Press,1991,p。49。

[22]See Frederick Schauer,Formalism,97 Yale Law Journal 509(1988)。

[23]参见雷磊:《司法人工智能能否实现司法公正?》,载《政法论丛》2022年第4期,第74页。

[24]蒋舸:《作为算法的法律》,载《清华法学》2019年第1期,第64页。

[25]参见张本祥:《算法视域下人工智能的分类与哲学思考的进路》,载《自然辩证法研究》2020年第4期,第6771页。

[26]参见徐辉、李俊强:《生成式人工智能辅助司法裁判的可能及边界限度》,载《太原理工大学学报》(社会科学版)2023年第6期,第25页。

[27]如果裁判规则及其不断精确化的过程对于使用者而言是不透明的,我们就会说司法人工智能存在“算法黑箱”。但无论是否存在算法黑箱,司法人工智能的运行依托算法(规则),也在产生(裁判)规则,这一点当无疑义。

[28]见前注[26],徐辉、李俊强文,第28页。

[29]参见邱遥堃:《机遇与风险:文生视频大模型将如何影响智慧法院建设升级迭代》,载《中国应用法学》2024年第2期,第91页。

[30]参见雷磊:《ChatGPT对法律人主体性的挑战》,载《法学》2023年第9期,第7页。

[31]人工智能技术在数据之间建立起的,既非因果关系,更非归属关系,而只是相关关系。也就是说,它只需确定“凡是C出现时 R也同时出现”这种规律性现象即可。

[32]具体参见雷磊:《法律程序为什么重要?反思现代社会中程序与法治的关系》,载《中外法学》2014年第2期,第319页。

[33]参见舒国滢:《从“司法的广场化”到“司法的剧场化”》,载舒国滢:《在法律的边缘》,中国法制出版社2016年版,第83、85一86页。

[34]有论者认为,司法人工智能将产生一种新型的程序正义观,即技术正当程序,后者强调透明、准确、可问责、参与等核心要素来化解传统正当程序所面临的正义风险,从而与传统正当程序理论相互支撑。参见李训虎:《刑事司法人工智能的包容性规制》,载《中国社会科学》2021年第2期,第56-57页。司法人工智能所要追求的上述价值当然不容否认(参见本文第四部分,无论它们是否被称为“程序”要素),但同样不容否认的是,它们无法替代司法程序的价值本身。

[35]参见张凌寒:《智慧司法中技术依赖的隐忧及应对》,载《法制与社会发展》2022年第4期,第186页。

[36]参见王禄生:《论预测性司法》,载《中国社会科学》2024年第6期,第90一91页。

[37]见前注[5],洪学军文,第142页。

[38]哪怕是就文生视频大模型(如Sora)来说,也同样如此。见前注[29],邱遥堃文,第93-95页。

[39]见前注[30],雷磊文,第12页。

[40]参见孙笑侠:《论司法信息化的人文“止境”》,载《法学评论》2021年第1期,第27页。

[41]参见[美]尼尔·波斯曼:《技术垄断:文化向技术投降》,何道宽译,中信出版社2017年版,第121页。

[42]参见帅奕男:《人工智能辅助司法裁判的现实可能与必要限度》,载《山东大学学报(哲学社会科学版)》2020年第4期,第104-107页。

[43]参见张玉洁:《智能量刑算法的司法适用:逻辑、难题与程序法回应》,载《东方法学》2021年第3期,第199页。

[44]参见宋旭光:《论司法裁判的人工智能化及其限度》,载《比较法研究》2020年第5期,第89页。

[45]见前注[30],雷磊文,第10页。

[46]马长山:《司法人工智能的重塑效应及其限度》,载《法学研究》2020年第4期,第40页。

[47]参见冯洁:《大数据时代的裁判思维》,载《现代法学》2021年第3期,第53页。

[48]参见陈景辉:《类案同判:法律义务还是道德要求?》,载《中国法学》2013年第3期,第46页。

[49]参见项飙:《序临界中的思考:系、系统和体系》,载余盛峰 《临界:人工智能时代的全球法变迁》,清华大学出版社2023年版,第2页。

[50]见前注[5],洪学军文,第139页。

[51]见前注[8],陈罗兰文,第139页。

[52]参见郭锐:《人工智能的伦理和治理》,法律出版社2020年版,第156页。

[53]“在大数据时代,我们不必知道现象背后的原因,我们只要让数据自己发声。”“知道是什么就够了,没必要知道为什么。”[英]维克托·迈尔舍恩伯格、肯尼思·库克耶:《大数据时代》,盛杨燕、周涛译,浙江人民出版社2013年版,第19、71页。

[54]参参见[英]罗杰·布朗斯沃德:《法律3。0:规则、规制和技术》,毛海栋译,北京大学出版社2023年版,第8页。

[55]参见魏斌:《智慧司法的法理反思与应对》,载《政治与法律》2021年第8期,第10、11页。

[56]关于这一概念,参见[美]伊森·凯什、[以色列]奥娜·拉比诺维奇·艾尼:《数字正义:当纠纷解决遇见互联网科技》,赵蕾、赵精武等译,法律出版社2019年版,第3一5页。

[57]参见黎慈、孟卧杰 《数字正义视域下数字司法建设面临的障碍与对策研究》,载《浙江社会科学》2023年第11期,第118页。

[58]这来自“access to justice”的双重含义。参见张恒:《多元、可视、对话:数字司法的正义内涵与机制塑造》,载《〈上海法学研究>集刊》2023年第11卷,上海人民出版社2023年版,第43页。

[59]参见宋保振:《“数字弱势群体”权利及其法治化保障》,载《法律科学》2020年第6期,第53页。

[60]李丹:《数字社会的“权利鸿沟”及其弥合》,载《河北法学》2024年第6期,第135页。

[61]关于这两种鸿沟,参见杨洸:《数字技术与数字鸿沟:弥合数字不平等的困境与行动》,载《青年记者》2022年第22期,第9页。

[62]当然,透明不等于可知。基于专业能力的差异,即便智能工程师能够向包括法官在内的公众解释并揭示出生成式人工智能的代码,后者也未必能够理解。但这就是另外一个问题了。

[63]参见沈伟伟:《算法透明原则的迷思 ——算法规制理论的批判》,载《环球法律评论》2019年第6期,第36页。

[64]见前注[34],李训虎文,第60页。

[65]参见张凌寒:《智慧司法中技术依赖的隐忧及应对》,载《法制与社会发展》2022年第4期,第192页。

[66]参见马靖云:《智慧司法的难题及其破解》,载《华东政法大学学报》2019年第4期,第115页。

[67]见前注[57],黎慈、孟卧杰文,第124一125页。

[68]见前注[36],王禄生文,第98页。

[69]何帆:《数字司法的时代之问与未来发展》,载《数字法治》2023年第1期,第37页。

[70]见前注[34],李训虎文,第61页。

[71]见前注[49],余盛峰书,第1一2页。

[72]见前注[69],何帆文,第37页。

[73]见前注[18],郑玉双文,第9页。

[74]Ann Kristin Glenster,Book Review:Privacy,Due Process,and the ComputationalTurn:*The Philosophy of Law Meets the Philosophy of Technology,76 Cambridge Law Journal 207,208(2017)。

    进入专题: 数字司法   可计算空间   机械裁判   人工监管  

本文责编:SuperAdmin
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 法学 > 理论法学
本文链接:https://www.aisixiang.com/data/157370.html
文章来源:本文转自《交大法学》2024年第6期,转载请注明原始出处,并遵守该处的版权规定。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2024 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统