摘要:在大模型时代,人工智能法学及其理论体系迅速发展,逐渐形成独特的学科分支。新兴的人工智能法学不仅重构了传统的法学研究对象,也带来了创新的研究方法,同时提出了与众不同的正义观念。这些理论的形成和发展,与大型人工智能模型(如 ChatGPT)的出现密不可分,后者在推动理论更新、促进法治实践全面提升方面发挥了巨大作用。中国在建设自身的人工智能法学理论体系过程中,得益于已有的法学理论基础和人工智能产业的蓬勃发展,然而,研究水平的不均和学科间壁垒的存在,成为建设中的难题。未来的工作需要将基本概念、框架建设以及多维、动态、可进化的理论体系的构建作为重点。技术的进步将不断推动法学理论的演变。从弱人工智能到强人工智能的转变为法学理论的发展带来了挑战和机遇。在这个过程中,确保人类价值观、权利和安全是至关重要的。构建人工智能法学理论体系,需要避免技术的潜在恶意应用,同时引导它向善。这不仅是一个学术上的努力,更是社会对于法律新概念和实践的重塑。这一工作涉及多学科合作,需要全球共识的形成和实践的更新,对法治的未来和法律体系的完善将产生长远的影响。
关键词:大模型;人工智能;AI;人工智能法学;法学理论体系
一、大模型时代人工智能法学及其理论体系
(一)大模型与人工智能法学的形成
在现今的“大模型”时代,以ChatGPT为标志的人工智能(AI)技术在理解能力上已实现质的飞跃[1]。这一时代的人工智能以庞大的参数量、卓越的数据处理能力和多功能性著称。具体而言,大模型的特征可以从以下三个方面来阐述。首先,参数量的巨幅增加是大模型的明显标志。举例来说,GPT-3模型就配置了约1750亿参数,这一参数的规模使得AI在处理复杂任务和产出高质量结果方面的能力得到极大增强[2]。其次,大数据作为大模型的支柱,是模型训练与优化不可或缺的基础。海量数据的采集、处理及其保护构成了AI发展的关键环节。数据质量、完整性和安全性对 AI 性能的影响不言而喻。最后,大模型的核心优势在于其强大的能力,表现为卓越的学习和适应能力,它在理解、分析、推理及决策等方面的能力有了显著提升,推动了自然语言处理、图像识别、语音识别等多个领域的突破性发展。
人工智能法学作为一个概念,在大模型时代来临前就已形成。然而,围绕它是否应当只作为一个法律现象存在,还是可以发展成为一个独立的法学分支,学术界一直争议不断[3]。大模型的崛起无疑会对这一争议产生影响,可能会推动人工智能法学朝着成为一个独立领域的方向发展,这一点从量变和质变两个维度体现得尤为明显。
量的增长体现在,随着大模型的普及,人工智能将贯穿所有产业,而随之而来的法律问题也将变得无处不在,这些问题关系着从个体安全到社会公共安全的各个层面。无论是机器人对个人造成的伤害,还是AI系统对智能交通安全构成的威胁,这些问题都可能涉及财产权和人身安全。无论是有形财产还是无形财产,公法或私法范畴,法律问题的广泛性和复杂性正不断增长。
质的提升则意味着,这些法律问题尽管具有多样性,但它们共同根源于机器学习和自主决策。通过理解这些共性,可以抽象出人工智能法学的一般性法律规律,并确定该学科的独立研究对象——基于机器学习和自主决策的法律问题。这一法律规律的发现,为构建人工智能法学的总则和分则奠定了基础。因此,有理由期待,人工智能法学不仅仅作为法律现象存在,而且有望发展成为法学领域内一个独立且重要的学科。
(二)人工智能法学理论体系的特殊性
人工智能法学理论体系是一个跨学科的研究领域,旨在关注和解决人工智能技术发展对法律领域带来的深远影响和挑战。这个体系主要聚焦于人工智能在法律地位与责任归属上的定位,探讨如何构建适应人工智能特性的法律规制与合规机制,同时注重保障伦理与人权的尊重,确保技术应用不侵犯个人的基本权利。此外,体系还涵盖了人工智能在司法领域中的应用,审视它对法律实践的影响,包括但不限于案件分析、法律文书的生成等方面。考虑到人工智能的全球性和快速变化,该理论体系强调国际法律合作的重要性以及法律规定的动态更新能力,确保法律既能跨越国界,也能跟上技术的步伐。总体来说,人工智能法学理论体系为理解和应对人工智能所带来的法律问题提供了一个多维度、高度综合的分析框架。相比其他法学理论体系,人工智能法学理论体系的特殊性表现在如下几方面:
1. 人工智能法学理论体系研究对象的特殊性
人工智能法学理论体系,作为法学研究的前沿领域,逐渐从传统法学理论体系中分化而出,构建了独特的研究框架。与民法、刑法和行政法等传统法学理论体系关注人与人、人与社会、人与国家的关系不同,人工智能法学学理论体系关注的是人与人工智能、人工智能与社会以及人工智能与国家的关系[4]。这种关系的新颖性在于人工智能作为一个半自主的主体,其行为具有一定的不可预测性和独立性。人工智能法学理论体系的核心研究对象包括但不限于人工智能的法律地位、人工智能的权利与义务、人工智能行为的法律责任归属以及人工智能的伦理与合规问题。该理论体系在借鉴传统法学理论的同时,必须对传统概念进行重新审视和定义,例如,对“行为能力”“责任能力”等法律概念的适用性进行探讨。在这个过程中,研究者不仅需要法学知识,还需融合技术、伦理和社会科学等多学科知识,体现了人工智能法学理论体系的跨学科特点。
人工智能法学理论体系的独立性体现在对人工智能独有属性的理解上,如自学习能力、自主决策过程等。这些属性使得人工智能在法律关系中的地位和作用与传统主体截然不同,需要创新的法学规制理论以适应其特殊性。例如,对于人工智能引发的损害,如何定性、如何追责、如何预防,这些都是人工智能法学理论体系独立研究的重要议题[5]。由此,人工智能法学理论体系不仅与传统法学理论体系相关联,共同探讨法律如何适应社会发展的问题,而且因应人工智能的特殊性,展现出明显的独立性。其深刻的学术探索对于理解和指导人工智能快速发展的社会现实具有重要价值。
2. 人工智能法学理论体系所依托的研究方法的特殊性
人工智能法学理论体系的形成与发展,既依托于传统法学研究方法的深度分析与批判思考,又借助于现代科学技术手段,特别是科学实验方法、算法实验和人工智能实验等。此种研究方法的引入,标志着人工智能法学从传统法学理论体系中的独立与超越,为解读与规制人工智能提供了创新工具。
科学实验方法在人工智能法学中的应用,使得法律规则的制定与适用能够基于实证数据进行,而非仅仅依赖抽象推理。通过算法实验,研究者可以模拟人工智能系统的决策过程,从而深入探讨责任归属与法律适用[6]。同时,人工智能实验能够帮助理解AI系统的行为模式,预测可能的法律问题,并在此基础上设计出有效的法学理论和法律制度。
此外,这些现代研究方法强调跨学科的整合,借助计算机科学、数据分析、认知心理学等领域的研究成果,丰富法学的分析维度,提高法律规则对于复杂科技现象的适应性与针对性。这种研究方法的独立性体现在人工智能法学对技术—法律互动关系的特别关注,重视在科技发展的特定语境下,法律概念与规则的适应性和变迁。
总之,人工智能法学理论体系在继承传统法学研究方法的同时,其独特的现代科学技术研究方法的运用,不仅加深了法学对人工智能特性的理解,也推动了法学研究方法本身的革新。这种方法论上的创新,对于人工智能法学的理论构建和实践应用都有着重要价值。
3. 人工智能法学理论体系倡导的“正义观”的特殊性
传统法学理论体系中,正义被理解为一种抽象的道德原则,其核心在于公平、公正地处理人与人之间的关系,确保每个人得到应有的权利与待遇。此理念深植于哲学、宗教及法律传统,以亚里士多德的分配正义与回报正义为代表,侧重于善与恶的伦理评价和社会责任,强调个体行为与社会规范的一致性[7]。人工智能法学理论体系中的正义观则侧重于算法正义和数据正义[8]。算法正义关注的是决策过程的公平性,强调算法设计、执行过程中的透明度和非歧视性,其目标在于消除算法可能导致的偏见和不公。数据正义则侧重于数据收集、处理与使用过程中的正义问题,确保数据的准确性、隐私保护和使用的合理性。
两者的区别在于,传统法学理论的正义观是人本位,以社会和谐为目标的;而人工智能法学理论的正义观则是技术本位,以技术公平为目标的。传统正义侧重于人的行为与道德规范,人工智能法学正义侧重于技术运作的合理性与公正性。传统正义追求的是实现理想化的伦理状态,人工智能法学正义则追求在现实技术条件下的最优公平状态。在人工智能时代,正义观念需要重新审视,法学理论体系亦需更新以包容技术发展的新要求。
二、人工智能法学理论体系建设:历史回顾与价值分析
(一)人工智能法学理论体系的历史回顾
1. 大模型产生之前的人工智能法学理论体系
首先,“从无到有”:人工智能法学理论体系的起源。在20世纪50年代,随着人工智能技术的诞生,法律学者开始对这个新兴领域可能带来的法律问题进行初步的理论探讨,如人工智能的定义、人工智能的法律地位等基本问题①。这一阶段标志着人工智能法学理论体系的萌芽,为后续人工智能法学理论体系发展奠定了基础。
其次,以“代码化”为特征的人工智能法学理论体系发展阶段。进入20世纪80年代,随着人工智能技术的广泛应用,人工智能法学理论体系不再局限于理论探讨,而是更加关注它的实践价值,如人工智能引发的人们权利义务的变化等。美国法学家劳伦斯·莱斯格(Lawrence Lessig)在他的著作《代码与法律》中提出了“代码即法律”的观点,这一观点对理解人工智能如何通过算法和数据影响社会具有重要的启示意义[9]。这一阶段可以看作是以代码概念为核心的人工智能法学理论体系的形成阶段。在这一阶段,随着人工智能的广泛应用,一些国家开始尝试制定相关的法律法规。例如,欧洲联盟在 1995年通过了《数据保护指令》,这是一部旨在保护处理和移动过程中的个人数据的法律②。
再次,以“机器学习”为核心的人工智能法学理论体系发展阶段。进入21世纪,随着人工智能技术的快速发展,特别是机器学习技术的广泛应用,人工智能法学理论体系建设逐渐进入系统性阶段。其中既有理论问题,也有实践问题;既有人工智能应用所引发的权利义务问题的讨论,也开始关注人工智能的安全治理问题。围绕着机器学习和数据处理,更为具体和可实用性的人工智能相关法律也随之诞生,其中较有代表性的是欧盟在 2018年实施了《通用数据保护条例》(GDPR),这是一部专门针对数据保护的法律,对人工智能产业发展产生深远影响③。
2. ChatGPT催生全新人工智能法学理论体系
ChatGPT 标志着人工智能进入大模型时代,它在人工智能发展历史上具有里程碑意义,由此也将催生全新的人工智能法学理论体系。
首先,安全治理开始成为新人工智能法学理论体系的核心。随着 ChatGPT 等大型AI模型的广泛使用,潜在的风险与挑战日益凸显。这些模型在提供便利和效率的同时,也可能带来包括数据泄露、决策不透明等一系列问题。更为严重的是,它们有可能引发更大规模的风险,如对人类社会整体产生不可预测的影响[10]。因此,将风险控制置于人工智能法学理论体系的核心至关重要,要求对现有的法律框架进行深入的审视和适时的调整,确保在AI发展的同时保障社会公平、公正与稳定。
其次,人工智能法学理论体系中孕育新的法学概念和基本理论。ChatGPT 等大模型的出现和发展,让人工智能法学理论体系所涵盖的基本概念、基本理论面临全新的挑战和变革。ChatGPT等大模型的兴起,对传统法学概念提出了新的课题,尤其是在责任归属、版权、隐私保护、数据治理等方面。例如,当人工智能创作文学作品或艺术作品时,传统的版权法律框架如何适用?[11]又或者,当AI在无人监督下作出决策导致损害时,如何确定责任主体?[12]这些问题迫使学者和法律实践者重新思考“创作者”和“行为主体”的定义。随之而来的是,对法律个体主体资格的重新认识。AI的法律地位,是否应当仅仅被视为工具和对象,或者应当被授予某种形式的“法人”地位?这不仅关乎责任认定,也牵涉AI的权利与义务,甚至人工智能的伦理道德边界。因此,人工智能法学理论体系中的基本法学概念和理论正逐渐适应这些新兴挑战,以包容技术进步带来的复杂性和多样性。未来的法学体系可能需要更加灵活和动态,以适应人工智能的快速发展。
最后,人工智能法学理论体系开始全面覆盖各种类型的法律关系。在大模型的推动下,人工智能已经逐渐深入社会的各个领域。这使得人工智能与各类法律关系的交织日益复杂,催生了诸如人工智能的法律地位、人工智能的权利和义务等全新的法律问题。为应对这些挑战,人工智能法学理论体系也就需要尽可能覆盖各类型法律关系。
(二)构建我国人工智能法学理论体系的价值分析
当前,虽然美国、欧盟和中国在构建人工智能法律体系方面处于领先地位,但全球范围内尚未形成一个绝对权威的人工智能法学体系。美国的《AI Bill of Rights》④、欧盟的《人工智能法案》⑤及中国的《个人信息保护法》⑥和《网络安全法》⑦都是区域性的法律规范,它们在推动各自区域内AI 法律发展方面起到了积极作用。然而,这些法规并未构成全球统一的法律体系,因此,没有一个单一的法律框架能够全面统治全球 AI 法律实践。
在这样的背景下,中国有机会也有责任进一步发展其人工智能法学理论体系。通过建立一个综合、成熟的人工智能法律体系,中国不仅可以在国内实现对AI技术的有效规范和伦理引导,也可能为国际社会提供一个可供参考的模式。特别是在当前全球法律体系碎片化、多元化的情况下,中国的法律体系因其独特性,在均衡保护公民权利与促进科技创新之间的实践经验,可以为全球法学理论贡献新的视角。
由此,通过深化人工智能法学理论的研究与应用,我国不仅能够在国内外塑造良好的AI发展环境,还能助力全球人工智能法学的统一和标准化,最终推动全球法学理论向更加公正、合理的方向发展。因此,构筑我国的人工智能法学理论体系,对于我国引领全球人工智能法学的理论发展具有深远的意义。
三、我国人工智能法学理论体系构建的条件与难点
(一)我国人工智能法学理论体系构建的有利条件
1. 既有的法学理论体系,为我国人工智能法学理论体系的构建提供了良好基础
其一,在我国人工智能法学理论体系的构建中,现有的民法学、刑法学和行政法学理论体系提供了坚实的基石和丰厚的营养。这些传统的法学分支,已经经历了长时间的理论沉淀和实践检验,不仅在法理上形成了一套成熟的论述,而且在逻辑结构上构筑了严密的体系,在方法论上积累了宝贵的经验。民法学的物权、债权、合同等领域的讨论,为人工智能产权界定、合同履行、债权责任等方面提出了原则和处理框架。当人工智能技术与日常生活越发紧密时,民法学提供的权利分配和法律责任等基础理论对确立人工智能的法律地位至关重要。刑法学理论体系则在处理人工智能引发的犯罪问题上提供了指导,其中行为人责任原则、罪刑法定原则等成为分析和认定人工智能犯罪的基点。随着技术的发展,新型犯罪形态不断涌现,刑法学的基本原理和分类体系对于指导立法和司法实践,构建科学合理的人工智能犯罪理论框架,具有不可替代的作用。同时,行政法学理论体系为人工智能监管提供了法律架构,政府的规制、监督、评估和执行机制的建立都紧密依托于行政法的基本原理。人工智能的法律规制体系,无疑需要吸收和整合行政法学的理论成果,以实现对这一新兴技术合理有效的治理。总体来看,传统法学理论体系不仅为人工智能法学理论体系的构建提供了理论依据和方法工具,更为它未来的发展指明了方向,为促进人工智能的健康发展提供了理论上的支撑和实践上的指南。
其二,我国已经出台了人工智能相关的法律法规,这对于人工智能法学理论体系构建提供了重要条件,现有的法律法规构成了理论发展的骨架。《网络安全法》《数据安全法》和《个人信息保护法》等法律的出台,明确了网络空间的安全原则和数据处理的法律框架,为人工智能法学理论的核心问题提供了法理基础。这些基础法律规定,为人工智能法学理论提供了处理个人信息、数据安全和网络监管等方面的原则和方法,为理论体系注入了具体的法律内容。
同时,我国对AI算法备案管理的实施以及特定领域如生成式人工智能的监管规定,为人工智能法学理论的深化提供了细化的法律实践⑧。这些实践反映出我国在高科技法律领域的探索成果,对理论体系的构建具有重要的推动作用。以算法备案管理为例,相关的法规不仅提出了算法的透明度和公正性要求,也为如何在法学理论中界定算法的责任和权利关系提供了实践依据。
因此,我国已出台的有关人工智能的法律法规不仅为人工智能法学理论的构建提供了基础性的法律原则和规范,同时也通过特定高科技领域的法律实践,推动理论体系朝着更加细化和完善的方向发展。这为我国人工智能法学理论的未来研究和应用,提供了实证基础,也确立了理论发展的方向。
2. 我国人工智能产业发展为人工智能法学理论体系构建提供有力的实践支撑
近年来,我国人工智能产业在政策推动、资本投入和技术创新的三重驱动下,取得了显著的发展成就。这一行业的蓬勃发展表现在多个层面:首先是基础研究和核心技术的突破,我国在算法优化、数据挖掘、云计算及边缘计算等关键技术上取得一系列重大进展[13];其次是产业化应用的广泛扩散,人工智能技术已深入应用于智慧城市建设、工业自动化、智能医疗等多个重要领域,极大提升了产业效率和服务质量[14];再次是市场规模的快速扩张,人工智能企业数量激增,行业生态不断完善,形成了一批在国内外市场均具有竞争力的领军企业[15]。人工智能产业的迅猛发展为我国人工智能法学理论体系的构建提供了有力的实践支撑。
第一,人工智能产业的繁荣为法学理论体系的发展提供了实践场域。产业发展的第一线是各类人工智能应用的试验场,智能医疗、自动驾驶、智能制造等领域的应用场景对法律问题提出了新的挑战。法律制度需要适应这些技术的特性,为其合理运行提供法律框架。在这个过程中,产业实践推动法学理论体系不断对现有法律问题进行反思与创新。第二,人工智能技术的复杂性和跨领域特性要求法学理论体系不断拓展研究视野。传统法学理论往往围绕人与人之间的关系展开,而人工智能的介入使得人与机、机与机之间的法律关系变得复杂。例如,智能合同、数据所有权和隐私保护等新兴问题,都要求法学理论进行跨学科研究,融合技术、伦理、社会等多维度知识,构建更加全面的法学理论体系。再者,人工智能产业的具体案例为法学理论体系提供了丰富的研究素材。在AI技术应用过程中出现的法律争议和法律空白,能够促使理论家们从具体问题出发,思考法律规则的适应性和改进方向,从而使法学理论体系构建与实践需求紧密结合,增强法学理论体系的现实指导力。此外,我国人工智能产业的发展还有助于构建与国际接轨的法学理论体系。随着我国在全球人工智能产业中的地位日益提高,我国有责任也有机会在国际舞台上参与和引领人工智能法学理论的发展。通过研究我国产业实践中的典型案例,形成具有国际影响力的法学理论体系,促进人工智能国际法律规则的形成,提升我国在全球人工智能法学理论体系建设中的话语权。第三,人工智能产业的发展也为法学教育和人才培养提供了动力。在产业需求的推动下,法学教育需要不断创新,将人工智能相关的法律知识纳入课程体系,培养掌握人工智能法学知识的复合型人才,为人工智能法学理论体系的构建和发展提供人才储备。
在人工智能产业发展助推人工智能法学理论体系构建和发展过程中,我们还见证了一种双向促进、共生共荣的局面逐渐成形。随着人工智能技术的跨越式发展,它所涉及的法律问题变得日益复杂,给法学理论研究带来了前所未有的挑战和机遇。产业发展如同源头活水,不断滋养着法学的沃土,推动理论界对传统法律概念的重塑和对新兴问题的深入解析。先进的法学理论体系,以其完备性和前瞻性,对人工智能产业的健康成长起到了极为关键的规范作用。法律不仅仅是制约的工具,更是引导和激励创新的力量。通过对法律责任的明确界定、对权利义务的合理分配以及对技术创新的积极引导,不断推动着人工智能产业向更高的标准迈进,确保它在安全、合规的轨道上加速前进。总之,人工智能产业发展与法学理论体系构建的相互促进,标志着一个更高级别的产业法治化进程,对国家治理体系现代化构成了有力支撑,也为全球治理提供了中国方案。这样的双赢格局不仅推动了产业和法学的共同进步,而且为人工智能的未来发展营造了更加稳定、可预测的环境。
(二)我国人工智能法学理论体系构建的难点
1. 我国人工智能法学研究水平相对滞后
我国人工智能法学相关立法经验相对滞后。美国等西方国家在人工智能领域的立法相对成熟,例如,美国的《算法问责法案》强调算法的公正与透明[16],而欧盟的通 用数据保护条例(GDPR)则在数据保护方面设立了全球标杆⑨ 。这些法律为人工智能的发展提供了明确的规范与指导。相较之下,我国在人工智能立法与监管框架方面还在探索中,尚缺乏细化的执行规则和充分的实践案例,难以与国际成熟市场的法律制度对接,差距显著。
我国人工智能法学研究与技术衔接方面相对滞后。美国高校如斯坦福大学提供的人工智能与法律课程反映出法律教育与技术进步的紧密结合,这种跨学科的教育模式和高校与科技公司间的合作推动了法律学者对于新技术的快速理解与应对[17]。我国尚未在法律教育中广泛融入此类跨学科内容,这限制了法律研究人才对于人工智能领域的深入了解和对技术发展的即时反馈。
我国人工智能法学国际话语权与学术影响力相对滞后。在国际学术界和规则制定方面,西方国家占据优势。牛津、哈佛等学术机构的研究成果在人工智能伦理与法律领域具有广泛的影响力,并常常对全球规则的制定产生重要作用[18]。与此相比,我国在该领域的学术产出和国际合作较少,这限制了我国学者在全球人工智能法律框架制定中的参与度和国际话语权。
2. 学科壁垒限制了我国人工智能法学理论体系构建
人工智能法学理论体系的构建是一个涉及多学科交融的复杂过程,其中尤其侧重法学与计算机科学的深度融合。然而,当前学术界普遍存在的学科壁垒对此构成了显著障碍。这些壁垒不仅妨碍了法律专家对人工智能技术细节的深入理解,还阻碍了计算机科学专家对法律原则和思维方式的充分掌握[19]。结果是,当法律理论试图涉足人工智能领域时,缺乏对技术核心的精准把握,可能导致理论体系与技术实际相脱节,而技术创新的法律评估和规制也难以及时跟上人工智能的快速发展步伐。
此外,学科壁垒造成的教育和职业培训上的交叉学科教育不足,意味着法学专业的学生缺乏足够的技术培养,而计算机科学学生也同样缺乏法律和伦理的知识[20]。这种单一学科的知识背景限制了从业者在理论构建时考虑其他领域影响的能力,减弱了整个领域的创新动力,并且降低了理论对实务问题的适应性。法学理论无法及时反映人工智能技术的新实践,例如自动驾驶车辆事故责任、人工智能产生的版权内容等,进而影响了法律实务领域解决这些新兴问题的能力。
最终,这些壁垒带来的后果是在政策制定层面上表现出的落后性,影响了理论与实践的有效结合。没有跨学科的理解和合作,政策制定者难以识别新兴的技术趋势和潜在的法律问题,进而导致制定的法律规章可能无法覆盖或适应人工智能带来的挑战。这种情况表明,要想建立一个健全、适应性强的人工智能法学理论体系,就必须打破学科壁垒,推动包括法律专业和技术专业在内的多学科交流与合作。
四、构建我国人工智能法学理论体系的具体目标与安排
(一)我国人工智能法学理论体系建设的基本目标
1. 推动人工智能时代法学理论革新发展
人工智能推动生产关系全面变革,由此也导致法律关系面临全面变革。原有的人与人的关系,正在逐步迭代为人与机器之间的关系,比如学生和老师的关系,正在转变为学生与大模型(在与大模型的沟通中完成学习)的关系。乘客与司机的关系,也正在转化为乘客与无人驾驶车辆之间的关系;企业与员工的关系正在迭代为企业与机器人之间的关系。这使得传统的法律关系发生了根本变革。尽管这里的大模型或者机器人的法律主体地位还存在着理论争议,但它们取代和变革原有的法律关系的事实已基本确定,传统法学理论正是构建在传统的法律关系基础之上的,当传统的法律关系发生根本改变时,传统的法学理论也面临全面变革。
从人与人到人与机器的转变,让传统法学理论面临适用上的巨大困境。传统法学理论基于人的行为完成理论建构,诸如民法的侵权责任原则,它关于人的主观“过错”判断成为最核心的组成部分[21];刑法上的犯罪构成理论,人的主观罪过同样系衡量他是否构成犯罪的关键[22];知识产权法上人的“独创性”也成为作品能获得法律保护的重要条件[23]。然而,当人与人的关系迭代为人与机器的关系时,传统法学理论中基于人的价值判断均难以再适用,那么这种人与机器的关系又该采用何种理论进行规范,也将成为人工智能法学需要实现的重大理论创新。
2. 推动人工智能时代法治实践的全面升级
人工智能法学理论体系的重点目标系推动人工智能时代法治实践的全面升级。
其一,借助人工智能法学理论体系推动人工智能时代科学立法。人工智能法学理论体系的构建目标在于使立法过程更加科学化、精准化。此体系旨在确立一套清晰的人工智能相关概念与法律定义,使立法者能够准确捕捉到人工智能的法律特性,从而指导立法的具体制定。此目标不仅要求确立责任归属和权利保护的明确框架,还要求在国际层面推动立法的一致性,为全球人工智能法律框架的建立打下坚实基础。在应对由人工智能技术发展带来的全新法律问题上,如智能合同的法律效力、算法决策的责任界定以及数据治理的框架构建,此体系目标是提供切实可行的原理指导和解决方案。这要求立法者深入理解技术进步与法律体系之间的相互作用,并创造性地思考如何在促进技术创新的同时,保障社会公正和法律秩序。进一步的目标包括利用人工智能技术推动立法方法论的创新,如运用人工智能辅助立法评估和预测法律效果,以增强立法措施的针对性和前瞻性。这一目标鼓励法学理论与技术实践相结合,探索和发展新型立法工具与方法,从而提升整体立法过程的效率和质量。
其二,借助人工智能法学理论体系推动人工智能时代司法公正。构建人工智能法学理论体系的目标,在于推动司法领域内的公正裁决。此体系旨在为司法判决提供坚实的理论基础,特别是在评估由人工智能引发的新型法律问题时,它的目标是让法官能够更加精确地理解和适用涉及算法决策和智能合同的法律规定,提高判决的科学性和公正性[24]。此外,该理论体系还致力于培养司法人员对人工智能的深入理解和应用能力,确保他们能够适应人工智能技术带来的变化,并在此基础上作出恰当的法律判断。这不仅包括判决过程的科学化,还包括在使用人工智能辅助司法时,确保程序的合法性和对当事人权益的保护。最终,这一理论体系的目标是在司法实践中创造一个可持续发展的环境,随着人工智能技术的迭代与进步,理论体系也能相应更新和适应,以保证长期的司法公正和法律的稳定性。
其三,借助人工智能法学理论体系推动人工智能时代执法准确。建设人工智能法学理论体系的目标,在于赋予执法机构应对新时代技术挑战的理论武装,确保执法行为的精准性和公正性。该体系旨在解析人工智能与现行法律的交叉点,定位人工智能的行为主体性和责任归属,以指导法律实施的准确性。目的是通过深入的法理研究,明确数据权利界定、算法透明度和技术监管的法律标准,从而提升执法中对违法行为的识别力和处罚的精确度。进一步,该体系目标包括利用人工智能优化执法流程,提高执法效率,同时确保技术辅助下的执法活动符合法治原则和程序正义,预防对公民权利的不当侵害。在执法实践中,该理论体系将指导执法人员如何正确应用人工智能工具,避免对技术的盲目依赖,确保执法的人文关怀和伦理责任。总之,人工智能法学理论体系的建设目标是确立一套适应技术进步和社会发展的执法理论指导原则,以期在确保法律适用的精确性和提升执法效率的同时,维护法律的尊严和社会公正。
其四,借助人工智能法学理论体系提升人工智能时代守法自觉。人工智能法学理论体系致力于通过确立清晰的法律规范和原则来增强公众对法律的认知和遵循。该体系通过提供理论框架,帮助理解人工智能的法律界限和责任,促进法律自觉遵守。主要目标包括:推广法律教育,提升公众对AI法律问题的了解;开发法律合规工具辅助企业和开发者合法运用 AI ;并鼓励法学和技术领域跨学科研究,共同寻求技术合规之道。此外,目标还涵盖创新监管策略,利用AI技术强化法律执行,保障法规在AI应用中的有效落实,以构建法治社会并促进 AI技术的健康发展。
(二)构建我国人工智能法学理论体系的具体安排
构建我国人工智能法学理论体系可按照如下步骤。
1. 梳理和解释人工智能法学的基本概念
人工智能在法律领域的崛起引发了对法学理论体系的深刻反思与必要的重构。为了建立一个符合时代发展的人工智能法学理论体系,我们首先需要梳理并理解由人工智能引起的法学概念变革。
在传统法律体系中,如责任归属问题,通常责任是直接归咎于行为的实施者。但是,在涉及人工智能系统的情景下,例如自动驾驶汽车事故,责任划分的界定就变得更加复杂。这要求对“责任归属”这一法学概念重新进行定义和解释,以适应人工智能时代的需求。智能合约的出现和人工智能对个人隐私的潜在影响,进一步对传统的合同法提出了挑战[25]。此外,人工智能的发展也催生了全新的法学概念,例如算法公平性、数据权和人工智能法人的概念[26]。算法公平性关注如何避免算法带来的歧视,确保算法过程的透明度和可解释性。数据权则围绕数据所有权的界定,数据主体权益的保护以及数据利用与保护之间平衡的问题。至于人工智能法人,则涉及对人工智能法律地位的定义、人工智能责任问题的处理以及人工智能权益的保障。
因此,在构建人工智能法学理论体系时,关键在于深入地反思传统法学概念并对它们进行适当的调整,同时准确地解释新出现的法学概念。这样的概念明晰与界定不仅是理论建设的基础,而且对于制定实际适用的法律规则和基本原则至关重要。这将确保人工智能法学理论体系不仅在理论上是合理的,而且在实践中也是可行和有效的。
2. 确立人工智能法学理论体系的基本框架
确立人工智能法学理论体系的基本框架是最终构建人工智能法学理论体系的重要前提,它总体上包括如下内容:
其一,法律地位与主体资格界定。在人工智能法学理论体系中,法律地位与主体资格的界定系首要步骤。它决定人工智能在法律中的位置,及其能否作为独立的法律实体承担权利和义务。这一界定不单是技术分类,更关乎法律责任、权利保护与适用范围。现有的法律体系以法人和自然人为主体资格核心,人工智能的涉入挑战着这一框架,激发对“电子人”法律主体的讨论[27]。这种法律地位的设定,必须既对接技术发展又预防风险,确保不损害人类主权与社会稳定。此外,明确的法律地位对于人工智能引发损害时的责任归属、合同履行、知识产权判定至关重要。因此,界定人工智能的法律地位,是构建法学理论体系的关键步骤,确保法律应对人工智能的挑战和机遇。
其二,权利、义务和责任的设定。权利、义务和责任设定系人工智能法学理论体系框架构建中的主体工程。这涉及如何为人工智能的行为和决策定性,确立它在法律关系中的位置及对应的责任后果。随着人工智能技术的渗透,其自主性和复杂性带来了传统责任制度的挑战,特别是在无人驾驶车辆、自动化交易系统等领域。确立权利义务关系要解决的核心问题是,当人工智能系统在没有直接人类指令的情况下独立作出决策并导致法律后果时,如何归责。这不仅需要对人工智能行为进行分类,还要创新责任原则,区分人工智能的创造者、所有者、用户和其他相关方的责任范围和界限。此外,随着人工智能的决策过程越来越不透明,建立一套责任追溯机制成为法学研究的焦点[28]。法律必须适应这种变化,发展新的理论和实践方法来应对人工智能带来的责任归属问题。权利义务与责任归属的清晰构建,不仅对保护个人和公共利益至关重要,也是促进人工智能健康发展、赢得社会信任的关键。这是建立人工智能法学理论体系时不可忽视的基础环节。
其三,人工智能的伦理约束与权利保护。在人工智能法学理论体系框架建构中,伦理约束与权利保护旨在防范和减轻AI可能对人类社会和个体造成的危害。这些潜在危害包括侵犯隐私、加剧社会不平等、制造安全风险以及决策过程的不透明性等[29]。为防止这些危害,首先需要建立和强化伦理框架,比如明确禁止利用AI进行不正当监视、滥用个人数据或者制造歧视性决策。设立伦理审查委员会,在AI研发及应用过程中进行监督和评估,确保遵守伦理准则。其次,权利保护的法律措施必不可少。例如,应制定数据保护法律,严格规范个人信息的收集、处理和使用,以防止隐私侵犯;制定责任归属规则,确保AI引起的损害能够得到及时赔偿和有效救济;完善监管机制,对AI的安全性进行持续检查,保障公众利益不受损害。总之,通过伦理约束与权利保护的双重保障,人工智能法学理论体系旨在预防AI技术可能导致的风险,确保技术进步在不损害人类社会和个体权益的前提下,促进公共福祉与可持续发展。
其四,国际合作与标准制定。国际合作与标准制定系推动我国人工智能法学理论体系走向国际化的重要一步。随着人工智能技术的全球性扩散,多国法律体系的交互影响与合作已成为不可回避的课题。这一过程要求我国法律制定者、学者与实践者深入参与国际对话,共同推动制定国际通用的人工智能伦理准则和法律标准,以促进科技创新与国际贸易,同时保障公共利益和社会稳定。具体来说,跨国界的法律合作可以帮助我国在全球范围内维护数据安全、知识产权和消费者权益。这不仅有利于我国企业在海外的健康发展,也有助于国内市场的国际化。同时,通过参与国际标准的制定,我国可以在全球人工智能规则制定中发挥更大的影响力,使得我国的法律体系与国际接轨,推动构建更加公正、合理的人工智能国际法律秩序。因此,跨国界法律合作与标准制定是我国人工智能法学理论体系的关键部分。通过积极参与国际交流与合作,可以促进我国人工智能技术法学理论体系在全球发挥更大影响力。
3. 构建一个多维、动态、可进化的人工智能法学理论体系
其一,构建一个多维的人工智能法学理论体系。在构建一个多维的人工智能法学理论体系的征途上,我们必须跨越“国内与国外、法律与技术、理论与实践、伦理与产业”的维度,创立一个立足于国内需求、兼顾国际法治精粹、跨学科整合、理论与现实紧密相连以及在伦理和商业实践中找到平衡的综合体系。这样的体系将具备全球视野,实现技术法规的前瞻性和适应性,保证理论研究与法律实践的有效对接,并促进产业发展与伦理价值的协调统一。通过这样的全方位视角,我们旨在建立一个能够引领国际标准,指导国内实践并推动人工智能与社会伦理共同进步的法学理论体系。
其二,构建一个动态的人工智能法学理论体系。为了构建一个动态的人工智能法学理论体系,关键在于创设一个适应技术进步的灵活框架,确保它能与时俱进并响应最新的技术变革。这不仅涉及法律文本的持续更新,也包括对跨学科知识的融合,确保法学理论体系在伦理、技术、经济及法律各领域间的协调一致。此外,考虑到人工智能的全球性影响,体系的构建必须拥有国际视角,加强国际合作与标准制定,以确保法律规则在不同司法辖区间的有效对接和统一。最终,为保持其动态性,法学理论体系需要不断从实践中汲取经验,通过实时的政策反馈和案例分析,动态调整法律规范以应对新出现的挑战和问题。这样的体系将更加具有前瞻性和适应性,能够有效地指导人工智能的合法、合规以及伦理使用,促进技术与社会的和谐发展。
其三,构建一个可进化的人工智能法学理论体系。构建一个可进化的人工智能法学理论体系,意味着打造一个不断自我完善、适应未来变化的框架。首先,它需具备自适应学习能力,通过不断吸收新的法律判例和社会变迁信息来更新其法律原则和应用规则。其次,体系内部应包含内建的演化机制,例如通过自我评估和反馈循环,持续地进行自我修正和进化,确保理论不仅能应对当前问题,也能预见并适应未来挑战。此外,该体系必须能够整合跨学科的知识,包括技术、伦理、社会科学的最新发展,保持其理论的全面性和前瞻性。最后,为了能够适应长期的技术变革和社会变迁,该体系的架构应当是开放和可扩展的,使它不仅能够容纳新的理论构建,还能允许现有构成部分的更新和再配置。总体而言,一个可进化的人工智能法学理系将是自我更新、跨学科融合和未来导向的,持续地在法律前沿领域展现其生命力和应变能力。
五、结 语
在人工智能法学理论体系的构建过程中,人工智能是其中最为核心的要素。随着技术的发展,尤其是随着从具有特定应用目的的弱人工智能向具备自主意识和决策能力的强人工智能的演进,人工智能法学理论体系必将面对一系列迭代变革。本文正是站在大模型视野下所完成的探索。大模型(如GPT系列和其他类似的先进技术)对我们理解人工智能自身及其与社会关系的复杂性提供了前所未有的洞见,更为我们构建人工智能法学理论体系提供了重要指引。然而,大模型绝不是人工智能的终点,人类社会正走在通向通用人工智能的路上[30]。通用人工智能的到来又将标志着一个全新时代的开启,必将促使人工智能法学理论发生又一次重大变革[6]。
在构建和发展人工智能法学理论的过程中,我们终极关怀的是人类自身的福祉。随着人工智能技术的快速发展,我们必须确保在这场演变中,人类的价值观、权利和安全得到坚守和提升。在人工智能法学理论体系构建的过程中,我们始终伴随着两方面的重要挑战:一方面防止人工智能做恶,即预防人工智能本身或通过人工智能实施的恶行,从而避免人类自身利益受到危害;另一方面引导人工智能产业健康良性发展,造福人类。人工智能法学理论体系构建和发展也将始终伴随人工智能“做恶”与“造福”的平衡与博弈,而关注人类自身也始终是人工智能法学构建和发展的终级目的。
人工智能法学理论体系的建构和发展无疑是一项长期且复杂的工程。这一工程不仅仅需要法学家,还需要工程师、数据科学家、伦理学家等共同参与。这一工程不再仅限于单一国家的范畴,而是一个全球性的合作议题,这一工程不仅代表着学术领域的创新突破,更是新一轮工业革命的背景下,社会对于法律概念与实践的深刻思考和重新审视。因此,人工智能法学理论体系构建与进化不仅需要跨学科的知识融合与创新思维,也依赖于全球范围内对法律基础理论的共识建立与实践更新。它是一个涉及广泛领域、多维度合作的复杂过程,其成败又将对未来社会法治的发展和法律体系的完善产生深远影响。
注释:
① 1950年 Alan Turing 发表了“计算机器和智能”,提出了模仿游戏的想法——一个考虑机器是否可以思考的问题。这一建议后来成为图灵测试,图灵发展测试了机器的思考能力。图灵测试成为人工智能哲学的重要组成部分,人工智能在机器中讨论智能、意识和能力。图灵测试是指,人们通过设备和另外一个人进行聊天,可以是文字形式也可以是语音,这不重要。重要的是聊天之后,如果30%的人认为是在和一个真人聊天,而实际对方却是个机器,那么我们就认为这个机器通过了图灵测试,它是具有智能的。以现在的计算机人工智能技术来说,30%的比例定得有些低,近年来很多人工智能对话程序都已经通过图灵测试。
② 数据保护指令是欧盟 1995年通过的一项立法法案,旨在为收集、处理和移动数据时保护隐私和保护识别信息建立一个框架,欧盟成员国必须在1998年之前实施法律以支持该指令。数据保护指令的目的是解决隐私问题以及围绕数据使用的人权问题,一些欧盟成员国认为隐私权是一项重要的社会和人权权利,包含数据的服务器。官方称为 95/46/EC号指令,关于在处理个人数据和自由移动此类数据方面保护个人,数据保护指令旨在标准化和协调欧盟范围内的数据保护程序。未经同意,不得处理个人数据,人们有权访问自己的数据并纠正错误,未经当事人同意,不得滥用或使用数据。随着支付处理和数据提交等活动的在线系统的出现,私人数据的保护成为一个特别重要的问题。
③ 通用数据保护条例(General Data Protection Regula‐tion)是一项全面的法律,赋予了欧盟居民对个人数据的更多控制权,并试图澄清在线服务商在收集、利用欧洲用户个人数据的规则和责任。它取代了1995年通过的欧盟关于数据保护的法律,并对现有的公约做出了一些重大改变。
④ 2022年10月4日,美国白宫科技政策办公室(Officeof Science and Technology Policy,OSTP)发布《人工智能权利法案蓝图》(Blueprint for an AI Bill of Right),旨在指导自动化系统的设计、使用和部署,从而在人工智能时代保护美国公众。该蓝图反映了拜登政府对私营公司和政府机构鼓励采用人工智能技术的原则设想,以减轻涉及数据隐私、算法歧视和自动化系统使用的风险。
⑤ 欧盟自2016年起就不断探索推进对人工智能技术应用的监管体系建构。2018年,欧盟建立人工智能高 级 专 家 小 组(High-Level Expert Group on Artifi‐cial Intelligence,Al HLE),加快建立一个统一的人工智能法律监管框架的步伐。随着《人工智能法案》三次修改及谈判草案的发布,欧盟在世界范围内率先设计一系列措施以确立人工智能的治理规则体系,并尝试影响甚至塑造全球范围内的人工智能治理共识规则和标准。
⑥ 《中华人民共和国个人信息保护法》第五十一条:“个人信息处理者应当根据个人信息的处理目的、处理方式、个人信息的种类以及对个人权益的影响、可能存在的安全风险等,采取下列措施确保个人信息处理活动符合法律、行政法规的规定,并防止未经授权的访问以及个人信息泄露、篡改、丢失。”
⑦ 《中华人民共和国网络安全法》第四十一条第一款:“网络运营者收集、使用个人信息,应当遵循合法、正当、必要的原则,公开收集、使用规则,明示收集、使 用 信 息 的 目 的 、方 式 和 范 围 ,并 经 被 收 集 者同意。”
⑧ 2023 年 8 月 15 日起,国家互联网信息办公室、工业和信息化部、公安部、国家市场监督管理总局发布的《生成式人工智能服务管理暂行办法》正式实行。
⑨ European Parliament and Council 发 布 的 Regulation(EU)2016/679 on the protection of natural personswith regard to the processing of personal data and onthe free movement of such data,并废除 95/46/EC。
参考文献:
[1]赵鑫,窦志成,文继荣 . 大语言模型时代下的信息检索研究发展趋势[J]. 中国科学基金,2023(5):786-792.
[2]Brown T,Mann B,Ryder N,et al. Language Mod‐els are Few-Shot Learners[J]. Advances in NeuralInformation Processing Systems,2020,33:1877-1901.
[3]刘新宇 .从元宇宙到法律 3. 0:兼论人工智能法的谱系[J].上海大学学报(社会科学版),2023(4):18-28.
[4]刘艳红 .人工智能法学的“时代三问”[J]. 东方法学,2021(5):32-42.
[5]郑志峰 .诊疗人工智能的医疗损害责任[J]. 中国法学,2023(1):203-221.
[6]邹开亮,刘祖兵.论类 ChatGPT 通用人工智能治理:基于算法安全审查视角[J/OL]. 河海大学学报(哲学社会科学版):1-13. https://link. cnki. net/urlid/32. 1521. C. 20231024.0959. 002.
[7]亚里士多德 .政治学[M]. 吴寿彭,译 . 北京:商务印书馆,1965.
[8]邓伯军.人工智能的算法权力及其意识形态批判[J]. 当代世界与社会主义,2023(5):24-32.
作者:杨延超,中国社会科学院法学研究所研究员、科技与法研究中心主任。
来源:《江汉学术》2024年第1期。