张凌寒:中国人工智能立法需凝聚 “总则式”立法共识

选择字号:   本文共阅读 102 次 更新时间:2024-12-22 21:36

进入专题: 人工智能立法  

张凌寒  

内容提要:自2023年6月国务院将“人工智能法”列入立法计划以来,学界关于中国人工智能立法的讨论日益广泛深入。与此同时,全球人工智能治理活动如火如荼。在此背景下,中国如何通过人工智能立法打造中国制度名片,提升国际影响力,是需要迫切研究的课题。为了回答这个问题,中国学术界已经先后推出《人工智能示范法(专家建议稿)》《人工智能法(学者建议稿)》两项成果,前者又分为 1.0、2.0 两版本。两部建议稿旨在推动讨论、凝聚共识,为我国人工智能立法提供参考。在我国明确人工智能立法导向之后,如何凝聚立法共识,应当凝聚什么样的立法共识,成为当下政产学研各界亟需讨论回答的问题。本文旨在通过梳理现有的学界研究讨论成果,结合各国和地区的人工智能立法经验,提出中国人工智能立法当下应确立的制度共识,并探讨人工智能立法的定位。基于参与国际治理与推动国内治理的需要,并对立法成本予以权衡,笔者认为,我国应凝聚人工智能的“总则式”立法共识。

当下政产学研各界的讨论中,以善治促发展是我国人工智能立法的共同理念。对人工智能技术、服务与应用应采取审慎包容的监管而非照搬欧盟立法思路。应结合中国在国际竞争与博弈中的地位,充分考虑人工智能中的权益保护与国际合作部分。

第一,以善治促发展是人工智能立法的理念。我国人工智能立法应以促进产业发展为主要特色,立足我国人工智能产业发展实际,坚守防范安全风险的底线,力争兼具前瞻性、先进性和本土性。我国人工智能产业“领先的追赶者”的独特国际生态地位,要求我们在技术和产业的国际竞争中以发展为制度设计的主要目标,安全问题也需要通过技术发展来回应和解决。

在立法原则层面,学界发布的两部建议稿高度一致。《人工智能法(学者建议稿)》将人工智能安全这一立法目标细化拆分为公平公正原则、透明可解释原则、安全可问责原则、正当使用原则。尤其是创新性地提出人工介入这一基本原则,以保证在人机交互中人类始终保有主体地位。《人工智能法示范法 2.0(专家建议稿)》基本原则包括:治理原则、以人为本原则、安全原则、公开透明可解释原则、可问责原则、公平平等原则、绿色原则、促进发展创新原则。

促进人工智能发展是各界人工智能治理的共同理念。因此《人工智能法(学者建议稿)》中设立“促进与发展”专章,也在监督管理、责任设置等方面对此予以充分考虑,减轻了人工智能产品和服务提供者的义务,对产业创新予以一定的容错空间和责任豁免。促进人工智能发展应针对数据、算力、算法三个领域的需求,提供更大范围的高质量数据资源和算力资源支撑。《人工智能法(学者建议稿)》提出开源生态建设、产业场景培育、数字素养等条款,以多层次、全方位塑造有利于产业发展的社会氛围。《人工智能法示范法 2.0(专家建议稿)》则建议设立人工智能特区并采取授权立法机制。二者都基于同一方向提出了不同的立法建议。此外,《人工智能法(学者建议稿)》还设置了人工智能保险制度,鼓励保险市场介入,在既有的网络安全保险、第三方责任险等传统商业险种的基础上,探索适合人工智能产业的保险产品。面对用户不当使用可能导致的虚假信息泛滥等风险,还以整体性风险治理的理念提出公民数字素养的提升,从用户端预防和控制人工智能技术安全风险。

第二,开创中国本土人工智能监管制度。欧盟《人工智能法案》基于风险大小的人工智能分级监管思路,已成为多国立法参考的对象。但欧盟的这种做法并不必然适用于我国。我国应立足实际,制定符合我国需求的人工智能分级监管路径。在建立中国本土人工智能监管体系的思路上,两部建议稿不谋而合。《人工智能法(学者建议稿)》通过区分关键人工智能、一般人工智能和特殊人工智能,避免了“一刀切”的不合理监管。在分级分类监管时,由相关部门根据技术发展、行业领域、应用场景等因素进行评估并动态调整,及时更新人工智能分级分类指南,实现敏捷治理。《人工智能示范法(专家建议稿)2.0》则提出了“负面清单制度”,对负面清单所列应用设置事前许可。

关键人工智能的重点在于动态监测和安全义务,其并未采取中国社科院发布的《人工智能法示范法 2.0(专家建议稿)》中负面清单制度中的事前许可审批制度。关键人工智能没有设置事前准入门槛,仅在接收到被主管部门认定为关键人工智能的通知后,才需履行监管平台备案等义务,体现了人工智能监管的敏捷性与灵活性。关键人工智能的义务相对于一般人工智能主要包括,开发者和提供者需要建立风险披露机制和安全事件应急处置机制,以此确保关键人工智能发展的安全性。特殊领域的人工智能则是根据不同的应用场景,分别有针对性地增加安全义务。《人工智能法(学者建议稿)》希望通过这一制度设计,为产业创新减轻事前的准入负担,在确保安全需求的同时,鼓励我国企业积极参与人工智能开发和创新,促进人工智能产业健康发展。

第三,中国人工智能立法中的权益保护与国际合作。在全球范围内,随着联合国人工智能咨询机构的成立,人工智能国际治理雏形渐显,世界主要国家和经济体纷纷在监管建设、国际合作、产业发展、政策研究等多个层面加大投入,希望争取在国际人工智能治理层面的主导权。

一方面,注重权益保护彰显人本主义,是各国人工智能立法的最大公约数。《人工智能法(学者建议稿)》在制度设计上积极贯彻我国《全球人工智能治理倡议》中“以人为本”的治理理念,高度重视科技伦理与使用者权益。《人工智能法(学者建议稿)》除了在个人权益保障专章明确保护平等权、知情权、隐私及个人信息保护、拒绝权,还特别关注到数字弱势群体可能面对的数字鸿沟,明确人工智能开发者、提供者应当专门增设面向数字弱势群体权益保护的特殊功能模块。

此外,《人工智能法(学者建议稿)》还从社会整体层面为人工智能时代公众的利益提供保障。在教育领域,学者建议稿提出推进人工智能相关学科建设,开展人工智能相关教育和培训,采取多种方式培养人工智能专业人才。为提升全民数字素养,学者建议稿支持实施全民数字素养与技能提升行动,提升公民的数字获取、制作、使用、评价、交互、分享、创新、安全保障、伦理道德等素质与能力。最后,学者建议稿筹划了政府主导、社会协同、公众参与的人工智能多元治理格局。

另一方面,人工智能治理必须通过有效的国际合作才能够实现。《人工智能法(学者建议稿)》考虑到国际人工智能治理形势,设置了国际合作专章,在人工智能安全风险全球化背景下,重视人工智能治理的国际合作与交流,积极参与制定人工智能有关国际规则、标准,推动构建开放、公正、有效的全球人工智能治理机制。人工智能全球治理不仅关系国际合作,也关乎国际博弈。我国未来人工智能立法中应明确规定,任何国家和地区对我国人工智能开发应用采取歧视性措施的,我国有权采取相应的反制措施。这一方面可以让我国采取反制措施有法可依,维护我国的合法权益;另一方面也是向国际社会明确表达相互尊重、平等互利的立场,反对利用技术垄断和单边强制措施制造发展壁垒。

一、中国《人工智能法》的定位

一部法律的定位是立法理念的核心问题与前提基础,无法精准把握《人工智能法》的立法定位,不仅会导致《人工智能法》难以与现有法律规范统筹协调,还会对《人工智能法》的立法结构、具体规定以及实施效果产生不良影响。在目前学界的讨论中,《人工智能法》面临着要素法、产业法、服务应用法以及基本法的选择;而无论是要素法、产业法,还是服务应用法,似乎均无法完成《网络安全法》《个人信息保护法》《数据安全法》三部法律留给《人工智能法》独特的历史使命。结合我国人工智能治理的现实困境以及未来图景,基于综合全面的考量,“人工智能时代的基本法”才应当是对《人工智能法》的准确定位描述。

(一)《 人工智能法》的定位选择

谈及《人工智能法》的立法定位选择,最重要的考量因素在于该选择是否能够正确处理《人工智能法》与《网络安全法》《个人信息保护法》《数据安全法》三部法律之间的关系。

第一,从过往要素治理的视角出发,《人工智能法》可以被定位为要素法。这意味着其调整对象将关切人工智能技术、产业的诸要素,即包括底层的信息网络、算力基础设施以及数据要素、算法模型等。该立法定位,一方面可以弥补上述三部法律所遗留的对于算力、算法、模型等要素的立法空白。另一方面,随着人工智能各要素之间的纵深融合,从单一要素视角看待人工智能已经无法对人工智能进行准确描述,《人工智能法》对于人工智能各要素的有机融合,有助于搭建综合考量各要素的全面治理框架。但针对特定技术要素进行立法的模式,存在不可忽视的局限性。其一,要素法的选择意味着《人工智能法》对人工智能的技术定位在于要素的综合体,如此静态的技术性质判断,并不能应对技术高速发展带来的不确定性。其二,《数据安全法》针对数据这一核心要素,并围绕数据的收集、存储、使用、加工、传输、提供和公开等进行了全面规范,是要素法的典型代表。如果《人工智能法》同样采取该定位模式,势必会导致立法的冗余和立法资源的浪费。

第二,考虑到人工智能实现了产业的全面部署并不断促进产业升级,《人工智能法》也可以被定位为产业促进法。产业促进法定位下的《人工智能法》,既可以体现对技术产业发展的促进导向,又可以推动人工智能在生产生活中的合理应用。以发展为立法目标的《人工智能法》在内容上基本不会与上述三部以保障安全为立法目标的法律相重合。以《数据安全法》为例,其以建立健全国家数据安全管理制度和落实数据安全保护义务为主线,对数据开发利用的相关规定过于原则,无法为人工智能开发过程中涉及的数据利用问题提供具体的规则指引。但产业法的立法定位可能会导致《人工智能法》过分关注人工智能技术的产业链条与商业化运营,聚焦人工智能产业的经济利益。这一方面忽视了人工智能对社会伦理、社会关系的深层影响;另一方面,也无法满足符合作为数字基础设施的基础模型的治理需求。

第三,鉴于我国人工智能治理的前期制度基础,人工智能立法还有服务应用法的定位选择。服务应用法规制的重点是人工智能在服务应用层产生的法律问题,由于位于人工智能产业链终端的服务应用层直面终端消费者并为其提供服务,该定位下的《人工智能法》可以更好地保护用户权益,针对性地解决实际问题。但也存在着在信息内容安全等问题上与此前三部法律的条款交叉重叠的可能性。因为,当前生成式人工智能防范技术尚未成熟,服务应用层面难免因此产生虚假信息生成、传播等信息内容安全问题。而信息内容安全既是传统网络信息内容治理面临的主要问题,也是人工智能尤其是生成式人工智能亟待解决的治理难题。

(二) 人工智能法应是人工智能时代的基本法

在立法起草过程中,很难规定一种万能的选择立法解决方案的方法。每一种立法选择都具有其优势和风险。但相较于要素法、产业法和服务应用法的定位,将《人工智能法》作为基本法的定位更能发挥其高位阶的统领及体系化的秩序作用,并能够适用人工智能技术发展的不确定性、满足中国实际的治理需求。

首先,基本法相较于要素法、产业法和服务应用法,其内容上更具统领性、一般性与综合性。基本法定位下的《人工智能法》涵盖人工智能技术发展、产业应用以及社会伦理等方面,需确立统一的基本原则和核心价值观,而不需要像要素法聚焦人工智能的不同要素,产业法具体规定产业链的各个环节,以及服务应用法局限于服务应用单一场景。可以说,基本法是要素法、产业法和服务应用法的高层次指导。此外,基本法的定位能够很好协调与上述三部法律以及相关部门规章的关系。相较于其他的立法定位选择,基本法的定位统合了网络、数据、算法、算力、应用五大基础领域的安全与发展问题,可以更好地发挥《人工智能法》高位阶的统领作用。特别是跨多个行业、多个政府机构、多个司法管辖区域和利益相关者团体的人工智能治理场景下,基本法可以更好地满足协调治理的需求,应对人工智能所引起风险的复杂性、系统性和不可预见性。

其次,作为人工智能时代的基本法,《人工智能法》需要提供一个体系化的治理框架。体系不是法律在形式上的追求,而是法律应当所具备的“德性”之一。只有坚持基本法的立法定位,才能协调人工智能治理相关法律规范和标准,保障人工智能治理体系的可预期性。基本法的定位对《人工智能法》的立法进路提出了较高的要求,需要立法者全面考虑人工智能技术的快速发展和广泛应用所带来的多重影响,但相较于要素法、产业法和服务应用法,基本法的定位能够全面、系统地考虑人工智能技术的发展现状和未来趋势,为人工智能的安全与发展提供坚实的法律基础和保障。

最后,《人工智能法》的基本法定位在确立总体框架和原则的同时,为未来的法律调整和补充预留了空间和接口。随着技术的发展和社会的变化,《人工智能法》可以灵活调整和更新,保持适应性和前瞻性。人工智能立法面临着新技术迭代升级和产业快速增长的形势,基本法的立法定位并不对人工智能技术进行价值预设,而是将人工智能视为政治、经济和技术三位一体的复合型对象。相比之下,要素法隐含着人工智能是技术要素组成的定位,没有考虑到人工智能推动数字社会生产变革的切面;产业法则是局限在数字社会生产场景下将人工智能视为推动数字经济发展的关键工具,强调“物质刺激的力量而忽视良知的力量”,会导致社会问题的恶化;服务应用法的定位则是将人工智能视为一种服务与应用的模式。然而,面对人工智能所引发的技术链式突破,人工智能立法需从之前网络立法关注的服务应用层面拓展至技术研发层面与要素治理层面。

二、中国人工智能立法的“总则式”进路

中国人工智能立法的“总则式”进路既可以有效确认中国人工智能立法现阶段各界的共识,又可以满足当下人工智能国际治理和打造中国制度名片的迫切需要,同时为未来人工智能全面立法留足空间。

第一,中国人工智能立法的“总则式”进路,能够有效在现阶段凝聚各方共识,确认人工智能治理的基本制度。虽然《人工智能法》应当作为人工智能时代的基本法,但立法时不应抱持“毕其功于一役”的理念,一蹴而就地出台一部大而全的法典。社会各界对如何治理人工智能技术、要素和应用等问题尚存在争议,其中不乏人工智能立法会制约技术发展的观点。因此,如何促进社会各界达成人工智能立法的共识,既解决人工智能治理的紧迫问题,又为未来的发展留足空间,都是人工智能立法需要考量的问题。基于此,现阶段《人工智能法》的立法工作应当坚持“总则式”进路,采取“立总则、廓主线、留接口、适时灵活推进”的进路。参考《民法典》的“总则式”的立法体例,可以通过“提取公因式”的方式对立法目的,人工智能技术、产品与服务必须遵循的基本原则,基本法律制度应遵循的一般性规则,以及我国人工智能治理的基本理念与基本立场进行明确。

第二 , 人工智能立法的“总则式”进路能够满足当下人工智能治理和打造中国制度名片的迫切需要。《人工智能法》作为中国人工智能治理体系的提纲挈领之作,应当确立人工智能治理的总则,起到价值统领作用。人工智能法调整对象是治理人工智能技术、产业和应用全链条及在此基础上形成的复杂系统与社会生态。这意味着《人工智能法》是一项系统性工程,涉及多个层面和维度。要保障人工智能立法的科学性,应当充分借鉴我国立法的成功经验。具体而言,其一,立法目的方面,应当包括促进人工智能技术创新与应用、维护社会公平与正义、推动人工智能产业健康发展等。其二,应当明确贯穿整个人工智能治理体系的基本原则。其三,在基本理念和立场方面,应当充分表达中国始终将人民的利益和福祉放在首位,积极参与国际人工智能治理合作的人本主义立场。

第三,人工智能立法的“总则式”进路为未来人工智能全面立法留足空间,也可搁置当下无法达成共识的争议。“总则式”的《人工智能法》功能在于明确治理方向和主要问题,廓清人工智能治理的主线。一方面,人工智能立法需从之前网络立法关注的应用层面拓展至要素聚合的治理层面。从技术发展的角度来看,人工智能应用随着技术的链式突破不断改变。以应用为调整对象的立法模式,难以适应技术发展给调整对象带来的不确定性。《人工智能法》可充分借鉴既往法治实践中累积的应对不确定性的技术发展、社会关系变化风险的经验,兼顾人工智能产业发展所涉的诸要素,并提炼规范人工智能要素的共性规则。首先,在算力层面,《人工智能法》应当对算力基础设施建设、算力资源利用、绿色算力发展等进一步细化。算力作为人工智能发展的基础,其建设和管理直接影响人工智能技术的应用和推广。因此,相关制度应对算力资源的公平分配、节能环保等方面作出明确规定,确保算力资源的高效利用和可持续发展。其次,在算法层面,《人工智能法》应当对透明度要求、风险评估义务、内容标识、算法备案、人工智能审计等规则予以完善。最后,在数据层面,作为人工智能的“燃料”的数据,其质量和安全性直接影响到人工智能的表现。数据投喂带来价值偏见、隐私泄露、数据污染等新的数据安全挑战,同样需要《人工智能法》的关注与回应。待到未来社会全面步入人工智能时代,监管方积累了充分的治理经验时,则可以考虑制定人工智能的综合性立法及至最终的人工智能法典。

面对人工智能的迅猛发展及其给传统法律制度带来的挑战,有效的人工智能治理刻不容缓。“良”性治理离不开“良”法施行,高位阶的人工智能立法成为各国人工智能治理的布局重点,并逐步成为各国抢抓人工智能国际治理主导权的重要发力点。基于此,本文在分析中国人工智能立法迫切性与必要性的基础上,梳理现阶段达成的立法共识与人工智能治理的迫切需求。当下,中国人工智能立法应凝聚“总则式”立法共识。

    进入专题: 人工智能立法  

本文责编:chendongdong
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 法学 > 法学时评
本文链接:https://www.aisixiang.com/data/158016.html

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2024 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统