科技发展一日千里,OpenAI发布的ChatGPT方兴未艾,以Sora为代表的新一代生成式人工智能技术已横空出世。相比于传统人工智能技术抽象化、迟缓化的发展特点,生成式人工智能技术呈现出具象化、快速化发展的新特点。因为基于预训练技术的多模态预训练大模型应用前景广泛,各国科技公司已经争相加入生成式人工智能的研发工作之中。对于人工智能宏观层面的大致发展阶段,科技领域已经形成基本共识:人工智能技术发展的第一阶段是经过长期专业训练的狭义人工智能(ANI),第二阶段是具有自我学习能力和跨领域能力的通用人工智能(AGI),第三阶段是远超人类智能的超人工智能(ASI)。通过梳理不难发现,生成式人工智能是人工智能第二阶段中通用人工智能(AGI)的代表性应用。
目前,生成式人工智能技术正处于大爆发时期,其在造福人类的同时也必然蕴藏着风险。例如,生成式人工智能可能引发侵犯知识产权类犯罪、信息安全类犯罪、煽动类犯罪、侵犯公民人身权利类犯罪,以及传授犯罪方法、提供犯罪程序类犯罪等多方面的刑事风险。同时,生成式人工智能还可能引发涉及数据、隐私、垄断、歧视等方面的一系列行政违法风险。涉生成式人工智能违法犯罪具有发展性、阶段性及不确定性等特征,与传统犯罪形成“此消彼长”的“拉锯”状态。当前,世界各国都在积极探索涉生成式人工智能违法犯罪行为的综合治理路径。或许有观点认为,人文社科界对生成式人工智能法律风险的担忧,是不了解技术发展实际情况的“杞人忧天”。但是,世界顶级人工智能科学家和工程师对生成式人工智能技术风险的多次预警,则无法令人漠然置之。总而言之,由生成式人工智能技术风险所引发的法律问题是亟须我们面对和分析的“问题”,而在法律层面防范生成式人工智能法律风险的具体路径则是我们解决相关问题的具体“视角”。因为生成式人工智能是一个技术性极强的领域,所以法规范治理手段必然同时包含前置法上侧重于技术性的规定以及刑法中的罪刑规定。在法规范层面,本文拟从行刑衔接的视角出发,探讨针对生成式人工智能风险的行刑二元治理模式。
生成式人工智能的风险与行刑二元治理范式
(一)生成式人工智能的“非原创理性”
我国《生成式人工智能服务管理暂行办法》第22条规定:“生成式人工智能技术,是指具有文本、图片、音频、视频等内容生成能力的模型及相关技术。”令人遗憾的是,上述规定主要是从生成内容的角度对生成式人工智能进行简单定义,并没有涉及关于生成式人工智能源头技术架构以及风险特征的相关内容。具体而言,自20世纪50年代以来,人工智能已经陆续在神经网络、语言识别、深度学习以及类脑技术等方面完成了四次较为重要的技术跃迁。同时,人工智能中的“智能”模式也已经呈现出“计算智能”“感知智能”和“认知智能”三个层级。相较于传统人工智能,生成式人工智能的核心技术架构是“Transformer”(人工神经网络模型)和大规模预训练技术,借此其能够自主学习并理解大量人类语言和自然世界的结构和规律,从而独立生成多模态内容。因此,生成式人工智能可以根据用户的提示进行内容生成,从而具有自感知、自决策、自执行、自适应、自学习等能力。
笔者认为,推理能力和创造能力是生成式人工智能的最大亮点。具体而言,生成式人工智能主要具有以下两种推理能力:一是从数据中学习并理解如何实现特定目标的能力;二是基于待解决任务的编码或数据进行逻辑演绎并产生经验直觉的能力。同时,生成式人工智能的创造能力是指其在一定程度上可以独立于人类生成具有一定“原创性”的内容。值得注意的是,生成式人工智能的推理能力可能进一步发展为“理性”,而生成式人工智能的创造能力可能进一步发展为“自主性”。结合上述分析,我们可以尝试从生成式人工智能的底层架构、技术能力以及生成内容等角度对生成式人工智能进行定义:所谓生成式人工智能,是指以人工神经网络和大规模预训练模型等技术为底层架构,具有逻辑推理和自主创造能力,能够生成文本、图片、音频、视频等多模态内容的人工智能大模型及相关技术。
有观点认为,生成式人工智能已经初具类脑特征,并且已经具备通过“图灵测试”的可能。也有观点认为,“人是目的”是人类最基本的价值原则,无论人工智能如何发展、如何高明,其依然属于区别于人的“器”,只具有工具意义而不可能产生独立的人格。笔者认为,人工智能将来是否可以成为“人”,与人工智能将来是否可以成为独立于人之外的新“主体”,实际上是两个不同层面的问题。就第一个问题而言,“人工智能”(硅基)与“人”(碳基)之间的本质区别永远不可能消失,人工智能永远不可能成为自然意义上的人。因为人工智能不可能成为人,所以人工智能当然不会具有人才拥有的“人格”或者“内在品格”。同时,“人是目的”只能作为一种哲学意义上的主观价值原则,而不能成为否定自然规律的客观事实。因此,将人工智能与人相比较,并且基于人工智能无法成为“人”的理由而完全否定人工智能主体资格的观点,具有天然的逻辑缺陷。就第二个问题而言,人工智能完全可能成为独立于人之外的新“主体”。毋庸置疑的是,人工智能技术早已在算力等方面大幅超越人类。但是,由于传统人工智能只能在人为设定的编程范围内工作,所以即使传统人工智能已经具备远超人类大脑的算力,但人们还是通常将其视为完全受人类支配的工具。笔者认为,对于完全受编程限制的传统人工智能而言,我们当然可以将其视为没有自由意志和实践理性的工具。但是,在“算法黑箱”现象导致编程不透明,或者人工智能可以基于人类授权等种种原因而突破编程限制时,我们就完全有理由相信此时的人工智能具有产生“理性”和“自主性”的可能。
值得注意的是,生成式人工智能的各项能力似乎已经向人们证明了其具有一定的“理性”和“自主性”。有观点认为,如果没有广义上的理性的参与,生成式人工智能很难对数据进行正确且具有预测性的逻辑处理。但是相比于人类具有的“原创性”理性,生成式人工智能的理性则是由人的原创理性所创造,因此生成式人工智能的理性具有“非原创性”。可以看到,上述观点将理性分为原创理性和非原创理性,同时认为生成式人工智能具有非原创理性。亚里士多德曾言:“人是理性的动物。”如果我们讨论生成式人工智能是否具有理性的目的是证明其与人之间的距离,那么就又陷入“人工智能是否可以成为人”的论证误区之中。笔者认为,首先应当明确的是,我们讨论生成式人工智能是否具有理性的目的,是证明其具有承担责任的可谴责性,而不是为了证明其可能成为人。无论是原创理性还是非原创理性,两者实际上都属于理性的范畴。例如,曾经阅读过的书籍可能影响人们的思想和判断,但是我们不能就此否定人依然具有理性。同理,人为设定的数据可能影响生成式人工智能所生成的具体内容,但是我们不能就此否定生成式人工智能在分析并产生数据方面所展现出的逻辑推理能力和广义理性。归根结底,生成式人工智能由人所创造。人基于自身的原创理性而创造出了蕴含于生成式人工智能之中的非原创理性。尽管生成式人工智能的理性具有非原创性,但是当这种理性高度发达时,就可以与人类的原创理性产生相同的效果。届时,生成式人工智能或者更高级的人工智能当然要为自身理性所造成的后果承担相应责任。因此,人工智能将来可能成为独立于人之外的新“主体”。
(二)生成式人工智能的风险特征
由于生成式人工智能是具有自主学习能力和自主决策能力的预训练大模型,所以生成式人工智能可能具有算法安全和科技伦理等方面的技术风险,并且呈现出系统性、技术性、复杂性、伦理性等风险特征。
其一,生成式人工智能具有系统性风险特征。基于预训练技术,生成式人工智能可能受到数据偏差等影响,导致其生成的内容具有一定偏向性。例如,如果大模型在预训练过程中只接触到特定类型的数据,那么其就可能生成具有偏向性的内容。同时,由于ChatGPT、Sora等生成式人工智能的具体应用本身就具有系统性,所以一旦根服务器出现数据偏差等问题,就必然导致该应用发生系统性的崩溃。
其二,生成式人工智能具有技术性风险特征。生成式人工智能的研发阶段和用户使用阶段都具有一定的技术性风险特征,因为生成式人工智能由大量参数和复杂算法组成,所以生成式人工智能可能导致算法黑箱、算法歧视等一系列算法安全方面的风险。除此之外,掌握特殊“关键词”的用户可以激发生成式人工智能的更大潜能,从而获得更高质量的内容。因此,生成式人工智能具有技术层面的研发和使用门槛,并由此具备了相应的技术性风险特征。
其三,生成式人工智能具有复杂性风险特征。生成式人工智能的底层技术架构极其复杂,可能引发法律、伦理、社会治理等方面的风险。社会各界难以准确把握生成式人工智能的本质特征,从而导致对算法的监管和风险的治理困难重重。
其四,生成式人工智能具有伦理性风险特征。随着生成式人工智能“理性”和“自主性”等能力的增强,其“主体性”地位以及“人机关系”等方面的伦理风险会逐渐凸显。在大量人机交互和信息投喂的过程中,用户可能慢慢丧失主体地位和自主决策意识,从而导致弱势信息主体被边缘化的伦理风险。同时,生成式人工智能所生成的内容也可能对社会成员的价值判断产生影响,进而存在一定的伦理性风险特征。
(三)生成式人工智能的行刑二元治理范式何以可能
法律是社会最低限度的道德准则,而刑法又是法律治理手段中的最后一道屏障。生成式人工智能技术风险的治理必须由国家、社会和企业等多主体共同参与,在技术研发、推广应用等多环节建立健全监督评估机制,并且由行政法、刑法等多个部门法共同规制。由此可见,刑法规制手段仅仅是生成式人工智能治理多个环节中的一环。在前置法层面,行政法的优势在于,不仅可以从技术角度对生成式人工智能进行针对性和灵活性的规范供给,还可以从行政违法层面(比刑事犯罪的范围更广)对生成式人工智能进行更加全面的法律治理。在前置法规定的基础上,刑法可以直接援引或采用行政法中有关生成式人工智能的专业术语,并且将具有严重社会危害性的涉生成式人工智能违法行为规定为犯罪。卢梭曾言,刑法是具有二次性的法律,也是对其他所有各种法律的认可。由此可见,刑法为其他部门法提供了强制力保障,但只有在前置法力有不逮时,才有适用刑法规定的可能。不难预见的是,如果刑法将来增加关于生成式人工智能的相关犯罪类目,那么极大可能会以法定犯的形式对相关犯罪加以规定。法定犯数量的持续增加无疑会引发刑法与前置法之间的衔接难题。因此,生成式人工智能的行刑二元治理范式必须以顺畅、精准的行刑衔接机制为保障。
除此之外,生成式人工智能行刑二元治理模式的理论依据主要包括科技治理理论和法秩序统一原理。当前,科技治理的主体和形式已经呈现出多元化发展之势。科技治理主体多元化的原因之一是生产力提升所带来的生产剩余不断增多,使专职科学家可以从农业劳动中脱离,并进一步细分出科技治理的多元主体。因为生成式人工智能是一个技术性极强的领域,所以对涉生成式人工智能违法犯罪行为的法律治理也必然是一个多元共治的过程。需要说明的是,虽然生成式人工智能所引发的法律风险也可能涉及民法等其他法律,但是通过民法等具有私法属性的法律似乎无法达到防范生成式人工智能相关风险的应然效果。因为“治理”一词的本义是由权威领导者进行的自上而下的社会统治活动,这与公法调整国家与公民之间社会关系的观念相同,而与私法调整公民与公民之间社会关系的性质相悖。因此,具有公法性质的行政法和刑法是防范生成式人工智能技术风险的最优选择。
同时,在行政法与刑法之间,我们仍然要正确处理行刑衔接和法秩序统一等问题。法秩序统一原理的本质是不同法领域目的的统一,其根本目的是维持整个法律体系的和谐。根据法秩序统一原理,在涉及数个法领域的规范判断时,各个法领域之间应当顺利完成衔接且不存在内部矛盾。需要注意的是,法秩序统一并不是部门法的“同样化”,而是部门法的“一致性”。因为生成式人工智能行刑二元治理模式涉及多个法领域,所以法秩序统一原理无疑是生成式人工智能行刑二元治理模式的重要理论依据。关于生成式人工智能所涉及的违法犯罪行为,可能出现行政法与刑法等针对同一种行为进行规制的情况,在一定条件下,我们应当允许违法性判断的“和而不同”。当前的立法技术无法保证多个法领域之间不存在任何法规范内容上的冲突。同时,只有在不同法规范的目的发生对立时才会影响到整体法秩序的统一。因此,合理范围内的概念歧义与不同违法性判断(不包括法规范目的冲突)都可以被法秩序所容许。总而言之,如果行政法与刑法规制涉生成式人工智能违法犯罪行为的目的相一致,那么生成式人工智能的行刑二元治理模式就符合法秩序统一原理的基本要求。除此之外,生成式人工智能的行刑二元治理模式还具有保障科技创新和发展、保护公共利益和用户权益、提高生成式人工智能透明度和可信赖性等重要实践价值。
涉生成式人工智能违法犯罪行为之行刑界分
当前,提升刑事治理现代化水平是各国应对日益严峻的犯罪形势之关键。在宏观层面,前文已经论述了生成式人工智能行刑二元治理模式的可行性与必要性。在微观层面,我们应当继续在行刑二元治理模式内部建立区分涉生成式人工智能行政违法与刑事犯罪的标准。
(一)涉生成式人工智能违法犯罪行为行刑界定之困境
德国刑法理论界在数十年前就已经开始对行政违法与刑事犯罪的界分标准展开了争论,并称其为“一个令法学者绝望的问题”。对于法定犯而言,刑法与前置法的界限是一个始终无法回避的难题。就此而言,在生成式人工智能的行刑二元治理过程中,当然也会产生这方面的困惑。
其一,涉生成式人工智能违法犯罪行为的行刑界定之惑,源于违法一元论与违法相对论的立场之争。严格的违法一元论主张,刑法中的违法判断结果必须与行政法等前置法完全一致;缓和的违法一元论认为,违反行政法等前置法的行为也可能不构成刑事犯罪。违法相对论则主张,不同部门法的违法判断标准不具有关联性,行政违法不是判断刑事犯罪的必要前提。由于我国刑事立法对犯罪行为采取“定性加定量”的模式,所以刑事犯罪在定性与定量上都更重于行政违法。因此,刑法的规制范围理应小于行政法等前置法的规制范围。基于上述分析,将所有部门法规制范围等同的严格的违法一元论不具有合理性。就刑法的从属性(刑法从属于行政法等前置法)与独立性(刑法不受制于行政法等前置法)而言,缓和的违法一元论更倾向于刑法的从属性,而违法相对论则更偏向于刑法的独立性。虽然刑法兼具从属性和独立性的观点已经成为刑法理论界的共识,但我们依然要明确刑法从属性和独立性之间的优先等级。刑法从属性和独立性的立场选择,不仅直接指向缓和的违法一元论和违法相对论,而且也会对生成式人工智能法律风险的行刑界定造成影响。例如,根据缓和的违法一元论,刑法对涉生成式人工智能相关行为的规制范围不能大于行政法等前置法。但是,根据违法相对论,刑法对生成式人工智能的规制范围可以与行政法等前置法产生交叉,也即针对生成式人工智能法律风险的刑事处罚范围可能超出行政处罚范围。由此可见,违法一元论与违法相对论的立场之争,可能导致涉生成式人工智能违法犯罪行为的行刑界定与行刑衔接出现标准不一的困惑。
其二,涉生成式人工智能违法犯罪行为的行刑界定之惑具体表现在立法活动与法律适用过程中。众所周知,以行为性质为逻辑起点,完全符合刑法分则中构成要件的行为构成犯罪,应当承担刑罚等法律后果;违反行政法规定的行为构成行政违法,应当承担行政处罚等法律后果。但是,随着生成式人工智能等新兴领域的出现,介于行政违法与刑事犯罪中间地带的行为类型逐渐增多。在立法层面,行政法等前置法与刑法的立法目的并不相同。刑法的立法目的是惩罚犯罪和保护法益,而行政法的立法目的是维护社会秩序和监督行政主体。因此,有观点认为,行政法等前置法与刑法之间存在目的论层面的本质区别。如果行政法等前置法与刑法基于各自不同的立法目的来规制涉生成式人工智能的违法犯罪行为,那么就有可能出现不同法规范内容上的矛盾。例如,如果行政法基于维护社会秩序的目的而扩大制裁范围,那么行政法中规定的关于生成式人工智能研发者的作为义务等内容,是否可以直接成为刑法上的作为义务来源?反之,如果行政法基于鼓励科技创新的目的而缩小制裁范围,那么刑法能否将不构成行政违法但具有一定社会危害性的行为规定为犯罪?可见,行政法与刑法立法目的的不同可能导致相关行为的行刑界定之惑。在法律适用层面,行政机关与司法机关的主体差异也可能导致生成式人工智能法律风险的行刑界定出现困难。在涉及行刑衔接的案件中,可能存在“以罚代刑”或“以刑代罚”两种乱象。“以罚代刑”或“以刑代罚”乱象通常是由行刑执法主体之间的衔接机制不畅、行刑执法主体基于各自法规范目的所得出的结论发生分歧,以及行刑界分标准不明晰等原因所致。因此,行刑立法目的的不同以及行刑衔接不畅等因素,可能导致涉生成式人工智能违法犯罪行为在立法与司法过程中存在行刑界定之惑。
(二)涉生成式人工智能违法犯罪行为行刑界限之明晰
首先,对于由违法一元论与违法相对论立场之争引发的行刑界定困境,我们应当以缓和的违法一元论为基本立场,将刑法对涉生成式人工智能违法犯罪行为的规制范围限制在行政法等前置法的规制范围之内。在通常情况下,涉生成式人工智能行政违法行为与刑事犯罪行为的界分标准不会存在分歧。例如,对于行政法等前置法与刑法都已经进行了类型化规定的行为,我们可以直接根据相关行为的社会危害性来界定其属于行政违法还是构成犯罪。但在“定量”层面,还存在社会危害性或可罚性处于行政违法与刑事犯罪分界线上的行为类型,对于这种特殊行为类型,刑法理论与司法实践都应当谨慎对待,避免“以罚代刑”或“以刑代罚”。笔者认为,我们在承认刑法兼具独立性与从属性的基础上,应当将刑法从属性放在优先于刑法独立性的地位。因为刑法是保障法且具有二次性,故刑法不能够也不应当将行政法等前置法所允许的行为单独规定为犯罪。对于法定犯而言,刑法层面的违法性判断需要以行政法等前置法层面的违法性为前提,从而满足刑法谦抑性以及刑法保障法地位的要求。相比于缓和的违法一元论,违法相对论更加强调刑法的独立性,从而具有损害法秩序统一的可能。同时,对于生成式人工智能等高新技术领域,法律介入的限度需要严格控制在促进科技创新与保护相关主体合法权益的平衡点上,既不能一味打击科技企业的创造活力,也不能过分压缩公共利益与公民权益的法律救济空间。因此,我们应当以缓和的违法一元论作为判断生成式人工智能法律风险行刑界限的基本理论工具。对于在行政法等前置法中不具有违法性的行为,在刑法层面也应当排除相关行为的违法性。
其次,对于由行刑立法目的不同而引发的行刑界定困境,应当以法秩序统一原理为理论依托,将行政法等前置法与刑法的立法目的调和于防范生成式人工智能法律风险的合理范围之内。虽然学界对于法秩序统一原理中“统一”概念的内涵和程度存在争议,但是可以形成共识的是,部门法之间的立法目的冲突是法秩序统一原理所不能容许的。因此,立法者应当尽量避免不同部门法立法目的之间出现不可调和的矛盾。具体而言,促进科技创新与保护相关主体合法权益可以成为行政法等前置法与刑法的共同价值取向。行政法等前置法可以基于维护社会秩序的目的扩大制裁范围,刑法也可以基于惩罚具有严重社会危害性犯罪的目的缩小制裁范围。只要刑法的规制范围小于行政法等前置法,那么我们就可以推定行刑立法目的之间不存在难以调和的矛盾。因此,在防范生成式人工智能的法律风险时,行政法等前置法必须与刑法在立法目的上保持“和而不同”。同时,行政法等前置法与刑法都应当尽量通过列举式的立法形式将涉生成式人工智能的违法犯罪行为进行类型化和精准化。这样才能从法律规范的源头有效避免涉生成式人工智能违法犯罪行为行刑界分的困境。
最后,对于涉生成式人工智能违法犯罪行为在法律适用阶段的行刑界定困境,我们应当从完善行刑衔接机制和明确行刑适用的司法标准等方面入手,在实体规定与法律程序上解决生成式人工智能技术风险的行刑界定之惑。由于法定犯(行政犯)具有二次违法性的特点,所以行刑衔接已成为一个老生常谈而又历久弥新的实务难题。有学者提出,应当建立犯罪构成要件梳理制度和行刑衔接清单管理制度,在实体层面实现行政责任与刑事责任的衔接,在程序层面实现行政证据与司法证据的衔接,并且通过案件咨询和信息共享等机制构建较为完善的行刑衔接体系。不可否认的是,行刑衔接清单管理以及信息共享等机制可以在一定程度上解决行刑衔接不畅的问题。但是,建立并推行上述机制也意味着行政执法人员与司法工作人员的工作量会急剧增加,其有效性和可行性有待进一步考证。
笔者认为,畅通行刑衔接机制的根本目的是解决生成式人工智能法律风险在行刑界定上的困惑,从而避免“以罚代刑”或“以刑代罚”现象的发生。因此,我们应当基于适当性、必要性和狭义比例原则的要求对当前的行刑衔接制度进行循序渐进的改造。在实体规定层面,对于行刑衔接清单中规定的涉生成式人工智能的行政违法和犯罪行为,可以及时启动行刑执法主体联席会议、信息共享和专家咨询等特定程序。对于由行政执法机关移交的涉生成式人工智能刑事案件,可以适当增加补充侦查等提高行政证据证明标准的程序性规定,从而将行政执法机关的行政证据顺畅转变为可以指控犯罪的刑事证据。除此之外,涉生成式人工智能刑事犯罪入罪标准的明确化是明晰相关行为行刑界限的关键。应当根据罪刑法定原则中的明确性要求,充分利用司法解释等法律文件,将涉生成式人工智能相关行为可能构成犯罪的入罪标准进行量化和明确。如果相关行为在定性上符合刑法分则规定的构成要件,并且在定量上达到了刑法分则或相关司法解释规定的入罪标准,那么应当根据刑法追究相关人员的刑事责任。因此,对于“定性加定量”都符合刑法规定的行为,行政执法机关不能“以罚代刑”,而是应当将相关案件移交司法机关。
涉生成式人工智能行刑二元治理体系之构建
涉生成式人工智能行刑二元治理体系的构建,关键在于对行刑法律规范及其价值理念的落实。当前,我国尚未制定专门针对涉生成式人工智能一般违法行为的行政法或其他前置法,刑法中也没有形成专门规制涉生成式人工智能犯罪行为的罪名体系,仅有部分部门规章和规范性文件对此有所涉及。因此,及时填补法律层面的空白是构建涉生成式人工智能行刑二元治理体系的首要任务。
(一)涉生成式人工智能违法行为行政法治理体系之构建
当前,世界各国对生成式人工智能技术风险的法律防范手段大多停留在法律草案或行政性文件层面。同时,生成式人工智能相关技术也正处于高速发展和不断迭代的不稳定时期。为了减少技术革新对法律秩序稳定性的影响,我国应当首先在前置法层面建立专门规制涉生成式人工智能一般违法行为的行政法。在前置法的相关规定较为成熟之后,再将相关规定和价值理念与刑法融合,从而呈现出由行及刑(由行政法等前置法向刑法延伸)的立法结构。在世界范围内,欧盟是最早开始探索生成式人工智能综合性立法的政府间组织,其提出的《人工智能法案》《关于人工智能——欧洲追求卓越和信任的方法》白皮书以及《通用数据保护条例》等文件都可以成为我国制定相关行政法的参考。同时,我国已经颁行的《生成式人工智能服务管理暂行办法》等规范性文件也可以成为制定相关行政法的实践经验。具体而言,欧盟《人工智能法案》采用了基于风险的分级监管方法,并且根据人工智能系统可能产生风险的强度和类型来调整相关规则的分类并设置不同的义务。笔者认为,我国相关行政法的制定可以合理借鉴欧盟《人工智能法案》中基于风险的分级监管方法,构建本土化的基于生成式人工智能技术风险的分类分级管控制度。同时,行政法应当充分结合数据利用安全范式等理论,建立并完善生成式人工智能市场准入审查、全流程数据透明度披露以及事前合法性评估等机制。
其一,行政法等前置法应当以基于生成式人工智能技术风险的分类分级管控制度为基本立法框架。实际上,在《数据安全法》等保护数据安全的前置法中,我国就已经明确规定了对数据的分类分级保护制度。可见,基于风险或行为对象的分类分级保护制度是我国行政法等前置法的常用立法理念。根据生成式人工智能的技术原理和风险特征,可以将生成式人工智能的法律风险划分为以下四类:第一类是非法获取、泄露、滥用数据等涉数据类法律风险;第二类是生成含有歧视性、误导性、侵权性内容等有害内容类法律风险;第三类是被滥用、被操纵等沦为违法犯罪工具的法律风险;第四类是产生自身需求并突破编程限制的涉科技伦理类法律风险。需要强调的是,上述划分不仅是对生成式人工智能法律风险的“分类”,而且也是对生成式人工智能法律风险的“分级”。例如,在生成式人工智能的第一类法律风险中,涉数据类法律风险是对相关风险的“分类”,而非法获取、泄露、滥用数据等不同行为类型的划分则是对相关法律风险的“分级”。对于生成式人工智能的不同风险类型,行政法等前置法应当分别制定具有针对性的规制方案。
其二,行政法等前置法应当充分结合并运用数据利用安全范式等理论,建立市场准入审查、全流程数据透明度披露以及事前合法性评估等具体机制。生成式人工智能依赖大规模的数据流动和利用。因此,大数据的利用方式在生成式人工智能的预训练阶段与用户使用阶段均呈现出新的特征并由此会引发新的风险。《数据安全法》要求“确保数据处于有效保护和合法利用的状态”,不仅要确保数据“自身安全”,而且要确保数据大规模流动和挖掘的“利用安全”。其中,确保大数据“利用安全”的数据利用安全范式,具体是指确保数据大规模流动和利用的可控性和正当性。因为数据是贯穿生成式人工智能全生命周期的核心要素,所以通过对生成式人工智能所涉数据的有效管控可以在一定程度上实现防范相关法律风险的目的。除此之外,欧盟人工智能高级别专家组制定的《值得信赖的人工智能的伦理准则》设立了七种人工智能伦理原则:人类主导和监督、技术稳健性和安全性、隐私和数据治理、透明度、多样性及非歧视和公平、社会和环境福祉、问责制。基于上述科技伦理原则,人们可以推定出生成式人工智能的可预测性与可信赖性。因此,行政法等前置法应当以上述科技伦理原则为价值导向实现对生成式人工智能的全流程治理。
(二)涉生成式人工智能犯罪行为刑法治理模式之确立
刑法的特性决定了其具有稳定性和滞后性,因此在面对由科学技术进步所引发的关于数据、信息等方面的犯罪新样态时,其通常无法及时作出回应和修改。为了减少技术革新对刑法稳定性的影响,我国应当首先在前置法层面制定专门规制涉生成式人工智能一般违法行为的行政法,在前置法的内容相对成熟之后,再在刑法中增加规制涉生成式人工智能犯罪行为新类型的罪名。为了维持刑法稳定性与犯罪活跃性之间的平衡,有学者主张将自然犯与法定犯剥离,进而以附属刑法的形式分别规定属于不同部门法的法定犯,进而确保刑法典的稳定性。也有学者主张刑法体系的多元性,即构建“刑法、附属刑法、特别刑法”的三元结构。笔者认为,法定犯的扩张似乎是一个永无止境的过程,刑法在未来终将可能因法定犯的无限扩张而过于冗杂。为了避免上述情况的发生,刑法应当尽量减少新罪名的增设,或者尽可能通过增设较少数量的新罪名来规制新的犯罪类型。虽然“刑法、附属刑法、特别刑法”的多元结构是未来刑法立法模式的可能发展趋势之一,但“刑法、附属刑法、特别刑法”的多元结构也存在一些固有的体系缺陷。
关于“刑法、附属刑法、特别刑法”多元结构的刑法理论研究目前也尚未完全成熟。虽然多元刑法立法模式可以在一定程度上实现对刑法稳定性与灵活性的兼顾,但是我国当前的立法模式并未达到“无可救药”的地步。笔者认为,只要前置法中规定了关于犯罪构成要件的内容,即使前置法没有规定相关犯罪的法定刑,我们也可以将相关内容视为附属刑法的规定。因此,我国目前采取的是刑法典与附属刑法相结合的刑法立法模式。对于生成式人工智能等新兴领域的新型法定犯,我们仍然可以依照现行刑法立法的模式予以规定。具体而言,我们可以将涉生成式人工智能相关犯罪的构成要件以附属刑法的方式直接规定在行政法等前置法之中,同时将相关犯罪的法定刑统一规定于刑法之中。
除此之外,还有学者主张以单行刑法或者同时规定犯罪构成要件和法定刑的附属刑法模式规制涉生成式人工智能的相关犯罪。但是,全面推行单行刑法立法模式等多元刑法体系的代价是将现行刑法中的所有法定犯进行剔除,同时在民法、行政法、经济法等前置法中以附属刑法(同时规定犯罪构成要件和法定刑)或单行刑法的形式对其重新规定。
这不仅是对我国现有刑法立法模式的颠覆性改动,而且也是对法秩序统一原理以及立法技术的巨大挑战。显然,我国当前的刑法立法模式还没有到达需要如此“大破大立”的程度。同时,涉生成式人工智能的犯罪行为可能需要刑法分则多个章节的罪名加以规制。对于涉生成式人工智能犯罪的新型法定犯而言,我们不宜将相关罪刑内容全部规定于行政法等前置法之中,而是可以将相关犯罪的构成要件和法定刑进行分离,即在行政法等前置法中规定涉生成式人工智能相关犯罪的构成要件,同时在刑法中统一规定相关犯罪的法定刑。对于现行刑法规定无法规制的涉生成式人工智能犯罪新类型(即生成式人工智能可能涉及的现行刑法中尚没有规定的新型法定犯),我们可以在刑法中增设新的罪名。或许有观点认为,虽然我国当前的刑法立法模式不宜“大破大立”,但是可以考虑“不破而立”。如前文所述,“大破大立”是指首先删除现行刑法中的所有法定犯,然后在对应的前置法中重新规定相应的罪刑内容。由于上述调整波及范围甚广,稍有不慎就可能造成“新不如旧”的立法困境;而“不破而立”是指对于现行刑法中已经存在的法定犯内容不加以剔除或删改,而是将生成式人工智能等新兴领域中的新型法定犯(现行刑法中没有规定的新罪名)直接以附属刑法的形式(同时规定犯罪构成要件和法定刑)在行政法等前置法中加以规定。具体而言,附属刑法是指附带规定于民法、行政法、经济法等非刑事法律中的罪刑规范。在我国目前的立法模式中,我国的附属刑法规范中并没有规定具体犯罪的法定刑,仅是对涉及犯罪构成要件的内容加以规定。与之相对的是,刑法条文中通常以空白罪状、特定行业专有名词以及要求违反前置法规定等方式将刑法与前置法规定进行连接。笔者认为,对于涉生成式人工智能犯罪等具有高度技术性和专业性的犯罪行为,单纯依靠刑法规制手段显然无法满足法规范供给侧的需求。
行政法等前置法也是防范生成式人工智能法律风险的必要环节。需要进一步明确的是,在行政法等前置法已经对涉生成式人工智能一般违法行为加以规定的基础上,前置法中是否还需要增加规定犯罪构成要件与法定刑的内容。换言之,我们应当将规定涉及生成式人工智能犯罪行为的罪刑内容置于刑法之中,还是置于行政法等前置法之中?这不仅关系到生成式人工智能行刑二元治理模式的具体路径,而且涉及单一刑法典立法模式与附属刑法立法模式的立场选择。
我国现有的刑法立法模式具有系统性、完备性、科学性等优势。当前,不宜盲目改变我国刑法典与附属刑法相结合的立法模式的现状。如果以附属刑法(同时规定犯罪构成要件和法定刑)或单行刑法的形式将现行刑法中的法定犯以及现行刑法中没有规定的新型法定犯独立出刑法典之外,那么将会导致此罪与彼罪之间、类罪与类罪之间缺少横向罪刑比较的困境。也即,多元刑法模式必然破坏现行刑法的系统性和完备性。因此,应当继续保持刑法典与附属刑法并行的立法模式,关于犯罪构成要件的内容可以规定在行政法等前置法之中,而相关犯罪的法定刑都应当统一规定于刑法典之中。在防范生成式人工智能法律风险的行政法等前置法中,对于具有严重社会危害性、造成严重后果或者情节严重的情形,行政法等前置法还可以附带性规定“违反本法规定,构成犯罪的,依照刑法追究刑事责任”。通过刑法典、附属刑法与行政法等前置法相结合的方式,我们不仅可以有效应对科学技术发展灵活多变的特性,还可以在保证刑法典相对稳定性的同时,有效防范生成式人工智能所引发的各种法律风险。
结语
涉生成式人工智能违法犯罪行为的综合治理必然是一个复杂而漫长的过程,需要我们根据科技的发展及时调整相关政策与法律规范,与时俱进地探索涉生成式人工智能违法犯罪行为的综合治理模式。当前,世界各国对生成式人工智能治理模式的探索都处于初期阶段,防范生成式人工智能法律风险的理论研究与实践经验都尚未成熟。在我国,刑法立法和刑事司法活动应当始终坚持中国特色社会主义法治道路,以人民为中心不断进行反思与修正。生成式人工智能的综合治理绝不是一个由刑法自说自话的过程,而是一个由全社会参与的多元共治过程。行刑二元治理模式为我们提供了一种在法规范层面全面治理涉生成式人工智能违法犯罪行为的新视角。顺畅精准的行刑衔接机制和刑法典与附属刑法相结合的立法模式则为全面防范生成式人工智能法律风险提供了方法论支撑。为了确保生成式人工智能不被滥用,我们应当积极促进生成式人工智能与刑法学等法律学科的良性互动,为构建更加科学、合理、公正和可靠的生成式人工智能综合治理体系作出贡献。