摘 要:在当前生成式人工智能的运行过程中,个人信息面临着收集范围与限度不明、算法违规处理及生成错误结论等问题,因此亟须构建个人信息保护的全流程合规体系。在准备阶段,生成式人工智能应该基于最小必要原则来明确合规收集范围,并将个人信息进行碎片化处理来合规限制收集深度。在运算阶段,生成式人工智能应该在自我学习时通过知识蒸馏构建学生模型来保证算法合规,并进行安全评估与算法备案。对一般类型个人信息、敏感个人信息及生物特征信息采用不同的合规处理模式,并在反馈阶段标注存在风险的个人信息,反向推动算法进行自我改进。在生成阶段,当生成错误结论时,合规监管部门应该分类审查生成式人工智能在个人信息处理上的缺陷,并从合规有效性标准、算法运算逻辑及实质法益损害这三个方面判断平台能否实质出罪。
关键词:生成式人工智能;个人信息;ChatGPT;合规
当前高速发展的生成式人工智能不仅能优化自然语言处理,推动流畅的人机交互,还能集合多源异构资源,实现知识的自主构建。生成式人工智能的内容生成能力来源于对海量数据的挖掘与加工,比如ChatGPT的数据规模已经从GPT-1时期的1.17亿级上升至GPT-3时期的1750亿级,并在GPT-4时期达到近万亿级,一旦缺失海量数据作为支撑,其生成结论的准确性就会随之降低,甚至在个别情况下会基于功利目的而生成错误结论。在生成式人工智能处理的诸多类型数据中,个人信息是最敏感且最需保护的数据类型,数字时代的个人信息牵涉各方利益,具备特殊的保护价值,如果在生成式人工智能运行过程中保护不当则可能使公众遭受数据透视和隐性控制,甚至侵害公众的人格尊严,因此需要设置专门的全流程合规保护模式。生成式人工智能的运行过程分为收集个人信息的准备阶段、算法加工个人信息的运算阶段及处理个人信息后产生结论的生成阶段,从技术层面分析,准备阶段包括预训练、训练(监督微调、奖励建模、强化学习),运算阶段包括系统部署、算法运行,生成阶段包括结论输出以及根据结论反馈来修正系统。鉴于个人信息在各个阶段面临不同风险,因此需要基于全流程视角来予以合规保护,将法律规范以合规方式嵌入技术流程中,从而促使平台合规处理个人信息,并为平台提供有效的实质出罪机制。
一、生成式人工智能应用过程中个人信息保护的问题剖析
在生成式人工智能的运行过程中,由于技术模式升级、法律规范滞后及合规监管缺失等原因,导致其在处理个人信息时存在一定的风险。一是,在准备阶段,生成式人工智能在个人信息的收集范围与收集限度上存在争议。二是,在运算阶段,算法在处理个人信息时容易导致个人信息泄露或者被违规加工。三是,在生成阶段,生成式人工智能容易生成虚假错误结论,并引发刑事制裁风险。鉴于上述不足,亟须构建合规制度来消弭个人信息所面临的风险。
(一)个人信息收集的范围与限度不明
在生成式人工智能的运行过程中,个人信息作为敏感且价值较高的数据类型,容易因为不当收集而引发风险。早在2023年3月,意大利当局就认为ChatGPT收集用户个人信息的模式缺乏合法基础,并暂时封禁ChatGPT,其他欧盟国家随后也表示将对ChatGPT展开相应调查。与之相对,2023年7月10日,国家互联网信息办公室等七部委联合发布了《生成式人工智能服务管理暂行办法》(以下简称《管理办法》),其中第11条规定“提供者对使用者的输入信息和使用记录应当依法履行保护义务,不得收集非必要个人信息”,则直接点明个人信息的收集流程坚持必要性原则,但对于其实质内涵却并未详解,最终导致个人信息在收集范围与限度上存在争议。
第一,生成式人工智能中个人信息的收集范围不清导致其在横向上无端扩张而收集越界。生成式人工智能为了结论的准确性会倾向于尽可能多地收集个人信息,导致很多与生成结论无关的个人信息被涵括在内,并因此存在泄露风险。此外,在准备阶段,被匿名化处理的个人信息已经偏离了传统的个人信息范畴,对于个人信息的处理实际上是一种全新的整合碎片化、匿名化的个人信息并提取关键性要素来生成新的创造性结论的“深度处理”行为,所以匿名化个人信息的收集范围也需要随之调整。第二,生成式人工智能中个人信息的收集限度不明导致其在纵向上过度收集。在只需收集浅层个人信息就能得出结论时,生成式人工智能过度深入地挖掘某一类个人信息,虽然是为了增强结论准确性,但实际上却会造成个人信息冗余,给个人信息主体带来潜在风险。总之,当前生成式人工智能中复杂的神经网络算法、庞大的开源数据库、动态的算法学习都可能导致个人信息被挖掘的广度与深度超出其自身的原有内涵,导致个人信息面临横向上的收集广度越界与纵向上的收集深度越轨,从不同方向给个人信息造成威胁,甚至通过与其他匿名化个人信息相结合而产生新内容与新风险,所以在收集过程中亟须进行合规监管。
(二)算法技术失范违规处理个人信息
生成式人工智能在运算阶段通过算法对包括个人信息在内的相关数据进行加工,比如ChatGPT以大语言模型(Large Language Models)为基础,以Transformer神经网络架构为算法支撑,通过大型语言模型连接语料库来分析语言,提炼出人类社会的普遍语法逻辑,借助指令微调(Instruction Tuning)和基于人类反馈的强化学习(Reinforcement Learning from Human Feedback,以下简称“RLHF”)等技术优化算法的语言理解和文本生成能力,再堆叠人工智能神经网络参数来模拟人类思维,增强了模型的意图识别、指示遵循与多轮对话能力,最终达到高度类人化。但与此同时,算法在拥有强大算力后也可能为增加结论准确性而违规处理个人信息,最终反向吞噬技术红利。
事实上,域外对ChatGPT的抵触大多来源于其算法的强大算力可能导致个人信息被违规加工,并侵犯个人隐私。第一,生成式人工智能具有极强的自我学习能力,其可能通过自我学习而不断提升加工深度并导致越轨,在信息抽取、语义分析、关系计算及知识发现等流程中埋下违规处理的隐患,并在正式运行时脱离监管。第二,生成式人工智能算法在正式运行时可能会为了提升结论准确性而过度处理或违规处理个人信息。鉴于个人信息类型多样,其在保护时不能一概而论,否则会限制技术发展,因此在个人信息保护与算法处理之间亟须维系平衡。第三,生成式人工智能处理个人信息时如果对发现的风险放任不管,则可能损害个人信息主体的利益。鉴于“数据从来都不是独立存在的”,因此生成式人工智能应该在处理过程中及时标注并反馈存在风险的个人信息,从而真正实现全流程合规处理。事实上,域外在推动生成式人工智能发展的同时,也在逐步构建对应的合规监管体系。2023年1月,美国国家标准与技术研究院发布了《人工智能风险管理框架》(AI Risk Management Framework,以下简称“AI RMF”),其目标是指导机构降低人工智能系统的安全风险,避免产生算法偏见等负面后果,提高人工智能的可信度,并倡导构建治理、映射、测量和管理这四大核心功能板块,这值得我国借鉴。
(三)平台生成错误结论面临刑事制裁
生成式人工智能可能因为算法技术缺陷或个人信息偏差而生成错误结论,并会因此面临刑事制裁,比如Midjourney算法模型就因为创造以假乱真的仿纪实类“新闻图片”而面临刑事制裁风险。生成式人工智能产生错误结论的原因如下:第一,生成式人工智能输入端的初始个人信息存在错误内容而导致算法生成错误结论,这一般归咎于技术模型对个人信息的审查疏漏。第二,生成式人工智能为迎合人类的价值偏好而学习错误的运行逻辑,或者算法在设计时存在固有不足,导致算法错误处理个人信息后得出错误结论。相较而言,生成式人工智能自我学习后产生错误结论是更难避免的“技术暗伤”,算法学习过程深受人类价值偏好的影响,这成为其“智能性”的来源,但同时又会被反复累积与放大,并因此过滤异质信息、推送同质信息,最终成为算法隐患,甚至使公众陷入相对封闭的“信息茧房”。
生成式人工智能平台主要通过算法来控制个人信息的收集、筛选、处理与分发机制,一旦其生成虚假错误结论,将会误导公众,甚至影响社会秩序的稳定。事实上,生成式人工智能技术在处理个人信息时并非完美无缺,比如ChatGPT在识别不同语言的价值标签时,对795个仇恨性言论仅筛选出636个,准确率为80%,因此生成错误结论成为平台运营过程中难以回避的问题。有鉴于此,当生成式人工智能产生错误结论时,应该尝试通过合规监管制度来限制错误结论的产生与扩散,而刑事归责路径也应该根据技术现状予以调整。换言之,针对生成式人工智能平台构建个人信息保护的合规制度,不仅能监管算法技术运行,发掘平台的天然治理优势并激发起其治理活力,还能通过合规制度为平台提供实质出罪通道,从而营造良好的生成式人工智能发展环境。
二、生成式人工智能在准备阶段收集个人信息的合规流程
生成式人工智能算法需要利用大规模数据进行训练,学习一定特征或规律以预测未来结果,在其运行过程中,诸如姓名、聊天记录、邮箱与信用卡账号等个人信息都存在泄露风险,并可能引发身份盗窃、跟踪骚扰等风险,而深度处理个人信息则更容易泄露难以预料的信息内容,因此亟须对个人信息的收集流程予以合规监管。对个人信息收集流程的合规监管分为两个方面,一是从横向上基于最小必要原则确定合规收集范围,二是从纵向上将个人信息碎片化处理后合规限制收集深度,从而实现对收集流程的立体化合规监管。
(一)基于最小必要原则确定合规收集范围
在生成式人工智能收集个人信息的过程中,最小必要原则是明确合规收集范围的“黄金准则”,这可以将《管理办法》等具体法规的要求嵌入生成式人工智能的技术运行过程中,基于技管结合理念来督促技术合规发展,并为限缩个人信息的收集范围提供规范依据,尽可能在事前规避侵犯公民个人信息的风险,达成事前合规的效果。
一直以来,最小必要原则被认为是个人信息保护的“帝王原则”并被广泛适用,其中“最小”是对必要原则内涵的限定。但在数字时代,有观点提出为了有效利用个人信息并提升结论准确性,最小必要原则的合理性在被逐渐削弱,甚至认为最小必要原则已经不再是大数据时代的商业准则。实际上,最小必要原则的本质是比例原则在个人信息领域的应用,主要是为了平衡个人信息保护与新兴技术发展之间的矛盾,在新兴技术挖掘个人信息潜在价值时避免公民合法权益受到侵害。在个人信息合规收集过程中,必要性原则主要落实在目的必要性与手段必要性这两个方面,目的必要性要求个人信息的收集范围必须在其加工目的的范围之内,手段必要性则是指在收集模式上应当必要、适当,尽可能减少对个人的负面影响。有鉴于此,最小必要原则作为个人信息合规收集的纲领性原则,不仅需要融入规范条文中,还应该嵌入具体合规制度中来监管技术,最终基于最小必要原则来确定个人信息的合规收集范围。
当前我国的制度规范已经从各个层面提出合规收集个人信息,并强调了将最小必要原则应用于收集过程中,作为合规收集范围的规范依据。第一,在整体性法规上,《个人信息保护法》第6条规定“收集个人信息,应当限于实现处理目的的最小范围,不得过度收集个人信息”,其中将最小必要原则的“最小范围”限定为“实现处理目的”。事实上,生成式人工智能中“实现处理目的”的实质解读应该考虑技术发展现状,其中的“处理”是实质上的“深度处理”,这种深度处理不仅是通过技术叠加来全方位挖掘并整合个人信息,还是基于自身对用户意图的捕捉与理解能力而在个人信息的基础上创造出新内容。比如ChatGPT的神经算法在输入层与输出层神经元的基础上增加了隐藏层神经元,其中卷积神经网络(CNN)、循环神经网络(RNN)等内在逻辑通过模仿人脑的神经算法来深度处理个人信息,并通过技术叠加而产生质变效果与创新结论。第二,在专门性法规上,《管理办法》第11条规定“提供者对使用者的输入信息和使用记录应当依法履行保护义务,不得收集非必要个人信息”,同样强调了必要性,但是在必要性的具体内涵上则未作详述。第三,在具体技术规范上,技术指南也要求收集个人信息应秉持最小必要原则。《信息安全技术 个人信息安全规范》(GB/T 35273-2020)在第4(d)条中将收集范围限定为“满足个人信息主体授权同意的目的所需的最少个人信息类型和数量”。《APP收集使用个人信息最小必要评估规范总则》(T/TAF 077.1-2020)在第5.3条“收集要求”中规定要在收集个人信息的类型、数量以及频率上都遵循最小必要原则。有鉴于此,在个人信息收集上,现有各级各类法规实际上都规定了最小必要原则,但尚未详细解释最小必要原则的内涵,因此亟须结合生成式人工智能的技术模式与适用场景做出实质解释。
在生成式人工智能的技术语境中,收集个人信息时贯彻最小必要原则体现在对具体收集范围的衡量上,而这首先要实质解释“实现处理目的”。在欧盟《通用数据保护条例》(以下简称“GDPR”)中,最小必要原则直接体现在规定行为仅限于“特定的、明确的、合法的目的”情形,而且即使基于前述目的,也必须具备充分性和相关性等限制要求,以实现数据最小化的目标。生成式人工智能深度处理个人信息是全方位挖掘个人信息并通过技术叠加来整合加工出创造性结论,因此在合规框架下收集个人信息需要明确其得出创造性结论所需的信息范围,在收集匿名化个人信息时充分考虑技术叠加后的信息挖掘深度。有鉴于此,为了避免个人信息在收集后被挖掘出难以预料的内容,就需要将最小必要原则中“最小范围”的“实现处理目的”限定为“实现深入挖掘并整合信息生成创造性结论”的目的,并以“生成创造性结论”为限度来确定必要的收集范围,基于技术挖掘深度与质变效果来验证必须收集的个人信息类型,在自我学习阶段通过不断限缩个人信息收集范围来作为合规基准,借助模拟实验得出合规收集个人信息的最小范围。根据现有技术模型,为了合规收集个人信息,应该对“实现处理目的”进行合规评估,并围绕“生成创造性结论”来设置相应流程。第一,预先测评生成式人工智能在自我学习阶段所需的匿名化个人信息范围,测评其能否通过其他信息补全匿名内容,通过穷举法来确定会导致匿名内容被发现的个人信息供给组合,据此排除非生成结论所必须以及在收集后深度处理可能存在安全风险的匿名化个人信息类型,从而在自我学习阶段厘定匿名化个人信息的收集范围。第二,备案审核生成式人工智能中共性算法框架所需收集的个人信息范围,可参考AI RMF中的映射模块,将《管理办法》第17条对于安全评估与算法备案的规定映射到个人信息收集程序中,准确厘定个人信息的收集范围并实质分析其必要性,对比不同生成式人工智能模型的收集范围,发掘共性算法所需的个人信息。在此基础上,对共同性算法收集的个人信息内容进行风险评估,并主要评估“直接相关”与“目的限定”这两个指标。“直接相关”要求将收集的个人信息限定在特定技术框架之中,与后续加工处理的基本功能直接关联;“目的限定”则禁止技术模型收集与处理目标无关的个人信息,其中处理目标则是生成创造性结论。在风险评估后,将生成创造性结论所必须且符合技术发展现状的个人信息收集范围作为统一模板,并通过不断模拟学习来限缩个人信息所必需的收集范围,而超出这一模板来收集个人信息则不合规。第三,对于个别生成式人工智能所独有的算法以及其所需收集的个人信息类型,应该进行专门的风险评估,评估内容主要包括独有算法的合法性、公平性、必要性以及收集个人信息的类型与生成结论之间的结论关联性,评测其是否为生成结论所必须收集的个人信息类型,而当处理后会泄露个人隐私的则排除在收集范围之外,因此在评估这类独有算法所需个人信息范围时要尤为审慎。
总之,基于最小必要原则明确个人信息的合规收集范围,应该基于“生成创造性结论”的要求来结合技术逻辑展开类型化分析,尽可能缩小个人信息的收集范围以规避潜在风险。首先,针对生成式人工智能自我学习阶段收集的匿名化个人信息进行验证,避免其被挖掘或组合加工出其他内容。其次,针对共性算法所需的个人信息范围,应该在备案审查与比较后筛选出最为合适的收集范围并作为通用模板,避免生成式人工智能之间恶性竞争。最后,针对个别生成式人工智能所独有的算法,应该严格审查与备案其所需的个人信息范围,尽可能减少潜在风险,在收集范围上保持整体合规。
(二)信息碎片化处理后合规限制收集深度
生成式人工智能合规收集个人信息时应该在纵向上保持合理的收集深度,避免对某一类个人信息进行过度挖掘。比如,在收集个人身份证号码时,如果仅需收集前14位号码就可以得出其籍贯、生日等信息并生成结论,就不必收集18位号码,在号码的收集深度上保持合规。鉴于生成式人工智能具有强算力作为支撑,即使限定个人信息的收集范围,其也能通过深度挖掘个人信息来分析出其中的潜在价值,因此合理限制个人信息的收集深度可以有效避免深度加工或二次加工,从根源上降低个人信息的安全风险。
在个人信息收集过程中,信息碎片化处理模式有助于合规限制收集深度。以往各类人工智能大多采用告知同意规则来通知个人,但这种模式消耗成本极高且容易被个人所忽视,所以在大数据时代被认为已经趋于瓦解且难以恢复,面对逐渐泛化的个人信息,人工智能将无法实现全面告知。有鉴于此,生成式人工智能应该从被动获取信息所有者的同意转向主动对个人信息进行碎片化处理后再加以收集,这虽然降低了个人信息的利用潜力,但却以事前合规的方式减少了收集风险。在大数据时代,公民个人信息中的身份、关系、行踪、财产、情感等数据会以各种方式、各种途径被归集在一起,成为被观察、分析和透视的特定对象,如果不在事前进行碎片化处理,那么公民在其个人信息被生成式人工智能深度处理之后就无异于在数字社会中“裸奔”。因为个人信息承载了公民的人格自由与尊严,所以在收集一些重要且敏感的个人信息时要优先考虑个人的主观感受与主体的自主决定,而不是强迫用户在人工智能平台的捆绑性效应之下遵循程序性同意,避免平台以提供服务为由“胁迫”用户开放个人信息的收集权限。此外,数字社会要注重公共利益、社会利益与个人利益之间的平衡,而非一味地将个人信息“投喂”给生成式人工智能以促使其迭代升级,将个人信息碎片化处理来保持收集深度合规可以兼顾技术发展与社会发展。
生成式人工智能通过碎片化处理以保持收集深度合规主要从三个方面展开。第一,根据个人信息的类型差异划分层级,对个人信息的深度进行合理切割,为后续的碎片化合规处理进行铺垫。以身份证号码为例,其中的号码信息包含了地址码、生日码、顺序码、校验码,那么应该对身份证号码加以切割,在深度上区分不同模块,比如生日码一般较易获得,但顺序码、校验码则相对难以获得,所以在深度上比生日码的位阶更高。第二,根据使用场景确定生成结论所需的个人信息深度,生成式人工智能为得出不同结论所需的个人信息深度存在差异,应该在收集时结合技术现状来评估某一类个人信息所要求的深度,避免收集的个人信息出现冗余情况,在根源上防止冗余的个人信息被二次加工。个人信息收集深度的确定可以参照AI RMF中的测量模块,遵循科学规律、法律要求和道德规范事先进行公开透明的测量,确保测量数据的有效性与可信度。事实上,生成式人工智能可以通过大数据集之间交叉验证得出新的结论,比如在身份证号码中提取出代码外的种族、习惯等敏感个人信息,因此在个人信息收集深度上违规可能导致冗余信息被二次加工,而事前碎片化处理个人信息并保障收集深度合规可以规避这一风险。第三,在碎片化处理个人信息后,对于合规深度外的冗余信息要引入合规销毁机制来进行处理。一方面,对超出处理需求的冗余个人信息不能随意泄露,这类冗余个人信息一般更具价值,所以应予以更加严格的处理,防止其泄露。另一方面,要及时销毁冗余个人信息,防止生成式人工智能将其留存用于训练。生成式人工智能具有自主学习性,因此可能为了增加结论准确性而“自发”留存并分析数据,而这种自我学习可能违背信息主体的意志并生成不当结论。有鉴于此,为了合规限制个人信息的收集深度,必须在明确某类个人信息存在冗余之后,将冗余部分及时销毁,贯彻《管理办法》第11条“不得非法留存能够识别使用者身份的输入信息和使用记录”的规定。
总之,在生成式人工智能的收集过程中,为了防止其留存并加工冗余个人信息,避免其成为Web3.0时代的网络集权工具,有必要碎片化处理个人信息来保持收集深度合规。在合规收集流程中,应该有序地碎片化处理个人信息,根据信息深度差异进行模块化区分,根据生成结论所需来收集合理深度的个人信息,同时将冗余个人信息以合规程序及时销毁,防止冗余个人信息泄露或在留存后被二次加工。
三、生成式人工智能在运算阶段处理个人信息的算法合规
在运算阶段,生成式人工智能不合规处理个人信息可能产生潜在风险,而产生原因则是算法缺陷。为了消除生成式人工智能的运算隐患,应该在算法框架中贯彻合规理念并塑造合规程序,将算法的合规要求事先融入技术开发过程中,使之成为系统的核心组成部分,从而围绕算法的运算路径来预设合规框架。
(一)知识蒸馏:算法在学习阶段的评估备案
生成式人工智能的技术优势是自我学习能力,而对自我学习过程进行全流程合规管理则可以避免算法处理个人信息的缺陷在后续实践中被放大。《管理办法》第7条规定生成式人工智能服务提供者应当依法开展预训练、优化训练等训练活动,遵循“涉及个人信息的,应当取得个人同意或者符合法律、行政法规规定的其他情形”的要求,第17条则规定提供具有舆论属性或者社会动员能力的生成式人工智能服务的,应当按照国家有关规定开展安全评估,并按照《互联网信息服务算法推荐管理规定》(以下简称《算法管理规定》)履行算法备案和变更、注销备案手续,设置推动算法合规的“新技术新应用”安全评估(以下简称“双新评估”)与算法备案制度,与AI RMF相似设置映射模块、测量模块,将规范要求映射为合规监管依据,通过双新评估来测量算法的安全风险。鉴于在规范层面已经对生成式人工智能的自我学习模式进行了相应规定,那么应该细化上述规定并转化为合规制度,因为“事前的技术解决方案比事后努力去发现和纠正违反合同条款和条件行为更为有效”,所以需要督促生成式人工智能在自我学习过程中就通过合规管理来事先设置预防措施。
第一,在算法学习阶段进行合规管理首先要分析技术适用的整体场景,并根据算法场景的实际需求来调整后续的技术合规模式。生成式人工智能在自我学习阶段主要依靠小规模的“数据投喂”来训练算法的问题反馈与结论生成能力。以ChatGPT为例,其自我学习包含三个步骤:一是语料收集训练,即收集个人信息用于算法的自我训练;二是预训练,即处理基础性语料来训练算法,赋予其理解自然语言的能力;三是监督微调,通过内置的Codex模式来发现算法的不足并将其优化。由此可见,生成式人工智能的自我学习主要是用算法来试验性处理部分个人信息并及时调整结论生成逻辑,其根本目的是调试算法。在这种小规模的算法运算场景中,算法通过自主学习所得出的结论实际上具有一定的不确定性、不可控性与不可解释性,而这些微小的疏漏将会在正式运算中演化成难以估计的损害后果。鉴于此,只有在算法自我学习时就进行合规监管,督促算法记录自我学习中的谬误并在合规框架内调整,才能促使算法遵循正确方向展开自我学习,以合规方式促进算法向善,从而将良法善治理念通过规范制度映射到技术路径,在数字时代保障技术的实质正义性。
第二,在自主学习的场景中结合《管理办法》第7条的规定来调整算法技术的优化路径,合规管理技术应该结合场景特点与规范要求,知识蒸馏模式(Knowledge Distillation)满足这一合规管理需求。知识蒸馏是将教师模型(Teacher Net)参数压缩到学生模型(Student Net)中,并在此过程中相互对照与矫正,最终实现部分知识的迁移和算法模型的压缩,优化处理自然语言的算法模型。知识蒸馏模式是符合生成式人工智能算法自我学习需求的技术模型,因此要基于知识蒸馏模式来构建符合技术现状的合规管理制度。具言之,知识蒸馏模式是生成式人工智能自我学习的核心模式,通过合规训练并矫正教师模型的算法来减少其对信息主体的损害,而只有矫正后的合规算法才能压缩到学生模型中来正式处理个人信息。实际上,将知识蒸馏模式引入合规管理制度中,是将先进的技术管理模式以合规的形式予以确认,将合规管理需求与技术嵌入具有可行性价值的合规程序设计中,基于技管结合理念来将技术发展与规范要求在合规框架中合二为一,避免合规管理的目的落空。
第三,落实《管理办法》《算法管理规定》中对优化后的算法进行双新评估与算法备案的要求。一是,在事前对生成式人工智能算法进行安全评估,分析新技术与新应用在处理个人信息时的安全威胁,评估对象是教师模型与学生模型,具体评估内容则包括算法机理、模型、数据和应用结果等。双新评估分为基础安全评估与专项安全评估,其中基础安全评估包括信息生成、处理、发布、传播、存储与销毁,专项安全评估包括信息源账号管理、审核能力、功能管理能力、技术管理方式,从而全方位地审核算法处理个人信息的全流程。二是,遵循相关法规的要求进行算法备案,具体备案内容包括主体信息、算法信息与关联产品及功能信息,备案审核算法信息中的个人信息处理模式,即输入、输出的个人信息模态以及是否包含生物特征、身份信息,这有助于预测算法处理个人信息的边界,并分别在事前和事后规范限缩个人信息的处理范围。算法备案要求厘清备案对象所具有的技术与规范双重性质,因此要将个人信息处理规定作为算法的运行要求,合理规定算法处理个人信息的范围,并通过教师模型的自我学习监管来扩大学生模型的有效监管范围,尝试通过代码来进行自动化合规监管,借助备案审查来对算法处理个人信息的过程进行实时监督与事后追责。
总之,在生成式人工智能的自我学习阶段,对于个人信息的处理应该结合实际场景来落实《管理办法》的要求,构建合规管理体系。在自我学习过程中,知识蒸馏模式是满足个人信息保护需求的合规程序,其将技术与规范相结合,通过预先训练教师模型来降低学生模型算法对个人信息的潜在威胁,并在算法投入使用前进行双新评估与算法备案,以技术与规范相结合的方式实现常态化合规监管,而合规制度可以让刑法成为事先预防,而非仅为事后惩罚的工具,从而有效预防风险。
(二)分类处置:算法在处理阶段的合规纠偏
在生成式人工智能的运算过程中,对算法违规处理个人信息行为进行合规纠偏的前提是对个人信息进行合理分类。事实上,在全国信息安全标准化技术委员会发布的《生成式人工智能服务 安全基本要求》(征求意见稿)(信安秘字〔2023〕146号,以下简称《基本要求》)中第5.2条“语料内容安全要求”(C)就对个人信息的授权进行了分类,即个人信息获得对应个人信息主体的授权同意;敏感个人信息获得对应个人信息主体的单独授权同意;包含人脸等生物特征信息获得对应个人信息主体的书面授权同意。《基本要求》的分类是生成式人工智能保持技术合规的基础,只有根据个人信息在生成式人工智能场域中的实际利用价值展开分类处置,才能确保算法在处理个人信息时保持全流程合规,并据此消除个人信息的高效利用与合理保护之间的潜在矛盾。有鉴于此,生成式人工智能应参照《基本要求》来分类个人信息,明确不同类型个人信息的实质内涵与重要程度,厘定对应的算法处理模式与处理深度,在处理个人信息时实现整体性合规。
第一,针对一般类型个人信息,在获得授权同意之后,可以基于信息主体所希望得出的结论来进行对应程度的算法处理。个人信息主体提供这类个人信息是希望提高结论准确性,所以秉持较为开放的信息安全观,而这类信息大多不具有隐藏在深层次的其他关键信息,因此可以为了结论准确性而对其进行全面处理。在一般类型个人信息的处理过程中,以结论准确性的需求作为技术合规的尺度,可以有效地平衡算法处理准确性与个人信息保护之间的关系。鉴于一般类型个人信息的潜在威胁较低,所以可以深度加工或二次加工,但其限度应该是为了生成个人信息主体所期待的结论,而不能用于算法自我学习等其他模式。
第二,针对敏感个人信息,其本就需要生成式人工智能在获得单独授权同意后才可以处理,这意味着其本就具有更高的价值内涵与保护需求。为了确保生成结论的准确性,不仅要保证个人信息的质量,还要保证算法的处理质量,因此算法要根据个人信息类型来调整自身的处理模式。为了实现合规处理,当生成式人工智能为了提升结论准确性而进行深度加工或二次加工时,平台应事前告知个人信息主体,告知的内容包括算法处理模式的调整原因、调整需求以及调整后的具体影响,而只有在获得个人信息主体的二次授权之后,平台才可以围绕生成结论的实际需求来调整处理模式,这实际上是在算法技术与结论准确性之间寻求相对平衡,并赋予个人信息主体以自我选择权。当前“大数据的价值不再单纯来源于它的基本用途,而更多地来源于它的二次利用”,而敏感个人信息较一般类型个人信息而言具有更高的法益,所以只有当个人信息主体为了追寻结论准确性而明确放弃对敏感个人信息的全面保护时,才可以在确保算法技术合规的前提下对个人信息进行深度加工或二次加工。
第三,针对包含人脸识别信息等的生物特征信息,因为其潜在价值较大且风险尚不明晰,所以在处理前要获得个人信息主体的书面授权,在算法处理时保持审慎态度,并事先进行算法备案。事实上,算法对个人信息的合理利用是生成式人工智能迭代升级的主要动力,算法为了提高自身的准确度、稳定性、可信度并纠正算法偏差,自然会倾向于深度加工与二次加工,但这在处理生物特征信息时应该被禁止,并应该采用最为严格的绝对保护。基于权利保护的角度,无论是为了保护公众的个人尊严利益免遭大众媒体的威胁,还是防止公众的自由利益被政府或垄断平台所威胁,都应该对个人的生物特征信息进行最为严格的绝对保护。以人脸识别信息为例,其与数字人权高度关联,当算法处理人脸识别信息时,应当树立数字人权、数字正义、数字法治的理念,而人脸识别信息在被二次加工后则可能被发掘出潜在价值,甚至可能面临被生成式人工智能平台进行过度监视和监管的风险。有鉴于此,应该严格禁止算法对生物特征信息展开超出预先规定范围的技术处理,以绝对保护作为技术合规要求,细化评估指标,提升评估频率,通过事前的算法备案来实现全流程合规监管。
总之,在生成式人工智能的处理过程中,合理分类个人信息是算法合规处理的前提,应该对不同类型的个人信息采用差异化的技术合规要求,通过合规处理来强化个人信息的保密外观,从而消除信息鸿沟、保持功能统一,在技术合规语境下保证算法的处理效果。
(三)合规标注:算法在反馈阶段的自我修正
生成式人工智能应该在处理个人信息后的反馈阶段进行合规标注,标注个人信息的潜在风险,以警示个人信息主体及算法自身,并推动算法的自我改良,增强其人工智能识别能力,从而优化对其他个人信息的合规处理。2024年1月,新加坡政府发布《生成式人工智能的AI治理框架模型》,在生成式人工智能的设计阶段规定个人信息如何合规地“可信使用”,并可在事先提出个人信息适用的例外情况,进行合规有效的数据标注,配合“隐私增强技术”以取得更好效果。合规标注不仅要在事前标注个人信息帮助算法理解,还要在事后根据处理结果进行回溯标注来提示,降低后续的处理风险。当生成式人工智能发现个人信息的潜在价值及对应的算法在处理上的不足,那么基于整体性视角,系统应该标注这类个人信息,通过监督学习的方式微调算法,并对模型输出的样本进行排序和标量打分以矫正算法处理模式,标注存在风险的个人信息并反馈给系统,增强系统的研判功能,这是算法在反馈阶段的合规的自我修正方式。
第一,在生成式人工智能合规处理个人信息的过程中,事后对存在风险的个人信息进行合规标注,说明该条个人信息的风险来源、风险内涵及算法处理的不足。事实上,将个人信息标注纳入算法合规流程是基于个人信息全生命周期保护理念而展开的事后自我修正,算法在处理个人信息之后,为了避免个人信息泄露或被其他算法违规处理,有必要进行合规标注。在规范层面,《管理办法》第8条规定“在生成式人工智能技术研发过程中进行数据标注的,提供者应当制定符合本办法要求的清晰、具体、可操作的标注规则;开展数据标注质量评估,抽样核验标注内容的准确性;对标注人员进行必要培训,提升尊法守法意识,监督指导标注人员规范开展标注工作”,这为个人信息合规标注模式奠定了理论框架,并设置了双新评估的规范要求。首先,合规标注个人信息需要具体可行的合规标注规则,明确个人信息的标注流程及注意事项,制定相对统一的合规标注流程,将个人信息质量作为双新评估的重要内容。其次,合规标注个人信息需要重视标注质量,面对个人信息标注的颗粒度不足、考虑因素不全面等问题,倡导高质量合规标注模式。这要求详细说明个人信息被标注的原因、潜在的技术风险及原有算法的不足,为后续选择直接移除算法还是继续处理提供参考,并为责任划分提供判断依据。最后,个人信息标注作为合规流程需要培训合规标注人员,落实《管理办法》的培训要求,将其视为事前专项合规计划的有效组成部分,这有助于实现合规融入管理流程的目标,并影响后续的责任认定。
第二,合规标注个人信息不能仅及于信息本身,还应充分考虑个人信息被合规标注后对算法技术的反馈影响,通过合规标注来推动算法改进,避免算法处理偏差影响产业发展。针对算法处理过程中个人信息出现的风险,算法在合规标注后应分析风险来源,并据此主动改进,这种主动改进所需的数据量较小且更具针对性,并加强算法的安全性、稳定性和合规性,确保算法在有效的合规监管范围之内。根据合规标注后个人信息的问题来反向优化算法,实际上是生成式人工智能中良性自我反馈的体现,虽然研发者也无法预料算法在语料训练下将会产生何种结果,但根据个人信息中标注的问题来改进算法会促进算法整体向善。
总之,当前数量庞大的个人信息对算法提出了更高要求,算法的可控性与处理能力面临着极大挑战,这种“智能爆炸”虽然在人们的预期之内,但其时间线、速度和终点仍存在高度不确定性。有鉴于此,合规标注存在风险的个人信息可以提示个人信息主体与其他算法在处理时对其进行强化保护,而算法也可以据此改进自身在处理过程中的不足。
四、对生成式人工智能处理个人信息生成结论的合规监管
在生成式人工智能生成结论的过程中,由于个人信息来源偏差或算法违规加工,可能会产生错误结论并引发刑事制裁风险。事实上,生成式人工智能应该借助合规制度来监管结论生成过程,借助分类合规审查生成结论来降低刑事制裁风险,并将合规制度作为生成式人工智能平台的实质出罪路径,在人本性逻辑下为生成式人工智能的良性发展提供保障而非限制。
(一)追溯生成结论来源展开分类合规审查
当前国内外司法实践中都出现了关于生成式人工智能的刑事案例,这引发了公众的疑虑。在国内,河南省公安厅公布的“‘××说事儿’编造网络谣言案”就是用ChatGPT编造“郑州王某抱摔李某并致其死亡”的谣言并被阅读2.2万次,造成不良社会影响。在国外,“Walters诉OpenAI公司案”中Walters声称ChatGPT在回应用户询问时生成了有关他的虚假和诽谤信息,ChatGPT虚构并指控他参与不正当业务,并告知记者,ChatGPT生成虚假错误内容并诽谤个人。事实上,由于外界干扰因素与自身算法缺陷的影响,生成式人工智能容易渲染加工虚假错误结论,并具有很强的迷惑性与破坏性,比如垄断集团为影响政府决策而编造虚假错误结论,很容易破坏公共利益与公共政策,而这就破坏了刑法的社会任务并造成了法益损害。有鉴于此,合规监管部门应该追溯错误结论的产生来源,对不同来源的错误结论展开类型化合规审查,并提供针对性的合规整改建议。
第一,输入端的初始个人信息存在偏差而导致错误结论,应该归咎于平台的合规审查缺漏。平台本应在收集个人信息时辨识真伪,但却因疏忽导致虚假个人信息流入并影响结论准确性。《管理办法》第7条规定“采取有效措施提高训练数据质量,增强训练数据的真实性、准确性、客观性、多样性”,这对处理数据的质量提出了要求,而对应的合规标准与合规程序也应该由此展开。合规程序应该要求算法在处理个人信息之前考察真实性、准确性、客观性、多样性这四个指标。其中真实性要求审查个人信息的内容来源是否真实,准确性要求审查个人信息内容是否与事实相符,客观性要求审查个人信息中是否存在影响算法判断的主观因素,多样性要求事关某一事项的个人信息要尽可能多样化来交叉验证。围绕上述四个指标构建合规程序,能够避免生成式人工智能受到虚假个人信息的负面影响。
第二,生成式人工智能的技术优势是基于人类反馈来强化学习并寻找完成指令的最优解,所以其对个人信息等自然语言具有自我理解能力,但也可能因为自我学习偏差而生成错误结论。鉴于生成式人工智能可能为了“讨好”用户需求而违规处理并生成结论,所以应该以合规监管的方式来对这类技术优势平台进行有效约束,合规监管应采用“备案+审查”制度,重点考察算法处理逻辑并进行备案,在生成错误的结论后对算法逻辑进行解释说明来帮助合规监管部门作出判断。合规审查可以事前构建“前瞻性基准”(prospective benchmarking)来判断算法的自我学习逻辑,即在算法决策场景中随机选取一组同类型的人工执法案例作为基准,并将其作为对比样本来分析错误结论的生成逻辑与正确逻辑之间的差异。在合规监管过程中,当算法生成错误结论时,一方面由合规监管部门监督平台修正算法,避免再次生成错误结论;另一方面由合规监管部门删除错误结论,并对算法的自我学习能力进行一定程度的纠偏,暂时下架错误的算法模块,待重新调试正常后再加入整体的算法程序并进行重点监管。总之,当生成式人工智能算法因为自我学习偏差而生成错误结论时,应该在事前对自我学习产生的新兴算法进行备案,在事后追究错误结论的产生来源,再及时将错误算法进行封存与纠偏,并在重新上线后进行持续性的合规监管。
(二)推动平台优化合规制度完成实质出罪
为了保障生成式人工智能的可持续发展,在强化合规监管的同时也要借助合规制度为其提供实质出罪通道,这是对平台的正向激励,如果平台已经制订合规计划、切实履行合规义务,那么合规计划可以作为阻却犯罪事由,不对平台定罪。事实上,虽然早期的生成式人工智能因为技术不成熟、监管缺失而极易造成损害,但不能因此彻底否定其技术潜力,而是应该借助合规制度来进行实时监管,将合规制度作为平台在事后实质出罪的有力依据,并从平台对合规制度的遵守程度来判断其组织状态及能否实质出罪。
第一,通过合规有效性标准的制定与遵守来判断平台能否实质出罪,合规有效性标准的制定应该参考生成式人工智能的技术语境,其具体指标是算法在处理个人信息时是否被全流程合规监管及算法是否存在过度加工与二次加工的潜在风险。事实上,合规监管是一个不断演变的动态系统,生成式人工智能要处理当前社会中无数节点汇集而来的个人信息,而复杂的个人信息链条意味着风险来源复杂,对应的合规有效性标准也会随之改进。鉴于此,平台应该在事前会同各专项领域的主管部门来根据生成式人工智能的技术现状制定合规有效性标准,并根据技术现状予以动态调整,这体现出平台对犯罪的预防与反对态度,并对特定领域犯罪活动具有防控效果。
第二,通过算法得出错误结论的运算逻辑来判断平台能否实质出罪,主要是分析算法产生错误结论是否应该归咎于平台。如果是因为平台未尽到合理的注意义务而错误设置算法导致运行失误,那么平台应承担刑事责任。与之相对,如果平台在设计伊始就合理设置算法逻辑,预测安全风险并将个人信息的保护需求嵌入算法,合理约束新兴技术并展开全流程合规监管,那么算法生成错误结论就超出平台的期待可能性。鉴于此,只要平台在运行前设置了合理的算法逻辑,并对算法处理流程进行合规监管,则平台已经履行了相应的注意义务,不具备处罚合理性,自然可以阻却责任并实质出罪。
第三,通过实质评估错误结论的法益损害后果来判断平台能否实质出罪,主要是评估错误结论是否给个人信息主体造成实质损害。因为当前生成式人工智能技术尚不成熟,所以生成错误结论所造成的法益损害也应该谨慎判断,而现代安全刑法中对秩序的过度保护并不符合法治国自由刑法的传统原则,保护法益应该回归以个人为中心,比如GDPR第35条就主要从信息主体的权利和自由等方面评估法益损失。有鉴于此,如果生成式人工智能得出的错误结论没有侵害个人信息主体的权利与自由,而仅仅是违反秩序或者扰乱社会道德,那么并未损害实质法益,由算法引发的负面社会成本相对较少,平台的刑事制裁必要性也随之降低并可以据此实质出罪。
总之,在生成式人工智能的生成阶段,合规制度不仅是监管程序,还能激励平台对风险开展事先的自我治理。在平台建立合规制度之后,只要其在合规有效性标准、算法运算逻辑及实质法益损害上没有产生负面评价,就意味着其不处于合规否定性评价的组织状态,因此消除了对其进行中心归责的要素,其便可以据此阻断归责、消除责任,从而实质出罪。
五、结语
生成式人工智能以海量数据作为基础支撑,不仅能实现人机交互,还能实现知识的自主构建。但它在促进人类社会进步的同时也造成了潜在安全隐患,其作为一种“权力的媒介”,通过创造新的权威知识来重新分配权力,其性质早已超出技术工具本身,而其强大算力将导致公民的个人信息面临未知的安全风险,数字时代本来给予了公民之间拉平信息差距的良机,但违规处理个人信息则可能反噬这一技术红利。鉴于公民的个人信息是值得刑法保护的具体法益,而数字时代的个人信息又可以为了实现公共利益而被合理使用,因此在生成式人工智能系统中构建以保护个人信息为核心的合规制度,不仅有助于事先规避犯罪风险,还能引导技术来妥善地处理个人信息,平台也可以借助合规制度实现对生成式人工智能的有效监管并在事后尝试出罪,从而在合规框架下有效激发生成式人工智能的技术潜能。质言之,在生成式人工智能中针对个人信息保护构建全流程合规体系,应该在算法中嵌入合规制度,并将自由、正义、法治、秩序等价值理念作为合规制度运行结果的衡量标准,确保生成式人工智能在收集、处理、生成这三个阶段都保持技术合规,根据不同阶段所处的具体场景来分析个人信息所面临的技术风险,及时发现并弥补技术漏洞,避免个人信息的前期潜在威胁在后期被放大,尽可能地减小损害结果的影响范围,同时帮助算法根据合规监管结果来改进自身的运行模式,构建“科技向善、以人为本”的算法治理秩序,从而实现数字正义,并将数字正义理念融入算法的具体运行过程中。总之,在生成式人工智能的应用过程中,应该明确其所具有的工具属性,防止人与生成式人工智能系统之间的关系发生异化,生成式人工智能对个人信息的使用模式应该建立在合法合规的基础上,现有的法律规范也应该转化为合规监管全流程中的具体要求与监管标准,这有助于平台合法合规地开发和利用生成式人工智能,并避免生成式人工智能出现技术越轨的情形,从而在全面保护公民个人信息的同时促进生成式人工智能有序发展。