摘 要:深度合成技术是人工智能领域里一项颠覆性技术突破,该技术在满足人们多元化需求的同时也产生了技术异化、信息失真、信息泄露等风险。应从多个维度协同治理深度合成技术所生风险:在技术层面,以技术规制技术,提高溯源防伪和反向破解技术的能力水平,发挥技术的规范功能;在行业层面,以商业伦理治理技术,强化伦理的引导作用和业内组织的协调能力;在法律层面,以法律规范技术,结合中国实际和借鉴外国立法经验,以《民法典》的相关条款为基础,明确技术的使用边界、使用程序及滥用技术的法律后果等。
关键词:人工智能;深度合成;人脸识别;技术异化;商业伦理;民法典
中图分类号:D 912 .29 文献标识码:A 文章编号:2096-9783(2021)05-0085-08
一、问题的提出
人工智能已经进入技术与产业融合发展的新阶段,一个“泛在智能”的新技术革命时代正在来临,人工智能基础设施逐渐完善,应用场景也更加多元和广阔[1]。深度合成技术(deep synthesis)1即是人工智能领域的一项重要突破[2],目前已广泛应用于多个领域,如在影视行业为影视特效和图像影音带来升级,在网络社交中提升用户的虚拟互动和娱乐体验,在电子商务领域优化服务和增强在线购物体验,在媒体传播上打造虚拟主播、虚拟歌手,在医疗领域帮助渐冻症患者、老年痴呆症患者康复,构建智慧医疗体系等等,这些应用充分展示了深度合成技术巨大的发展潜力和实施远景。
技术是一把无形的“双刃剑”。深度合成技术在为社会带来便捷和福祉的同时,也带来了新的挑战和风险。例如2017年11月,外网Reddit平台上一位名为“深度伪造”(deepfake)的用户通过电脑技术将色情影视片中演员的脸换成明星、政客等名人的脸,制作仿真度极高的视频并发布,引起众多网民模仿制作假电影、假新闻[3]。因其发展迅猛,“deepfake”一词由网名演变成深度合成技术的代称。该技术在我国引起普遍关注源于2019年的3月,Bilibili视频播放平台的一位名为“换脸哥”的用户利用该技术将电视剧《射雕英雄传》里原本由朱茵扮演的角色“换脸”成由杨幂“表演”。至2019年9月,一款名为“ZAO-逢脸造戏”的“换脸”应用软件引发广泛的舆论与关注,用户只需简单上传本人或他人的照片等就可以将影视作品中的角色“换脸”,制作出由自己或他人“主演”的小视频。该软件因存在未经明示同意而收集用户个人生物识别信息、个人信息处理规则不清晰、过度索取用户的肖像权、数据泄露和滥用风险等问题而迅速下架。
人工智能的时代已经来临,先进的技术和开放的数据流动能为社会带来巨大的信息红利,但是深度合成技术生成的信息影响力能被瞬间成千成万倍地放大,其所具备的负面作用不容小觑[4]。目前,国内关于深度合成技术风险与规制的研究主要集中于技术滥用问题[4];扭曲信息传播渠道导致的“后真相”时代危机[5];对技术的一体化规制,如加强数据平台责任、明確技术使用者权限、保障公众数据安全等[3]。本文将结合深度合成技术原理,进一步分析深度合成技术应用的法律风险,并在此基础上探寻此类风险的协同规制。
二、深度合成技术的原理与应用
深度合成技术是人工智能领域里一项“颠覆传统认知”的纵深发展合成技术(AI-generated media),即以人工智能为手段,实现视觉、听觉等方面的模仿和修改,从而达到以假乱真的超高度仿真效果。人工智能是深度合成的技术支持,深度合成是人工智能的内容输出,二者是手段与目的的关系[6]。
(一)深度合成技术的原理
深度合成的过程就是将个人的照片、视频等数据输入到智能算法当中,然后由智能算法在多次训练的基础上,自动完成“换脸”操作[7]。其革新在于运用对抗生成网络模型(Generative Adversarial Networks,简称“GAN模型”),该模型与传统深度学习技术(Deep Learning)的单向性相比,引入了“对抗”机制,并由两组深度卷积神经网络双向进行,包括生成器和判定器[8]。在该网络系统中含有图像空间和隐层子空间,由图像空间将创作的图片投影到隐层子空间,由于投影变换具有非正交和非线性特点,且可以根据不同要求构造不同的网络[9],因此创作的图像具有高度相似性。
基于神经网络的技术支撑,对抗生成网络模型的工作原理是运用生成器和判定器这两个神经网络进行图像的高仿,先由操作者从互联网等移动平台上获取较大数量的目标人物视频或图像信息,形成可供生成器进行算法训练的数据库,此后由生成器通过神经网络训练并生成的视频、图像等,并经过判定器对原来的真实图像数据与伪造数据进行博弈,如果两者误差很小,达到了“以假乱真”的程度,则可以保留该伪造数据作为下一步“换脸”的素材。如果两者误差很大,系统将自动把数据返回给生成器进行新一轮的计算训练,直至生成的图像与原真实图像相比能通过判定器鉴别方可使用。最终,通过反复地训练和筛选,生成器所创造的数据与原有的真实数据具有相同的分布排列,使得判定器无法准确识别生成器所造差异,二者达到相对平衡,从而使伪造视频能够欺瞒大多数人的眼睛[10]。
(二)深度合成技术的应用
深度合成技术目前已获得广泛应用,主要的应用场景包括人脸替换(face replacement)、人脸再现(face re-enactment)、人脸合成(face generation)和语音合成(speech synthesis)四个方面[2]。具体而言,人脸替换即人们熟知的“换脸”技术,如曾风靡一时的“ZAO”应用软件可以根据用户上传的照片自动替换影视中角色的脸,制作出由用户“出演”的小视频。而人脸再现主要是通过操作、改变视频中人物的面部表情和说话内容,使其看起来说出或作出并非基于其本人意愿的事。人脸合成则是通过人工智能技术改变人物的面部特征,或者创建新的人脸图像,这项技术可被应用于社交媒体,如美颜相机、创作虚拟形象等;也可用于影视行业制作特效,使演员“返老还童”,甚至“起死回生”,如使《速度和激情7》里的角色沃克“复活”;还可以广泛应用于艺术体验、旅游等领域,使参与者能身临其境的感受更加丰富的视觉体验。语音合成不仅可以通过机器自动转化文字和声音、翻译等,还可以通过机器创作新的语音系统,如虚拟歌手初音未来、洛天依、艾灵,参与新华社两会报道的3D主播等。除此之外,深度合成技术开始朝着综合运用、全身合成、数字虚拟人(digital person)等方面发展,这些都表明深度合成技术蕴含着巨大的发展潜能和前景。
作为人工智能领域的突破性进展成果,深度合成技术具有高度的仿真性,技术成果泛在的使用性和快速进化性等特点[3],这些技术优势的应用中同样蕴含着风险,其不仅是一把双刃剑,很可能还是一把双刃不平衡的剑[11]。若使用不当或被滥用,深度合成技术的负面效应将愈发凸显。例如,网上广泛传播的明星或政客的“换脸”视频涉及色情、虚假言论等不实内容,不仅对个人名誉造成不良影响,也对社会信用和公共秩序产生不良影响。
三、深度合成技术应用的法律风险
风险(risk)不同于危险(danger),风险是危险的一种形式,即指“可能发生的危险”[12]。乌尔里希·贝克是首次提出风险社会概念的社会学家,其认为,当代社会已经是一个风险的社会,且最大的风险是技术风险[13]。技术所导致的风险可大致分为内部风险和外部风险,内部风险源于认知程度的限制和技术能力的缺失,外部风险则是由内部风险外溢对人类社会所产生的不良影响[14]。据此,不当使用深度合成技术所导致的风险可分为内部的技术异化风险,以及外部的信息失真和信息泄露风险。
(一)技术异化风险
所谓异化(alienation),其意有疏远、背离之意,技术异化的本质在于科学技术和人文社会背道而驰,即以经济利益为目的,脱离了技术创新和以人为本的初衷,违背了法律法规、伦理道德的约束,以此获取不正当利益而损害社会可持续发展的现象[15],最终将导致社会的异化、人的异化。这是因为相较于传统技术的线性增长,新技术赋能社会呈现指数级发展,计算机构成了越来越复杂的操作系统,普通群众难以真正了解系统背后的运作原理,反而不得不遵循其操作规范,当技术出现漏洞或被不当利用时,其破坏性和威胁性将极度放大并反噬社会,加剧社会的碎裂化。且随着新技术应用方式和场景的多样性组合与变换,其不断模糊着真实世界和数字世界的界限,逐渐影响到人类生活的方方面面,系统网络错综复杂,蕴含着极大的错误叠加与连锁反应风险。
深度合成技术具有泛在的使用性,当核心技术攻关和开源软件公布后,技术的普及成本逐渐降低,即使是普通民众也无需经过专业的训练就能较快地掌握操作方法。随着深度合成技术在多场景之中的推广应用,技术异化的风险也愈发增大,“科学从原本温文尔雅、带领人民走出黑暗时代的‘赛先生, 变成了带领人们急速驶入未来世界、力量极其庞大却又找不到方向的巨型怪兽赛维坦(Seviathan)”[16],诸如滥用技术制作虚假视频和伪造不实言论侮辱、诽谤、恐吓他人等例子,将对个人权益、社会稳定、国家安全构成威胁。
(二)信息失真风险
新技术浪潮下一切皆可数字化,基于机器深度学习和互联网发展优势的深度合成技术更是具有深度撷取大众数据的风险[17],若再借助网络爬虫技术2,深度合成科技能够挖掘和获取的数据将十分可观。诸如图像、语音、行为等信息被全方位监测、计算,人们在技术面前将“无所遁形”,现实社会与虚拟世界的界限逐渐被打破,形成“透明的个人与幽暗的数据掌控者”[18]之鲜明对比。
越來越难跨越的数字鸿沟把人们划分为掌握信息技术的人和无法获得信息技术的人,若那些数据掌握者不当利用深度合成技术散布谣言、扰乱公众视听,此不当引导舆论方向的行为是对公众意识的操纵和社会信任体系的破坏,严重影响公共秩序的稳定。这些虚假信息逼真程度之高,往往以十分令人相信的方式呈现给社会公众,尽管人们也会忽略一部分与他们认知不符的谣言和绯闻,但当此类信息达到一定数量时,很难让人不得不注意并相信其中的内容[19]。这更加快了信息由“眼见为实”向“眼见为虚”的转变,使社会陷入真相与假象纷繁复杂、界限模糊的困境之中,造成“真相的终结”,并继而进入“后真相”(Post-truth)时代3。若不及时消除风险,将使人们长期处于真假难辨的社会环境之中,对所见所闻都产生怀疑和不信任,进而冲击官方媒体、政府机构的公信力,引发社会信任危机,扰乱社会中原本良好稳定的公共秩序[20]。
(三)信息泄露风险
目前,高科技犯罪已成为社会治理的重要问题,滥用深度合成技术最为直接的风险之一是信息的过度搜集和泄露,蕴含着极大的安全隐患。
以深度合成技术为代表的人工智能科技以数据搜集和计算为运行基础,其中又以个人信息为最有价值的数据资源,且个人信息是一项包含精神权利和财产利益的综合性新型权利,保障个人信息安全就是保护个人权利、维护社会稳定的前提,其重要性不可小觑。在信息化时代下,个人信息已深度卷入技术风险之中,新技术把社会上各个领域的信息予以数据化和可视化,并通过数据画像进行精准营销和信息投放,具有巨大的财富价值,一旦信息数据泄露,将在整个网络系统曝光和扩散,所有信息都存在被轻易获取的风险[21]。同时,对于脸部、视网膜等包含个人生物特征的生物识别信息也是深度合成技术极易侵犯的对象。这类信息具有防伪、私密、便携、难遗失等特征,并具有唯一对应性和不可更改性,相较于其他类型的个人信息而言更具敏感性,对其收集、使用和存储的安全要求更高,一旦发布将很难被消除或修改[22]。而深度合成技术恰恰是利用生物特征予以数据化处理的运作模式,其通过四通八达的网络线路广泛搜集拟合成对象的脸部神态、声音强调等个性化信息,并存入数据库中,若出现技术漏洞被黑客入侵窃取,或被技术使用者不当利用,大量的生物识别信息将面临被泄露和滥用的风险,严重威胁个人安全和社会稳定。
四、深度合成技术应用的协同规制
根据技术社会建构理论,分析新技术所带来的影响时应当寻求其有益途径,遏制其消极方面,并着眼于其潜在的正面应用和有效的监管方式[23]。据此,为了防止技术被利益驱动而破坏社会秩序,应当积极寻求规制技术的方法和出路。美国是最先对人工智能技术作出回应的国家,其主要从平台规范、技术对抗和立法监管三个方面进行规制[24],欧盟则制定了一系列的条例和方案将深度合成技术纳入到规制框架之中。也有学者提出以“R.E.A.L.”模式规范深度合成技术的应用,即记录原始内容以确保内容的真实性(Record original content to assure deniability)、提前曝光深度合成内容(Expose deepfakes early)、提倡法律的保护作用(Advocate for legal protection)、使用信用机制调节(Leverage trust)[25]。综合已有研究,本文拟从技术、伦理、法律三个层面寻求深度合成技术的规制路径。
(一)以技术规制技术
技术作为社会规范的一种形式,与道德、习惯、纪律、法律互为补充,共同规制人们的社会行为。技术规制的优势在于其能够更加直接、准确、高效、经济地发挥规范和调节作用,它不仅可以为人们树立相应的行为准则,还可以使人们不得不依据该准则行事,更直接地实现规范的目的。正因如此,人们对技术规范的需求甚至会超过法律规范,且技术规范的影响力可以打破时间和空间的束缚,不受国界限制,这对于网络环境下人们寻求维权之道尤具有吸引力[26]。对于新技术所带来的问题,需要通过发展新技术加以解决,即通过技术解决技术所来的问题。
深度合成技术呈高速发展的趋势,相应的识别和破解技术必须及时跟进甚至是超越深度合成技术的发展速度,才能及时防范因技术滥用所引发的风险。对此,布法罗大学人工智能研究所所长大卫·德曼将这场技术的竞争比喻成“猫抓老鼠的游戏”[27]。目前,对深度合成技术的规制主要集中在溯源防伪和反向破解两项技术:前者是对原始视频添加“数字水印”,从创作源头保证视频的真实性,以清晰地辨识视频的真假;后者是针对深度合成技术含量高的视频和图像进行代码破解,撕开技术层面的“面纱”以揭露伪造视频。
在溯源防伪技术上,主要是区块链技术应用,即运用数据加密、时间戳、分布式共识和经济激励等手段,在节点无需互相信任的分布式系统中实现去中心化信用的点对点交易与协作[28]。防篡改记录、数据编辑日志等都是可以公开查询的,有效保证了用户身份信息和网络行为的真实性和不可篡改性,使得任何伪造数据的行为都暴露无遗,区块链技术在数据资产的真实性和原始性保护方面发挥了重要作用[29]。在国外已有公司开始借助区块链技术为原著的照片、音频、视频等添加时间戳等“数字水印”,在分布式账本上形成永久的元数据记录[30]。这类似于版权领域中的技术保护措施,版权人可以运用特殊的印刷方式和技术保证正版版权作品的质量,使人们不得不遵守版权人设定的消费正版版权作品的规则,从而防止盗版、伪造,提高正品的销售额,减少了大规模的版权侵权现象[26]。在关于深度合成技术方面的法律法规尚未健全的情况下,通过溯源防伪技术添加“数字水印”的方式可以保护原版照片、音频、视频等媒体不被轻易修改,即使被用于制作虚假视频,也可以在新视频中显示“数字水印”标识,从而提醒观看者注意辨别视频的真假,防止不法分子制作和散布不实信息。
在反向破解技术上,国外已开展多项先进技术的研发。如美国加州大学伯克利分校和南加州大学合作研发可以识别生物标签的人工智能系统[31],甚至还有研发人员能通过血液进入皮肤时的细微变化来识别视频中人物是否被深度合成技术进行了篡改[32]。2020年9月2日,微软公司还推出一款新视频认证工具,通过检测合成内容的混合边界,以及人眼无法看出来的微妙褪色或灰度元素,从而识别利用深度合成技术所制作的虚假视频[33]。通过提升反向破解技术,能为人们识别相关作品是否为深度合成所做提供科学的鉴别手段。
(二)以商业伦理治理技术
商业伦理是提供判断主体行为是否合乎道德与真理的一种规则、标准 、规范或原则[34]。其本身虽不具有法律意义上的强制性, 但有道德上的导向性和自我约束性[35]。当前,我国人工智能企业的现状是各企业的发展水平和进度参差不齐,导致诸多行业乱象,原因之一便是缺乏商业伦理的规范与引导。
商业伦理规范就是按照符合道德的标准和规则进行行业自律。行业自律是一种重要的自主治理形式,能够构建良性的行业合作秩序、促进行业健康发展,是风险治理机制的重要手段[36]。一方面,行业内部可以在国家立法基础上,结合本行业自身发展特点制定更为清晰适用的准则规——形成统一的商业伦理;另一方面,还能有效缓解技术过快发展而引起的立法供给不足问题,为后续立法提供可参考的经验,避免盲目和超前立法扼杀技术创新的活力[37]。在人工智能飞速发展的势头下,为消除技术异化可能对人类造成的风险,科学技术研发者必须及时对价值诉求、道德期望和安全满足作出回应,否则将会导致行业失范的危机。为了更好地建立行业自律体系,商业伦理不可缺位。通过商业伦理,企业之间可以建立信任关系,降低交易成本,树立良好形象,获得长期绩效等。且随着全球经济市场竞争的愈演愈烈,商业伦理在原有的价值评判基础外,添加了关于企业如何更有效地实施市场行为的引导要素,并从利益相关者视角出发,有助于构建多元化商业伦理系统,以加强企业的社会责任感[38]。
面对日新月异的人工智能技术发展,相对于政府机构的后续监管而言,企业处于获取行业发展最新动态和解决新技术复杂多变问题的最前沿,因此有关行业协会或组织联盟通过确立自律规范实现对内部成员的管理和约束,将更有利于引导行业的正向发展,从而实现与外部的国家强制监管的良性互动和补充。以英国的行业自律模式为例,该国的行业组织包括网络观察基金会(IWF)、互联网服务提供商协会(ISPA)、移动宽带集团(MBG)等,对入会要求、行业竞争、非法言论和虚假信息等制定了详细的互联网自律业务守则。而作为全球最大的人工智能行业组织——人工智能伙伴关系联盟(Partnership on AI,簡称PAI联盟)是一个由美国企业发起的非营利性联盟,其成员包含Google、Facebook、Amazon、IBM等企业,该联盟在汇聚全球先进技术力量促进人工智能的发展、防止人工智能技术滥用、完善人工智能道德伦理等方面都对世界IT行业作出了巨大的贡献。同时,发挥行业领军企业的带头作用亦有助于引领整个行业良性发展。如Twitter公司发布首个反Deepfake策略草案、Google公司发布的《谷歌AI的原则》、国内腾讯公司提倡的“科技向善”理念等都为行业遵守技术伦理起到了表率作用。
(三)以法律规范技术
法律是最具有明确性、确定性和国家强制性的社会规范,其通过指引、评价、教育等作用以实现调整社会关系和维护秩序的目的[39],这些特征使法律成为风险治理机制的重要手段,立法者必须重视控制风险功能的法治化[40]。具体而言,深度合成技术在法律层面上的规制可以从技术的使用边界、技术的使用程序、滥用技术的法律后果三方面予以规范。
在技术的使用边界上,明确应当予以禁止的不当使用深度合成技术的行为。如美国为应对深度合成技术带来的挑战,美国联邦与各州共计提出了12项立法法案对该技术予以规制[41],其中尤以弗吉尼亚州、德克萨斯州、加利福尼亚州为代表的州级立法最为严格。例如,弗吉尼亚州将未经授权而传播利用深度合成技术制作的图像和视频的行为定为犯罪,加利福尼亚州禁止深度合成技术用于色情传播和政治助选[24]。而在技术发达的欧洲,欧盟的《一般数据保护条例》被称为“史上最严数据保护条例”,该条例对深度合成技术使用边界作出了十分严苛的规定,如第9条要求数据控制者对涉及数据主体“识别自然人的生物性数据”都应当禁止使用[42]。在我国立法中,如《中华人民共和国民法典》(以下简称《民法典》)第1019条,即是针对新技术侵害肖像权所制定的保护措施[43],第1024条也规定了任何组织或者个人不得以侮辱、诽谤等方式侵害他人的名誉权。
在技术的使用程序上,制定能够涵盖各个应用环节的使用规范。如2020年3月12日,美国华盛顿州出台的首部人脸识别法案《SB 6280法案》规定了严格的责任报告制度,主要是对政府机关使用人脸识别服务的行为予以规范,防止公权力对人脸识别技术的滥用[44]。欧盟则更强调自上而下的监管,对深度合成技术予以统一管理。欧盟理事会于2018年6月28日通过的《欧盟反虚假信息行为守则》将利用深度合成技术制作的不实内容纳入虚假信息管理范畴,增加有关抵御虚假信息的保护措施[45]。我国《民法典》第1035条规定,对个人信息处理应当征得信息主体的同意,需明示处理的规则、目的、方式和范围,且遵循合法、正当、必要原则。2021年6月10日通过的《中华人民共和国数据安全法》(以下简称《数据安全法》)第三章“数据安全制度”中明确提出了国家要对数据进行分级分类的保护,制定数据安全风险评估、报告、信息共享和监测预警机制以应对突发性数据安全问题;第四章“数据安全保护义务”强调从事数据处理的中介机构应要求数据提供者说明数据来源,并负有审核数据交易双方身份并留存信息和记录的义务。这些都对深度合成技术的使用程序作出了明确的指引。
同时,立法还应明确滥用深度合成技术的法律后果,惩戒不法分子违法使用技术的行为,提高技术滥用成本。如美国弗吉尼亚州对滥用深度合成技术的犯罪行为最高可判处一年监禁和2 500美元罚款[24]。欧盟则规定对严重违反本条例条款的施加最高10 000 000至20 000 000欧元的行政罚款,对企业最高可处以其上一年度全球范围内营业额的2%至4%的罚款[42]。我国《民法典》第995条至第1000条则规定,受害人有权请求侵权人承担停止侵害、消除影响、恢复名誉、赔礼道歉、精神损害赔偿等责任,同时还可以向法院申请人格权行为禁令,据此可以及时制止滥用深度合成技术对肖像权、名誉权、隐私权等人格权的侵犯。《数据安全法》第六章“法律责任”更是加大了对侵权行为的惩罚力度,如对违法开展数据活动的个人、组织予以警告和罚款,同时追究服务机构和直接负责人的责任。通过滥用深度合成技术危害国家安全、公共利益的,可以依照《刑法》以诽谤罪、敲诈勒索罪、诈骗罪、传播淫秽物品罪、煽动实施恐怖活动罪等罪名予以惩罚。
整体而言,我国关于深度合成技术的法律法规零散于各部门法之中,其实际操作性有待加强[46]。面对日新月异的深度合成等人工智能技术的发展,法律作为最后一道安全防线需不断更新与完善,以及时应对新技术带来的挑战。
结 语
深度合成技术具有高度仿真性、泛在使用性和快速进化性的特点,该技术在促进社会多元化需求的同时,也具有一定的安全隐患,其潜在的风险不仅在于“合成”,更在于“深度”,尤其是智能化水平已远远超出一般的视频、音频处理技术。随着技术的普及和推广,技术滥用现象也愈演愈烈,极可能引发技术异化、信息失真、信息泄露的风险生成。
在新技术治理上,不应以其风险而一概否认深度合成技术存在的合理性和发展的有益性,相反,应当积极寻求正向的解决方案和规范机制。在行业规范中,行业伦理不可缺位,伦理引导是行业自律的重要指向标。而法律是规制技术的必要手段,在坚持安全合法的监管底线,避免技术的不当利用给公民、社会和国家造成不可控威胁的同时,亦要避免法律规制过严而可能阻碍技术发展。因而,应坚持包容审慎的立法和监管原则,在合理的范围内包容和鼓励技术创新,为技术发展创造良好的合适的制度环境,避免因矫枉过正而挫伤市场主体技术创新积极性,影响技术的社会经济价值发挥。对此,可通过多方参与、风险评估、成本效益分析等机制,确保立法和监管的科学化、精细化、灵活化,并可考虑设立“安全港”规则或者监管例外来鼓励人工智能的应用。当然,立法并非唯一有效的方式,法律具有滞后性,难以跟上技术发展的步伐,尤其是对于仍在快速发展的深度合成技术而言更是如此。因此,需要借助溯源防伪、反向破解等技术措施,并通過行业内的公约、标准、最佳实践、伦理指南等行业自律措施,以及提升公众数字素养等,实现对深度合成技术应用风险的多维治理。
参考文献:
[1] 腾讯研究院. 2020腾讯人工智能白皮书[R/OL].(2020-08-01)[2020-08-10] https://tisi.org/.
[2] 曹建峰. AI生成内容发展报告2020——“深度合成”(deep synthesis)商业化元年[R/OL]. (2020-05-11)[2020-06-20].
[3] 王禄生. 论“深度伪造”智能技术的一体化规制 ——从“杨幂换脸视频”谈起[J]. 东方法学,2019,(10):1-14.
[4] 曹建峰,方龄曼. 人工智能时代下的“烦恼”:美国国会听证会探讨“深度伪造(deepfake)”风险及对策[EB/OL].(2019-07-02)[2019-12-21].
[5] 张涛. 后真相时代深度伪造的法律风险及其规制[J]. 电子政务,2020(04):91-101.
[6] 庄嘉. 涉罪前瞻:AI解锁暗黑应用技能包[J]. 检察风云,2019(11):11-13.
[7] Samantha Cole. AI-Assisted Fake Porn Is Here and Were All Fucked, MOTHERBOARD[EB/OL]. (2017-11-11)[2020-05-02]https://motherboard.vice.com/en_us/article/gydydm/gal-gadot-fake-ai-porn.
[8] Goodfellow I J, Pouget-Abadie J, Mirza M, et al. Generative Adversarial Networks[J]. Advances in Neural Information Processing Systems, 2014,3:2672-2680.
[9] S.Y Lee, Y.K Ham, et al. Recognition of human front faces using knowledge- based feature extraction and neurofuzzy algorithm[J] .Pattern Recognition , 1996 , 29(11):1863-1876.
[10] 暴雨轩,芦天亮,杜彦辉. 深度伪造视频检测技术综述[J]. 计算机科学,2020(9):283-292.
[11] 肖滨. 信息技术在国家治理中的双面性与非均衡性[J]. 学术研究,2009(11): 31-36.
[12] 中国社会科学院语言研究所词典编辑室编. 现代汉语词典[M]. 北京:商务印书馆,1980:325.
[13] [德]乌尔里希·贝克 著,王武龙 编译. 从工业社会到风险社会(上篇)——关于人类生存、社会结构和生态启蒙等问题的思考[J]. 马克思主义与现实,2003(3):26-45.
[14] 张乐. 新兴技术风险的挑战及其适应性治理[J]. 上海行政学院学报,2021(1): 13-27.
[15] 陈仕伟. 大数据技术异化的伦理治理[J]. 自然辩证法研究,2016(1): 46-50.
[16] 高奇琦. 人工智能:驯服赛维坦[M]. 上海:上海交通大学出版社,2018: 280-281.
[17] 蔡士林. 深度伪造”的技术逻辑与法律变革[J]. 政法论丛,2020(6):131-140.
[18] 郑戈. 在鼓励创新与保护人权之间——法律如何回应大数据技术革新的挑战[J]. 探索与争鸣,2016(7): 79-85.
[19] Chesney, Danielle Keats Citron.Deep Fakes and the Challenge for Privacy,Free Expression,and National Security[J].21st Century-Style Truth Decay,2019:882-891.
[20] Chesney R,Citron D K. Deep fakes: A looming challenge for privacy, democracy, and national security[EB/OL]. 107 California Law Review (2019,Forthcoming); U of Texas Law, Public Law Research Paper No. 692; U of Maryland Legal Studies Research Paper No. 2018-21. (2019-11-25)[2020-6-02]. https://ssrn.com/abstract=3213954.
[21] 周佑勇. 論智能时代的技术逻辑与法律变革[J]. 东南大学学报(哲学社会科学版),2019(5): 61-75.
[22] 赵淑钰. 生物识别信息法律规制的国际经验与启示[J]. 网络空间战略论坛,2019(11):37-43.
[23] Andrei O. J. Kwok & Sharon G. M. Koh. Deepfake: a social construction of technology perspective[J]. Routledge Taylor&Francis Group.(Feb. 28, 2020).
[24] 石婧,常禹雨,祝梦迪. 人工智能“深度伪造”的治理模式比较研究[J]. 电子政务,2020(5):69-79.
[25] Jan Kietzmann , Linda W. Lee , Ian P. McCarthy ,Tim C. Kietzmann,Deepfakes: Trick or treat? [J].Business Horizons,2020:135-146.
[26] 罗莉. 作为社会规范的技术与法律的协调——中国反技术规避规则检讨[J]. 中国社会科学,2006(1):72-84.
[27] 曹建峰,方龄曼. “深度伪造”的风险及对策研究[J]. 信息安全与通信保密,2020(2):89-97.
[28] 袁勇,王飞跃. 区块链技术发展现状与展望[J]. 自动化学报,2016(4):481-494.
[29] 孟雪,刘宗媛,李倩. 深度伪造技术给网络可信身份管理带来的挑战与对策[J]. 网络空间安全,2020(6):75-79.
[30] Robert Chesney ,Danielle Citron. Deepfakes and the New Disinformation War: The Coming Age of Post-Truth Geopolitics[J].98 Foreign Aff.147,154 (2019).
[31] Agarwal S, Farid H, Gu Y, et al. Protecting world leaders against deep fakes[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops, 2019: 38-45.
[32] 馮卫东. “换脸”也逃不过数字真探法眼[N]. 科技日报,2018-8-10(2).
[33] 站长之家. 微软推出新视频认证工具,可识别AI深度伪造视频[EB/OL].(2020-09-02)[2020-09-13] https://www.chinaz.com/2020/0902/1179414.shtml.
[34] Lewis, P.V. Defining ‘business ethics: Like nailing jello to a wall[J]. Journal of Business Ethics, 1985(4): 377-383.
[35] 黎来芳. 商业伦理 诚信义务与不道德控制——鸿仪系“掏空”上市公司的案例研究[J]. 会计研究,2005(11):8-14.
[36] 邓小兵,刘晓思. 中英网络治理的行业自律比较研究[J]. 甘肃行政学院学报,2017(5):114-125.
[37] 张新宝. 从隐私到个人信息: 利益再衡量的理论与制度安排[J]. 中国法学,2015(3):38-59.
[38] 莫申江,王重鸣. 国外商业伦理研究回顾与展望[J]. 外国经济与管理,2009(7): 16-22.
[39] 张文显.法理学(第四版)[M].北京:高等教育出版社,2011: 47.
[40] 吴汉东. 人工智能时代的制度安排与法律规制[J]. 西北政法大学学报,2017(5):128-136.
[41] Deepfake legislation: A nationwide survey — State and federal lawmakers consider legislation to regulate manipulated media[EB/OL]. (2019-09-25)[2019-11-19]. https://www.jdsupra.com/legalnews/deepfakelegislation-a-nationwide-86809/.
[42] 丁晓东 译.《一般数据保护条例》[EB/OL].(2018-05-23)[2020-06-02]https://www.tisi.org/5029.
[43] 杨立新. 人格权编草案二审稿的最新进展及存在的问题[J]. 河南社会科学,2019(7):26-35.
[44] 网络法专报编委会. 腾讯网络法专报2020年4月刊.[EB/OL].(2020-06-04)[2020-09-13] https://www.tisi.org/14557.
[45] 中国信息化百人会数据治理委员会 译.《欧盟反虚假信息行为守则》.[EB/OL].(2019-02-16)[2020-09-13]https://www.sohu.com/a/295183284_470089.
[46] 文铭,刘博. 人脸识别技术应用中的法律规制研究[J]. 科技与法律,2020(4):77-85.