摘要:新的人工智能功能正在迅速增加虚假信息的数量、速度、多样性和病毒性,使内容创建过程和虚假信息活动的实施自动化。随着这些功能不断改进和扩散,它们破坏了对可验证事实的信任,进一步威胁到民主治理,并导致公民怀疑公共生活中真相的可能性。总体来说,人工智能通过制造深度伪造品、大型语言模型的开发与部署、人工智能增强的社交机器人和微定向等方式生产、重构和传播虚假信息。而虚假信息的问题无法采取单一的解决方案,无论是心理上还是技术上,有效应对这一挑战需要了解技术、媒介和人类行为的融合因素。我们可通过多维度安排实现问责分配、重视互联网平台的把关人作用、保障新闻媒体的正常信息供应、用优质信息淹没虚假信息、提高公众的网络素养等途径和方法,探索虚假信息的可能治理路径。
人工智能的最新进展有可能加剧虚假信息的数量、速度、多样性和病毒式传播,使内容创建过程和虚假信息活动的实施自动化。一个关键问题是人工智能的应用将在多大程度上改变过去主要是手动操作的情况,这方面还有许多未知数。人工智能只会对当前战术的规模和影响范围产生轻微影响,还是会改变游戏规则?哪些技术可能会从快速发展的人工智能研究中受益,又如何被应用于社会之上?大量关注曾集中在被称为“深度伪造”(deepfake,“深度学习”和“伪造”的合成词)的合成视频和音频上。然而,还有其他人工智能能力,例如强大的生成式语言模型、对话式聊天机器人和受众细分技术,可能产生更大的影响。
由此造就的反乌托邦式场景可能会令人震惊,深度伪造、假新闻(fake news)和伪传信息(disinformation)或许将充斥整个互联网。操纵性内容的制作成本非常低,而且很容易大规模生产,以至于变得无时和无处不在:这就是我们所担心的人工智能时代的政治未来。
面目全非的互联网
在21世纪第二个十年的末期,我们已经见证了社交媒体的分发革命所引发的虚假信息洪流;机器人(bot)、“喷子水军”(troll farms)和微定向(microtargeting)技术根据特定受众群体的个人特征和行为向其提供定制内容。2018年的剑桥分析(Cambridge Analytica)丑闻与这些现象尤其相关,因为它涉及未经授权收集数百万Facebook用户的个人数据,以便为了政治目的操纵舆论。而眼下生成式人工智能的出现通过实现自动化内容生产大大增加了这方面的风险。
而且,生成式人工智能的广泛使用倾向于破坏对可验证事实的信任。随着人工智能在互联网上生成的内容变得常态化,政治参与者对可靠信息越来越产生怀疑。这形成了一种被称为“说谎者红利”(liar’s dividend)的现象,指公众人物和政客可以通过虚假声称真实事件和新闻为假新闻或深度伪造,来维持对自身的支持。由这种现象可以衡量虚假信息的间接影响,例如研究发现,政客可以巧妙利用虚假信息和不信任的环境,通过虚假声称有关自己的真实信息(例如批评、丑闻)是假的,从而欺骗公众,满足自身的利益。显而易见,人工智能增强的虚假信息操作正在给整个互联网带来某种存在性威胁。新的人工智能功能正迅速增加虚假信息操作的数量、速度和病毒性。随着这些功能的不断改进和扩散,它们进一步威胁到对民主治理的信任,并增加公民怀疑公共生活中真相的可能性。
新的人工智能能力对虚假信息的重构
(一)制造深度伪造品
深度伪造是由一种称为“深度”学习的特殊机器学习生成的人造图像或音/视频,可以令人信服地用另一个人的影像或声音取代一个人的影像或声音,或是用以制作虚假的事件。深度伪造利用机器学习和人工智能的强大技术来操纵或生成更具有欺骗性的视觉和音频内容,很快被许多政治行为者用来歪曲有关政治或社会问题的信息。
深度伪造的这些用途与不道德的政治行为者长期以来利用受操纵的新闻内容和社交媒体机器人传播虚假或误导性信息的方式是一致的。生成式人工智能的日益增长的先进性将使此类视频看起来更加真实,从而在未来更难以揭穿。
深度伪造品的另一个常见用途是传播虚假信息以干扰选举。例如,恶意行为者可以利用这项技术生成领导人的深度伪造视频和录音,在其中,领导人似乎说了一些他们实际上从未说过的话,从而达到散布怀疑、抹黑对手并掠取公众支持的目的。
(二)大型语言模型的开发与部署
自然语言处理和生成(识别、预测和生成语言的机器学习算法)的突破已经催生了能够阅读、书写和解释文本的复杂的大型语言模型。通过调取数百万个基于网络的句子、段落和对话,这些模型学习了控制每个元素应如何合理排序的统计模式。除了语法规则外,这些模型还擅长模仿在线话语,因此很容易重复人类最阴险的偏见。
虚假信息操纵者试图利用人类偏见,煽动情绪,诱发信息过载,以此来损害理性决策。哈佛大学肖伦斯坦中心的研究人员认为,有才能的虚假信息操纵者可以通过有意凸显社会中的差异和分歧,将“具有歧视性和煽动性的观念”描述成事实而进入公共话语。随着时间的推移,这种现象可能会扩大社会群体之间基于身份的裂痕,扰乱民主治理的机制,并在某些情况下催发暴力。
(三)人工智能增强的社交机器人
由大型语言模型支持的聊天机器人将更进一步,通过大幅降低文本生成的成本,语言模型能够做到允许社交媒体机器人定期发布与它们的起始叙述不直接相关的主题。这有助于产生更加“有机”和合法的机器人,可用来积累粉丝,并使得外界更难识别出不真实的机器人。
这些进步使精明的虚假信息操纵者能够将人工智能驱动的聊天机器人与现有的社交监听和合成媒体功能相结合,以识别流行话题,开发人工编辑的信息库,并向目标受众提供高度个性化的叙述。很快,完全自主的机器人账户就会大量产生,随着经验的积累而迅速改进,并不断尝试说服、戏弄和操纵在线用户。
生成式人工智能的进步有可能从根本上改变我们的信息环境,以至于人类甚至机器都无法区分人工智能生成的内容和人类制造的内容。这种情况已经开始发生:随着人们对深度伪造视频、自动恶搞和其他操纵策略的认识不断增强,互联网用户已经开发出一种新的词汇,试图用这些词汇来抹黑他们的批评者和意识形态对手。
(四)微定向:数据科学改变政治传播
微定向是一种收集和分析个人数据的做法,旨在为广告、营销和影响力活动创建高度具体的信息。它利用广泛的数据点和人口统计信息,例如受众兴趣、在线行为和个性特征等,在系统和个人层面上识别和吸引利基群体及其偏好。事实证明,这种方法通过利用个人动机、恐惧和愿望,在接触和说服消费者、选民和其他支持者方面非常有效。
人工智能可以做到比社交媒体更高级地实现用户“微定向”,代表着微定向技术的下一阶段。借助生成式人工智能工具,虚假信息活动操作者能够通过对个人和群体画像来精细调整他们的策略。他们可以制作看似合法且与受众相关的内容,甚至可以根据他们收集的数据,向个人提供个性化的虚假信息。此种定制可以确保叙事符合特定受众的价值观和信念,并与操作者的叙事策略相吻合。
人工智能时代虚假信息的多层次治理
虚假信息活动并不是新现象,过去已经被广泛研究过。虚假信息的问题无法采取单一的解决方案,无论是心理上还是技术上。有效应对这一挑战需要了解技术、媒介和人类行为的融合因素,从中洞察虚假信息的可能治理路径。
(一)多维度安排实现问责分配
虚假信息的广泛分布所带来的风险对监管和治理提出了要求。从公共利益的立场出发,治理需将这些风险降至最低。
在应对风险时,很容易立即将政府的严格监管视为第一要务。但是,治理其实需要更开阔的视野,例如,同时考虑治理的水平和垂直维度。从纵向来看,政府只是多层次治理结构的一部分,市场和公民社会也具备自身独特的力量。从横向来看,法律法规的监管也需辅以其他的治理模式,包括公司的自组织、行业的集体自律以及政府与行业共同承担监管职能和责任。从制度角度来看,治理选择可以是在一个连续体内,从一端的市场机制到另一端的国家控制。
对于不同的参与者群体可以实施不同的问责制,包括法律责任(针对虚假信息发布者与平台)、自我责任(针对用户)、设计问责(针对技术与算法)以及企业社会责任(针对各种互联网公司)。此外,问责网络也涉及政治上的元责任(国家),其中包括政府如何确保设定合适的监管框架来保护言论自由与公共利益,支持社会多元与高质量媒介,为各种特定类型的行为者分配权利与义务。尽管人们普遍认识到虚假信息的危险,但也不应低估因采取不正当措施应对虚假信息而造成的潜在危害。政府需要处理好不作为与过度作为之间的平衡,自身也须在法治框架下行使监管。
(二)重思互联网平台的把关人作用
成功的虚假信息处理方法必须考虑到互联网平台在此类信息的分发和治理中的核心作用。互联网平台要让针对阴谋内容的事实检查和算法降级在此发挥作用,切实充当好把关人。这是因为,任何人都可以在互联网上共享事物的能力,已经消除了过去在广泛传播之前对信息予以甄别和把关的做法,致使没有专门知识的人可以用阴谋论或其他虚假信息来填补空白。
打击虚假信息的主要方法之一是更清楚地说明内容的生成位置以及生成过程中发生的情况。Adobe推出的内容真实性计划旨在帮助图像创作者做到这一点。微软2023年早些时候宣布,它将向使用其生成式人工智能工具创建的所有内容添加元数据。谷歌计划分享其搜索引擎中编目图像的更多详细信息。
人工智能可以通过分析之前被标记为操纵性文章中的线索来识别虚假信息的词语模式;类似的基于特征的检测功能也可用于识别生成的图像和视频。大型科技平台还需要在识别可疑账户方面变得更加擅长,禁止在政治广告中使用受操纵的媒介,对深度伪造迅速作出反应,并尝试制定技术标准来确定真实图像和视频的来源。
(三)保障新闻媒体的正常信息供应
众所周知,媒体报道可以为公众辩论设定议程。虽然新闻不一定告诉我们应如何思考,但它通过表明哪些问题值得关注,告知我们需要考虑什么。如果某些问题得到媒体的广泛报道、并在新闻议程中占据突出位置,公众会将其视为更加重要。
全世界可以做的最重要的事情之一就是鼓励独立和专业的新闻业。公众需要记者帮助他们了解复杂的事态发展,并应对层出不穷的社会、经济和政治事件。在动荡不安的时期,拥有一个充当守望者的健康新闻业至关重要。
(四)在社交媒体上,用优质信息淹没虚假信息
英国东英吉利大学的研究人员研究了打击假新闻的策略,例如用正确的信息来淹没不实信息,并通过更好的教育使人们对不实信息“免疫”。社交媒体平台需要找到一种显示更准确的相关健康信息的方法使用三种方法可以增加与虚假信息对抗的有效性:(1)受众初次暴露于虚假信息时,要及时警告;(2)不断重复对虚假信息的驳斥,因为虚假信息是依靠重复而假扮为真理的;(3)提供具备替代意义的更正,帮助填补理解上的空白,以消除错误的所谓“事实”。
(五)提高公众的网络素养
提高网络素养很关键的步骤有两条:一是教育人们如何分辨可靠信源;二是帮助人们摸清虚假信息的“套路”。
信源种类很多,准确区分至关重要。其一,信源是谁?他/她是怎么知道他们所告诉我们的这些事的?其二,有无相互独立的多重信源?比尔·科瓦奇(Bill Kovach)和汤姆·罗森斯蒂尔(Tom Rosenstiel)在《真相》(Blur: How to Know What’s True in the Age of Information Overload, 2011)一书中说:“假如无法获得多重信源,而且证据量不大,那么我们就不能完全相信信源的叙述——或许具有暗示作用,但无法证实。”信源数量被视为判断报道权威性的一个标志。其三,信源是不是报道中所叙事件的直接参与者?他们是不是利益相关者?其四,是否使用匿名信源?使用匿名信源的时候是否给出援引匿名信源的理由?
除了信源以外,也需要练就识别今天社交媒体上的虚假信息的其他欺骗手段。比如虚假信息常常采取“消防水带”(fire hose)策略:通过大量的渠道散发大量的信息;快速、持续和重复;要么真假混杂诱人上当,要么彻头彻尾地虚构;从不在乎前后一致。这些策略意在令受众感到震惊、迷惑和不知所措。
提高网络素养,归根结底就是要掌握虚假信息的常用手段,这样才能够精确识别并反击。很重要的一点是,个人可以通过关注多种多样的人和观点,来保护自己免受虚假信息的侵害。
结语
虚假信息行动——故意传播虚假或误导性信息的秘密行动——历来都是人类特有的行为。随着数字技术和数据科学的兴起,恶意行为者越来越多地利用嵌入我们日常生活中的机器学习系统来精确定位受众、塑造全球舆论并散布社会不和。如今,虚假信息操纵者正在扩展他们的操纵工具包,以纳入新的人工智能技术。大型语言模型、人工智能生成的合成媒体和令人信服的人工智能增强型聊天机器人为恶意行为者提供了越来越多的定制的和难以检测的消息传递。虽然机器学习技术也可用于打击虚假信息,但它们可能仍不足以抵消不断扩大的匿名数字水军的影响。除非制定全社会的反虚假信息策略,否则人工智能驱动的虚假信息行动将进一步加剧政治两极分化,削弱公民对社会机构的信任,并模糊真相与谎言之间的界限。
我们相信,人工智能驱动的人类活动的未来可能是不可避免的。然而,如果社会现在就采取行动,这个未来可能不会完全具有破坏性。减少和打击虚假信息需要全社会的努力,政府、技术平台、人工智能研究人员、媒体和个人信息消费者都负有责任。
一个开放的社会依靠共同的事实基础来有效运作。今天,我们如何共同适应人工智能增强的虚假信息世界,将决定自由与民主的未来、真理的基本标准以及我们对现实的共同看法。
胡泳,北京大学新闻与传播学院教授
摘自:《南京社会科学》2024年第1期
本文载《社会科学文摘》2024年第9期