齐延平 何晓斌:算法社会言论自由保护中的国家角色

选择字号:   本文共阅读 2247 次 更新时间:2019-12-01 17:36

进入专题: 算法社会   言论自由   国家角色  

齐延平   何晓斌  

作者简介

齐延平  北京理工大学法学院教授、中国政法大学人权研究院博士生导师、智能科技风险法律防控工信部重点实验室主任

何晓斌  中国政法大学、德国汉堡大学联合培养博士研究生

目 次

一、算法社会言论领域公共风险加剧

二、算法社会言论自由保护的模式选择

三、算法社会言论自由领域的过程性规制


摘  要

算法社会的言论同温层不断强化言论社群的割据与封闭性,伴随算法的精密化形成规模相对更为小众的“言论飞地”,造成了言论场割据的加剧和信息多样性的丧失,从而致使公共风险加剧,公共决策更难实现。言论自由需要的开放性在网络世界并不比物理世界更为可期。面对算法带来的公共风险和以平台为代表的社会权力对言论的威胁,国家权力在言论自由领域应变传统的“消极”角色为“积极”角色,积极履行规制职责。国家的实体规制是对公共风险的点状修补,而过程性规制改变了“行为主义”规制下的个案审查,将规制范围覆盖所有接触相关信息的言论社群,通过打破言论社群的封闭状态,鼓励言论社群内部以及不同言论社群之间的沟通交流,避免社群的极端化倾向。过程性规制主要是确保算法价值观的平等和网络空间的开放,过程性规制一方面可降低国家干预的宪法风险,另一方面也能更为有效地破解言论领域的公共风险。

关键词:算法社会 信息割据 言论自由 公共风险 过程性规制


一、算法社会言论领域公共风险加剧


算法社会的到来,给言论自由领域的传统命题带来一系列变化,言论表达更加依赖作为基础设计的网络,代码及其衍生品为新的言论类型,言论传播受算法技术架构影响。这些变化并不都是积极的,算法与数据处理技术颠覆了传统言论自由的权利保护结构,引发一系列公共风险。言论自由包含信息获取自由和言论表达自由两项核心要素,前者用于形成内心确信,后者则用于意见展示,二者构成言论自由的两个基本维度。我们从这两个维度出发分析算法对言论的影响。

在信息获取上,算法的分类、聚类、回归、关联方便了人们的信息获取,但言论主体对算法的过度依赖,比如定制新闻,势必造成信息的垄断与割据,信息源的人为筛选与格局将导致作为言论自由前提的信息多样性的丧失。“通过网络内嵌算法建立的同温层(filter bubble)阻挡了社会中重要但复杂或者令人心生不快的信息。”由于选择性注意(selective attention)心理机制的影响——当人们遇到证实自己观点的信息时会产生积极的感受,异见则会带来消极压力,在“同温层”相对稳定的空间结构中,人们倾向于接受强化其原始观点的信息和讨论,并塑造与自己价值观相近的信息池。平台基于自身利益(经济的或非经济的)考虑,也乐于或急于满足用户的此类需求以增强用户黏性,借助数据共享形成的数据画像以及算法对信息的编排和过滤,不断强化着“以用户为中心的信息分割的形成”,就成为其核心价值观和基本作业目标。

伴随信息割据而来的,是言论社群渐加剧的封闭倾向。算法为具有相同或相似习惯、爱好与利益的社会群体聚集提供了便利条件,塑造起千姿百态但又相对封闭的言论社群。有研究团队分析英国大选期间推特上的115万条相关消息,发现信息传播呈现“明显的党派划分,用户更倾向于转发与自己党派有关的积极信息”。一项对2009年德国联邦选举中推特言论影响的研究也得出了类似的结论。除了依附种族、宗教、政党等形成的大规模言论社群,随着算法的精密化和细分化,社会群体的聚集与划分也越来越精细,进而形成规模相对较小的“言论飞地”。言论社群当然有其积极作用,可以增强社群成员的内心确信并扩大群体声音,但基于算法技术形成的言论社群也必然有其固有缺陷、问题和风险。一方面,社群内部的言论表达成为本社群成员的重要信息来源,进而与信息获取中的个人信息过滤相呼应。“普遍性的从众,导致公众丧失了他们所需要的信息”,多元信息机制的缺失非但损害了社群言论的丰富性,也将进一步在整体上削弱言论的说服力。另一方面,言论社群内的群情激荡给社群成员造成掌握真理的假象,他们拒绝妥协且难以与其他社群沟通。研究证明,言论社群促使态度温和的个体在遇到相反言论时表现得更为极端,且群体容易出现极化倾向。言论自由需要的言论场开放性在网络世界中并不比物理世界更为可期。

数据化信息关联也为稀释、污染信息源和干扰、破坏信息获取大开方便之门。部分社会成员利用算法的信息关联性稀释核心信息,比如代入相同的关键词或标签注入大量无关紧要的内容,造成所获信息质量的下降和获取高质量信息成本的增加。2011年叙利亚内战发生后,记者、政治家和公众纷纷使用“#Syria”标签对该事件进行追踪。但不久社交平台上出现大量程序机器人(bot),它们伪装成社交平台用户,并利用“#Syria”标签推送大量与叙利亚有关却与其内战毫无关联的内容,比如叙利亚电视剧、叙利亚诗歌、叙利亚足球俱乐部,企图淹没与叙利亚内战直接相关的信息;同时,它们跟随关注叙利亚事件的用户,并在讨论中插入无关信息,扰乱他们对内战的严肃讨论。2016年的美国总统大选,除了有剑桥分析公司通过数据挖掘和数据分析获取用户的行为偏好,并据此制定宣传策略以外,在社交媒体上还出现了众多程序机器人,通过预编程脚本自动发布的机器人账户发布支持特朗普的言论。它们在社交网络上冒充拉丁裔选民,发送大量重复信息离间该投票社区,并在选举后从社交平台消失。如果说上文信息“同温层”揭示的是网络言论场的自然状态,那么此处两个典型案例反映的则是对网络言论场的有目的、有计划的干扰与控制。

从言论表达的效果来看,算法将言论效果的决定因素由传统的资源占有变为受众注意力。传统媒介下的言论表达以言说者为核心,言说者在知识储备、资源占有等方面的优势决定了言论的影响力,因此形成言论表达的卖方市场;但算法社会言论的功能发挥则更多取决于言论的受众,言论的影响取决于多少人会关注该言论,并由此形成了言论的买方市场。简言之,数字时代的言论不再关注带宽的稀缺性,“而是观众的稀缺性,特别是观众注意力的稀缺”。算法按照言论的点击量、阅读量、转发量等数据指标对言论进行推送和排名,进一步造成言论表达上的管道垄断和“赢者通吃”局面。

算法的上述影响,意味着通过言论维系社会共同体以及通过网络实现言论自由的愿望并不能由网络自动实现,自由且有效的沟通变得更为困难了:人们仍然可以表达,但没有听众;或者有听众,但无法得到对方理解;又或者理解了,但无法达成一致意见。从社会治理的角度来看,这将带来前所未有的新的社会风险,并威胁到公共价值的形塑和公共决策的制定。

首先,基于算法的信息垄断与社群割据效应致使人们丧失共同生活经验,导致公共价值形塑的困难和公共决策的难以实现。网络发展初期的“网络社区”曾带给人们互联互通的美好想象,但算法对社会生活的全面干预并没有进一步增进理解和沟通,“网络上的单链条式互动导致网络社群的碎片化”。尽管个体化的数字生活正成为常态,但人们对公共物品和公共服务的需求没有消失,通过协商进行公共决策的社会治理模式并没有改变。如果我们不能采取措施补足人们在共同生活经验上的缺失,“作为公共决策机制的基础结构”的言论自由将会失效,激化包括公共资源分配在内的社会纠纷,原本通过协商得以缓解或解决的社会矛盾不仅不会消解,反而会进一步加剧。

其次,信息割据容易造成群体极端化,冲击社会稳定结构。当群体中的个体均具有同一倾向,尽管程度存在差异,飞地协商的结果往往超出群体中所有个体的原先判断,并走向极端。言论社群在各自主张上的极端化,加剧社会分裂的同时也“进一步滋生极端主义,甚至仇恨和暴力”。伊斯兰国的网络宣传和招募正是通过封闭言论空间的极端化倾向提高自己的号召力:一方面,通过网络社交媒体上的标签功能提供信息、聚焦关注,形成自己的网络扩音器;另一方面,通过网络聊天室、应用程序等制造相对封闭的言论社群。通过定义、关联、模仿、差异强化等一系列过程,个体抛弃原有观念并开始理解极端主义,社会中的边缘群体和弱势群体甚至对该社群产生归属感。

信息垄断与割据导致多元信息纠偏功能不复存在和不同言论社群协商功能丧失,在一定程度上会削弱国家传统治理手段作用发挥和治理效能,但这并不意味着平台能够补充由此产生的权力空白,平台自身属性决定了其不可能承担言论自由保护的法理责任。言论的上述公共风险源自算法分类、聚类、推送、排名等算法技术,而这些技术服务恰恰是平台赖以生存和发展的基础,强化算法技术架构更符合平台的各类利益诉求。算法社会言论自由公共风险产生所依赖的数据处理和算法不仅具有可规制性,而且也必须要规制。当前国家在算法面前的应对不足只是一种滞后,而绝非无能为力,当然更不应因此而退居幕后,而应该重构其角色定位。


二、算法社会言论自由保护的模式选择


面对算法社会言论技术条件的变化,有学者认为可以实现言论自由保护从国家权力模式到社会权力模式转型。一方面,他们认为平台在言论自由保护中的角色日益重要,社会权力模式将是算法社会中言论自由保护的主要模式。另一方面,算法社会“自然淘汰了政府的新闻审查制度”,“削弱了国家集权的控制能力”。而通过上文梳理的网络言论场的公共风险,我们认为应对之策并非国家的退场,恰恰相反,需要国家在言论领域由传统消极角色转向积极角色。

(一)网络言论中的国家权力在场

传统上国家权力对言论领域事务的管理主要借助于对信息传播有限资源的配置来进行。以电波频率为例,由于无线电频率资源的稀缺,国家对电波的管理和规制往往被认为符合公共利益,并不侵犯言论自由。我国台湾地区大法官解释认为,“电信法”实施事前许可制固然限制人民使用无线电波频率的通讯传播自由,但无线电波频率属于全体国民的公共资源,为避免无线电波频率使用互相干扰、确保频率和使用效率,以维护使用电波秩序及公共资源,增进重要公共利益,政府必须妥慎管理,并不违反宪法对言论自由的保护。有学者认为,传统媒介资源的有限性使国家有充分理由(比如资源分配和管理)介入言论管控,但算法社会言论的数据化挤压了国家干预的空间,或者说言论传播资源有限性的局限的解决,已使得国家干预没有必要了。

言论的数据化在一定程度上降低了国家通过资源分配干预言论的可能性,但超物理状态的网络结构无法割裂算法运行与物质实体之间的联系,更无法脱离其所处的社会场景。数据化网络也是一种资源,并且也是有限的,国家虽不一定是资源的所有者,但却是网络这一“公共品”秩序维护的义务主体,仍然是网络资源最重要的分配者和管理者。即使推崇“代码即法律”的莱斯格教授也不得不承认,代码组织运行的网络空间同样存在国家权力的影子,政府可以通过直接管理互联网信息服务提供商(ICPs)和互联网接入服务提供商(ISPs)的方式达到间接管理网络的目的。同时,算法社会的言论风险需要国家的干预。由于数据化言论场的去界化开放性、规模化交互性,言论风险的不确定性和强度绝非个体或平台所能控制,国家强有力的干预与监督是更为必要的。

国家既可以通过设立信息服务资质标准或服务许可等方式将平台纳入监管体系,也可以禁止网络服务提供商为某些言论的传播提供服务,实现直接规制言论的目的。各国对互联网领域言论的规制实践也证明了这一点。以儿童色情言论为例,韩国《信息通信网络促进利用与信息保护法》第44条规定了信息通信服务商的删除义务, 2009年日本制定的《保证青少年安全安心上网环境的整顿法》要求提高不良信息过滤软件性能及普及率。即使在对言论自由规制高度敏感的美国,联邦层面的《儿童互联网保护法》确认了过滤软件的合法性,各州则普遍将网络儿童色情言论纳入刑法惩罚范围。

新言论场景的每一环节都嵌入结构性的权力传递,比如政府部门的媒体监管机制、媒体内部的内容审核机制,甚至中央对地方政府的考核,也会导致地方对言论采取更为严格的管控。即使大型跨国平台,也无法逃避国家权力的传递,其制定的言论政策,不得不受到国家权力的影响。以社交平台在欧洲的境遇为例,如果不制定禁止仇恨言论的政策或纵容此类言论,不但用户可能会放弃使用脸书,平台还可能因此面临巨额罚款。可见,本地法律影响了平台的言论政策,进而形塑着平台在言论保护中的作用空间。

(二)平台在言论保护中的复杂角色

算法社会中平台的兴起受到广泛关注,包括电信和宽带公司、网络主机服务、域名注册、搜索引擎、社交平台、支付系统和广告商等在内的网络服务提供者在权利保障中的重要性陡增,影响甚至决定着用户能否发表言论,发表何种言论,以及言论可以产生多大的影响力。虽然算法技术是中立的,但设计和运用算法技术的平台却有各自的利益考量,平台并不会主动成为言论自由的保护者,在某些情况下,平台甚至会成为言论自由的重要威胁。平台在言论自由领域同样存在“双刃剑”问题。

平台运用其掌握的算法技术,可以延伸到言论表达的所有环节。有学者将平台的干预归纳为以下四个方面:(1)通过过滤、删除信息或影响用户的内容获取等方式决定信息流向;(2)管理用户活动数据,知悉传播主体的行为;(3)控制用户其他网络活动;(4)突破国家边界限制。这些干预方式几乎涵盖了信息获取、言论表达以及言论传播各个方面。与此同时,平台部分承担了对言论进行裁判的类司法功能,特别是某些社交平台,在处理言论纠纷的过程中承担裁判者角色。平台聆听纠纷各方的主张和申辩、解释并适用平台言论规则,甚至可以做出具有实质意义的裁判结论,包括删除相关言论乃至禁言。

平台虽然掌握着技术优势和话语权力,但却不可能成为言论自由保护的主导力量。其一,平台所提供的信息推送、数据管理、言论传播等言论服务,仅仅是言论自由保护机制中的一个环节。算法社会言论自由的实现,需要“法院、立法机构、行政机构、技术专家、企业家,以及终端用户”等主体的共同参与。

其二,在保护动机上,平台并不会天然地亲近言论自由,因为言论自由本来就不是多数平台建设的出发点、宗旨与目标。言论自由保护对多数平台而言并不具有实际意义,虽然各个平台都宣称自己保护言论自由,但往往是其附属性目标,并在很多时候往往不过是吸引用户的一种话语手段,平台对言论自由的保护终将服务于平台本身的利益或目的。

其三,在与相关主体的关系上,平台既无法终局性地解决用户之间的纠纷,更无权裁决自身与用户之间的纠纷,其提供的申诉和救济渠道无法满足权利保护的需要,此时仍需要国家的出场。尊重和保护基本权利是国家的义务,平台履行该职责在“基本权利第三人效力理论”看来,仍然不过是基于国家权力履行职责予以规制下的一种行为,即“借助国家的干预来矫正私人主体之间偏离自由、平等的状态”。

平台不仅不是言论自由保护的宪定责任者,出于自身利益的考虑,平台往往还会成为言论自由的破坏者,甚至是共谋者,尤其对商业性平台而言,更是如此。基于对国家权力的畏惧和对自身经济利益的考量,他们倾向于执行更加严格的审查标准以规避可能的风险。更有甚者,会出现平台与国家的共谋——“对于政府而言,服务商掌握着管控用户言论所需的数据及技术,而对于服务商而言,与政府合作则能够给它带来经济上的利益”。平台并不会主动化解言论公共风险,造成风险的技术要素和集聚效应反而可以为平台带来利益;同时,平台利用其掌握的权力干预用户的言论表达与国家权力相互依附,成为言论自由的重要威胁。

(三)国家权力与社会权力的角色分配

平台在专业技术和产业规模上的优势,不仅使其在“用户—服务商”关系中成为强势一方,其主控的代码规则和在信息收集、处理、传播中的集聚效应,甚至使其可以与国家权力分庭抗礼。因此,有论者认为言论自由的主要风险不再是公权力而是平台社会权力,言论社区中的问题可以依靠社区自创生秩序规则予以解决。基于言论技术条件变化要求改变言论自由的保障模式,并不是算法社会的新创。在工业化进程中,伴随报纸、广播、电视等媒介的出现,并在言论传播中扮演越来越重要的角色,类似声音就已经出现过。有学者认为,19世纪中期法国取消言论的事前限制后,国家对言论自由的侵害逐渐消失,“影响公民言论、新闻自由实现的障碍并非来自国家公权力机关,而是来自作为私人团体的大垄断集团。由于大规模投资的要求和激烈的市场竞争,报社、电视台等新闻媒介的所有权逐渐集中于少数财产寡头手中,它们出于自身利益的考虑,对该媒体发表的内容施加事前的限制,由此使公民的言论自由、新闻自由受到这种来自私人团体而不是国家的侵害”。

事实上,算法社会的国家权力与平台权力难以简单归结为此消彼长的关系,在言论保护上,二者呈现某种程度上的“共生共谋”:国家权力通过平台权力管控言论风险,平台权力则在国家权力约束下提供技术服务。前文的分析业已表明,算法技术条件下国家权力非但没有削弱,反而出现增强的趋势。而平台的出现,则暗合了近代以来社会组织与政治国家的分化趋势,塑造了一个相对自由和开放的言论空间。从权力结构来看,平台的兴起,将传统言论自由场的“个人—国家”二元结构发展为“个人—平台—国家”三元结构,传统高度政治化环境下社会与国家的同质结构被打破。尽管科层式的国家权力与扁平化的社会权力在运行逻辑上各不相同,但二者并非零和竞争。

新兴权力变化影响了言论自由的保护方式。平台作为一种重要的新兴社会组织形态,横亘于政治国家与公民个人之间,一方面对传统公权力形成一定程度上的制衡,缓冲国家对个人权利的直接冲击,为言论自由实现提供相对宽松的空间;同时,正如前文所提到的,平台并不总是言论自由的保护者,新兴权力架构驱使其成为言论空间的又一权力增长极。因此,三元结构中的言论自由同时面临着来自平台与国家的双重保护和双重风险。平台和国家所采取的保护方式是不同的:平台作为社会权力提供的保护往往是在公权力规制下借助技术手段实现的,即以代码与算法的方式介入言论的表达与传播过程,国家则倾向于通过“行为主义”的方式预防言论的结果风险;平台可以直接作用于言论的主体,国家则通过其他主体或政策机制对言论主体施加间接影响;平台对言论发表与传播提供“事中”协助,国家则通过事前立法或事后的惩罚和救济予以保障;平台提供面向全体用户的无差别技术保障,国家则主要偏重于体现特定价值观念的某些言论类型。但更为重要的是,国家权力保护和以平台为代表的社会权力保护双层模式宪定性质、实质效能是根本不同的,当指向国家公权力风险时,平台是个人的佑护者;当指向平台社会权力风险时,国家是个人的佑护者。

总之,算法社会中,言论自由领域国家权力的宪定义务并没有发生变化;而新兴起的平台在言论领域中的角色是双面的,既可以是言论的保护者,也会成为侵害言论自由的帮手。因此,我们不能将言论保护寄希望于互联网秩序自创生;而要应对国家权力内在的“双刃剑”问题,必须重新界定国家保护的角色空间与作用方式。


三、算法社会言论自由领域的过程性规制


算法技术对社会生活的全面渗透,为国家积极作为提供了现实依据。算法技术深入生活各领域,并通过计算不同主体在地域、职业、生活习惯等因素上的重合,实现具有相同信息偏好的主体交叉,在增加了信息来源与信息结构复杂性的同时,将言论与社交、娱乐、消费等诸多社会领域深层融合。因此,算法社会的公共风险显著区别于从“街头发言者”到报纸电视的技术进步带来的言论场景变化,单一信息来源要素控制对言论风险的影响甚微,只有国家对数据和算法的全局性调整方有实现之可能。

算法社会言论的公共价值和公共秩序风险,构成国家积极规制的正当性来源。“以权利之名倡言的各种新思潮和新运动,如果剥离了权利话语据以证成的公共性资源,势必自断根基,极易膨胀为一种拒斥包容和沟通的‘唯我独尊’。”面对复杂多样的言论类型和内容,对言论自由的个体化理解,不仅容易造成实践中的权利滥用,也丧失了定义国家干预正当性以及权力边界的机会。算法社会言论领域国家规制的不力会导致对国家正当性的质疑。一是对作为抵御风险的国家组织形式正当性的质疑。作为一种组织形式,国家的重要目的之一即通过集体组织克服个体短视,增强集体抵御风险的能力。面对算法社会言论的割裂、分散和极端倾向,国家在抵御言论造成的社会分裂和动荡等公共风险上的不力,容易招致对其作为集体组织治理能力的质疑,国家的正当性会发生动摇。二是对国家权力运行正当性的质疑。言论自由作为民主秩序“绝对的建构性的要素”,该权利的保障是民主化程度的重要指标。算法社会言论带来的公共决策困难、“赢者通吃”实际效果以及平台借由言论排名输出的价值观扭曲,会同时破坏线上和线下两种环境,这样的“言论自由”难以继续成为民主化的可靠保证。因此,国家必须确保言论特别是公共性言论的自由健康表达。

全局性与公共性,既是国家在言论自由领域积极作为的现实依据,也影响着国家规制的具体方式。维护国家安全、公共利益和基本权利等公共目标框定了国家规制的角色空间,而具有全局性的多领域技术治理则影响着国家规制的作用方式。下面,我们结合各国的具体举措展开分析。

(一)实体规制的技术难题与宪法风险

国家对言论的实体规制历史久远,并沿袭至今。为防止言论分裂社会,国家往往从言论的实体价值出发,在禁止撕裂社会言论的同时,通过激励或扶持政策鼓励维系符合社会共同体价值观的言论。传统言论规制在算法社会的延伸,尽管已经考虑到采用过滤软件等符合网络技术特征的规制工具,但它们仍旧是从“行为主义”的规制方式出发的,难以回应算法技术的需要。以我国侮辱诽谤言论的刑法规制为例,此类言论只有在情节严重的情况下才构成犯罪,而情节严重“是一个相当具有容扩性的条件,可以容纳动机、行为规模、对象、具体方式、社会影响等与言论表达行为有关的诸多事实”。我国司法解释目前所列举的情节严重情形,比如点击、浏览、转发次数,被害人精神失常、自残、自杀等后果,多次诽谤他人或诽谤多人造成恶劣社会影响等,仍然延续传统物理世界的行为规制逻辑,单纯把行为的现实社会影响作为考量因素,忽视了算法技术条件下数据归类和数据关联在言论表达过程中产生的重大风险。同时,行为主义的规制模式只重视有偿删除信息,或以发布、删除信息为由要挟他人等显性的言论干预行为,忽视了有偿干预信息排名,利用机器人大规模刷帖等算法技术进行的隐性言论干预。总而言之,对规避算法社会言论的公共风险而言,实体规制是远远不够的,且面临着众多技术难题。

此外,实体规制本质上是基于言论内容的规制,极易引发合宪性危机。以刑法为例,由于其禁止性规定本身的模糊性与算法社会言论场景的复杂多变,刑法规制“天然具有侵犯公民言论自由的危险倾向”。而具有相对灵活性的言论激励政策同样面临宪法风险,比如,通过补贴等形式使个人或组织噤声的行为一般被推定为违宪。 就宪法对言论自由的保障机制而言,实体规制之所以存在风险,正是因为从言论内容出发容易引起国家权力膨胀。实体规制对信息池的塑造能力、对言论表达结果的直接干预能力,及其程序化和透明性的不足,极容易成为国家干预言论的借口。事实上,对言论内容是否具有公共价值、能否促进公共性的判断本身容易引发争议,影响到此类规制的实际效果。

(二)过程性规制可避免技术难题和宪法风险

过程性规制是国家为了规避算法社会言论风险,以平台为主要规制对象,对以数据与算法为主要内容的言论表达与传播过程进行的规制。它区别于将算法及其衍生品作为言论而进行的直接规制。在“布朗诉娱乐协会案”中,美国联邦最高法院认为视频游戏受宪法第一修正案保护,判决禁止在没有父母同意的情况下向儿童出售暴力电子游戏的法律违宪。视频游戏虽然依靠算法运行,但该算法的产出结果与文学作品无异,人们通过浸入式体验与算法设定的游戏人物进行沟通,在客观上产生了观点表达的效果。此类将算法及其衍生品视为言论,并从言论内容出发而为的规制,仍属于实体规制的范畴。

过程性规制对公共风险的化解,是通过规制数据和算法进而实现对言论的规制。言论主体的数据化人格决定了算法对信息的分配,算法对信息的分类、聚类等必须以数据为基础;同时,算法影响着言论表达的效果,“其排斥、涵盖、排名的权力决定着哪些公共印象是永久的,哪些是短暂的”,言论表达的最终结果都可转化成数据进入算法的新一轮信息分配过程。可见,进入算法社会,作为最终结果的言论表达只是言论的一个环节,数据和算法却实在地影响人们的信息获取、思维方式、行为习惯等言论的形成过程。算法社会言论的公共风险,并不只表现为作为结果的言论内容的极端化,而是蕴藏于言论生成的整个过程,包括信息同温层、封闭的言论社群,乃至算法对不同信息的分配权重。因此,对言论的规制不能坐待言论表达的结果及其风险的发生,而需要通过对数据和算法的过程性规制潜入言论的生成过程。

在很大程度上,过程性规制是价值中立的,它对所有类型的言论一视同仁。过程性规制不是从言论的实体内容出发的,并不直接针对某种具体的言论类型。与实体规制对仇恨言论、暴力言论、诽谤言论等言论类型的审查不同,过程性规制并不以言论的内容为标准主动识别哪些言论有益、哪些言论有害,而是关心信息的流动、言论的传播、言论的排名等程序性事务,而这些事务均与价值无涉。因此,过程性规制的一个显著优势在于,避免了在实体价值判断上的困难。

过程性规制对数据与算法的规制之目的在于打破算法社会网络言论的封闭环境,并扭转其极端倾向;其保护机制在于通过规范言论的运行秩序,防止强势言论主体垄断言论市场,并出现言论主体或社群间的以大欺小、以强凌弱。当出现纠纷时,过程性规制并不审查某一言论的内容是否有益,也不关心该言论的动机为何,而是关注该言论是否符合发言规则,是否通过技术手段(比如程序机器人)恶意扰乱言论市场,是否利用强势地位削弱乃至剥夺其他主体的发言机会等。因此,过程性规制并不单单侧重言论表达的结果,而是贯穿了言论表达的全过程,通过在事前信息获取、事中互动协商和事后言论效果等阶段确保言论空间的平等开放,以有效化解公共风险,实现言论保护的目的。

平台是国家过程性规制的重要凭借,对过程性规制的偏重,将影响到平台在言论保护中的功能发挥:一方面,过程性规制压缩了平台对言论的审查空间,减轻了平台私人言论纠纷裁判和公共利益衡量的双重压力,防止被附加过重法律责任的平台“进行较政府审查更为严格的自我审查”;同时,将平台的言论保护角色聚焦于与数据和算法相关的程序性事项,平台可以将更多的精力用于数据保护、算法创新等具有明显专业优势且符合其利益诉求的事务中。

我们尝试从数据保护的几个关键问题入手,分析过程性规制在个人数据保护与言论自由保障平衡中的作用机理。个人数据的身份识别特征影响着言论表达。按照是否可以识别主体身份,数据分为个人数据和非个人数据两类。当前法律对数据的保护主要集中于个人数据,而保护的原因则被认为是出于“隐私权等人格利益和财产权”的需要。事实上,是否识别身份这一特征的作用范围远远超出民事权利的保护,它通过数据种类划分建立相对隔离的数字空间,主体可以据此决定是否以及如何与社会发生联系。对言论自由而言,言论主体的身份凝聚了其社会关系和社会地位,这些与主体的思考方式密切相关;同时,言论是否与身份切割则影响着言论的表达,言论主体以何种身份发言直接影响到言论的内容、后果和影响力。所以,国家在个人数据身份识别方面愈加严格的规制,一方面在保护隐私权,另一方面也是在保护言论自由环境。

我国将知情同意作为数据处理的重要合法依据,构建起相对自主的言论自由空间,社会组织乃至国家均难以介入。通过知情同意保持个体在言论领域的独立思考和选择是必要的。有学者基于数据资源的公共性,建议将个人数据交由社会控制。从言论自由的角度来看,数据的社会控制存在风险,社会群体数据画像的趋同容易造成信息获取与言论表达的千篇一律,言论缺乏个性违背了通过言论自由确保多样性的初衷,并形成更大规模的言论回声室。在数据处理合法性上应参考“共同体的特点和具体场景中人们的普遍预期”,以调和知情同意作为数据处理合法依据的个人控制与强调数据公共性的社会控制之间的紧张,在言论表达空间上实现个体的自主性与社群开放性的统一。

在个人数据保护制度中,被遗忘权最容易与言论自由联系起来。有学者认为,当被遗忘权主体要求删除网络旧闻时,需要衡量所报道事件的公共属性、信息的时效性和报道对当事人的影响,从而实现当事人的被遗忘权与言论自由的平衡。此时,被遗忘权成为言论自由的限制性因素。但对算法技术下的言论自由而言,被遗忘权的主要功能并不是作为一项实体权利与言论自由形成权利冲突,而是“将信息与其关联的主体脱钩”,从而形成言论传播的信息阻隔机制。所以,本质上,被遗忘权是一项具有“过程性规制”属性的设置,只不过在立法技术上将之设定为一项请求权,以便更好发挥个体主动性,对平台形成有效制约。在国家法律强制和有效监管下,主体通过行使被遗忘请求权,平台通过删除数据痕迹使言论主体的数据画像得以更新,言论主体的信息接收和言论表达方能打破言论回声室,进而摆脱陈旧信息。正是在这个意义上,巴尔金教授把被遗忘权视作“国家吸收言论基础设施服务提供者及其治理能力”的一个例证。

数据保护中的国家规制体现了过程性特征,算法规制亦然。在算法价值观上,确保言论主体在算法服务可获取性上的平等,对信息的匹配、赋值符合正义观念;通过增加算法透明度展现代码程序的价值偏好,防止通过算法进行价值引导并裹挟舆论;通过算法升级打击程序机器人对言论环境和言论市场的干扰。与数据保护类似,上述对算法规制同样是过程性的。它回避了基于言论内容而进行的审查,并力图避免公共性判断,通过开放的信息获取、平等的言论表达以及秩序化的言论空间,影响言论的形成与传播过程。

国家上述数据保护和算法规制均从规避言论风险的全局性视角出发,积极介入言论表达流程,相比实体规制而言具有双重优势。一方面,过程性规制仅针对言论传播的数据和算法技术架构,降低了国家干预的宪法风险。过程性保护并不保护特定信息来源,或对某一种言论持有偏见;恰恰相反,它鼓励信息渠道的多元性和多种观点的交流碰撞。因此,个人数据保护和算法规制避免了基于言论内容限制的局限,而是面向所有言论主体,一视同仁地预防其在信息获取和言论表达上的偏狭。另一方面,从效果来看,从算法技术入手破解言论的公共风险更为有效。相较于实体规制对公共风险的点状修补,过程性规制贯穿言论表达的全过程,充分利用算法技术特征,通过抑制言论主体对单一信息来源的惯性依赖,以实现信息获取上的多元化;同时,它改变了“行为主义”规制下的个案审查,将规制范围覆盖所有接触相关信息的言论社群,通过打破言论社群的封闭状态,鼓励言论社群内部以及不同言论社群之间的沟通交流,避免社群的极端化倾向。


本文原载于《华东政法大学学报》2019年第6期。


    进入专题: 算法社会   言论自由   国家角色  

本文责编:陈冬冬
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 法学 > 宪法学与行政法学
本文链接:https://www.aisixiang.com/data/119251.html

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2024 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统