内容提要:自由、平等、民主、法治、公正是社会主义核心价值观中的五项政治价值,也是规范现代国家政治秩序的共同价值。在数字时代,这五项政治价值的内涵及制度形式被进一步拓展:第一,传统的积极自由理论与数字技术相结合有导向数字独裁的危险,而消极自由理论在数字时代意味着网络言论自由、网络结社自由、数字所有权、数字遗产、断网权等新形式的数字权利。第二,数字时代有着诸多加剧不平等的因素,例如数字鸿沟,人工智能广泛应用导致的失业大潮,数字资本对数字劳动的剥削,零工从业者缺乏劳动保障,以及数字经济中可能存在的花钱买流量、低价竞争、竞价排名等不正当竞争形式。对于数字时代的不平等问题,应通过社会分配制度的调整予以解决。第三,电子选举、网络协商民主以及舆情民主是数字民主的三种主要形式,电子选举使投票程序更为快捷,网络协商民主拓展了公共商谈的广度和深度,舆情民主则有可能扭曲民意、颠覆代议制民主。第四,数字时代的法治在立法和执法两方面都有实质性的演进,人工智能开始介入立法和执法,而大数据应用则催生了“预测警务”。第五,数字时代的程序正义集中体现为算法正义,平等、公开、准确、尊重和可问责是判断算法是否正义的根本标准。
关 键 词:数字权利 数字鸿沟 数字民主 “预测警务” 算法正义
人类社会止在以越来越快的速度迈进数字时代。尤其是2019年新冠疫情以来,国家的许多公共事务不得不借助数字技术在网络环境下进行。由此,数字治理、数字民主、数字权利等与人类政治事务紧密相关的新观念层出不穷。自由、平等、民主、法治、公正①是社会主义核心价值观中的五项政治价值,也是规范现代国家政治秩序的共同价值。在数字技术广泛应用的背景下,本文尝试分析这五项政治价值扩展出的新内涵,以及表现出的新制度形式。
数字时代的自由
在政治学理论中,对于自由的讨论以英国政治思想家以赛亚·伯林(Isaiah Berlin)最为著名。伯林将自由分为两种:积极自由与消极自由。积极自由通常将“自我”分为较高自我(理性自我)和较低自我(欲望自我),而所谓的“自由”就是较高自我对较低自我的控制。所以,积极自由的含义经常被表达为:做自己“真正想做的事”。伯林将卢梭的自由理论作为典型的积极自由学说进行批驳,而卢梭将人们“真正想做的事”与“公意”概念联系起来,认为所谓自由就是听从公意的指挥,并由此而推导出“强迫自由”理论:“任何人不服从公意的,全体就要迫使他服从公意。恰好就是说,人们要迫使他自由。”②与积极自由不同,消极自由是“非干涉”的自由,亦即,在不受他人和政府干涉的范围内,人们可以做自己想做的事。③
在数字技术普遍应用的背景下,积极自由和消极自由衍生出新的内涵。首先,在数字环境下,人们可能借助数字设备而拥有“数字自我”,而这个自我则可能充当积极自由理论中的“较高自我”,并对现实中的“较低自我”发号施令。事实上,各种数字设备以其计算、记忆、数据量等优势,正在越来越多地为人们做出决策,这方面表现尤为突出的就是大数据应用下的人工智能技术。例如,导航系统已经超越了人的直觉和经验,成为人们行动的总指挥。而各种可穿戴的数字设备能够实时监测人体的各种指标,并在健康和安全的名义下指挥人们的一举一动。美国科创公司研制出一款电击手环(Pavelok),手环与智能手机相关联,如果手机用户未能完成之前自己设定的目标,例如戒烟、停止咬指甲、早睡等,那么手环就会释放电流电击用户。另一款智能耳机则可以根据用户颌部的运动和声音,推算出其进食的速度、吞咽下的食品数量和摄入的卡路里。一旦摄入量超过之前规定的数量,智能耳机就会对用户进行惩罚。④这两种数字设备背后的逻辑正是卢梭的“强迫自由”学说。将“现实自我”对“数字自我”的服从当作是自由。
伯林在批评积极自由学说时最大的担忧就是:积极自由理论将服从外在政治权威当作自由,并以此为借口强迫人们做他们不愿意做的事,这将导向专制和独裁。而在数字环境下,强迫自由和独裁统治的风险可能更高。马斯克的“神经链接公司”(Neuralink)已经为猴子装上了脑机接口,猴子能够通过意念打字,向人类索要甜点,该公司还推出为人类安装脑机接口的手术机器人,在模拟手术中,只要15分钟就能完成脑机接口的人脑安装。同时,马斯克还宣称要在自己的大脑里安装脑机接口。⑤试想,如果有一天所有人的大脑里都安装了脑机接口,那么,人们在获得通过意识就能交流之便利的同时,也会将自己的意识暴露无遗。而如果这些数据都由某个政治权威掌握的话,他是否就拥有了“狠斗私字一闪念”式的控制所有人思想的能力?只要谁的大脑里闪过反抗的念头,电子手环就会电击他,直到他的脑回路被改变。这样人类将彻底失去思想的自由。因此,我们是不是可以说“数字技术+积极自由=数字独裁”?数字技术对“自我”的入侵和控制到底是增强了人类的自由,还是限制了人类的自由?
与积极自由理论不同,消极自由捍卫人们不受政府干涉的各项行动。这些行动自由体现在制度设计中就是各种“权利”。例如,迁徙的自由、择业的自由、言论自由、出版自由、财产自由等等。在数字社会中,人们在网络空间中的行动需要以新的“权利项”予以规范,在原有各项权利的基础上,还需要构建适合数字时代的新的权利概念。例如,网络言论自由、网络结社权、数据所有权、数字遗产以及断网权等等。在数字时代,消极自由理论家尤为珍视的言论自由和结社自由衍生为网络言论自由和网络结社自由。网络言论应该受到什么样的限制?网络水军、人肉搜索是否包含在言论自由的范围之内?是否应该实行网络实名制?谁有合法权力删帖、封号、推荐、置顶?这些新的制度问题都与网络时代的言论自由息息相关。相应地,网络时代的结社自由也有了新的动向。网络结社更为便捷也更难监管,论坛、朋友圈、微信群都带有结社性质。在哪些情况下可以封论坛?可以“炸群”?微信群的群主应负有什么样的责任?另外,数字经济以大数据为基础,而这些由网络用户免费提供、平台收集整理的海量数据到底归属于谁?而在人们逝去后,那些保留在网络空间中的文字、图片、音频、视频、公众号等数字财产又属于谁?还有,在数字治理中人们有没有权利切断网络,拒绝被治理?这些都是网络时代出现的新的与权利相关问题。⑥总之,在数字时代,积极自由和消极自由都被赋予了新的内涵,政治学学者应积极关注数字时代人们的自由,及时预警并对制度设计提出有益的建议。
数字时代的平等
数字技术的应用让人类社会更平等还是更不平等呢?一方面,随着网络技术的普及,每个人都有发言的机会,能够通过直播、视频、音频、图片等方式发挥自己的才能。网络经济的发展则让每个人都有了开网店的机会,各式各样的网络金融产品也增加了人们创业的机会。此外,网络教育、网络医疗等便利的网上资源促进了人们在受教育以及健康方面的平等。另一方面,由于数字设备分布不平衡等原因,不同人群之间存在着“数字鸿沟”,一些人被排除在数字世界之外。而即使消除了数字鸿沟,人们从网络上获取资源的数据和质量也在很大程度上受到其知识储备和社会阶层的影响。最明显的对比就是,城市孩子可以在家长的指导下上网课,很多农村留守儿童则沉迷于电子游戏而无法自拔。⑦一定程度上看,人与人之间的平等关系是由一个社会的经济模式决定的。经济模式决定社会的财富分配,而财富分配不均又会影响政治权力的分配,并最终强化人与人之间的不平等。数字时代的经济活动由于数字技术的普及而更加活跃与便捷。然而,在数字经济中存在着多种可能加大人们之间不平等的因素,这使得贫富差距加大成为近二十年来世界上大多数国家的普遍现象。数字经济中可能加剧不平等的因素有四种:人工智能应用导致的大规模失业;数字资本对数字劳动的剥削;零工从业者缺乏劳动保障;数字经济中存在的不止当竞争。
第一,人工智能代替人力,这是数字时代的重要特征之一。在这一过程中,大规模失业成为一个必然现象。2019年新冠疫情以来,失业成为全世界范围内的普遍现象。⑧如何应对失业是数字经济能否持续良好发展的关键。在这一问题上,可能出现积极和消极两种应对方式。消极应对就是抵制机器对人力的取代,即使有能够代替人类工作的人工智能设备也不采用,以此保住大部分人的工作。然而,这种应对方式显然只是暂时的。从人类的发展史来看,每一次技术进步都会带来社会生产力的巨大进步,都将人类文明推进到一个新的发展阶段。当然,每次技术进步都会有“牺牲者”,也都有壮怀激烈的抗争。例如,工业革命初期捣毁机器的“卢德主义者”,⑨20世纪末反对现代科技的“新卢德主义者”。然而,人类社会进步的车轮不会因此而停止。所以,我们应以积极的方式应对数字经济中的失业问题。一方面,为失业者提供“终身学习”的便利条件;另一方面,通过分配制度的调整以“全民基本收入”等政策保证失业者的基本需要得到满足。“全民基本收入”(UBI)是比利时哲学家菲利普·范·帕里斯(Philippe Van Parijs)提出的一种分配方案,主张给予所有社会成员一笔固定收入,无论人们是否工作,也无论他们是否处于贫困之中。帕里斯是一个分析马克思主义者,他继承了马克思共产主义的思想。帕里斯认为,社会财富的总资产属于所有社会成员,而每个月给予人们一笔固定收入,这正是以“社会分红”的方式肯定人们的这种权利。⑩“全民基本收入”是应对数字经济中失业问题的一剂良药,2019年新冠疫情以来欧美国家开始尝试以该政策缓解失业带来的经济问题。(11)一些中国学者也根据中国的实际情况设计了中国版的“全民基本收入”政策,(12)这是解决疫情影响和失业问题的有益尝试。
第二,在数字环境中,人们的一言一行都会留下数字痕迹,而这些数字痕迹则会形成庞大的数据库。大数据应用是数字时代的知识生产方式,通过找出不同数据之间的相关性,数据拥有者能够获取许多知识,而这些知识则可以产生价值,人们的消费倾向、政治信仰、兴趣爱好等都可能具有商业价值。从马克思主义政治经济学视角来看,数字经济的运行模式正是数字劳动积累形成数字资本的过程。数字资本通过大数据交易而获利,而人们进行的数字劳动却是无报酬的,这其中必然包含了数字资本对数字劳动的剥削,这种剥削使得数字经济中包含了不公平的因素。对于这一不公平因素,目前国际社会主张通过数字税来进行纠正。例如,2021年经合组织(OECD)发布了关于国际企业(尤其是跨国数字企业)所得税改革的“双支柱”方案,2023年开始实施。除此而外,笔者认为,在某些情况下也可以通过开放数据库来消除数字资本对数字劳动的剥削。例如,包含SCI、SSCI、CSCI、CSSCI在内的各类科学引文索引都应该面向公众开放,这些数据是人类知识共享的宝库。当然,这些数据的搜集者做了许多整理和编辑的工作,这部分人力物力应该得到相应的报酬,但是,数据库的数据来源却是千千万万的作者,这其中包含的不公平问题应该通过更大程度地开放数据库予以解决。
第三,在数字经济中,人们工作的方式发生了相应的改变,一个显著的变化就是零工经济的兴起。相关调研数据显示,中国在2019年约有8400万人从事零工工作,国内灵活用工市场规模已达4787.69亿元。(13)据阿里研究院预测,2036年将有4亿中国人选择在互联网平台谋职。然而,在劳动形式发生变化的同时,对劳动者的保护并没有跟上时代的脚步。一方面,因为这些零工从业者并不固定受雇于某企业,所以没有公司为他们提供相应的劳动保障。另一方面,由于平台经济中平台对数据的垄断,例如滴滴公司对用车需求数据的垄断,零工劳动者在议价过程中处于相对弱势的地位,并由此而受到更深的剥削。鉴于这些情况,劳动保障制度亟需更新。只有有效地保障零工劳动者的劳动权利和平等的议价地位,才能维护数字经济的公平,缩小贫富差距。
第四,数字经济中还存在着许多不正当竞争方式,如花钱买流量、竞价排名以及低价竞争,在这三种竞争方式中,只有那些拥有雄厚资本的企业和商家能够胜出。这就有可能加剧数字经济的不公平,拉大贫富差距,导致数字巨头对数据和资本的垄断,破坏公平的自由竞争。由此,反垄断、以法律法规严格限制不正当竞争的发生将成为维护数字时代公平的重要措施。
数字时代的民主
数字技术的普遍应用促进了民主政治的深入发展。电子选举、网络协商民主和舆情民主(14)是数字民主的三种主要形式。电子选举增强了选举活动的效率,网络协商民主是选举民主的有益补充,而舆情民主则可能从根本上颠覆民主政治。
首先,从1981年乔姆等提出第一个电子选举方案开始,(15)电子投票被越来越多地应用到选举过程中。巴西、印度、美国、德国、挪威、加拿大、韩国等国的总统或议会选举都曾尝试过电子投票。我国也尝试过将数字技术应用到民主选举的过程中。1990年,我国七届全国人大三次会议第一次使用电子表决器。投票过程的数字化大大提升了选举的效率、准确性和便利性。近几年来,随着区块链技术的发展,一些学者提出“区块链民主”。(16)区块链技术具有去中心化、不可篡改、透明度高和伪匿名性等特征,能够保证民主投票的准确性和匿名性,有效防止贿选、数据篡改等问题。2015年,学者们第一次在电子投票中使用了区块链技术。(17)此后,区块链技术得到进一步发展,出现了使用“智能合约”的区块链2.0和区块链3.0等投票方案。
其次,商议与投票是民主政治包含的两项重要内容。电子投票使得投票过程更为高效,而网络协商民主则为商议过程增添了多重路径。在中国,各级地方政府都积极建设人们参政议政的网络渠道,发展出诸多具有中国特色的网络协商民主形式,主要有以下几种:(1)网络定期专时协商模式。例如,在每年两会期间,人大代表、政协委员通过网络平台与百姓互动、探讨相关提案。(2)网络专人协商模式。通过电话、电子邮件、网上留言等渠道收集人们关于公共政策的信息。(3)各政府部门网站都开通了举报、投诉渠道,通过电子邮件、电话等形式,人们能够更好地监督各级政府部门及相关企事业单位的工作,充分发挥协商民主的监督功能。(4)为了推动公共政策制度的民主化,一些地方政府还开展了有第三方决策机构参与的网络协商民主活动。总之,通过拓展各种网络途径,人们能够更好地介入公共事务的商谈当中,参与公共政策的制定。
最后,如果说电子投票使得民主更为高效,网络协商拓展了民主的广度和深度,那么舆情民主则可能颠覆现有的代议制民主。通过代表代为表达民意是代议制民主的基本特征,然而,数字技术的发展则可能削弱设立政治代表的必要性。在数字时代,人们可以通过多种途径直接表达自己的意见,相比通过代表代为表达,网络表达更为高效快捷。由此,所有人在网络中直抒胸臆似乎成了数字时代最直接的民意表达。但这种民意并不一定是真实的民意,很有可能被歪曲、炒作。舆情受到多种因素的影响,资本引流、网民泄私愤、水军炒作等情形都可能掀起舆情的巨浪。因此,在数字时代,为了让民主得到更好的发展,引导民意的理性表达,舆情治理和民主制度创新应结合起来。从中国的情况来看,可以在全国人民代表大会以及省市各级人民代表大会下设立舆情监督委员会,对舆情所反映的社会问题进行核查和整改,并对相关权力部门进行监督。
总之,数字技术或许为人们提供了从间接民主回到直接民主的可能,数字时代民主政治健康发展的关键在于民意的理性表达,以及协商和投票过程的数字化。
数字时代的法治
在人工智能、大数据应用等数字技术的推动下,数字时代的法治也将发生深刻的变化。这种变化主要体现在立法和执法两个方面。在立法方面,人工智能开始参与立法,一些电脑科学家甚至认为不需要借助民主程序立法,“算法”就是法律。在执法方面,人工智能有可能成为执法者或执政者,而大数据应用则催生了“预测警务”。立法和执法两方面的数字化进程将深刻影响人类社会的秩序建构和秩序维护。
第一,在立法方面,人工智能正在介入立法过程,而人工智能立法却有可能侵占人们的民主权利。在民主社会,立法是最主要的民主过程,立法权是国家主权的核心内容,而民主国家的主权者是人民,只有人民或者人民的代表才拥有立法权。然而,立法同时也是一个需要专业知识的复杂过程。例如,如果没有环境保护和法律相关的知识是不可能胜任环境立法这项重任的。由此,在民主社会中,通常由议会(在我国是全国人民代表大会)下属的专门委员会负责起草、修改、核定等立法工作。在这一过程中,人工智能可以代替人们做许多事情。人工智能有着海量的知识储备,并且能够自动对照其他相关法规进行核查。以“北大法宝”为例,“立法工作者只需将立法调研信息提交给机器,再输入所需立法的主题、标准和要求,人工智能系统便可自动生成一部可供参考的法律草案文本”。(18)然而,从政治层面来讲,人工智能立法可能存在三个方面的问题:一是人工智能没有立法资格,立法资格属于人民的代表;二是人工智能的立法过程(算法)难以向公众公开,这会影响公众的知情权;三是人工智能建立在深度学习的基础上,而从其学习的材料中,人工智能可能定立包含偏见的法律。例如,在美国的语境下,如果非洲裔美国人的高校入学率普遍低于欧洲裔美国人,那么人工智能就可能据此而制定出非洲裔美国人高校入学率应低于欧洲裔美国人的法律。而这样的法律显然是包含歧视的,它反映了现实存在的不公平现象。由此看来,数字时代的立法是否要引入人工智能,在多大程度上引入人工智能,如何规避人工智能立法的弊端,这些都是值得进一步研究的问题。另外,一些计算机科学家甚至认为,人类社会应该以“算法”代替法律。如《拯救一切,点击此处——技术解决方案主义的愚蠢》一书所言:“既然我们有了摄像头和反馈回路,为什么还要依靠法律呢?科技难道不就是在那儿用来帮助我们的吗?这种新型管理方式有个名字:算法规则。在硅谷的范围内,大数据公司拥有的政治程序,就是算法规则。”(19)在这些电脑科学家看来,算法是中立的、不会出错的,而人类通过民主程序制定的法律却总是漏洞百出。如果有一天算法真的代替了法律的话,人类的大部分民主权利都将被少数电脑科学家和拥有大量数据的数字巨头所侵占。
第二,在数字时代,人工智能不仅试图充当立法者,还试图充当执法者和执政者。英国《明星日报》网站2018年4月19日报道,在日本东京多摩市的市长竞选中,有一位候选人是一台机器人。2022年5月,丹麦的艺术家组织(Computer Lars)和非营利的艺术和技术组织(MindFuture Foundation)创立了机器人政党——“合成人党”(The Synthetic Party),其名义领袖是AI聊天机器人(Leader Lars)。机器人执政会不会成为现实,这是一个值得政治学者深入思考的问题。在这一问题上,哪怕大多数人拥护一个人工智能执政者,那也还存在下述困难:机器人并非责任主体。机器人不具有自主性,其行为、意志和决定都是由设计机器人的程序员间接决定的。所以,机器人如果在执政过程中出现失误,就很难找到相应的责任人。而且,机器人执政也并非像其支持者所鼓吹的那样能够有效避免腐败等问题。因为,算法终究是人设计的,在算法难以被公众充分理解的情况下,黑箱之内更容易滋生腐败,而其中包含的不公平将更难以消除。
第三,在执法方面,大数据应用催生了“预测警务”,亦即,通过数据对比找到相关性,在犯罪事实发生之前预先锁定罪犯。“预测警务”的明显优势是能够有效降低警力成本,将有限的警力用于防范“重点人群”。然而,这么做却有歧视某些人群的嫌疑。例如,如果将社保数据和犯罪记录的数据相对比,可能会发现,那些经常领取社保补助的人的犯罪率也相应较高。但是,如果对那些领取社保补助的人严加防范,或者将其带回审问,则显然侵犯了他们平等的权利和自由。毕竟,人是有自由意志的,并非被过往的记录或任何既有数据所决定,大数据预测的罪犯并非一定会犯罪。在执法方面的另一个新动向是,在不久的将来,可能出现携带致命武器的机器人警察。好莱坞大片里那种机器人向人类开枪、射杀的场面可能真会出现。据英国《卫报》2022年12月7日报道,旧金山政府批准机器人警察可以在任务中使用“致命武力”,这引发美国民众的恐慌。于是,旧金山政府又投票决定禁止机器人警察在执行任务时“击毙目标”。人类或许正处在构建未来人机秩序的关键节点上:人类利用机器(人)执法的限度在什么地方,是否可以射杀罪犯,这是值得政治学者思考的重大问题。
数字时代的程序正义
程序正义是现代社会正义的主要内容。所有公共事务都要通过某种符合政治原则的程序来进行。从立法、执法到公共政策的制定,再到教育、医疗、社保等资源的分配,都必须在程序正义的主导下进行。在数字时代,程序正义集中体现为算法正义。这是因为数字治理成为社会治理的主要模式,而数字治理则必须依赖一个个具体的算法。由此,从程序正义的角度,可以对主导公共事务的算法提出诸项要求。从当代学者的讨论中,我们可以总结出程序正义的五个特征:平等、公开、准确、尊重、可问责。(20)换言之,满足了这五个道德要求的程序才称得上是程序正义。同样,只有满足这五个道德要求的算法才具有算法正义的特征。
第一,平等待人是算法正义的第一个特征,这一道德原则要求去除“算法歧视”。所谓算法指的是“人类通过代码设置、数据运算与机器自动化判断进行决策的一套机制”。(21)而这套机制却有可能将不公平的因素混入公共决策当中。“算法歧视”包括“显性的”和“隐性的”两种。显性的算法歧视指的是算法设计者将自身的价值偏见带入算法当中。例如,一个歧视女性的电脑科学家可能设计出“拒绝女性求职者”的招聘算法。这类歧视通常显而易见,也容易去除。相反,隐性的算法歧视并不是由设计者导入的,而是人工智能通过深度学习而形成的。例如,一个设计放贷算法的人工智能在学习了大量放贷和还贷数据之后可能发现,手机用户的还贷率偏低,那么它就会自动生成一个提高手机用户贷款难度的算法,而这实际上构成了对手机用户的歧视。由此,隐性的算法歧视呈现出个别性(不一定是歧视某个固定的群体)特征,这样的歧视更难被发现,也难以从根本上去除。尤其是在“个性化定价”“个性化服务”等名目下,这类通过大数据画像而进行区别对待的做法还有可能被现有的法律所认可。例如,我国的《个人信息保护法》《互联网信息服务算法推荐管理规定》《浙江省电子商务条例》等规定禁止“不合理”的算法个性化定价,但并没有禁止所有的个性化定价。
第二,消除算法歧视的最有效途径就是算法公开,然而,在是否应公开算法以及如何公开等问题上,学者们存在诸多争议。一些学者认为,算法具有知识产权的特征,不应无条件公开。(22)另一些学者认为,主导公共事务的算法公开可能会受到黑客攻击,使国家和社会受到巨大损失,所以不宜公开。(23)还有一些学者认为,算法主导公共事务,公众有知情权,因此算法不仅应该公开,设计算法的电脑科学家还应该负责向公众解释算法。(24)为了解决与算法公开相关的各种问题,我们可以构想算法的“有限公开”:由电脑科学家和政治学、伦理学等学科专家组建团队,并由他们对算法的公平性、准确性、可问责性等特征予以审查。或者,通过统一的考核而制定专业“算法师”制度,由算法师对特定算法进行审查。
第三,准确反映相关情况也是程序正义的要求之一。例如,考试是一种分配教育资源的程序。考试应准确反映学生掌握知识的情况,这就是程序正义的要求。因此,算法能否准确反映实际情况是决定算法是否正义的关键因素之一。在这一问题上应该明确的是,算法可能出错。2018年11月21日,智能摄像头错拍了公交车身广告上某知名企业家的照片,并在路边液晶屏上公开曝光,将其当作闯红灯最多的行人。(25)这样的案例充分说明,算法并不是罗尔斯所说的“纯粹程序正义”,(26)人们不应该无条件接受算法导出的结果。对于人们有疑问的结果,应该有相应的问责机制。在某些情况下,还应该能够启用人工决策机制。例如,根据欧盟制定的《通用数据保护条例》(GDPR)第22条的规定,应当至少保障个人获得人工干预的权利,以及表达自己意见和质疑决策的权利。
第四,保护人们的尊严同样是程序正义的要求。在数字时代,这一要求与人们隐私的保护息息相关。许多数字技术的应用都是以大量数据积累为基础的,没有大数据,机器就缺乏分析和学习的材料。由此,在数字时代,隐私保护与数字技术发展构成一对矛盾。为了发展数字技术,所有的数字平台都会尽量多地收集与用户相关的各种数据,而这可能侵犯人们的隐私权。例如,一些保险公司希望能够尽量多地挖掘与人们的身体状况相关的信息,包括血压、血糖、遗传病史、睡眠状况等,以便提高与健康相关的保险产品的利润,而这则可能冒犯当事人的尊严。因此,为了保证算法正义,必须限制网络平台对个人数据的采集,维护网络用户的隐私权。具体说来,在制度设计上应保护网络用户的知情权、拒绝权、访问权、数据修改权等等。网络平台应在人们被告知的情况下采集相关数据,并赋权网络用户,使得他们有权访问、修改和删除相关数据。总之,在数字时代,算法主导着公共治理,算法正义是程序正义的具体体现。算法应满足平等、公开、准确、尊重、可问责五方面的道德要求,这也是社会正义的要求。
上述讨论了自由、平等、民主、法治、公正五种政治价值在数字时代衍生出的新的内涵和相应的制度问题。除此之外,数字时代还面临着其他一些政治问题,例如,数字时代的国际关系将受到未来战争的深刻影响,信息战、数据战、机器人战争、外太空武器等新的战争元素将在不远的将来决定国际格局。2021年被称为元宇宙元年,元宇宙是否提供了一种“去中心化”的新的政治权力结构?与元宇宙相对应的是以“比特币”为代表的数字货币的产生和应用,数字货币将如何参与到既有的资源分配中来?上述问题都是数字时代可能遭遇的。党的二十大报告指出,“中国式现代化的本质要求是:坚持中国共产党领导,坚持中国特色社会主义,实现高质量发展,发展全过程人民民主,丰富人民精神世界,实现全体人民共同富裕,促进人与自然和谐共生,推动构建人类命运共同体,创造人类文明新形态”。中国式现代化一定包含数字化的内涵,在席卷全球的数字化浪潮中,中国学者应勇当时代的弄潮儿,对数字时代可能遇到的制度问题进行预判并开展深入分析,积极参与全球数字社会规则的制定,并争取主导全球的数字化进程。
注释:
①中文中的“公正”与“正义”对应于英文里同一个概念“justice”,一些译者将这一概念翻译为“公正”(例如:廖申白翻译的亚里士多德的《政治学》),另一些则将其翻译为“正义”(例如:何怀宏翻译的约翰·罗尔斯的《正义论》)。本文将这两个概念视作同一政治价值,在讨论数字时代的公正问题时依据语言习惯使用“程序正义”与“算法正义”等术语。
②卢梭:《社会契约论》,何兆武译,商务印书馆,2005年,第24页。
③参见Isaiah,Berlin,Two Concepts of Liberty,Oxford:Clarendon Press,1958,p.11。
④(19)马尔克·杜甘、克里斯托夫·拉贝:《赤裸裸的人:大数据隐私和窥探》,杜燕译,上海科学技术出版社,2017年,第57、63页。
⑤2022年11月30日,“神经链接公司”(Neuralink)举办了技术展示活动“Show and Tell”,相关信息可参见关于此次活动的网络报道。
⑥对数字权利的深入讨论,参见李石《数字时代的权利规制》,《国家治理现代化的哲学理据:首届桂子山政治哲学论坛论文集》,社会科学文献出版社,2023年。
⑦李万发、贾丽娟:《沉迷手机游戏的留守儿童问题分析——基于多中心治理视角》,《社会与公益》2020年第7期。
⑧参见刘学良、宋炳妮《新冠肺炎疫情下的失业情况、失业率修正及就业》,《中国劳动关系学院学报》2021年第4期。
⑨在工业革命初期,一些英国工人觉得机器让他们失业,于是就组织起来破坏工厂的机器。因为捣毁机器的运动最先是由一位名叫内德·卢德(Ned Ludd)的工人引发的,所以这些人就被称为“卢德主义者”。
⑩关于“全民基本收入”的深入探讨,参见李石《“全民基本收入”是通向共产主义的现实之路吗?》,《外国社会科学前沿》2022年第6期。
(11)参见赵柯、李刚《新冠肺炎疫情冲击下西方国家经济救助政策新取向》,《当代世界与社会主义》2021年第3期。
(12)参见翟东升、王雪莹、黄文政、李石等《未来起点收入——共同富裕时代的新型再分配方案初探》,《文化纵横》2022年第5期。
(13)国家信息中心分享经济研究中心:《中国共享经济发展报告》,http://www.sic.gov.cn/News/557/10779.htm。
(14)目前学术界并没有出现“舆情民主”这一概念,因为绝大部分学者并不认为由舆情主导的民意混战是一种新的民主形式。本文使用这一概念,以描述舆情影响下的民主政治。
(15)L.Chaumd,"Untraceable Electronic Mail,Return Address,and Digital Pseudonyms",Communications of the ACM,Vol.24,No.2(1981),pp.84-90.
(16)参见王勇刚《机遇抑或挑战:区块链技术与当代西方民主困境》,《哈尔滨工业大学学报(社会科学版)》2021年第2期。
(17)Zhichao Zhao,T.H.Hubert Chart,"How to Vote Privately Using Bitcoin",International Conference on Information and Communications Security,2015,pp.82-96.
(18)刘佳明:《人工智能立法的运用及其规制》,《湖南大学学报(社会科学版)》2021年第1期。
(20)参见David Miller,Principles of Social Justice,Cambridge:Harvard University Press,1999;季卫东《法律程序的意义》(增订版),中国法制出版社,2011年,第37页。
(21)参见丁晓东《论算法的法律规制》,《中国社会科学》2020年第12期。
(22)参见李安《算法透明与商业秘密的冲突及协调》,《电子知识产权》2021年第4期。
(23)参见A.Burt,The AI Transparency Paradox[EB/OL],https://hbr.org/2019/12/the-ai-transparency-paradox.
(24)参见Gianclaudio Malgieri,Giovanni Comande,"Why a Right to Legibility of Automated Decision-Making Exisit in the General Data Protection Regulation",International Data Privacy Law,Vol.7,No.4(2017)。
(25)参见李微希《“刷脸”刷新世界纪录》,《当代党员》2019年第5期。
(26)“纯粹程序正义”的含义是:不存在独立于程序的判断结果是否正义的标准,只存在一种正确的程序,如这一程序被严格地遵循,那么其结果不论是什么都应该被接受。参见约翰·罗尔斯《正义论》,何怀宏、何包钢、廖申白译,中国社会科学出版社,2006年,第85-87页。