余盛峰:法律与自由主义技术伦理的嬗变

选择字号:   本文共阅读 3548 次 更新时间:2021-03-25 15:59

进入专题: 自由主义   技术伦理  

余盛峰 (进入专栏)  


在传统农业时代,技术只是辅助人力零星地使用,技术伦理问题不足以成为思想家的核心议题。至少要到十八世纪工业资本主义兴起,当大规模技术设施、技术装置和技术工程逐步推广时,才产生了所谓的技术伦理问题。

而在这个时代,处于支配地位的道德哲学、社会哲学与法律哲学,乃是古典自由主义理论,即由康德、密尔、洛克等思想家为代表的自由主义伦理。由于这样一种特定的历史亲和关系,近代以降的技术伦理,也就自然继承了自由主义的一系列基本原理。换言之,古典自由主义塑造了现代技术伦理的原则。但是,晚近信息技术发展对自由主义技术伦理带来了深刻的挑战,如何回应这些挑战?这就需要我们思索未来新的技术伦理原则框架。

1

塑造现代技术伦理的首先是康德的自主原则(Respect for Autonomy)。在康德看来,每个理性人都具有运用理性自主承担行动责任的能力,“要有勇气运用你自己的理智”。理性主体拥有自主选择的权利,因为这事关他的道德尊严。即使这样的选择对其不利,但若非经由他们同意,也不能对他们的行动进行干涉或替代他们做出选择。落实于技术伦理领域,康德原则就尤其强调“个人自主权”及“知情同意权”。

由于技术应用可能使他人陷入不利局面,所以有必要事先征求同意(或意见)。因此,所有现代医学伦理和实验伦理,都主张必须在手术及科学研究开展前,事先取得患者或受试者的知情同意。患者或受试者经由知情同意,基于自己的理性判断做出决策,自主承担责任,自愿接受由此可能带来的风险。一九一四年美国的舒伦多夫诉纽约医院协会案是知情同意原则发展史上具有里程碑意义的案件。著名的卡多佐法官(Benjamin Nathan Cardozo)审理了此案,在判决书中做出了经典的判词,奠定了知情同意原则的基石。卡多佐法官写道:“每一个成年的心智健全的人都有权利自主决定如何处置自己的身体,医生未经患者同意就进行手术构成企图伤害,并应因此负赔偿责任。”

究其实质,康德的自主原则实现了对技术风险和相应法律责任的一种理性配置。根据知情同意原则,患者或受试者自主做出同意的决策,因而不再把责任施加于医方或研究者,这样就实现了技术风险的有效转移和合理分配,顺利推动了各种医疗诊治和科学实验活动的展开。技术伦理不只是形而上学的高蹈理想,而必须镶嵌到整个现代社会功能系统的分化与演化,以及工业时代的经济和社会的基本制度安排逻辑中予以理解。

事实上,康德自主原则这一主要作为工业世界技术伦理与技术风险分配的机制,也同样延伸到了网络世界。在今天的互联网领域,例如涉及隐私与个人信息保护问题,也都广泛采用了主要基于康德主义的“知情—同意原则”。“‘告知—选择’被内建为数据控制者和数据主体的基础法律关系。”即,只要互联网平台(或相应APP)事先告知了相关的隐私政策,就代表你已经明示或默示做出了自主同意,那么,此后平台(APP)进行的各种信息收集、处理、存储和传播行为,也就具有了基于自主原则的技术正当性。

其次是密尔在《论自由》一书中提出的著名的伤害原则(Harm Principle)。只要不造成伤害,行动就是自由的。这也被称为“不干涉原则”:“对于文明群体中的任何一个成员,之所以能够使用一种权力反对其意志又不失为正当,唯一目的只能是防止伤害到他人。”

密尔的伤害原则对应于技术伦理领域,其含义即为:在尽到合理的注意义务和信义义务之后,除非对人造成明确的伤害,或有明确伤害的危险,技术实践就应是自由的。在早期工业资本主义发展阶段,密尔原则通过紧密配合民事侵权领域的过错赔偿原则,为早期工业化的技术发展与市场开拓提供了充足的自由空间。直到二十世纪之后,伴随福利国家制度与商业保险技术的兴起,侵权领域的过错原则才被无过错原则和严格责任原则(Strict Liability)取代,技术伦理的天平开始从工业企业发明家与资本家一方,逐渐倾向作为弱势群体的普通公民和消费者一方。特别是在欧盟,晚近以来,密尔的伤害原则逐渐被风险预防原则(Precautionary Principle.即,只要风险存在,公共机构就可以采取预先保护措施,而无须等到风险的事实和严重性明显时才开始行动)取代,后者成为技术伦理的首要标准。

而传统互联网世界在众多领域都沿用了密尔的伤害原则,即只要不造成“伤害”,互联网的各种信息实践就应是自由的,这成为约翰·巴洛(John Barlow)笔下赛博空间野蛮生长的重要伦理依据。以网络色情为例:据报道,美国境内服务器的色情网页在二〇〇六年就达2.45亿个,占全球色情网页总数的89%。而美国政府之所以未能“扫黄”,很大程度上就是因为美国宪法第一修正案的表达自由条款。在“不雅”(Indecent)、“色情”(Pornography)与“淫秽”(Obscene)的区分上,司法者往往采取较为弹性的标准,只要不构成严重的下流(Lewd)、猥亵(Lascivious)、肮脏(Filthy),通常将其作为“一般色情”而非“伤害”处理。

当然,“伤害”概念的辨析往往成为技术公共政策讨论的焦点,在不同时代和不同社会群体之间会形成相当不同的理解,由此也成为社会集团角力的核心战场。例如,历史上色情文学出版商与反色情的女权主义者(Anti-Pornography Feminism)围绕色情作品的法律政策有过长期的争论。同样的道理,在儿童福利保护思潮兴起之后,传播有关猥亵儿童的照片,也不再属于自由言论的保护范围。在今天,基于密尔伤害原则,以及通过对“伤害”概念的宪法扩张解释,已在互联网领域形成一系列新的伦理审查标准。例如,YouTube的社区准则,就禁止发布色情图片、仇恨言论,以及“虐待动物、滥用药物、未成年人饮酒吸烟或制作炸弹等不良内容”。但是,由于“伤害”概念本身的模糊性,密尔原则具体落实的状况,仍然取决于利益集团实力博弈的结果。

技术伦理第三个核心原则源于洛克的个人主义(Principle of Individuation)。在此原则下,个人被视为社会的逻辑起点,只有个人才是真实的。在“唯名论”视野下,“社会”概念是多余的,“社会”无法为自身主张权益,因此必须采取个体化策略形成个案性的法益保护机制,通过私人诉讼机制来对抗外部技术风险。技术伦理的正当性基点乃是个人,法律首先是保护“个人”的权益。正是基于这一原则,当代的信息隐私保护,也都首先强调保护个人信息和个人隐私,法律保护的并非是所有信息类型,而是个人识别信息(Personally Identifiable Information),即与身份已识别或可识别的自然人(“数据主体”)有关的信息,从而排除非个人信息、公共信息与匿名信息。只要无法被识别到“个人”,相关信息就不受法律保护。概言之,隐私保护采取了严格的方法论个人主义,以个人为中心和本位,通过个体化策略进行权利的解释与适用。

经由近代自由主义的原理阐发,从十八世纪工业时代以来,围绕自由主义道德原则,建立了一整套针对近代科技体系的技术伦理。统合康德原则、密尔原则和洛克原则,传统工业时代的技术伦理或可表述如下:相关技术应用如已事先告知并得到相关当事人同意,不会对个人造成明确伤害,就属于合法与正当的范围。

2

近代自由主义技术伦理的风险—责任分配机制,构建了一个有利于推动技术发明和技术资本原始积累的法律框架。由于工业时代的技术装置、技术工程与技术设施的特点,由技术引发的社会效果和社会效应是相对固定与可见的,由其带来的技术风险通常可以被客观地定位、预测和评估。在这种技术背景下,通常可以运用诸如知情同意原则、过失侵权与严格责任等法律技术,基于个体化的自主选择和私法化的诉讼机制来分配与矫正技术风险。这一十八世纪工业时代建立的技术伦理,今天依然在继续支配新的技术时代(包括互联网时代),但显然,它已开始遭遇各种挑战。

首先是自主原则的困境。当技术工程应用越来越大型化、复杂化、弥散化、网络化、风险化,要在技术应用之前就事先获取主体的知情同意已变得越发不可行。首先,我们没有办法明确界定谁是相关技术应用的受影响者和潜在波及者,技术波及的对象范围已经很难像工业时代那样确定;其次,我们也难以确定到底需要哪些主体的知情同意,比如,在大数据技术系统投入运行之前,是否需要获得所有相关主体的知情同意?更大的问题在于,如何界定所谓“相关主体”?是直接被收集数据的个体,是任何可能使用大数据平台的消费者,或是任何有可能被相关大数据算法触及的对象?从理论上来说,由于算法应用的普遍覆盖,所有社会主体都有可能成为算法技术的影响对象。并且,即使明确了需要做出知情同意的主体范围,在所有主体之间又是否以及如何可能达成同意?是一致同意还是多数同意,是一次性同意还是连续性同意?是采取“是与否”的二元同意,抑或可以量化计算的累积同意?不同意做出授权的主体,是否自动丧失使用相关数据技术的权利?而知情同意,是简单的告知,还是以达到充分理解作为前提?是明示的同意,还是默示的同意?是进入的同意,抑或退出的同意?

事实上,根据研究者统计:按照平均阅读速度,如果一个美国人要把一年中遇到的所有隐私政策全部读完,平均需要花费二百四十四个小时。“告知过剩,而选择缺席”,隐私的自我管理在实践中往往沦为闹剧。

其次是伤害原则面临的挑战。同样以大数据技术为例,我们观察到密尔原则失效的诸多可能:即使没有造成直接“伤害”,大数据技术仍然可以通过信息数据的批量化处理和应用,深度“触及”个人,对个人形成直接或间接的算法歧视。

今天,新的大数据空间遍布各种复杂的算法机制和人工神经网络,海量的数据,包括个体行为模式、集群特征、天气状况、产品周期管理、眼球运动、步态、皮肤状态、人脸识别、安全漏洞、金融交易、血液构成,都通过各类计算机器进行搜集、挖掘、建构、读取和评估,这些自愿贡献或自动搜集的信息一旦重新组合并深度挖掘,就可能凝聚为影响巨大的信息支配工具。并且,这些算法黑箱的技术原理也鲜为人知。密尔伤害原则,是假设特定的技术及其控制主体有可能给特定主体带来某种确定的伤害。但当前的人工智能与大数据技术,通过各种“黑箱化”的算法,则有可能隐匿技术应用过程,将“伤害”结果弥散化和模糊化,从而陷入一种找不到确定伤害主体与被伤害主体的悖谬局面。

最后,个人原则同样出现危机。大数据通过算法标签,建构各种临时群组类型,无须和个体直接发生联系。各类算法根据性别性格、阶级背景、身份地位、收入水平、爱好倾向等不同要素,把人进行相应的分门别类,再根据所属类型,进行不同对待。传统信息技术只能依据特定观察视角捕捉个人的部分社会领域信息,这些信息之间无法形成跨越系统边界的整合,由此保证了个体心理系统的完整性,确保了个体在面对社会时具有某种不透明性作为其自由行动的基础。但是,大数据技术却可以形成跨越组织、系统、场景,甚至跨越时间线的信息挖掘和处理能力,个人将完全成为“赤裸生命”(Bare Life)。

以大数据为代表的新数字技术,就与洛克个人原则形成深刻冲突。首先,人不再是原子化的孤岛形象,人成为高度网络化的动态实体,成为大数据空间的临时节点。数字画像不再只“关注特定个体的数据,而是大规模人群的集成数据”。其次,大数据技术通过不特定目标收集、存储和处理不确定数量群体的信息,不再直接针对个体进行因果推断,而是在群组、集合与类型意义上统计其相关性。其三,个人成为各种类型化标签的数据点,算法决策不需要与有血有肉的个人对接,也不需要深入探察幽深的心理世界,而主要基于离散、可再分与非个人的各种数字轨迹,“形成超主体与亚主体的‘统计学身体’”。其四,真实个体不断被含括到数字画像的黑箱算法之中,他们不清楚自己成为何种群组的临时成员,也缺乏与编入这些群组的其他成员的互动。这些群组本身就具有高度偶联的特征。其五,隐私侵权开始发生于群体层面,潜在的隐私侵害可能并未涉及任何具体个人,但它可以深刻影响所有人的信息环境,从而侵犯不特定群体的利益。

因此,在新的技术时代,传统洛克式的个人保护路径开始失效。新的社会结构不再是简单的个人/社会二元论图式,在个体之上,群组成为新的算法决策参考对象。正因如此,弗洛里迪(Luciano Floridi)等信息哲学家提出,群组应当成为技术伦理的基本单元。在大数据时代,需要考虑的不能再只是个人同意权,而是群组同意(Group Consent)、集体同意(Collective Consent)等新的概念。

一九〇三年,严复将密尔《论自由》(On Liberty)译为《群己权界论》,隐含假设了个人与社会的二分。“群”者,群体、社会公域也;“己”者,自我、个人私域也;公域和私域在边界上是可以辨识的。但在新的技术时代,所有的决定都不再只是“个人决定”,因为所有“个人决定”,都可能转化成一种“个人—群体决定”。以生物基因数据为例。如某A同意,此一决策不仅代表他个人,更指向所有与他相似的人(与A同属某临时群组的成员)。如果A同意将其生物数据用作研究或商业用途,他的知情同意,将直接或间接影响所有与他共享相似生物特征的主体。大数据与生物技术深度结合,其影响将超出受试者本人,扩展到所有与他相似的主体。知情同意不再限于个人,而将是一种会对他人造成直接或间接影响的风险决策。

因此,在做出知情同意之前,个人是否有义务全面考虑此一同意将对与其相关的主体带来的潜在影响?而此种个人—群组同意会产生诸多新的伦理难题,即:个体在知识和资源上如何获得足够支持去做出理性判断,个体是否具有判断因为自身行为和决策将受到影响的主体范围及其相关利益的能力?他是否足以承担此种复杂的认知任务和责任负担?具吊诡意味的是,正是由于个人—社会二元论假设的崩塌,以及由此种崩塌带来的传统法律归因机制和归责机制的失效,反而有可能进一步促成技术风险通过黑箱化的算法机制进行转移与释放。

3

新的技术时代,传统的自由主义技术伦理已不足以应对,无论是自主原则、伤害原则抑或个人原则,都出现各种不适症状。传统技术伦理在工业时代背景之下,是相对可行的,但在经历从工业时代的原子世界到信息时代的比特世界变迁之后,技术系统的总体运行逻辑发生了重大转变,其相应的技术伦理和法律框架也面临重构的需要。在今天,时代迫切需要新的技术伦理,一种超越传统自由主义的技术伦理。限于篇幅,这里仅对应传统技术伦理,即自主原则、伤害原则与个人原则,提出技术设计保护、风险学习治理与社会一体多元三项原则,作为新技术时代的伦理参考框架。

技术设计保护原则突破了康德的自主原则,在新的技术背景下,仅仅依靠人类的自主理性已不足以对抗技术系统的过度扩张,有必要通过技术对抗技术,通过将相关价值理念落实到基于技术设计的内嵌保护,借助技术来捍卫自由主义的人文价值。

技术社会学在传统上有三大流派,即技术决定论(Technology Determinism)、技术中立论(Technology Neutrality)与技术现实主义(Technology Realism)。技术中立论最有影响力,其认为技术只是人类的工具和手段,隶属于人类的主导与控制。技术本身无善恶,关键是使用技术的人类主体的目的和选择。而以雅克·埃吕尔(Jacques Ellul)、阿伦特、芒福德、马尔库塞为代表的技术决定论则深刻意识到现代技术的自主演化逻辑,技术发展正愈益凸显其自身的封闭法则,甚至利用人性的欲望与弱点来推动技术系统的无限扩张。综合以上两大流派,技术现实主义洞察到当代技术发展与政治、经济及社会结构之间的动态关系,意识到在这种复杂的结构耦合关系中,单纯依靠个人自主理性,甚至政治与法律系统的外部干预,都已无法对技术形成有效控制能力。相反,需要在技术内部建立类似“分权制衡”(Check and Balance)的机制,将各种道德与法律价值转译为可被机器识别和执行的“代码”,刺激“因果性闭合”的技术开发新的工程学方向,通过例如源代码开放(Open Source)、数据失真(Data Distortion)、人工智能对抗攻击(AI Adversarial Attacks)、隐私计算(Privacy Computing)、沙盒(Sandbox)机制等技术设计,形成对人类身心秩序的更好保护。

风险学习治理原则修正了密尔的伤害原则。在新的技术条件下,仅仅通过事后对直接或间接伤害的甄别与计算,已无法有效保护个人法益,有必要扩大对相应决策行为的事物、社会和时间维度的全方位考察,通过加强法律机制的学习能力与反思能力,强化对各类技术风险的追踪和治理。密尔原则试图客观计算并精准定位外部危险与损害事实,而当代技术风险却呈现全方位的不确定性,无论是技术风险的事实形态、技术风险波及的群体范围,以及技术风险在时间上的呈现效果,都无法事先就予以明确的预期和规范。技术风险的产生本身就与人类持续的干预行动与治理决策相关,为了应对技术风险制定的各种法律和技术举措,其本身就可能引发新的社会风险。这就要求法律不再只是简单通过“令行禁止”的方式进行规范,而需要法律自身从外在客观的“治理者”视角转变为内在观察的“共振者”(Resonance)视角,提取更长的时间维度,灵活运用各种标准(Standard)、轻推(Nudge)、实验性规制(Experimental Regulation)手段,展开具有学习性、反思性特征的技术风险治理。

而社会一体多元原则则超越了洛克的个人原则,它意识到在新的信息社会时代,技术风险已经高度网络化与系统化,不仅影响特定个体,也影响到整个社会。必须突破简单的个人/社会二元图式,采取生态主义的多方利益攸关者(Stakeholder)视角,改变单向度的经济主义和技术主义思维对生活世界的殖民化。

“基于对未来的恐惧,人类行动就不会鲁莽,而会谨慎行事,肩负人的世界责任。”汉斯·约纳斯(Hans Jonas)早就先知一般地呼吁责任伦理对传统伦理的革新:在现代技术权力面前,需要从“邻人伦理”转向关注未来“总体状况”的伦理,从私人伦理转向超个人的公共伦理。在此意义上,以上三项原则正是对约纳斯责任伦理的重新演绎,或可作为讨论未来新的技术伦理框架的基础。

(《技术、医学与伦理学——责任原理的实践》,[德]汉斯·约纳斯著,张荣译,上海译文出版社二〇〇八年版)



进入 余盛峰 的专栏     进入专题: 自由主义   技术伦理  

本文责编:admin
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 法学 > 法学读书
本文链接:https://www.aisixiang.com/data/125701.html
文章来源:本文转自《读书》2021年3期,转载请注明原始出处,并遵守该处的版权规定。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2024 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统