谭泰成 闫雪枫 周颖 刘永谋:以人民为中心:科技伦理治理的价值追求

选择字号:   本文共阅读 4243 次 更新时间:2022-07-13 17:01

进入专题: 科技伦理治理  

谭泰成   闫雪枫   周颖   刘永谋 (进入专栏)  

编者按:随着科技进步的日新月异,世界发展的面貌和格局也发生着深刻变化。人工智能、大数据算法等新发现、新突破,在造福人类的同时,也带来了一定的伦理风险和挑战。2022年3月,中共中央办公厅、国务院办公厅印发《关于加强科技伦理治理的意见》,对加强科技伦理治理作出系统部署。树立正确的科技伦理意识,遵守科技伦理要求,不仅是科技工作者,更是全人类都应该具备的认识自觉和行为自觉。那么,如何增强科技伦理意识,实现科技增进人类福祉的宗旨?本刊特组织几位青年学者围绕“伦理价值”“伦理原则”“伦理责任”三个维度开展对话,并邀请专家予以点评和阐发,以期对深化相关研究和探讨有所助益。


与谈人


谭泰成 中国人民大学哲学院博士生


闫雪枫 复旦大学哲学学院博士生


周颖 上海交通大学科学史与科学文化研究院博士生


主持人


刘永谋 中国人民大学哲学院教授、国家发展与战略研究院研究员


1、伦理价值:助力走出科技发展困境


主持人:针对如今的科技发展现状和发展前景,我们都面临着哪些伦理风险和挑战?


谭泰成:21世纪以来,随着运用新科技参与社会治理的不断推进,特别是智能革命兴起后,出现了“智能治理的综合”趋势,即不同技术治理手段逐渐在智能技术搭建的平台上综合起来,不再是零散的、局部的甚至相冲突的“技治拼盘”。各种智能治理措施在新冠肺炎疫情暴发以来更是迅猛发展,在大展身手的同时也暴露出一些问题,且大多与伦理风险和挑战相关。主要表现为四个方面:一是“信息孤岛”。无法接入智能平台与他者通信的人群,就会成为“信息孤岛”,在数字世界中“消失”,信息权不能得到公平保障。二是“无人困境”。智能技术如果不能与“治理中的人”很好地结合起来,人的因素容易被治理者忽视,技术问题则被过分强调,可能出现背离人本的“无人困境”。三是数据专家权力越界。要对数据专家的权力进行规范,防止技治专家权力过大,违背社会主义民主法治的基本精神。四是个人隐私滥用。尽管政府已在尽力立法对数据、个人隐私予以保护,但仍然存在不少风险。


周颖:近年来,数据被视为一种新型生产要素,与土地、劳动、资本、技术等传统生产要素一样是人类社会的重要构成。伴随数据科学与数据技术的发展,数据正在进行着对整个社会生活、生产和治理方式的重塑。在全球数字化转型的进程中,我国数字化发展备受关注且发展迅速。基于数据科学与数据技术对人类社会的深度影响,相关的伦理风险和挑战也随之而至,并成为社会各界热议的话题。比如,健康码推出不久就出现了许多没有手机或不会下载、使用该程序的群体——尤其是老年人群体,不光被技术拒绝,更被公共场所拒绝,进而加剧了社会分化、权利不平等的伦理问题,也体现出伦理在数据赋能过程中缺位带来的危害。此外,与数据相关的伦理风险还包括数据不正当获取,数据访问、使用和共享具有不透明性,数据信任危机和数据被过度商用等问题所带来的伦理风险和伦理挑战。


主持人:要走出科技发展的道德伦理困境,“伦理反思”扮演着怎么样的角色?


周颖:为了走出科技发展的伦理困境,伦理反思是必不可少的。历史地看,伦理反思贯穿技术哲学发展全过程。经典技术哲学关注的是整体而抽象的“大写的技术”,技术的伦理反思通常是悲观地批判技术的社会影响和它所造成的人类生存境况的变坏。随着德国学者胡塞尔吹响“回到事物本身”的号角,一定程度促使技术哲学更加关注经验事实,即“打开技术黑箱”,伦理反思也更加注重具体的技术经验证据。随之而来的技术的快速发展,使伦理问题愈发显现,技术伦理学逐渐从技术哲学中分离出来,进一步地,荷兰学者维贝克等主张反思进路应当“从外在主义、人本主义到内在主义、非人本主义”。从数据应用的发展来看,对隐私、安全、公平等方面进行深入的伦理反思,才能促使我国经济社会更加健康有序发展,促使大数据技术产品更新换代和数据赋能相关产业的转型升级。


闫雪枫:正如澳大利亚学者彼得·辛格所言,当面对新兴的科学技术时,许多人会产生某种直觉,但直觉未必是经得起推敲的。从生命伦理学的视角来看,伦理反思一方面能够使我们从习以为常的生活中认识到技术带来的道德困境和挑战,另一方面,借助哲学史上的经典理论框架,伦理反思能为我们在诸多彼此冲突的价值观念中提供多角度思考问题的进路,帮助我们提炼梳理对于技术的态度和观点,推理重构“不言自明”的信念背后的论证逻辑,审慎地分析其中的问题。破除科幻电影和小说的夸张情节对于技术本质的扭曲,让我们能回过头来审视一些广泛存在的规范性观念本身是否合理,进而为科学技术的研究与实践进行恰当的辩护。值得注意的是,进行伦理反思的目的不是一味地限制科技的发展。生命伦理学学者需要与科技从业者保持积极的对话,在科技发展与伦理反思中寻求动态的平衡点。


谭泰成:最近被热议的大数据治理、算法治理和区块链治理,都属于智能治理的具体形式。在各种智能治理场景中,伦理反思有助于不同主体(信息伦理学者、算法工程师、数字政府治理者和公众等)审视技术治理措施是否因超过合理限度成为技术操控手段,揭示嵌构在算法认知背后的复杂制度安排。尽管对于智能治理的伦理反思存在认知差异,但它的根本宗旨在于实现人民向往的美好生活,厘清实施智能治理应有的限度。因此,伦理反思的关键在于区别智能治理与智能操控,寻求效率工具与伦理价值之间的动态平衡。实际上,智能治理伴随着社会、政治、制度和伦理等多重风险,既有的道德批判不足以回应和化解,只有以制度化方式将德治、法治和技治手段充分融入智能治理中,才能实质性地发挥科技伦理在智能领域的治理成效。


2、伦理原则:以人民为中心推动科技向善


主持人:在《关于加强科技伦理治理的意见》的总体要求中,将“伦理先行”作为治理要求的第一条,那么,在科学技术的发展中何以“伦理先行”?


谭泰成:伦理先行需要确定相关原则及规范。目前,欧盟、美国和中国都颁布了人工智能相关的伦理指南、指导意见或规范,基本涵盖算法设计、部署和监管各个环节对于透明度和可解释性的要求。发挥伦理引导智能治理的先行作用,需要充分考虑技术专家、政府治理者、企业用户、公众等不同治理参与者的多元价值诉求,兼顾伦理的价值适配性与算法的技术可用性。需要注意的是,伦理先行并非以绝对道德主义来约束或反对技术治理活动。伦理先行的中国语境在于确保技术治理为人民服务,使之服务于中国特色社会主义民主制度的更高目标。同时,强调一般伦理原则与具体治理场景的结合,例如从道义上要求科技企业完全公布其核心基础算法并不可行。而对于公共部门而言,为了维持行政决策的执行力和公信力,有必要对算法行政决策进行充分解释,澄清背后的治理依据和价值理由。


周颖:伦理先行是技术伦理学的内在路径的必然要求。维贝克等学者提出和发展了调节的理论,将技术自身纳入解决其伦理问题的语境中。首先,在数据相关技术设计之初就需要伦理学者、技术专家、公众代表等多元主体参与并制定伦理框架、指南、原则,即在设计的目的、方法和结果预测中纳入伦理考量。例如,2020年美国联邦总务署发布的《数据伦理框架草案》中提出7条数据伦理基本原则。其次,数据相关技术设计过程作为设计者的决策过程内在地渗透着伦理价值,技术调节作用不可避免地存在着,因此,须将伦理前置,有意识有目的有方向有预见地发挥调节作用。最后,由于技术不确定性的特征,调节的各个维度不能被完全预期,许多伦理问题往往是在技术与人处于社会大背景下进行交互的过程中产生的,所以需要对技术进一步修复调节。如健康码在实施过程中显现了隐私安全等伦理隐患,在修复过程中,既制定了《新冠肺炎疫情防控健康码管理与服务暂行办法》,其中提出“为疫情防控、疾病防治收集的个人信息,不得用于其他用途”,又从技术上对健康码加以修复。经过三个维度的调节,技术自身被道德化,进而调节着人的合伦理的感知和行动。


闫雪枫:新兴技术手段往往兼具巨大的效益和风险,伦理先行也因此成了当今时代发展背景下的必然趋势。为了应对基因编辑带来的诸多挑战,科技工作者作为发展科学技术的主体,首先需要考虑的是所进行的科学研究与实践是否以人民为中心,以提升人类福祉作为最终的目标,对生命和伦理抱有敬畏之心。在开展科技工作时,要充分考虑到风险问题,提升自身的伦理道德敏感度,保证科技发展中伦理在先。新西兰生命伦理学者尼古拉斯·阿加曾强调,不要忘记历史上许多新技术都曾给人类造成预料之外的重大灾难。因此在制定伦理原则时,仍然需要考虑到一些在当下看来或许永远不会发生的情况,并给出相应的对策。科学技术不断发展,伦理原则也应当随之改进和完善,保持动态的发展,以便应对新的挑战。


主持人:《关于加强科技伦理治理的意见》中明确了科技伦理的基本原则,即“增进人类福祉”“尊重生命权利”“坚持公平公正”“合理控制风险”“保持公开透明”,其中蕴含着哪些伦理观念?


谭泰成:在技术治理活动中,服务于人民是上述原则的根本价值旨归。科技向善从根本上说就是让人民共享科技发展成果,共同引导技术治理赋能美好生活。当然,不同领域的技术治理活动对于科技伦理原则有不同侧重,例如算法治理比较强调“公开透明”。这一原则主要是针对算法运行的黑箱问题,具体化为研发者如何通过改善训练算法的数据样本质量来确保算法输出的精准度,以及企业和政府部门如何通过算法治理来提升决策效率,进而确保公共行政显得更为合理,让算法问责更具操作性。算法向善不应仅仅作为柔和的伦理观念,而是转化为敏捷的治理行动,避免因滥用算法而陷入伪技术治理。


闫雪枫:《关于加强科技伦理治理的意见》中明确的科技伦理基本原则涵盖了美国学者汤姆·比彻姆和詹姆士·邱卓思在《生命医学伦理原则》中所提出的“尊重自主性”“不伤害”“有益”“公平”四原则的内涵。与之呼应的还有2018年第二届人类基因组编辑国际峰会委员会对遗传基因编辑开展临床试验所提出的十项原则。具体来说,在进行生殖系基因编辑临床试验时,需要首先确定无其他合理替代方案,并将试验目的严格限制在严重疾病的预防上,最大限度避免试验可能造成的伤害,合理控制风险。对参与试验的患者充分告知试验潜在的风险,保持公开透明,让患者自主作出知情且自愿的决策,尊重患者的生命权利和自主性,保障患者知情权和隐私。


周颖:从数据的视角来看,相关伦理问题大致围绕隐私、安全、公平和正义四个面向展开,在个人、社会和国家的不同层面上表现不同,在不同的语境中侧重的伦理原则也有所差异,其伦理意蕴具有多元化、复杂性、交叉性和动态性等特征。不同的伦理原则在不同的技术中或具体情境中可能存在价值冲突,产生取舍的困境。对此,维贝克曾将调节理论和价值设计相结合,提出了价值发挥重要作用的方法来加以应对。简言之,将利益相关者的价值观动态地转化并内嵌到技术物中。以健康码为例,最初以保护公众健康和尊重生命权利为首要原则,在实施过程中逐步显现出隐私泄漏、不公平、不透明等伦理隐患,在修复调节中就需要加以着重考虑,将之置于价值矩阵的前端。


3、伦理责任:以正确价值导向规范科技实践


主持人:要形成多方参与、协同共治的科技伦理治理格局,需要各方主体履行怎样的伦理责任?


闫雪枫:形成多方参与、协同共治的科技伦理治理格局,首先需要科技工作者在进行研究的过程中主动加强伦理意识,自觉遵守科技伦理原则,积极与科技伦理学者进行对话和合作。对科技伦理研究者来说,需要以科学事实为依据开展对诸如知情同意、自主性等伦理问题的研究,为相关政策和原则的制定提供符合实际情况的理论支持。相关政府部门和决策者需要广泛听取来自自然科学、社会科学、人文科学的专业人员的意见建议,对特定技术的潜在风险效益以及伦理问题进行评估,建立可靠的监督机制。


周颖:就数据伦理治理而言,主体包括政府部门、数据专家、大数据技术设计者、数据伦理学者、公众、企业、高校、科研机构、社会团体等。为形成多方参与、协同共治的数据伦理治理格局,一方面,各方主体需要进行跨学科、跨范式的有效沟通,加强合作共建,凝聚力量,合力推进伦理治理实践。另一方面,各方主体应当积极履行各自的伦理责任,如政府部门,应当进一步完善相应的管理、监管制度建设;各个创新主体应当接受政府部门的管理和监督,主动学习数据伦理知识,自觉遵守数据伦理要求,依法合规地开展研究工作;伦理学者应当拓展研究的广度和深度,对比各国的研究成果,发表符合我国国情的伦理研究成果。


谭泰成:要各方履行好伦理责任并非易事。在智能治理背景下,伦理责任的首要主体是处在创新和研究一线的算法工程师和数据科学家。他们应当克服算法理性主义的狂妄,保持科技谦逊主义的态度,提升对于数据样本、算法解释的伦理敏感性。从更大的角度来看,人工智能研究的科学共同体既要勇攀科技高峰,也要敏锐地意识到创新与研究活动的潜在伦理风险和挑战。当前,技术治理的智能化趋势集中反映在公共行政领域。对于公共治理者而言,最基本的伦理责任就是要慎用手中的数据和算法治理手段,合理约束这种“技术权力”。


主持人:在人类社会深度科技化的背景下,伦理责任的难点与痛点有什么?


谭泰成:结合算法伦理的现状,与伦理责任有关的难点在于:伦理问题侧重于关切如何达成基本的共识性原则,治理问题则倾向于从公共治理角度来妥善解决技术引发的社会问题。显然,对于当下的算法治理而言,难点并不在于缺乏共识性的伦理原则,而是如何将这些原则贯彻到算法治理中。仅仅依靠顶层的适度设计是不够的,还需要配套的底层设计。在智能治理领域,与伦理责任相关的最大痛点在于:人们往往为获取服务便利,或觉得维权成本太高,不愿意与相关企业、公共部门或服务业的一些算法歧视或侵权行为进行抗争。一个重要原因是,不同年龄段、不同地区、不同学历层次的人群,对于风险感知程度不一样,这种差别反过来会影响他们采取相应行动的意愿。另一个原因是,缺乏制度化的治理参与途径,既有的维权手段也不尽如人意。


闫雪枫:新兴技术中普遍存在的伦理责任痛点与难点主要包括责任的归属、伦理审查实施的有效性,以及如何把握不同价值观之间的平衡、技术发展与伦理之间的平衡。在基因编辑的基础研究和临床试验中涉及包括科技工作者、患者、监督机构,以及政府部门等在内的多个主体。各主体的责任范围、责任权重在不同的案例中不尽相同,因此需要具体情况具体分析。此外,即便有了伦理监督审查机构,也可能存在伦理审查理解偏差、尺度不严或走过场等情况,导致审查监管方面的伦理责任不能得到切实履行。落实伦理审查,需要从多方吸纳审查人员、平衡各主体间的利益,从而保障审查是透明、客观和公正的。最后需要明确的是,伦理责任应当是科技工作者开展科研活动时的底线,不应反过来限制科技的发展。


周颖:人类深度数据化的背景下,难点与痛点之一在于仍有一部分群体游离在数据应用带来的便利之外,被数据技术拒绝,更不必说承担相应的伦理责任。以新冠应用程序中的技术拒绝现象为例,表现为一部分人游离在新冠应用程序之外,人从过去对技术的拒绝主体地位掉落下来,变成被技术拒绝的对象。表现为技术物质条件上的拒绝、技术知识和信息来源上的拒绝以及技术自身的不完善、技术漏洞或者非开放性技术权限的拒绝。该问题实质上使人与技术间的严格边界被逐步消解。技术权利提升、伦理意蕴增强的同时,人的主体性地位、权利相对就被削弱了,从而,过去人对技术“呼之则来挥之则去”的自主性不复存在,而当技术不仅成为人的生活方式,且主导了人的生活方式时,几乎无法为人所拒绝,然而却有了拒绝人类进入的能力,这是技术发展的必然结果,因此也是未来值得关注和深入思考的问题。


进入 刘永谋 的专栏     进入专题: 科技伦理治理  

本文责编:陈冬冬
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 哲学 > 伦理学
本文链接:https://www.aisixiang.com/data/135248.html
文章来源:本文转自《光明日报》( 2022年07月04日 15版),转载请注明原始出处,并遵守该处的版权规定。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2024 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统