段伟文:面向人工智能时代的伦理策略

选择字号:   本文共阅读 1567 次 更新时间:2022-02-18 09:52

进入专题: 人工智能   伦理策略  

段伟文  


一、人工智能来了,未来需要我们吗?

21世纪刚刚来临时,当时著名的太阳微系统公司的创始人、首席科学家比尔·乔伊(BillJoy)发表了一篇《为什么未来不需要我们》(WhytheFutureDoesn’tNeedUs)的文章。他指出,在21世纪,人类拥有的最强大的三种技术——机器人技术、基因工程技术和纳米技术——正在使人类自身成为濒危物种。1与此同时,雷·库兹韦尔(RayKurzweil)在《灵魂机器的时代》2《奇点临近》3等书中则乐观地指出,人类将在机器的帮助下获得永生。在当前的人工智能热潮中,机器人和人工智能会不会超过人类智能,是否会取代人的问题再次备受关注。乐观主义者认为,全面超越人类智能的超级人工智能一旦出现,将为人类带来新的文明跃迁。悲观主义者则认为,人工智能对人类智能的超越将打破人类智能在地球的绝对优势,即便不会出现“机器觉醒”——机器人和人工智能统治人的情形,人工智能的发展也可能使人类自身变成多余的物种或无用的人。不论这些观点所描述的未来是乌托邦还是反乌托邦,可以都以它们为参照,立足人工智能发展的现实,系统地展开人文或哲学社会科学的反思,以此深入思考人工智能等未来科技发展的上限和下限,找到人类可以普遍接受的深度科技化的前景。

人类未来究竟会是一幅怎样的图景?未来图景一是融合科技与后人类发展。依照这一图景,除了人工智能可能发展出超级人工智能之外,纳米、生命、认知和信息等融合科技将使人类的认知与智能增强成为可能,甚至与人工智能和机器人融为一体,乃至可以通过意识上传和身体替代而获得永生。例如,可以通过药物、基因技术等实现认知与智能增强,如服用聪明药可以使人的智能得到改善。此外,可以通过读心术、读脑术、认知介入技术、人机融合的“赛博格”技术等,走向超人类或后人类。例如,不仅人的而且动物的记忆都有可能被移植。但这些技术若能得到开发并付诸应用,必将带来一些难以回避的问题。人类不得不思考的是,人之所以为人,一个最重要的因素是具有自主性,认知介入技术的发展会不会使人的自主性受到冲击?人还有没有认知上的自由?把别人的记忆移植到某人的大脑以后,怎么知道认知是移植过来的还是自身的?

未来图景二是机器掌控世界。机器智能超越人类智能,机器可以在无人监督的情况下自主学习、自行决策甚至自动升级,人类的命运因此可能在很大程度上为机器所掌握。如果机器智能在功能上超越人类智能,甚至从其心智中涌现出意识和自我意识,人类是否会被机器消灭,取决于人类赋予机器智能的伦理架构是否能在终极意义上,使智能机器遵循机器人三定律等伦理义务或绝对的道德命令。如果机器智能在功能上超越人类,但不可能生成意识和自我意识,人类很可能因为对机器的依赖越来越强,而将越来越多和越来越复杂的任务交给机器处理,最终越来越无力掌控维持人类社会运转的复杂决策和行动,不得不逐渐将命运在事实上完全托付给机器。在此不可逆的未来情境中,即便人类认识到不应该由机器掌控世界,也会因为对机器的高度依赖而无法通过关闭机器重获主导权。

未来图景三是人类依然保持对机器的控制,但出现了难以消弭和日渐扩大的智能化鸿沟。在此未来情境中,机器和社会为少数掌握权力、资本和创新的精英所控制,人口中的大多数越来越多地放弃工作而成为社会系统中不必要的“累赘”,即所谓“无用阶层”的出现。而“无用阶层”无疑会对社会治理带来巨大的挑战。如何对其进行心理疏导和社会管控?如何从心理和精神层面对其进行智能化的引导和校正?由此也可能会带来更为复杂的问题,特别是可能出现智能算法的非人格化权力在对不同群体的赋能和授权上的不平等,以及由此形成的渐行渐远的智能化鸿沟等根本性分歧。

透过这些可能的情景构想,人工智能和智能化的未来发展将呈现诸多不易解决的难题。首先,人工智能与智能化发展可能会导致社会不平等的激化与极端化。与以往的自动化及网络信息技术一样,人工智能和智能化的发展日益呈现出对就业的冲击,“机器换人”可谓愈演愈烈,而这一冲击很可能加剧甚至激化社会群体的不平等。一般而言,自动化与信息化的发展替代了一些劳动力,其创新红利也带来了就业的增加。从作为智能化先导的自动化与信息化的发展可以看到,的确出现了低报酬的简单技术职位与高报酬的高新科技职位同时增加的现象。但问题是,一方面,资本对利润的追逐使得高收入与低收入之间的差距越来越大。在巨大的资本投入的影响下,网络与金融结合下的科技金融进一步放大了这种不平等,使得互联网和金融等行业的分配体系十分扭曲。在网红经济中,网红与明星不合理的高收入,也是拜当下网络媒体或智能化的发展背后的巨大资本投入所赐。当前的大数据、人工智能热潮与互联网的发展一脉相承,在很多人工智能的应用领域,收入的差异与不平等也呈现出类似的两极化趋势。另一方面,智能化的发展将使职业变更日益频繁,由于低报酬的简单技术职位的知识与科技含量不高,相关从业者的学习能力有限,转换新职业的能力较弱。因此,人工智能等智能化技术的发展对就业适应能力差的低收入从业人员的冲击尤其值得关注。

其次,人工智能对就业的冲击难免进一步引发人们对智能化未来带有一种根本性的忧思:面对人工智能与智能化的发展,人类还剩下哪些不会被机器取代的优势?这也可以说是一种危机意识。为此,不妨列一个所谓的“人类剩余优势清单”:智能化时代来临以后,到目前为止,人类至少在创造性与变通性、社会知觉、谈判艺术和论证能力等方面胜机器一筹。

最后,信息化与智能化的发展已经或可能会带来一系列困扰人类的疾患,如虚拟现实成瘾、辨别现实障碍、身份认同焦虑、机械移植排异、超智能精神失常、机器人恐惧症、自我刺激成瘾、寿命延长倦怠等。在这些问题背后更为根本的一个问题是,近半个多世纪以来,多元主义与反基础主义等思想的滥觞固然有治疗激进主义与独断论之功效,人类文明似乎已经在思想层面放弃了对人的发展和演进具有一定之规的统一陈述。毫不夸张地说,面对深度科技化的冲击与挑战,人类的各种利益纷争和价值纠结愈益盘根错节,人类在整体上其实已经迷失了发展的目标和方向,而只能一边在经验主义、功利主义和实用主义的裹挟下盲目前行,一边祈祷宙斯和雅典娜继续赋予人类得以幸存的好运气。笔者无意回应这一重大问题,而仅就面向人工智能时代的伦理策略论述一二。

二、数据智能的兴起与解析社会的来临

从科幻和未来图景回到现实,人工智能当下发展的主要特征是数据智能兴起与解析社会的来临。当前的人工智能热主要得益于数据智能即数据驱动的智能发展,各种人工智能应用方兴未艾的基础是对数据的认知计算和机器学习。所谓数据就是一切可以以电子化形式对人和世界的记录。随着移动智能终端、监控与传感技术、普适计算、身体与生物信息采集、大型科学装置与数据密集型科学等方面的发展,各种类型的数据呈指数级增长,数据对人的状态和行为的记录无处不在,不管是主动还是被动,每个人和各种事物都是数据的贡献者。由此,数据与存在如影随形,甚至可以说“数据就是存在”“世界等同于数据”。

数据智能的实质就是透过对数据的自动化、智能化认知分析人的行为,建立在数据智能分析之上的人类社会可以称之为解析社会。就像17世纪,笛卡尔提出解析几何这一精确地分析运动轨迹的方法一样,数据智能可以对人的行为轨迹加以记录和解析并实施相应的引导和调控。一切都将被记录,一切都将被分析,建立在数据智能之上的社会正在走向解析社会。

数据智能对人类社会的洞察如同透镜对自然界的透视,可以称之为数据透镜。13世纪时,人们发明了透镜,后来又用它制造出了望远镜和显微镜,从微观到宇观天体系统,整个世界的自然图景得以呈现和改变。17世纪时,统计学的早期倡导者威廉·配蒂(WilliamPetty)写了本名为《政治算术》(PoliticalArithmetic)的小册子,将数据的价值提升到了统治基础的高度。如今,人们开始运用数据智能这一数据透镜从各种可量化的层面,对个体和群体进行社会计算,在记录、解析、引导和调控人的行为的基础上,对个人和社会进行管理和治理。基于数据智能的计算社会学和新社会物理学认为,通过数据智能的解析,甚至可以站在“上帝的视角”来看整个社会和组织是怎样来发展的。在城市管理中,数据智能的发展使网格化管理向“城市大脑”的方向发展。在组织管理中,对包括微表情在内的人的行为数据的记录,可以监测并建议人们在讲堂或会议中如何更加集中注意力,如何互动,而这种调控对人的控制力应该是很强的。换句话说,借助数据透镜可以对人的行为进行智能化的调节。

在数据智能的应用中,数据成为计算、分析、评价、预测人的行为的素材与资源。虽然各种数据在采集时本来只有单一的目的,而一旦记录下来以后,根据需要就可以有多重目的与各种各样的用途。不同的数据整合后会带来意想不到的效果。比如,把一个人的医疗数据和他的犯罪数据结合在一起,可以判断这个人可能是真的因为有某种精神疾患才去犯罪。有人在一些网站点击了某些商品,马上就会有推销的电话打过来,对方知道某人的电话可能是因为某人在注册时登记的,也可能由网络服务商或第三方的不当个人数据泄露所致。通过对不同的数据整合与分析,就使得它们成为反映和折射事实的素材,用于评价人的状况和行为。因此,数据智能所带来的解析社会首先表现为每个人的行为都会得到量化的评价。

在基于数据智能的评价型社会中,人类所产生的各种数据被当作事件和过程加以分析和调控,即数据智能通过对人的行为的评价来调节人类自身的行为。在网络购物和网约车的使用中,各种应用软件会对使用者进行评分,如果频繁取消“滴滴”的叫车服务,软件会“记仇”——因为评分下降,在特别需要叫车时,可能会得不到派车。软件还可以根据某人是否愿意在着急的情况下加价支付以及每次加多少,评价某人的性格特征,甚至难免用于对某人的算计。由于各种数据都可以从不同侧面反映人的人格与行为特征,信贷、保险等行业已经开始使用行业之外的大数据评价客户。假如一个人有不当的路怒行为或在某些场所与他人发生过冲突,保险公司有可能获得这些事件的记录数据并对其加以分析,某人很可能就要交数额较高的保费。其实,这种评分体系一直就有,只不过是在数据智能出现以后,使用的大数据资源更广,分析与评价的自动化和智能化程度更高,其应用越来越朝着规模化的方向发展。

美国的一些法院已经在使用一些特定的算法预测犯人再次犯罪的概率,并据此决定是否假释。随着各种大数据集的建构以及数据智能的普遍应用,这种预测犯罪概率的算法将更为智能化和普及,甚至用于对潜在的嫌疑对象没有实施的犯罪的预测、控制和打击,而这种治未罪的做法显然不同于一般对嫌疑犯无罪推定的做法。但问题是实行这些评价的数据模型和智能算法一般被当作行业和部门的机密,被评价者往往不知道它们的存在,对于非专业人员来说它们如同黑盒,对其一无所知。评价一旦出现偏差,不仅很难加以纠正,而且会被视为一种合理的结论,使偏差持续强化而造成恶性循环,甚至会通过数据的跨领域运用导致附加伤害。

近年来,基于数据智能的智能化生活已经初现端倪。其一是量化自我,在可穿戴技术的推动下,量化自我运动的实践者运用运动手环等各种可穿戴设备,对人们的健康状态和运动情况进行量化评价和管理,并在微信等社交软件上展示。但这在一定程度上也是人屈从于机器的一种表现,而实际上有很多东西是不可量化的。其二是智能陪伴,随着人工智能和机器人技术的发展,各种陪伴机器人、智能音箱、记忆管家将得到普遍应用。由于这些技术还在发展之中,难免出现体验不佳、言行误导和成瘾等负面后果。尤其值得关注的是,智能陪伴将使个人的所有活动数据得到全面的采集,这些数据的采集与使用无疑将在法律和伦理层面带来巨大的挑战。

从信息化向智能化发展的维度来看,正在兴起的智能化社会可以视为控制革命的2.0版。20世纪80年代,信息社会的研究者、美国传播学学者詹姆斯·贝尼格(JamesBeniger)写过一本《控制革命:信息社会的技术与经济起源》(TheControlRevolution: TechnologicalandEconomicOriginsoftheInformationSociety)的书。该书指出,19世纪以来,城市化带来的陌生人社会和现代工业化大生产导致了一系列的控制的危机,信息技术的发展就是对它们的回应,由此从电报、无线电到计算机和互联网等信息技术的发展,导致了一系列控制革命。4在智能化的解析社会中,通过数据智能可以对社会和人进行最大限度的解析,形成观测、监视、预测、评价、诱导等全新的智能化控制手段。一个典型的反面案例是智能化赌场,通过对人的表情和行为精细的数据洞察设计,完全可以设计出一种智能化的上瘾机制使赌徒无法自拔。

透过对数据智能和解析社会的描述,已经可以清晰地看到巨大的力量。这种力量的实质不仅仅意味着工具理性或某种自主性的技术力量,与掌控这种力量主体和被这种力量所掌控的主体休戚相关,更多地关涉尼采意味的权力意志与葛兰西式(Gramscian)霸权,故而应从主体能动性的维度,对作为数据智能和解析社会基础的智能算法展开必要的价值追问与伦理审度。

三、智能算法的伦理审计与争胜性策略

随着智能社会的发展,数据智能的应用日益广泛,其基础是能够对数据进行程序化、自动化处理而获得知识与做出决策的智能算法。最常见的智能算法是内容推荐算法,而内容推荐的基础是通过数据的收集和挖掘,对事物和人加以区分。区分事物最基本的方法是树状分类和标注。树状分类一般是建立在公共与专业知识之上的树状划分系统,具有静态、结构化和专业性等特征,如商品类型、教育背景、职称职位等。但一般而言,不论从自然科学还是从社会科学知识出发,对各种自然和社会事物的树状分类在逻辑上很难完备。以生物学中的物种分类为例,很多动植物的分类存在歧义。标注又称大众分类法,源于人们在日常生活中运用某一属性或特征,对人和事物做出的临时性区分,如“开宝马车的”“背LV包的”等。标注方法往往是经验性的,取决于动态的场景。故可以说标注是动态的分类,而分类是静态的标签。

随着大数据的出现,大量的和多维度的各种数据都可以以很低的成本用作标注,这使得数据的拥有者可以利用由大量数据标注组成的标签体系描述事物与人。在内容推荐等商业智能的应用中,标注所构建的标签体系既可用于描绘产品和服务等内容属性,也可用于描述用户即所谓的用户画像。用于用户画像的数据不仅包括性别、年龄、住址、教育背景等结构化的静态数据,还包括位置、搜索、点赞、评论、分享、关注、播放时长等体现用户行为特征的动态数据。值得指出的是,尽管各种智能算法貌似客观,但不论是分类还是标注都会受到算法设计和数据分析的主导者的价值取向的影响,即便是所谓用数据说话也往往负载着相关主体的价值选择。在各种形式的陈述和表达中,语词和数据的选取往往带有相关主体的价值预设和偏见。在餐馆的菜谱上,为什么商家称水煮鱼为水煮鱼而不是水煮豆芽菜或更客观的水煮豆芽菜和鱼?反观数据标注及由其所形成的用户画像,数据智能的分析者“断数识人”或对人进行分类,显然服务于其特定目的。

评价型社会与智能化生活的发展,将使得各种数据集与数据画像成为人的第二身体,既是在生命意义上的,也是在社会意义上的。通过各种生命和行为数据的精确采集、建模与分析,每一个个体可以在个人层面上得到刻画和定义,个体由此投射为一种虚拟身体或数据孪生。也就是说,人们可以根据人的行为数据而不是人的行为本身研究其特征。随着各种人的行为数据的累积,可以运用相关性发现等数据智能方法,揭示出有意义的差异性和相关性等特征。例如,通过对大学生的饭卡打开水的数据的分析,可以发现打开水多的学生成绩好的比较多,很少打开水的学生可能患有孤独症或游戏成瘾。人的数据孪生意味着基于数据智能的身体既是透明的又必然是共享的。从身体到行为的数据化形成了一种由数据界定的透明的身体,而要解读每个人的透明的身体,必须以数据共享为前提。以人的生命医学数据为例,只有在既了解每个个体的数据又掌握了所有个体的数据时,才可能找到每个个体数据的确切内涵,才能为每个个体开出特定的治疗方案,而这一切没有数据共享是难以想象的。

从价值和伦理反思的维度来看,数据画像或数据孪生非但不能等同于主体,而且在很大程度上是智能算法对人进行非人格化计算的产物,是一种将人作为计算与算计对象的“数字种性系统”(DigitalCasteSystem)或“算法分拣程序”。后者使人联想到通过多维数据标注所形成的人的数据画像,人如同邮政地址一样变成了编码的集合。通过智能算法,数据智能可以自动高效地“断数识人”或对人进行分类,进而对相关人群进行更具针对性的内容推荐、目标管理乃至行为引导与控制。由此,作为智能算法计算对象的主体的能动性受到了双重的挑战。

一方面,智能算法对主体的数据分析僭越了主体的对其个体性的认同,剥夺了主体的个体化权力。为了解释事物何以成为个体,法国当代哲学家吉尔伯特·西蒙栋(GilbertSimondon)曾提出“个体化”(Individualization)的概念,即主体可以在各种由人和物构成的异质网络中的角色担当而成为某种个体。在不同的个体化过程中,主体的能动性使其不仅在个体化过程中具有一定的主导性,而且这种主导性使得特定的个体化并不排斥更多个体化的可能。反观基于智能算法的数据画像,被计算主体不仅对其数据画像或数据孪生的内容及其所意味的刻板印象一无所知,更不了解数据分析者的意图以及因此可能受到的行为引导和操控。有鉴数据画像的过程中被描绘主体的能动性的缺席,数据孪生中所寄居的并非被描绘主体的心灵,而是非人格化的“机器之心”或居于其背后的操控者的他者之心,所以甚至可以说,所谓的数据孪生实质上是数据幽灵或数据僵尸。

另一方面,智能算法在精细的信息颗粒度层面对主体的数据标注与画像已然将其转化为无限多维的数据集,主体的个体性随之被消解为算法上可区分的特征数据。当代哲学家德勒兹(GillesDeleuze)将此个体被信息技术消解的结果称为“分格”(Dividuals),并将这种基于对个体的精细化信息治理的社会称为“管控社会”。在他看来,在以往的社会中,尽管在职场、学校和家庭等具体场所,人们的行为会因为受到关注而被规训,但依然存在一些免受管控的空间。而在管控社会中,管控不再置于具体的场景,而更多地基于由代码组成的数字语言——它们不仅决定了人们能否获得信息,并且使人置身于一种无处不在的、持续运转的网络之中,形同巨大的筛子上排列得错落有致的筛孔。5比利时媒体理论家安托瓦内特·鲁夫罗伊(AntoinetteRouvroy)对德勒兹所预见的基于数字实在论(DigitalRealism)和数据行为主义(Data-behaviourism)的算法治理术(AlgorithmicGovernmentality)进行了反思。她指出,在数据化的超精致社会中,新自由主义所谓的方法论的个人主义已经被指数化所取代,个体仅仅将其自身视为某种超量化的事物,从其与他人的表现的关系中界定自身。6由此导致的具有颠覆性的问题是,一旦这种建立在所谓算法理性之上的治理得逞其志,个体因而被消解为绝对客观,同时也必然是绝对独断的数据幽灵之后,当代社会基于个体的权衡、慎思与协作的社会知识的生产何以可能?

透过德勒兹对个体被消解为分格的管控社会的预见及其“实现”,其对尼采在《权力意志》和《道德谱系》中的权力意志的探讨显得意味深长。在《尼采与哲学》一书中,德勒兹对尼采的权力意志作了深入的解读:力是所能,权力意志是所愿。权力意志既存在于能动和支配的力中,也存在于反动和服从的力中,能动力和反动力在起源的时候就存在着区别并在起源中共存。主动追求权力就是能动,能动力具有占有、征服和支配等特征,力图通过开拓环境来强加和创造形式,是一种转换的力量或酒神的力量,能动力肯定自己和自己的差异,并把差异变为享乐与肯定的对象。反动力是否定意志或虚无主义,它拒绝生命的最基本生存条件,是一种虚无意志和反生命的意志,反动力即便在服从的时候也局限着能动力,将种种限制和不公平的约束强加于能动力。7由此,反观智能治理术下个体消解为分格一旦成为一种存在论趋势,作为智能算法计算对象的主体将不再是能动的主体,其个体性可能为智能算法这种反动力所制约和塑造,主体的欲望和意志很可能受制于对数据驱动行为的纯粹适应。若个体被多维的数据分格消解于无形,遑论作为个体的主体对其生活形式的反思平衡或参与审议式对话与商谈。

面对个体被消解为分格的智能治理术及其反动力,必须透过对能动性的检视引入一种使得能动力得以恢复的政治伦理策略。如果将智能治理术对个体生命、存在及其能动力的限制视为葛兰西式的霸权,主体的在数据智能这一生活形式下的政治伦理策略的基本原则在于对此霸权的非对抗性反制,即缠斗(agonism)。何谓缠斗?当代政治学家墨菲(ChantalMouffe)指出,每一种秩序都是政治性的,其建立有赖于霸权实践,而每一个秩序的霸权实践都会受到反霸权实践的挑战。霸权与反霸权实践预设了对抗的不可根除性与无限延伸性,双方对立的本质与其说是出于敌对的根本性对抗(Antagonism),毋宁说实乃非敌对的缠斗。参与霸权与反霸权实践的双方是对手(Adversaries)而不是敌人,两者虽相互冲突却皆认同依然属于共同的政治联合体。8

从非对抗性的缠斗这一基本的原则出发,应对智能治理术的基本伦理策略是智能算法及其权力施以伦理审计和争胜性策略。9所谓智能算法的伦理审计的基本思路是通过对智能算法应用及其权力实施中显见或严重的不当后果出发,反过来检视智能算法的设计和应用中存在的伦理上的不恰当性。其中,智能算法的伦理审计主要包括两个层面:其一为后果分析,即对于对智能算法应用中出现的各种负面的后果进行认真的分析和审视。例如,在内容推荐算法中,时常出现的反复推荐、负面诱导、偏见放大、信息茧房、过滤气泡等现象,要研究和辨析其中的问题、危害及肇因。其二为价值揭示,即从相关主体的能动性出发,运用行动者网络分析方法,对相关群体和利害关系人在智能算法的运用中的主观意图、价值取向、利益与风险分担等展开系统深入的分析,使其中存在的偏见、歧视、对自主权和隐私权等权利的侵害等价值冲突和利益冲突得以充分的披露。

争胜性策略则主要包括价值纠偏、伦理引导和伦理增强等层面。价值纠偏分为价值制衡与争胜性设计两个相互关联的环节。价值制衡就是在价值揭示的基础上,运用反思平衡、风险效益比较等方法重新权衡价值的合理性,使得智能算法在应用中所呈现出的具体的价值和伦理上的不当性得到具体而有针对性的价值制衡。争胜性设计则是价值制衡的落实机制。由此,“价值揭示-价值制衡-争胜性设计”的循环成为环环相扣的最基本的伦理审计和争胜性策略模式。

在伦理实践中,这一模式的启动往往是由社会舆论关注程度较高的危害性事件触发的。以滴滴顺风车司机侵害女乘客事件为例,首先可以从价值上去揭示平台的责任:平台为何将顺风车这一共享交通软件变成一个社交软件,与此相关的利害关系人有哪些,是否表明平台为了商业利益而牺牲女乘客的隐私与安全?其次,从价值制衡出发充分考虑乘客等价值主体在共享交通中的安全性这一关键价值得以凸显。最后,通过平台软件的改进,从设计层面扭转平台运行中出现的价值与伦理上的不当性。事件发生后,“滴滴”平台暂停了顺风车服务,并通过增设联系人、报警按钮以及全程录音等方式对平台软件的设计做了一些改进。

但价值制衡是否得到了落实,还有待对应用后果在价值与伦理上的恰当性的再检视,其后续的发展更将引入新一轮的“价值揭示-价值制衡-争胜性设计”。例如,如何处理好全程录音与保护用户的隐私权等问题,有可能通过一些特定的事件演变为伦理审计和争胜性策略的关注焦点。此外,智能化的伦理引导和伦理增强等也可能成为重要的争胜性策略,其要义是在计算机说服技术的基础上,通过智能化的劝导和助推,对个体行为进行伦理上的引导,甚至借助智能化的道德矫正,提升主体的道德水准。但使问题变得尤为复杂的是,一方面,在伦理引导与伦理增强的过程中,数据智能等机器智能作为一种非人格化的权力,会不会与个体的自主性和主体的能动性发生冲突?另一方面,根据什么标准,可以由谁对谁实施伦理引导和伦理增强?

四数据权利的彰显与人机关系的再平衡

面对人工智能在当前发展态势下的伦理冲突和风险挑战,有两个具体的问题值得展开切实的审度与调适:其一是数据权利与算法权力的再平衡;其二是人机共生时代的人机关系的再平衡。

谈到数据权利,2018年5月,欧盟颁布了《一般数据保护条例》(GDPR),明确指出保护的主体就是个人数据,而个人数据指与一个已被识别或者可被识别的自然人相关的任何信息。该条例对数据获取权、修改权、被遗忘权、数据可携带权、异议权等数据主体的权利做出了明确的界定。这些数据权利在一定程度上体现了在数据的商业智能等数据智能应用中的问题,可以视为在价值和伦理层面对相关侵权行为的反制。但同时也要看到,这些权利也并非无条件的绝对权利,都存在一定的限制。以对数据画像异议权为例,只有当对用户进行画像等决策对用户产生法律或者其他重大影响时,用户才有权反对。但这一条例出台后,不论是从国际数据流通,还是从中国相关法律和伦理建设层面考虑,必须对其基本内容进行系统的研究,对相关数据权利的合理性与局限性应该有一个全面的认识。

在数据智能得到普遍应用的解析社会,个人数据权利的重要性不言而喻。在解析社会中,不论人们主动与否,大家都是数据的贡献者,一切数据都被记录,一切行为都被分析。数据智能不断追踪着每个人的数据,数据与世界的等同性意味着对个体数据的追踪,实际上就是对每个人的价值观的追踪。因此,在理解了非人格化智能算法正在用人们的行为数据定义人们这一事实的情况下,每个人都应该更加主动地参与到此过程中,使主体的能动性影响到基于智能算法的数据分析和数据画像的过程与结果,通过必要的反馈与修正机制的构建,重获西蒙栋意味的个体化议程的主导权。

由此,数据智能和解析社会的未来发展面临着数据权利和算法权力的再平衡。鉴于个人数据权利的缺失终将导致全局性的信任稀缺,是时候认真审视和从根本上改变当下普遍存在的不无侵略性的数据监控模式了。为此,应该认识到智能算法和数据分析技术的应用,不能不考量普通主体的利害权衡,以及这些技术的可接受性,从而由智能技术的可接受性的维度出发,构建全新的基于信任氛围的数据共享模式。首先,即便不能像欧洲的数据权利保护条例那样提出高标准的数据伦理规范,至少也要促使企业、机构对智能算法的应用担当起主要的责任。其次,致力于寻求有利于营造信任氛围的、务实的数据权利保护模式,促使数据交易各方对自己的行为负责,使每个相关主体知道相关的数据如何被处理,特别是用于其他用途的情形。使数据权利的主体在原则上有权决定对其数据的处理与洞察,以此减少数据的滥用,杜绝对数据主体的严重伤害。更为重要的是,应从负责任的、创新的观念出发,形成更具反思平衡性的数据观念。一方面,在提升数据主体的数据权利意识的同时,要促使主体通过追踪自己的数据,能动地反省其内在的价值诉求和价值观念,并通过自我参与式的数据分析和数据画像不断改进自我。另一方面,至关重要的是,应该走出过度地攫取数据的迷思,树立数据有度的观念,对非人格化的算法权力加以必要的节制。尤其应该在跨学科研究的基础上,充分揭示当下具有高度侵略性的数据监控模式对主体能动性的侵蚀,深入辨析其对个体行为的自由度及其自我修正和自由发展的潜在可能所形成的高度制约性。为此,应倡导一种基于“节俭理性”而非“全能神理性”的数据和智能观念, 10使数据的收集、存储、处理和挖掘对主体权利的负面影响尽量减少,并以主体的可接受性作为数据智能应用的刚性边界,倒逼数据挖掘和分析技术的创新,使其能够更有效地发现有价值的数据模式。

就人机关系而言,在人工智能的未来情境中,即便未必会出现库兹韦尔等人所宣称的超级人工智能大爆发的奇点,但依然应该借助各种理论资源对可能带来的重大影响和深远后果及对策展开系统的分析与探究。以所谓“无用阶层”的出现为例,马克思在晚年就曾有预见。在《机器论片断》中,马克思指出:“工人把工具当作器官,通过自己的技能和活动赋予它以灵魂,因此,掌握工具的能力取决于工人的技艺。相反,机器则代替工人而具有技能和力量,它本身就是能工巧匠,它通过在自身中发生作用的力学规律而具有自己的灵魂……科学通过机器的构造驱使那些没有生命的机器肢体有目的地作为自动机来运转,这种科学并不存在于工人的意识中,而是作为异己的力量,作为机器本身的力量,通过机器对工人发生作用。”11马克思不仅强调指出,“机器无论在哪一方面都不表现为单个工人的劳动资料”, 12而且进一步预见,“对象化在机器体系中的价值表现为这样一个前提,同它相比,单个劳动能力创造价值的力量作为无限小的量而趋于消失。”13倘若“无用阶层”的出现难以避免,从社会风险防范的角度来看,一定要从创造性教育、人文素质培养上努力减少“无用阶层”产生的冲击波,通过系统的心理疏导和社会管控,从心理和精神层面展开智能化的引导和校正。

要克服机器掌控世界和智能化鸿沟等可能给人类文明带来的风险,必须对人类在智能系统中的地位和作用加以认真的审视。一般而言,如果将智能算法决策和自动智能系统的操作过程视为一个闭环,人类对自动智能系统的控制一般有四种方式。一是人在闭环之中:人定义-机器人选择-人确认-机器执行。二是人在闭环之上:人定义-机器人选择-人可以使之中止-如人未使之中止-机器人执行。三是人在闭环之外:人定义-机器选择-机器执行,人无法中止。四是人与闭环无关:机器定义-机器选择-机器执行。通过这四种方式可以看到,随着自动驾驶和自动智能武器系统等能力与威力的迅猛增长,人对系统的控制作用却在逐渐弱化,对风险防范和责任追究必将成为社会关注的焦点。但要克服这些风险并没有捷径,只能通过诸如“无人驾驶是否比人类驾驶更安全,更合乎道德”和“自动智能武器系统会不会比士兵作战更人道”等悖论的探讨,从具体的人机共生的可能情境中,不断展开对人机关系的再思考。

为了从根本上抑制自动智能系统可能带来的风险,应考虑引入若干促进人机相互理解与协同的策略。其一,将人与机器之间的相互理解作为自动智能系统的基础和前提,其中既应包括理性层面的认知方式与知识表达层面的人机相互理解,还应包括人与机器之间的共情关系和同理心的构建。其二,一些重大决策和执行系统如果采用自动智能系统,应有多个备份和功能类似的替代性系统,以防范系统风险。其三,构建人工智能应用特区,在有条件的科技创新中心的部分地区,广泛、深入、充分地展开人机互动试验,探索面向未来人机共生社会的创新文化。


【注释】


1 BillJoy,“Why the Future Doesn’t Need Us,”Wired, April2000.

2 RayKurzweil,The Age of Spiritual Machines:When Computers Exceed Human Intelligence (NewYork:VikingBooks,1999).

3 RayKurzweil,The Singularity Is Near (NewYork:VikingBooks,2005).

4 JamesR.Beniger,The Control Revolution:Technological and Economic Origins of the Information Society (Cambridge:Harvard University Press,1986),pp.6-27.

5 GillesDeleuze,“Postscripton Societies of Control,”October1992,pp.3-7.

6 Antoinette ouvroy,Bernard Stiegler,“From the Actual Algorithmic  Governmentality to New to Rule of Law It Needs,”Digital Studies Seminar,October7,2014,https://digital-studies.org/wp/wp-content/uploads/2015/02/Repot-Digital-Studies-October-7-2014.pdf.


7 吉尔·德勒兹著,周颖、刘玉宇译:《尼采与哲学》,社会科学文献出版社,2001年版,第58~105页。

8 尚塔尔·墨菲著,周凡译:《论政治的本性》,江苏人民出版社,2016年版,第15~17页。

9 段伟文:《数据智能的算法权力及其边界校勘》,《探索与争鸣》,2018年第10期,第92~100页。

10 徐英瑾:《唯物论者何以言规范:一项从分析形而上学到信息技术哲学的多视角考察》,上海人民出版社,2017年版,第373~389页。

11 马克思、恩格斯著,中共中央马克思恩格斯列宁斯大林著作编译局译:《马克思恩格斯全集》(第二版),第31卷,人民出版社,1998年版,第91页。

12 马克思、恩格斯著,中共中央马克思恩格斯列宁斯大林著作编译局译:《马克思恩格斯全集》(第二版),第31卷,第90页。

13 马克思、恩格斯著,中共中央马克思恩格斯列宁斯大林著作编译局译:《马克思恩格斯全集》(第二版),第31卷,第92页。

(原载《当代美国评论》2019年01期)

    进入专题: 人工智能   伦理策略  

本文责编:admin
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 哲学 > 科学哲学
本文链接:https://www.aisixiang.com/data/131561.html

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2024 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统