胡泳:技术并不中立,而有特定目的——重新思考数字化之五

选择字号:   本文共阅读 5592 次 更新时间:2021-07-27 15:15

进入专题: 技术   数字化  

胡泳 (进入专栏)  


技术的方向性与中立性

在技术问题上,除了常见的技术悲观主义和技术乐观主义,人们往往还会产生两种想法。

一类人认为技术具有方向性——它会改变它所触及的文化。此处的方向性是指,技术使一种文化能够朝着它本来无法去往的方向发展。

另一类人认为技术是中立的。他们批驳第一类人提出的说法,相信我们看到的变化是由于文化内部的力量而不是技术造成的。

有很多例子可以为技术确实改变了文化这一论点作辩护。

一个经常被引用的例子是印刷机。印刷机在欧洲发明后(特指实用的近代金属活字印刷机),引起了书籍和学问的广泛传播,破除了知识垄断,引发了宗教改革、反宗教改革和早期的现代时代。

另一个例子是时钟,它最初是由天主教的修士们开发的,目的是为了对他们一天七段的祈祷仪式作精确的计时。但这一技术最终导致工厂工人遵循规律的工作时间,产生了现代资本主义。修士们没有意识到的是,钟表不仅是一种计时的工具,也是一个整合和控制人类行动的手段。

然而,主张技术中立的观点会认为这种历史叙述是对这类事件的曲解。印刷机和钟表都是在中世纪欧洲之前很久就在中国被发明出来。然而,中国并没有因此产生现代科学或资本主义。那些认为技术保持中性的人指出,潜在的文化信念和社会实践是造成变化的原因,而非技术本身。

钱存训的《中国纸和印刷文化史》一书有一个结论:印刷术在中国和西方的功能虽然相似,但其影响并不相同。

在西方,印刷术的使用,激发了欧州各民族的理智思潮,促进了民族语言及文字的发展,以及民族独立国家的建立;而在中国,印刷术的作用正好相反,它不仅有助于中国文字的连续性和普遍性,更成为保存中国文化的一种重要的工具。

因此,印刷术与科举制度相辅相承,构成中国传统社会相对稳定的两个重要因素,也是维护中国民族文化统一的坚固基础。

为了使技术改变一种文化,这种文化中的人们必须选择使用它。这种选择可能是糟糕的,也可能是明智的,但选择是关键。

人类所做的每一个决定都涉及从若干选择中做出不同的权衡。每个可能的选择都会产生好的和坏的结果。作为人类,我们必须权衡每一种选择的利弊,以决定哪一种在我们看来是最好的选择。

技术看上去为我们增加了新的选择。在印刷术之前,阅读对大多数人来说根本不是一个可行选择。在时钟之前,人们日出而作,日落而息,毋需考虑几点上班、几点下班,以及在固定时间里生产出某种东西。

然而,随着技术的引入,新的选择就出现了。任何技术都是这样,无论是现在我们使用的汽车、电视、手机,还是尚未发明的未来技术。

不过,人类经常做出错误的选择。我们吃明知对自己有害的食物。我们浪费时间在社交媒体上与那些明显不听的人争论。我们也经常做出我们知道一定会后悔的错误选择。

在决定是否使用某项技术时也是如此。虽然我们可以也确实拒绝使用技术,但我们其实不一定会对如何使用以及何时使用技术做出好的选择。

在这个意义上说,技术是中性的,因为它只是提供了选择机会,而没有强迫任何人去做出选择。不同的人,进而不同的文化,会对技术的用途做出不同的选择。

然而,也可以认识到,技术绝不像表面上看起来那样中立,因为它是有方向性的,它通过增加选择或者改变过程而指向某种特定的方向。

比如,相信技术中立的人提出的经典说法经常包括:“枪不杀人,是人杀人”,或者,“一把菜刀可以用来切菜,也可以用来砍人,关键看拿在谁手里”。

枪支的确可能有许多不同的用途——比如把它用来做镇纸——但我们大多数人都知道这不是人们拥枪的原因。枪支是为特定的目的而开发的,我们一般是按照这一目的来使用它。

一种技术的可能使用范围并不是无限的。从理想用途的有限范围可以透视发明者的价值观——枪不是镇纸,而是用来杀人的好工具。当用于它的预期目的时,它相当有效。

我们能相信发明者对其创造的东西没有道德义务的说法吗?当美国人谈论枪支时,可以合理地解释枪支的必要性,以及个人如何拥有持枪的权利,并由此做出自己的选择。

然而,枪支的设计就是为了杀人,这是毫无疑问的。这项技术不是一个中立的产品,它从来都不是。

发明者和设计者偏好价值中立

“枪不杀人,人杀人”,代表着价值中立论的认知,即没有任何道德价值可以归于某种技术,只有在人使用技术时才出现价值问题。

也就是说,技术本身是价值中立的,而使用它的人是不中立的。如果一项新技术问世,无论是枪支还是智能手机,造成了或好或坏的影响,那是由于好人或坏人造成的,而无关技术本身。

价值中立论主要围绕以下几个论证来展开:

首先,价值难以检测。技术要想包含或体现价值,这些价值应该是可识别的,但现实中很少是这样。

其次,不同的人拥有不同的价值观。工具只是在被一个有价值的生命所拥有时才具备价值,所以完全取决于这个人的价值体系。而这一体系还会随着人或环境发生的变化而变化。

第三,价值取决于用途。人的行为的成果、结果、后果才有价值,由此,价值体现在最终使用者身上而不是所依赖的工具上。

一把刀只是一把刀,是一个中立的物品,有人用它来削水果,有人用它从背后捅人,只有在使用时才可以说到道德价值。

由此可以很清楚地得出结论,最终使用者需要对技术的道德使用负责。是他们的欲望、需求和目标决定了技术的使用方式,从而也就决定了技术的价值。这种论证表明,我们不能责怪枪支射杀了人,哪怕它的确让射杀这事变得更轻易了。

价值中立论者把技术视作纯粹被动——在没有人类干预的情况下什么也不做。然而,技术自己不做事,并不能说明它的中立性。仅仅因为枪需要人去扣动扳机,它就是中立的吗?

枪仍然是一种人造物,会通过降低杀人的难度而鼓励这种行为。例如,根据反枪团体的说法,如果家里有枪,人们更容易自杀或对家庭成员实施暴力。涉及枪支的事故也很常见。因此,似乎很难仅凭枪支的被动性来证明枪支的中立性。同样的论点也适用于一般的技术。

所有技术发展都有共同的特征。首先,技术对象是独一无二的,它们被设计成以一种特殊和有限的方式发挥作用;其次,技术对象与它们的环境交织在一起, 它们以独特的方式与现实相互作用。

由于技术是为了特定的目的而构建的,因此,在这些目的的方向上,技术通常更容易使用。用户可以根据自己的企图选择和修改技术,但是受制于人造物的物理现实和相关社会系统的惯性。

不难明白,价值中立论给了发明家和工程师等很大的帮助,似乎免除了他们对自身发明物所引发的不良影响的责任。它也隐含着应保持自由市场和开放创新的政策预设。百花齐放,群雄竞逐,让技术的人类使用者来决定后果。

问题是,所有的技术都是由社会经济、文化和政治因素决定的。技术哲学家兰登·温纳(Langdon Winner)在《人造物有政治吗?》一文中举过一个有趣的例子。

纽约的林园式大道,立交桥的离地间隙被有意设计得很低,使公共汽车无法在这些道路上行驶。于是,平常使用公交出行的贫民和黑人就被拦在了外面,而拥有汽车的白人却能够利用这些大道自由地观光和通勤。桥梁建筑看似中立,事实上可以通过技术配置对社会秩序施加影响,正反映出设计者的阶级偏见和种族歧视。

温纳提醒我们注意,包括人造空间在内的技术物本身“固有”其政治性。

如果把技术的最终目的视为是为了全人类或部分人类的利益而开发资源,那么,技术就具有非中性的属性。如果技术以某种方式使人们受益,或对一个群体比另一个群体更有利,那么它们就不是中立的。

事实上,根据这个定义,中立技术的概念本身没有任何意义。

更何况,技术发明人往往不知道自己的发明会给社会带来怎样的效应。技术的后果就是这样难以预料。

在最一开始的时候,面对新的技术,哪些人是赢家,哪些人又会成为输家,是一件连上帝都无法知晓的事情。

总体而言,技术为人类带来的是正面影响,但这并不会改变一个现实:它使社会中的一些人生活变得更好,而对另一些人来说却变得更糟。

人工智能终结价值中立

主张“枪是中性的,而人不是”的一派还会遇到一个麻烦。枪支也许不会自己杀人,但它使人们以某种方式被杀的可能性大大增加,这一点已如上论。但现在请考虑一下这件事:自主武器系统的确可以自己杀人。

说技术没有偏向性,或者说它并不体现某一套价值,显然是误导性的。但为什么这么多人着迷于价值中立论呢?

原因在于,价值中立性是一种诱人的立场。在人类历史上的大部分时间里,技术都是人的能动性的产物。为了使一项技术得以存在,并对世界产生影响,它必须是由人类构思、创造和利用的。

在人类和技术之间存在着一种必要的对偶关系。这就意味着,每当要评价某项技术对世界的影响时,总会有一些人分享赞美,而另一些人则群起指责。

由于我们习惯于赞美和指责我们的同胞,所以很容易把一项技术的好处或坏处,直接归因于人类使用者的可赞或可责的行为/偏好。我们的想法是,在很多情况下,技术本身的好坏并不能怪罪于技术,而是要怪罪于人。

但是请注意,我上文强调了“在人类历史上的大部分时间里”都是如此。突然,我们发现,有一种显而易见的方式可以令技术不再价值中立:让技术自己拥有能动性。

设想一下,如果技术发展出自己的偏好和价值,并采取行动在世界中追求它们,会出现什么样的情形?有关人工智能的巨大承诺(同时也是恐惧)是,它将导致某些技术形式产生自己的意志。一旦我们拥有了完全能动的智力代理人,价值中立论可能就丧失了它以往的诱惑力。

存在两种人工智能哲学。

一种主张人工智能需要成为一种公正的、完全透明的技术,它的决策能力完全依赖于逻辑,而不反映人类所表现的任何偏见和偏好。第二种预期人工智能可能会表现得像人类,因此难以避免人的身上存在的一些固有偏见。

不过迄今为止,还不存在任何没有偏见的人工智能。这主要是因为,人工智能会从我们给它的任何东西中学习。这意味着决策的质量取决于训练数据的质量。

但训练数据很可能是不完整的、不具代表性的,或许继承了之前决策者的偏见,也可能只是反映了世界上普遍存在的偏见。在现实中,偏见就像一种病毒,会传播和复制。人类的偏见被转移到人工智能和机器学习应用中,主要是通过被喂养的用以训练的数据。

人工智能工具的发明者和设计者,很难再以价值中立为自己开脱:这些工具很容易被应用到道德上有问题的实践中,由于其不可捉摸性,也很容易被滥用,甚至被具有良好意图的从业者滥用。

计算机视觉就是一个明显的例子。让人可以轻松地使用无人机图像绘制街区的技术进步,也可以令权势者有能力追踪人们在世界各地移动时的脸。如果你正在研究人脸识别技术,思考这一技术的含义是至关重要的。

机器学习(尤其是深度学习)所创建的模型是难以被真正理解的。然而它却变成了一把强大的锤子,当你拿着它时,一切都开始看起来像钉子。

数据科学家很容易认为,他们可以随便涉足一个他们一无所知的领域,然后用一个训练有素的神经网络来解决它,比如所谓的智慧城市解决方案。

可是,每当我看到那些云计算企业对智慧城市的演示,脑海里却总会闪过“大数据傲慢”这个词。像福楼拜这样的作家是这么看待城市的:对他来说,城市是人类相撞的地方,个人发现自己的无序是神圣的。而现在,数据科学家却企图把城市纷杂迷人的一切都纳入一个模型。

他们忘记了,模型的设计本身就可能引入偏差。从算法的角度来看,偏差可以理解为过度简化。模型可能过于僵化,因此无法把握数据的基本趋势和复杂性。

然而,它们还可能对微小的波动非常敏感,以至于它们在捕捉信号的同时,也捕捉到了大量的噪音。

问题在于,偏差不仅会传递给算法,而且还会被放大。当有偏见的机器学习算法创建新数据,并作为其持续训练的一部分重新注入模型时,就会发生这种情况。

当有偏见的算法作为自动决策过程的一部分,每分钟进行数百万次预测时,情况就会变得更糟,实际是将偏见重新带入现实世界,并规模化地运行。

集体行动与延迟满足

对价值中立性的批判,还可以在另一个维度上展开。

哲学家大卫·莫罗(David Morrow)提出了一种尝试性论述。他认为,技术并不总是价值中立的,缘于它们改变了某些选项的成本,从而使得集体行动问题或理性选择错误更有可能发生。

这是个很有意思的角度,了解了这个论点,我们就可以看到,要充分区分技术的价值中立和价值负载是多么困难。

莫罗首先假设人类在做决策时遵循理性选择理论的一些基本原则。人类存有偏好或目标,他们的行为是为了使自己的偏好或目标满足度最大化。

这意味着他们在做决策时会遵循一种成本效益分析。如果某项行动的成本超过了它的收益,他们就会倾向于转到其他更有利的行动上。

相应地,技术的主要功能之一是降低某些行动的成本(或使得以前不可能的行动成为可能,负担不起的行动得以负担)。人们发明技术通常是为了能够更有效、更快速地做事。

交通技术就是一个明显的例子。火车、飞机和汽车都有助于降低个人旅行者的长途旅行成本。成本的降低可以改变人们的行为。

可是,技术虽然改变了行动的成本,但技术的好处却不是均匀分布的。它们可以降低一些人的成本,同时提高另一些人的成本。

兰登·温纳再次提供了一个精准的例子。温纳研究了西红柿收获机对大农和小农的影响,发现它主要使大农受益。他们买得起这些机器,收获的西红柿比以前多得多。这增加了总的供应量,从而降低了每颗西红柿的价格。

这对大农户来说仍然是净收益,但对小农户来说却是重大损失。现在,为了获得同样的收入,他们不得不以更有限的技术收获更多的西红柿。

莫罗的论点是,技术通过降低成本,可以使得某些选择对最不在乎体面的人更具吸引力。他举了两个方面的例子。

一个是集体行动问题。人类社会长期被集体行动问题所困扰,即在可以选择“合作”或“背叛”同胞的情况下,当背叛的利益大于合作的利益,个人就会选择背叛。

过度捕捞就是如此。某一地区的鱼群是一种自给自足的共同资源,如果当地的渔民每年捕捞有限的配额,就可以分享这种资源;而如果他们过度捕捞,鱼群可能会崩溃,从而剥夺了他们的共同资源。

问题是,很难执行配额制度(以确保合作),个别渔民几乎总是被激励过度捕捞。技术可以通过降低过度捕捞的成本转而加剧这种情况。

毕竟,如果你仅仅依靠一根鱼竿,过度捕捞是相对困难的。现代工业化捕鱼技术使得挖开海底、刮取大部分可利用的鱼类变得更加容易。因此,现代捕鱼技术不是价值中立的,它加剧了集体行动问题。

另一个是延迟满足问题。我们很多人都面临着决策,必须在短期和长期回报之间做出选择。很多时候,长期回报大大超过短期回报,但由于人类推理的怪癖,我们往往会忽略这种长期价值,而偏重于短期回报。

这对个人(如果评估整个的人生跨度)和集体(如果社会上没有人考虑长远,就会侵蚀社会资本)都会产生不好的结果。莫罗认为,技术可以通过降低即时满足的成本,使我们更难以优先考虑长期回报。

今天这个时代,我想很多人都对莫罗所提到的这个问题有深刻的体会。比如,经常因为被社交媒体和短视频的短期回报所吸引,而失去了从长远来看本应去工作的宝贵时间。

莫罗还认为,这两个方面相互影响,即时满足的诱惑,也会加剧集体行动问题。

最后,我想特别指出,如果技术不是价值中立的,那么它的非中立性就有理由在两个方向上发挥作用。

技术会使我们偏向于坏的方面,但它当然也可以让我们偏向好的方面。技术可以降低监督成本,从而使合作协议更容易执行,并防止集体行动问题。同样,技术可以降低重要商品和服务的成本,从而使其更容易被广泛分配。

无论如何,技术是其创造者的偏见和目标的反映,技术的使用可以带来特定的目的。这是一个重要的事实。如果我们要在信息时代创造一个更好的社会,每个人都必须认识到这一点。


进入 胡泳 的专栏     进入专题: 技术   数字化  

本文责编:admin
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 新闻学 > 新媒体
本文链接:https://www.aisixiang.com/data/127726.html

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2024 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统