汪伟全:人工智能政治风险的意蕴与生成

选择字号:   本文共阅读 1238 次 更新时间:2020-06-04 16:29

汪伟全   郑容坤  

一、提出问题

人工智能的勃兴对人类社会的影响将是颠覆性的。智能司法、智能金融、智能医疗、智能教育以及智能交通等人工智能体悄然进入人类日常生产与生活空间,成为释放人类生理机能局限的有力“伙伴”。然而,在满足人类社会需求的过程中,人工智能体模糊政治、社会、市场领域界限,撕裂人类社会固有的价值与平衡,引发了人类与人工智能体能否共存的争论。

当下对人工智能的研究蔚为大观,并呈现出两个相互对立的问题域。第一类是威胁论,表现为一种对人工智能因技术异化而产生的恐惧心理。持该论者强调,一旦人工智能达到奇点或智能化后,人类将无法解锁人工智能的行为模式,它可能反过来对人类造成威胁,甚至加速人类死亡。2014年,埃隆·马斯克(Llon Musk)向麻省理工学院的听众发起警告:人工智能的发展应该是谨慎的,它将是我们生存的最大风险源。史蒂芬·霍金(Stephen Hawking)更为悲观地揭示全面发展人工智能与人类灭亡的直接关联性。微软公司的比尔·盖茨(Bill Gates)和苹果公司的史蒂夫·沃兹尼克(Steve Wozniak)也都表达了对人工智能技术危险与威胁的担忧。[1]第二类是技术论,即将人工智能视为人类历史上出现的一次技术革新,聚焦于使用、推广人工智能更好地服务于人类,并采取措施减轻其负面效应。持该论者认为,人工智能具备运行速度快、目标精准性、经济效益高以及适用于海量数据任务的技术先进性。Facebook的负责人马克·艾略特·扎克伯格 (Mark Elliot Zuckerberg)批判了霍金、埃隆·马斯克等人的人工智能威胁论,强调人工智能是人类的福音,如果将人工智能视为一种威胁则显得牵强附会,因为它的发生概率比大规模疾病、暴力导致的灾难要低得多。百度人工智能研究员吴恩达赞同扎克伯格的观点:“担心人工智能,就跟担心火星上人口太多差不多。”[1]上述两种观点代表了新近人工智能研究的基本面向,然而,它们之间并不存在对错之分,只是研究取向各异而已。 它们的论断为人类探索人工智能技术应用与人类社会发展之间的关系奠定了基础。然而,在风险社会环境下,何谓人工智能的政治风险?这些政治风险有何特点?人工智能技术如何型构政治风险?从目前看,已有研究付诸阙如。

我们认为,要回答上述问题,需要对什么是人工智能作出一些基本判断。一般认为,人工智能作为一种高端科技体,建筑于大数据(Big Date)和超强算法两大基石之上。大数据的本质是抽象意义上“大的数据”或“数据之大”,而不仅仅是数量上的数据之多。根据美国国家标准和技术研究院(NIST)的界定,大数据在于“数据的容量、数据的获取速度或者数据的表示限制了使用传统关系方法对数据的分析处理能力,需要使用水平扩展的机制以提高处理效率”[2]。算法则内含着运算规则和计算能力的程序设计,是指“一种有限、确定、有效并适合用计算机程序来实现的解决问题的方法”[3](P13),其未来走向将会是一种新型的权力形态——算法权力。[4]大数据是先进算力和强大算法发挥作用的前置条件,而强大的计算力和算法程序可以分析、加工数据,将众多孤立的数据串联起来,是实现数据价值技术工具,两者共同塑造了人工智能的技术架构。然而,获取海量数据与设计算法程序并非一个自然演进的过程,它们共同受制于人类的科学理性与价值判断,而正是人工智能体引发政治风险或社会危机的致灾因子, 也决定了人工智能技术生成政治风险的现实性。

二、 人工智能政治风险的意蕴

在人类社会的发展过程中,任何科学技术的进步往往具有“双重用途”特性:既给人类带来福祉,又为人类社会埋下风险。人工智能也不例外。科学技术的“普罗米修斯火种”效应决定了我们不能将人工智能仅仅视为一种技术工具的创新,而要从风险社会的高度,展现人工智能的政治风险内涵及其内在特征,从而挖掘隐藏在技术工具表象背后的风险形成逻辑。

(一)人工智能政治风险的内涵

人工智能是现代社会中技术—经济领域的新拓展, 在便利人类经济发展和社会进步的同时,也将技术风险引入人类社会。汉斯·约纳斯(Hans Jonas)认为,现代技术本身孕育着巨大的风险,必须引起人们负责任的关注。风险社会理论学家乌尔里希·贝克(Ulrich Beck)认为,风险社会经由前现代社会到现代社会的转化需要三个因素:科学技术的发展、全球化的扩张、工业社会的资本逻辑与知识理性结合。其中,科技的理性与无知成为贝克和安东尼吉·登斯(Anthony Giddens)批判现代性和构建风险社会的核心论域。吉登斯提出:“‘人造风险’于人类而言是最大的威胁,它起因于人类对科学、技术不加限制地推进。”[5](P115)风险社会是现代性的必然结果,而现代性建基于工业主义以来的技术至上和个人主义。作为“人化”自然和人造社会的技术,风险社会理论家们称作现代性的风险之源,成为悬挂在人类社会之上的达摩克利斯之剑,对人类社会的一切活动有潜在风险。

风险社会视域下的风险类型划分,存在四种界定依据,其中典型的是按风险的涉及领域进行划分,可以分为生态风险、经济风险、文化风险和政治风险。生态风险在于主体性的人的生存实践对自然环境的破坏而形成的各种自然危机。温室效应、海洋污染、能源危机是此类危机的典型。经济风险是因应市场的机制性失灵所导致的商品生产环节的紊乱与失序,比如金融危机、生产过剩等。文化风险表现为现代化过程中信仰、理性与道德法则的失范而出现的精神危机。政治风险则是“由于政治利益之间的对立与矛盾所引发的冲突与危机,主要表现为阶级冲突、群体之争,严重的甚至以军事政变、地区战争和世界大战等形式表现出来”[6](P169)。在风险社会下,这四类风险相互交融、互动,它们之间的风险边界并非固定不变,而是因风险的际遇而处于变化之中。例如,发生在经济领域的金融危机,则可以转换成政治危机,进而重塑人类的文化与生态认知。

人工智能的政治风险属于风险社会中政治风险范畴,具备风险社会中政治风险的一般属性,但也拥有自身技术政治风险的异质性特征。我们认为,人工智能的政治风险是指以大数据和算法为核心的人工智能技术内嵌于政治系统并施加于政治权力与政治价值的可能性危害。首先,人工智能以海量数据为技术前提,基于对数据的搜集、加工、制作与应用,强调技术主义的至上性,这势必会分解科层制单向度的权力中心结构,衍生为技术理性的“专家政治”(expertocracy)倾向。其次,建立在超级算法基础上的人工智能,在数据的理性算计中无法摒除算法歧视、算法黑箱、算法自利等固有缺陷,这将日益侵染民主政治的平等、公开、民主与人文关怀等价值信仰,最终引致人类社会滑入“技术利维坦”[7]的命运。最后,人工智能引致的政治风险是人类对技术“副作用”的一种理性认知,表现出人类关于高端科学技术应用于民主政治的审慎思考。当政治系统接纳人工智能技术时,这种技术“副作用”就随之生成,然而其行迹难以追踪,无法通过感官直接获得,只能依靠人类的主观认知与理性构建。结构性、现代性、扩散性是人工智能的数据独裁和算法失序“攻克”政治体系的风险特征,更是人类对人工智能政治风险可能性后果的理性判断。

(二)人工智能政治风险的特征

人工智能的政治风险正与风险社会的其他风险逐渐合谋同轨(比如与金融风险、社会风险),导致此类风险不仅呈现一般风险类型的危害性、复杂性,更凸显出自身技术主义引致的结构性、现代性、扩散性特点。

第一,人工智能政治风险的结构性。人工智能政治风险的结构性是指人工智能技术对政治系统及其与社会系统的整体性解构时带来的结构性治理变革。人类社会是一个高度组织性、系统性的有机构造,任何社会的要素调整与秩序更新,必然会带来全景式的变动。从政治系统内部看,人工智能技术的应用将带来政府组织的结构性转变。 人工智能技术嵌入政治系统会直接激发政府组织结构、管理体制以及运行机制方面的变革,使得政治系统日益信息化、智能化与现代化,可以说,后工业时代政府机构的组织构建、机制运行等方面已被技术力量所重构。从政治系统外部看,人工智能政治风险的间接结构性正在“途中”,它会通过对社会系统的“负效应”以展示技术对政治的张力,形成社会问题治理的结构性困境。以就业为例。2017年麦肯锡研究报告显示:有60%的职业(至少1/3)面临着被技术替代的可能性,大量行业和工作者面临着重新择业的挑战;到2030年,依据行业的不同将会有0-30%的工作被自动化取代。[8]人工智能技术导致就业人员失业下岗问题将是一个严峻的社会问题, 关涉社会福利与保障、 社会再教育等方面。“从政治发展角度来看,人工智能对人类社会造成的失业和伦理危机等问题,最终都会转化为政治问题”[9],在这个意义上, 要化解人工智能政治风险的社会性问题, 需要政治系统创设各种社会风险控制结构来实现,而这也显示出技术风险的结构性。

第二,人工智能政治风险的现代性。现代性标示着传统社会的祛魅和工业社会的兴起,是构建风险社会理论的标杆。人工智能政治风险的现代性意指人工智能作为后工业社会的新兴技术力量对现代民主政治所产生的不同于传统社会的技术性后果。 这类技术给政治系统带来的风险有两个方面。从表层看,人工智能政治风险的现代性以政治系统对智能技术的吸纳、内化程度效果而展现出来,这类似于工业时代其他技术革命对政府治理结构的重塑过程。然而,要注意的是,在重构过程中,技术所有者会出于私利考量而形成技术异化,这势必会酿成政治无法吸收技术的现代性后果。从本质看,这种现代性特征体现为人类“修补”科技理性与人文价值之间断裂的努力。在现代性中,人类乐观于自身的科技成就与创新,将技术主义推崇至上,形成了技术拜物教而无暇思考技术与人文的关联。根据贝克的风险社会论断,人工智能的政治风险是后工业社会的自反性,希冀在现代社会中寻找解决人工智能风险的政治“解药”。但是,现代性风险的不确定性将会是一道难以逾越的鸿沟,因为“今日对人工智能冲击的忧虑,重要的不是其本身,而是现代社会包容一日千里科技革命的能力急骤地退步, 其背后是现代社会立足的两大支柱本身受到科学革命的侵蚀。现代性的前提是科学理性与人文信仰的二分,当科学理性等同于技术,意味着它已异化。‘上帝之死’和道德被等同于追求利益,表明终极关怀开始退出社会”[10](P144-145)。

第三,人工智能政治风险的扩散性。人工智能政治风险的扩散性是指政治系统在学习、吸收、应用人工智能技术的过程中,逐渐强化嵌入其中的技术精英的价值形态,同时基于全球化趋势将这种单向度的价值理念不断地扩散至世界。一方面,人工智能技术的生产、应用和转移,有意识形态导向。技术、知识等要素是人类生产生活不可或缺的组成部分,它们属于海德格尔式的客观实在范畴,但是,生产、发明这些技术和知识的主体则是具有主观能动性的技术精英或高端技术企业集团。那么,基于人类的有限理性或者利益偏好等固有需求,人工智能在其技术转移和传播的过程中将会内置特定意识形态色彩。例如,性别歧视、种族歧视或国家之间的意识形态主张等,而建基于公意基础上的政治系统在吸纳人工智能技术时,会有意无意地扩散这种特定价值观。另一方面,制度性破坏后果的全球性。人工智能对政治系统、政治价值的冲击形成的政治风险属于吉登斯所言的“人造风险”系列,“我们所面对的最令人不安的威胁是那种‘人造风险’,它来源于科学与技术的不受限制的推进”[6](P13),这种人造风险的“发展以及影响更加无法预测,‘无法用旧的方法来解决这些问题,同时它们也不符合启蒙运动开列的知识越多、控制越强的药方’;其中的‘后果严重的风险’是全球性的,可以影响到全球几乎每一个人,甚至人类整体的存在”[11](P115)。在经济全球化的催化下,人工智能的政治风险具备了超越主权国家边界的扩散能力,将给国际政治秩序带来颠覆性冲击。

人工智能政治风险的三个特征根植于人工智能技术嵌入政治系统的全过程, 是人工智能的数据独裁解构政治权力和算法失序侵染政治价值这两种风险形成路径的彰显。 这决定了我们有必要进一步阐释人工智能是如何引发政治风险的议题。

三、人工智能政治风险的形成

人工智能政治风险作为风险社会中的一种现代化“技术险种”,不同于核危机、化学产品风险、基因工程风险等技术风险的形成逻辑,它主要通过两种途径生成政治风险:一方面,在组织结构上,人工智能依仗数据独裁以解构政治权力,致使政治权力结构弥散化、决策权的非政治转移,最终形成数据利维坦;另一方面,在终极价值上,人工智能基于算法失序以侵蚀政治价值,逐渐消解民主政治的正义、公开、公意等美好精神。

(一) 人工智能的数据独裁解构政治权力,致使政治权力异化为精英权力

什么是人工智能的数据独裁?在分析数据独裁统治的兴起时,尤瓦尔·赫拉利认为数据独裁(Digital Dictatorships)的本质在于让数据统治我们。政治学意义上,独裁是与民主相反的概念,独裁意为独自裁断,多指独揽政权,实行专制统治,它存在着一个“施加者”的意蕴,即“谁”实施独裁的问题。就人工智能时代的数据独裁而言,需要把握两个方面:其一,数据为何会独裁,即工具属性;其二,“谁的”独裁,即主体资格。由此,我们认为,人工智能的数据独裁是指技术精英(或技术类法人)在大数据的采集、加工、应用等数据价值生产过程中所占有的独断性优势与地位。其中,数据价值是形成数据独裁的前提,而技术精英是实施数据独裁的主体,技术精英凭借其拥有的数据信息优势享有数据权威,进而会在数据迁移入政治系统时衍生出自身的利益诉求和权力渴望。这就形成数据独裁对政治系统已然权力结构的冲击,也就加剧人工智能政治风险的形成。

第一,政治权力结构的弥散化。首先,早期工业时代权力的政府集中。自从工业社会以来,利用知识理性与技术主义开展针对传统和权威性的祛魅运动一直是社会发展的主线, 而在这种趋势的侵染下,形成非人格化的以权力等级分配的科层组织。在马克斯·韦伯看来,科层制的功能发挥在于对权力的有效行使,因为权力具有唯一性,指向一个中心,并以“庇护与臣服”的关系作为第一原理。这种权力的社会关系构造一般适应于相对稳定、变化较小的社会,并为政府组织开展公共管理活动提供了独享性的权力基础。其次,工业社会时代权力的技术分化。20世纪50年代以来,世界日益复杂化、信息化、网络化以及全球化,传统的科层制组织受到严重挑战,以权力为中心的组织架构也日益呈现被去中心化趋势。对政治权力结构而言,“在信息化时代,掌握数据的主体既有政府等管理机构,同时也有众多互联网民营企业、各类社会组织等。因此人工智能时代,权力分布呈现去中心化图谱结构,权力结构日益多元和分化,这在一定程度上弱化了传统的线下的多层国家权力结构和单向治理模式”[12]。最后,后工业时代专家性的权力构筑。人工智能对权力的去中心化诉求,将权力的科层制中心一分为二,形成科层制权力和专家性权力的二元分离格局。专家性权力依仗专业技术知识与能力,不断增强权力赋能,形成对固有权力体系的挑衅,以至于有朝一日会享有权力的独占性优势,并构筑数据独裁地位。权力的主导权经由政府组织,逐渐滑落到技术—经济类的社会组织,非政治力量开始接过政治的领导角色,而政治要么与之合谋进而分享权力,要么沦为技术-经济的权力附庸。权力中心的技术-经济转向遵循科学技术或市场组织对权力的把持与操控,使大型高科技类型组织与政府组织分享权力资源,而将其他社会主体排斥在外。“科研实验室和董事会议室取代了议会或政党, 间接完成了对于未来的塑造。 其他所有人,甚至包括政界和学术界那些最负责任、最收悉情况的人士,他们的生计多少都依赖于从技术亚政治的规划桌上掉落的信息碎片。在未来的工业领域,科研实验室和企业领导机构将成为披着‘常规’外衣的‘革命小组’。”[13](P287)可以说,在数字化生存时代,政治权力的弥散化趋势,是以技术理性主义为预设前提,而推崇这种技术先导性的非政治力量往往是大型的高端科技企业,它们将在第四次现代化浪潮中处于关键位置。

第二,决策权的非政治转移。伴随着权力的去中心化,非政治类型的技术市场组织赢得了主导政治决策的权力话语。贝克从技术—经济的视角分析了风险社会中政治决策权的转移问题,他认为议会是理性的意志形成的中心,决策则是议会和独立议员的职责所在。但是,在现代社会中,这项功能逐渐落到议会党团领导层、政党机构、科层制乃至非正政府组织手中。造成决策权转移的原因可以归结为两个方面:“首先,议会和行政部门的决策空间遭到了技术统治式封锁;其次,以法团形式组织起来的压力集团开始崭露头角。”[13](P237)在政治决策日益科学化、精细化和前瞻性的前提下,拥有人工智能技术的大型技术组织完全可以凭借自身的数据信息和数据价值,占据政治决策权的有利地位。从极端角度看,这类高新技术组织拥有的决策信息优势并不低于政府掌握的数据,它们将逐渐成为决策的权力主体,而这种情况的到来,也意味着政府决策权的旁落。依照这种设定,政治结构只是在执行专业意见的推荐内容(比如环境政策,或者大型技术设施及其部署地点的选择方面)。[13](P237-238)与此同时,人工智能的数据独裁“也赋予或强化了大数据权力占有者以实现权力目的、表达权力意志、参与权力分享的实力”[14]。

第三,形成“数据利维坦”。拥有大数据资源的优势组织,逐渐进入传统科层制的权力结构中央,并分享着公共事务治理的决策权。这些优势单元与政府组织共谋形成的前提,主要出于维护自身利益的需要,并非出于人类公共事务利益的追求,而这将导致在追求分享权力的道路中,逐渐异化为“数据利维坦”,形成技术对政治权力的反噬。一方面,大数据权力的绝缘性、抽象性、虚拟性,会导致权力运作流程中的数据风险与数据盲区,这很可能给国家治理“造成社会失范和政治失序的伦理黑洞。人类本身存在的公共困境将很有可能在大数据权力的运用中被放大、激化、掩藏,进而导致数据暴力、数据恐慌和数据灾害等形色各异的风险”[13](P28)。另一方面,权力指向的公共空间遭受到大数据权力的无情割裂。大数据带来的数据垃圾和数据病毒的冲击,消弭掉公共生活固有的价值性和正常性, 同时也导致不同人群在对这种以数字形式表现出来的新兴资源进行争夺之时出现社会分裂。“数据利维坦”也在某种意义上不断地制造和助推着社会分裂的过程。“数据利维坦”助推社会分裂的过程可以归结为三个阶段:第一阶段是数字信息技术成为控制工具;第二阶段是数字信息技术发展造成群体隔离;第三个阶段是数字信息技术的发展诱导群体极化。[15]

(二) 人工智能的算法失序侵蚀政治价值,致使民主政治沦为技术功利主义

人工智能算法作为一项技术早已渗入民主政治的机理,给政治价值和政治管理以革命性的变革。如果将大数据比喻为人工智能体赖以生存的流动性的“血液”,那么,算法则是决定人工智能体能否有自主的行动能力。从技术哲学的角度看,算法作为一种运算能力,根植于“客观实体”内部,并依据“主体”的价值偏好、有限理性对外部世界做出决策判断。我们认为,人工智能算法失灵引致的政治风险是指基于算法运作规则的人工智能体,由于自身内在的算法偏见、算法自利、算法黑箱等失灵问题,引发对政治正义、政治透明、政治公意等民主价值理念的冲击、损毁乃至背弃,最终给政治系统的有效运行和人类社会的正常发展加盖了一层阴影。从这个意义上,人工智能的政治风险意味着算法失灵的政治风险,预示了技术理性对人文价值的撕裂,带来的后果将会是根本性、全局性和灾难性的。

第一,算法偏见损害政治正义。首先,算法的偏见意识。算法偏见(algorithmic bias)是指在看似没有恶意的程序设计中,却带着设计者或开发人员的偏见,或者采用的数据是带有偏见的,会酿成各种社会问题。例如,Google搜寻被曲解、聊天机器人在推特(Twitter)上散布种族主义和性别歧视信息等。凯西·奥尼尔在《算法霸权》中不无忧虑地指出算法偏正的危害,并呼吁数据模型的创造者们、政策的制定者及执行者们应保持对算法黑箱使用的审慎态度。其次,政治的正义分配。政治的指涉在于“为一个社会权威性地分配价值”[16](P26),而正义则是政治权威性分配社会资源的基础性原则, 标识着人类权利的捍卫与尊重。 在罗尔斯看来,“正义是社会制度的首要美德”[17](P3),“在公平正义中,该理念作为公平正义观点的一种形式具有其核心作用”[18](P184)。最后,算法偏见对政治正义的实施。上文论及人工智能与大数据关系时,表明大数据是人工智能的前提条件,起到“源泉”功能,它是算法得以运行的支柱。但是,这些数据信息的获取、加工与应用则依靠人类操作,而这难免内嵌人类有意或无意的价值偏见。错误的前提,导致错误的结局。当这些有偏见的数据被算法吸纳,成为运算能力发挥的前提时,算法偏见或者算法歧视显露无遗,“在实际应用中导致了种族歧视、性别歧视、年龄歧视、阶层歧视、区域歧视、仇外思想等严重的政治后果”[19]。

算法偏见的出现并非抽象之物,而是客观实存于现实情境中,算法偏见已将人类锁进非正义的囚笼之中。2015年,卡内基梅隆大学的研究发现,较之女性求职者,谷歌为男性求职者提供的高薪工作广告更多。同时,谷歌使用的其他算法也内嵌了歧视,例如谷歌的自动完成功能,将“政客”描述为“政客是骗子”“政客是腐败”“政客是变色龙”。2016年,COMPAS的研究用计算机程序来预测二次犯罪发现,黑人被告远比白人被告更容易遭受到再犯风险的误判,而白人在同等条件下则遭到再犯率更低的误判。[1](P93-94)人工智能算法歧视的危及范围非常广泛,将对人类社会的公平正义产生根本性冲击。算法不仅是一项技术,更是一种权力优势。如果这种权力优势赖以建立的前提是非正义、有偏颇的道义伦理,那将会是人类政治文明的灾难。

第二,算法黑箱遮蔽政治透明。一方面,算法黑箱的形成意味着隐层,人工智能的算法黑箱囿于算法指令的生产与再生产过程中的匿名化与模糊化。政治公开、透明是20世纪以来民主政治孜孜不倦的追求,因为透明、公开的政治过程意味着政治合法性,而算法黑箱会遮蔽政治的透明性,必然导致政治合法化危机。人工智能的算法技术人员拥有制造算法黑箱的特权,而其他人只知道算法的输入数据与输出结果,无法知晓输入的数据如何加工、转换成算法结果。例如,“亚马逊公司已经开始在警用系统中应用图像识别软件Rekognition, 但面部识别系统一直面临着女性和有色人种错误率的问题——错误率可以直接转化为更多边缘化群体受到阻碍和逮捕。 虽然一些公司已经做出了公开的偏见测试,但亚马逊在这个问题上并没有分享任何数据,只是强调该服务是一个简单的对象识别工具,仅用于法律目的”[19]。如果将这种算法运用到政治决策中,就会出现算法程序不透明、 算法决策过程不公开、 算法决策理由自我解释性差以及算法元命令主观化等问题,这对政治透明的价值追求是致命的。另一方面,算法黑箱遮蔽政治公开的技术性。一是算法技术的客观性。英国议会下属的人工智能特办委员会在题为《英国人工智能发展的计划、能力与志向》报告中,专门论述了算法黑箱的难题与治理对策,强调算法黑箱的存在是人工智能的一项技术难题,是指由于机器学习神经网络中存在隐层,科学家无法说明机器学习的优化结果出自哪个节点,并做出令人信服的解释的情形,而打破黑箱实现政治算法的公开化有待技术更新。二是算法技术的社会性。从这个意义上看,算法黑箱的存在是人为使然。上述分析已阐述了人工智能所有者会凭借技术优势而占有社会的资源,而算法黑箱的出现正是他们牟取、垄断社会财富的有力工具。人工智能算法黑箱的技术客观性和社会性构筑了算法暴力对政治透明价值的侵袭,导致政治合法性危机。

第三,算法自利撕裂政治公意。1998年,人文学者兼作家尼尔·波兹曼(Neil Postman)在丹佛的讲演中,提出了人类技术变革的五大教训,其中之一是技术内嵌着强大的观念。在波兹曼看来,书写或电报等新技术的出现,带来的观念变革是知识、信息的分享跨越了时空局限与口口相授。他从技术对观念的客观变化来描述,但是,对新技术为何产生以及如何变革社会观念则没有深刻阐释。其实,技术的产生很大一部分来自于人类革新自身环境的诉求。只是这类诉求被套用了私利与公意(general will)之分。公意是人类政治确立和延续的根本原则,在卢梭看来,公意是全体公民一致决定,等同于集体的真实利益。当人类的私利处于公意的钳制秩序下,人类社会基本上是和谐稳定的,反之私利占据公意的空间,人类社会将走向极权主义社会。如果人工智能算法技术的所有者凭借技术优势,强调自身利益或代表的集团利益凌驾于人类公意之上,那么,20世纪以来人类构建的政治公意价值观将面临坍塌的可能。马克思透过资本主义的生产过程,预测工业革命会促使财富愈发朝向生产资料所有者集中。与此相类似,人工智能的高歌猛进,将会导致财富过度集中到人工智能技术的所有者手中。在这种资本与技术的合谋行径中,高新技术经济类组织出于维持自身的私利,将会无情地挤占政治的公意空间,乃至出现践踏、割裂、分化政治的公意价值,最终导致人类政治价值的消解。

四、结 语

本文立足风险社会理论面向,建构人工智能政治风险的内涵与特征,并侧重阐释人工智能对政治权力和政治价值的二重挑战。一方面,人工智能的数据独裁不断侵犯政治权力边界,使政治结构呈现了去中心化、政治决策的数据化(非政治化),以至滑入数据利维坦。另一方面,人工智能算法从内在层面对政治的价值系统发动侵袭,消解了人类社会赖以生存的正义、公开与公意等政治价值。人工智能的这两方面“胜利”,预示着人类赖以生存发展的政治基石潜在着危机。“伴随人工智能、虚拟现实、生命科学等领域的突破,这些无疑都在深刻改变有关人类、社会组织和宇宙的传统认知。那么,科技是否已然形成自我封闭的趋势,产生脱离人类控制从而带来反叛的风险?具有千年传统的人文主义, 能否已然把握具有强大算法、 海量数据且拥有深度学习能力的智能机器?人文的力量能否刺破科技所构筑的坚固藩篱,深入其内在的运作机制,进而激发具有足够反思、可供替代选择的技术方案?”[10](P354)面对人工智能的技术挑衅,人类政治如何应对?这不仅是技术风险强加于人类社会的外在压力,更关乎民主政治乃至人类社会的发展命题,亟需引起理论界与实务界的研究与关怀。

[参考文献]

[1](澳)托比·沃尔什.人工智能会取代人类吗?—— —智能时代的人类未来[M].闾佳,译.北京:北京联合出版公司,2018.

[2]冯林生.大数据技术在装备保障决策中的应用浅析[J]中国管理信息化,2017,(5).

[3](美)罗伯特·塞奇威克,凯尔文·韦恩.算法:第四版[M].谢路云,译.北京:人民邮电出版社,2012.

[4]陈鹏.算法的权力:应用与规制[J].浙江社会科学,2019,(4).

[5](英)安东尼·吉登斯.现代性的后果[J].田禾,译.南京:译林出版社,2000.

[6]潘斌.风险社会形而上阐释[M].上海:上海人民出版社,2018.

[7]王小芳,王磊.“技术利维坦”:人工智能嵌入社会治理的潜在风险与政府应对[J].电子政务,2019,(5).

[8]McKinsey Global Institute. Jobs Lost,Jobs Gained: Workforce Transitions in a Time of Automation.https://www.balough.com/wp -content/uploads/2017/12/1-dec -2017 -mckinsey -excurtive -summary.pdf,2017.

[9]杜欢.人工智能时代民主政治的机遇与挑战[EB/OL].中国社会科学网,http://ex.cssn.cn/zx/201711/t20171107_3735195_2.shtml.

[10]金观涛.赛先生的梦魇:新技术革命二十讲[M].北京:东方出版社,2019.

[11](英)安东尼·吉登斯.失控的世界[M].周红云,译.南昌:江西人民出版社,2001.

[12]刘波.人工智能对现代政治的影响[J].人民论坛,2018,(1).

[13](德)乌尔里希·贝克.风险社会:新的现代性之路[M].张文杰,何博文,译.南京:译林出版社,2018.

[14]林奇富,贺竟超.大数据权力:一种现代权力逻辑及其经验反思[J].东北大学学报(社会科学版),2019,(5).

[15]郧彦辉.数字利维坦:信息社会的新型危机[J].中共中央党校学报,2015,(3).

[16](美)戴维·伊斯顿.政治生活的系统分析[M].王浦劬,译.北京:华夏出版社,1999.

[17](美)约翰·罗尔斯.正义论[M].何怀宏,译.北京:中国社会科学出版社,1998.

[18](美)约翰·罗尔斯.政治自由主义[M].万俊人,译.南京:译林出版社,2000.

[19]汝绪华.算法政治:风险、发生逻辑与治理[J].厦门大学学报(哲学社会科学版),2018,(6)

本文责编:yangjiaxin
发信站:爱思想(https://www.aisixiang.com)
栏目: 科学
本文链接:https://www.aisixiang.com/data/121587.html
文章来源:本文转自郑容坤,汪伟全.人工智能政治风险的意蕴与生成[J].江西社会科学,2020,40(05):217-225.,转载请注明原始出处,并遵守该处的版权规定。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。

相同主题阅读

Powered by aisixiang.com Copyright © 2024 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统