李增军 李梦阳:人工智能的若干伦理问题

选择字号:   本文共阅读 1383 次 更新时间:2020-02-08 19:44

进入专题: 人工智能   伦理问题  

李增军   李梦阳  


习近平总书记在中央政治局就人工智能发展现状和趋势进行集体学习时指出:“要整合多学科力量, 加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德。”人工智能的发展深刻影响了世界经济、政治、社会和军事的变革,极大地推动人类的发展和进步。与此同时,人工智能给人类社会带来的伦理问题和安全问题也引起了世界范围的关注,霍金等科学家认为,人类需要敬畏人工智能的崛起,人工智能是人类生存的最大威胁,甚至可能导致人类灭亡。我们认为,问题未必有如此严重,但保持高度警惕、未雨绸缪是完全必要的。

当前,人工智能发展中人们已经看到和即将感受到的伦理问题至少涉及八个方面。

一、人工智能的岗位替代作用深刻影响着人类的就业安全

每一次技术革命的到来,都会给人类的就业带来冲击。凯恩斯曾经说过:“一种新的疾病在折磨着我们,这种疾病是由技术进步导致的失业,即所谓‘技术性的失业’。”人工智能革命对人类就业的冲击,同历史上任何一次技术革命相比,范围更广、层次更深、影响更大。我们必须面对的事实是, 人工智能已经、正在和将要在许多领域就业岗位上替代人类劳动。富士康因为人工智能的导入,已经有非常多的生产线和工厂实现了自动化,不需要人,甚至不需要开灯。仅在昆山工厂,富士康就减员6万员工。麻省理工学院发布研究报告称,过去20年,美国有36万-67万工作岗位被机器人夺走,未来10年, 还将有350万个岗位被人工智能替代。中国工程院院士邬贺铨表示, 人工智能会部分取代现在的就业, 49%的劳动人口可能会被取代。近几年来,人工智能领域一大批科技成果集体亮相,诸如无人超市,微笑还能享受打折的优惠;微医健康通,使患者在家就能看名医;唇语识别,可以用眼睛听你说话;而一个小小的翻译蛋,即可替代翻译、扫除语言障碍;能算账的财务机器人;会哄娃娃的教育机器人。此外还有,智慧法院(智能机器人导诉)、智慧泊车、智医助理、机器人撰写新闻稿、能击败人类棋手的AlphaGo、骨科手术机器人等等。人工智能不仅可以替代体力劳动,大量依靠脑力劳动的岗位也会被其取代,这将给人类就业问题带来极大的挑战。

二、数据泄露和信息泛滥导致对隐私权的侵犯

隐私权是指公民享有的私人生活安宁、私人空间安全与私人信息依法受到保护,不被他人非法侵扰、知悉、搜集、利用和公开的一种人格权。建立在大数据和深度学习基础上的人工智能技术,需要海量数据来学习训练算法,带来了数据盗用、信息泄露和个人侵害的风险。从人们的数据轨迹中可以获取许多个人信息,这些信息如果被非法利用,将会构成对隐私权的侵犯。人们对智能工具的使用实际上是在为自己织一张网,移动支付、聊天软件、网络购物、智慧导航、智能手环、网络约车,把自己的行动、爱好、教育、财富,甚至健康状况都暴露无遗,对智能工具使用越多、频率越高,这张网织得越密越细,越无处可逃。这些数据和信息如果被不良商家掌握,会无休止地推销、电话骚扰,使人不堪其扰,严重影响私生活安宁;如果被犯罪分子或黑客掌握和利用,会对人的财产甚至生命构成威胁。2015年,中美两国都发生了社保信息泄露事件。中国上海、河南等19个省市上千万人身份证、社保参保、薪酬、房产等5279万条敏感信息被泄露。美国第二大医疗保险公司遭黑客攻击,8000万用户的姓名、出生日期、社会安全号、家庭地址及受雇公司等个人信息受到影响。此外,用于商业目的的无人机的广泛使用,无处不在的监控系统,在方便生活、保障安全的同时,其跟踪、收集、储存特定信息的功能,也对公民隐私权构成极大威胁。

三、信息伪造和欺诈严重侵蚀社会诚信体系

人工智能具有强大的数据收集、分析以及信息生成能力,与之伴生的是虚假信息、欺诈信息大量充斥网络。互联网已经成为人们的主要信息来源,各类网站、自媒体、公众号、微博、微信群、朋友圈,都是信息发布源,可以说是真假难辨,有虚假新闻,有虚假广告,有的貌似“鸡汤”实则“毒药”,有的“挂着羊头卖狗肉”。互联网传销,互联网金融诈骗,P2P诈骗、众筹诈骗、网络理财诈骗,手段隐蔽,技术含量高,涉众性强,各类互联网犯罪呈高发多发态势。随着人工智能技术的不断发展,很多东西都可以被仿造,包括我们自身。在乌镇举行的第五届世界互联网大会上, 中国首个“人工智能主持人”横空出世,它首先模仿的是新华社著名主持人邱浩,不论是外形、声音、眼神,还是脸部动作、嘴唇动作, “AI合成主播”与邱浩本人的相似度都高达99%。更不可思议的是,它可以随意切换,照此程度模仿其他主持人,模仿他们的声音,克隆他们的相貌。我们想象一下,如果别人克隆你的声音、你的体型、你的相貌,在网络上生成另外一个你,与你的家人或同事进行视频对话,会有什么样的后果。人工智能时代,眼见不一定为实。信息的伪造和欺诈, 不仅会侵蚀社会的诚信体系,还会对国家的政治安全、经济安全和社会稳定带来负面影响。

四、网络沉迷和智能依赖影响人的全面发展

人的全面发展是马克思主义的最高价值追求,也是我国教育方针的理论基石。人工智能的发展在推动人类整体进步的同时,带来的个体能力的退化也不容忽视。一个相当普遍的现象是,智能手机和网络空间越来越让人上瘾,人被手机绑架,手不离机,机不离手,手机利用率之高,令人叹为观止。一些人对网络游戏的痴迷更是到了不能自拔的程度。马克思指出,“自由时间都是供自由发展的时间”,按照马克思的划分,自由时间包括娱乐、休息和用于发展个人才能(学习科学文化知识)三部分。现在的问题是,由于对手机和网络的沉迷,自由时间中用于休息和发展个人才能的时间被严重挤占,甚至挤占了工作时间和劳动时间,势必影响人的全面发展。更令人忧虑的是,沉迷网络的大军中,青少年学生、未成年人是主体力量。网络上的色情、暴力和欺诈,对他们世界观和价值观的形成造成十分严重的负面影响。另外一个值得注意的现象是, 智能设备简易、便捷的操作方式, 催生了许多人的懒惰和依赖,键盘一敲、手机一点,吃的送上门了, 穿的送上门了,用的送上门了,汽车到门口来接了。机器智能了,人类退化了。就像当年的“傻瓜”相机,相机先进了,使用相机的人成了只需按一下快门的“傻瓜”。

五、情感计算和类脑智能将挑战传统道德法律

让机器人更像人类,一直是科学家们追求的目标,情感计算和类脑智能技术的发展为实现这一目标提供了可能。2017年4月,全球首款智能性爱机器人Harmony问世, 她具有学习能力并预设了天真、善良、性感等12种人格特征,会和人类产生情感,可以模拟出真实的体温。智能化性爱机器人的问世,将在一定范围、一定程度上改变人们的家庭、婚姻、恋爱、情侣、伴侣的观念,并对出轨、性侵、肖像权益等道德法律问题提出挑战。情感计算技术的发展使人机情感交互更为自然。我们比喻人没有情感像冷冰冰的机器,如果冷冰冰的机器被赋予了人的情感会怎么样呢?你的AI伙伴可能比家人更了解你的心思、更了解你的健康状况,它能捕捉你的表情,根据你的喜怒哀乐、用你想听的话和你对话。神经科技和脑机接口的发展不断引领类脑智能技术的创新,但神经科技和人工智能的融合发展也会带来伦理挑战。人类大脑与机器智能直接连接,绕过大脑和身体正常的感觉运动功能,扰乱人们对于身份和能动性的认知。增强型神经技术的应用,可能改变人的体能和心智。“超人”的出现已经不是科幻,“缸中之脑”假想可能成真, 这些将极大地改变社会规范。我是谁?这样一个基本问题,可能不再单单是哲学家的终极追问,而是我们每一位普通人要经常面对的问题。如果我不是我了,那么,我们的基本人权呢?我们的道德和法律责任呢?

六、数据质量和算法歧视会带来偏见和非中立性

人工智能以大数据和深度学习为基础,理论上讲,客观的数据和理性的算法没有情绪和偏好,应该会带来中立的结果,但数据的质量、算法歧视以及人为因素往往会导致偏见和非中立性,比如性别歧视、种族歧视以及“有色眼镜”效应。事实上,数据和算法导致的歧视往往具有更大的隐蔽性,更难以发现和消除。有一项研究发现,谷歌的广告算法展示给女性用户的招聘职位要比给男性展示的待遇低。美国一些法院使用的犯罪风险评估算法COMPAS被证明对黑人造成了系统性歧视,认为黑人被告比拥有类似犯罪记录的白人被告更有可能再次犯罪。微软在Twitter上上线的聊天机器人Tay在与网民互动过程中,由于大量恶意数据的输入,成为集性别歧视、种族歧视等于一身的“不良少女”。中国有句古话:“浪子回头金不换”,但人工智能超强的数据记忆,会对一个人历史污点形成“有色眼镜”效应,对其就业、贷款,甚至恋爱、交友,产生持续负面影响。凭算法对你个人信息的分析,银行就可以拒绝为你贷款,买票时你的优先度就被降低,购物时只能看到低廉的产品。更可怕的是,当你遭到不公平待遇时,你不知道是谁在歧视你,不知道因为什么被歧视,你无处申诉、无法解决、无能为力。

七、数据垄断和算法独裁将挑战现行的权力结构

以色列学者尤瓦尔·赫拉利在其新著《今日简史:人类命运大议题》中对数据独裁进行了集中讨论,在他看来,数据将是21世纪最重要的资产,21世纪的政治将是关于数据流控制权的斗争。我们的数据越来越集中在阿里、腾讯、谷歌、脸谱等少数科技巨头手里,这些公司将逐步形成数据霸权。在数据霸权面前,不仅每个个体都无能为力,政治、经济和社会的权力结构也将深刻调整。我们现在能感受到的已经有很多方面。我们在互联网上看到的新闻,往往是个性化新闻推荐或者自动生成的新闻,经常看到的是耸人听闻的“标题党”, 或者虽是我们关心的题材,但新闻内容却空洞无物。我们打开搜索引擎,到处充斥的是真假难辨的广告和宣传,百度的“魏则西事件”就是极端的例证。基于数据垄断和算法的操控,形成了一种新的权力独裁。这种权力掌握在几家大公司手里,他们是游戏规则的制定者,既是运动员,又是裁判员;他们是基础平台的建造者,也是海量数据的拥有者,而平台应该是公共基础设施,数据应该是公共资源。人工智能让我们越来越方便的同时,也让我们越来越依赖,我们没有了独立自由决策的能力, 成为数据和算法的奴隶。更为可怕的是,以前培养青少年价值观的是教师和书本,人工智能时代可能是数据和算法。

八、人工智能对传统安全和非传统安全带来新的挑战

一方面是人工智能运行中的安全性和可控性。在网络安全方面,利用计算机网络自身存在的漏洞,非法入侵获取重要数据、篡改系统数据、植入病毒等手段, 进行攻击和破坏活动。近年来, 全球网络攻击事件不断涌现,病毒软件、木马僵尸网络,通过人工智能技术研发新的网络攻击工具,对一些关键基础设施进行攻击和破坏。在智能设备运行的安全方面,比如无人驾驶汽车,有可能发生车祸,对乘车人和路人造成伤害,带来人身和财产安全问题。这里存在伦理困境和法律责任问题。麻省理工学院在网站上曾就自动驾驶汽车的伦理问题向网民征求意见:在来不及刹车的情况下,自动驾驶汽车如果往前开就会把三个闯红灯的人撞死,但如果转向就会碰到障碍物使车上的五个人死亡。在此情景下,车辆应当如何选择?另一方面,是一些科学家担心的人工智能对人类的威胁和伤害。智能武器是可自动寻找、识别、跟踪和摧毁目标的现代高技术兵器,包括精确制导武器、智能反导系统、无人驾驶飞机、无人驾驶坦克、无人驾驶潜艇、无人操作火炮、智能地雷、智能鱼雷和自主多用途智能作战机器人等,它将成为未来战场主力军,信息处理和计算能力成为战争胜负的决定因素。人工智能武器是继火药和核武器之后战争领域的第三次革命。人工智能如果被赋予伤害、破坏或欺骗人类的自主能力,将是人类的灾难,后果难以想象。

马克思说过,问题总是随着解决问题的方法同时产生的。人工智能所带来的伦理问题,虽然严重但并不可怕。说到底,人工智能就是工具,在生产力诸要素中,工具永远不能成为主要的因素,人才是主要的起决定性作用的要素。人不仅是生产力的基本要素,而且是“主要的生产力”“最大的生产力”,是“生产力中决定性的要素”,这是马克思主义的一个基本观点。

无论是过去、现在或是将来, 一切智能产品都只能由人设计开发,即便是将来赋予机器人类脑功能,它也只能充当“二传手”。马克思有一个生动的比喻:“最蹩脚的建筑师从一开始就比灵巧的蜜蜂高明的地方,是他在用蜂蜡建蜂房以前,已经在自己的头脑中把它建成了。”解决问题的钥匙始终掌握在人的手里,人工智能所带来的伦理问题必须靠解决人类自身的伦理问题来解决。

作者单位:河北衡水职业技术学院、清华大学

文章来源:《中国发展观察》杂志2020年第1-2期合刊



    进入专题: 人工智能   伦理问题  

本文责编:frank
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 哲学 > 科学哲学
本文链接:https://www.aisixiang.com/data/120061.html

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2024 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统