人工智能是全新的技术吗?显然不是。早在20世纪中叶,以图灵、维纳、麦卡锡、香农等为代表的一批计算机科学巨擘们就开始了对人工智能的科学探索。1955年,麦卡锡、香农等作为共同发起人邀请一批学者在美国达特茅斯学院讨论人工智能,也正是在本次会议上麦卡锡说服大家使用人工智能这一术语。那之后不久,最早的一批人工智能学者和技术开始涌现,达特茅斯会议也因此被广泛认为是人工智能科学研究诞生的标志。人工智能科学虽然一直备受关注,但其发展并非一帆风顺。
21世纪第二个十年开始,随着移动互联网、云计算、大数据、物联网等技术的相继普及,人工智能发展的技术生态初步形成,各个领域的智能化商业应用开始普及。美国等发达国家全面启动人工智能的战略布局,意在主导全球人工智能科技革命的前沿。2016年,从谷歌公司人工智能团队开发的AlphaGo软件完胜世界棋王李世石,到谷歌等公司的无人驾驶商用引发美欧交通规则改革,以及IBM、微软、Facebook人工智能平台的相继推出,都在宣告人工智能从科学实验阶段跨入商业应用阶段,人工智能发展进入爆发的临界点。可以预见的是,伴随产业的巨资投入和政府的大力支持,人工智能技术必将在各国、各领域得到快速应用。未来数十年,人类的生产、生活也必将因为人工智能而重新塑造。
然而,在对人工智能发展无限憧憬的同时,我们必须认识到人工智能技术可能是有史以来唯一没有提供人类多次试错机会的科技革命,必须认真审视人工智能产生的极为复杂的经济社会影响,必须前瞻性地研究人工智能的技术伦理和价值导向等问题,以此来推动政府、企业和公众共同科学规划人工智能的发展轨迹,共同守护人类的美好未来。
不同于其他科技革命一般只涉及法律和经济问题的争论,人工智能的发展始终伴随着伦理层面的争议和反思。近年来,随着人工智能技术的成熟和商业应用,关于人工智能伦理问题的研究持续升温,内涵和外延都不不断扩大。2016年《麻省理工科技评论》评选的最佳图书就包括数本以人工智能伦理为主题的著作,例如《数学武器:大数据如何加剧不平等、威胁民主》和《发明伦理:科技和人类未来》。2017年1月,麻省理工学院媒体实验室与哈佛大学伯克曼•克莱因互联网与社会研究中心合作推出一项预计耗资2700万美元的人工智能伦理研究计划。
总的来说,人工智能伦理学作为一个新兴的研究领域,正在产生越来越多的开放式问题,人工智能失控、技术性失业、算法公平、感情道德、价值一致性等人工智能伦理问题,正受到广泛关注。
1.人工智能失控
能否保持对有朝一日远比人类更“聪明”的人工智能系统的控制,是人工智能伦理研究中最古老但又是终极性的问题。控制/失控问题之所以重要,是因为人类可能没有反复试错的机会。目前,科技界将人工智能的发展进程划分为弱人工智能阶段、强人工智能阶段、超人工智能阶段。国外诸多专家认为,超人工智能时代很快将会来临,这种人工智能形态能够提高自身的各种能力,包括替自身设计一种改进版本,随后那种更聪明的人工智能版本将会做同样的事情,这种递归式的自我改善可能导致最终的“智能爆炸”。 对此,《未来简史》一书的作者、以色列历史学家Y.N.赫拉利(Yuval N. Harari)提出了一种赫胥黎式的反乌托邦主义,指出人类可能的三大方向:人类将失去他们的经济和军事用途,经济系统将不再有价值;对系统来说,人类整体将具有价值,但个体将没有价值;然而,系统将在一些个体身上发现价值,但他们将成为一个超人的新物种,而不是普通大众,这里所说的“系统”指的是生物科学和信息技术以当前极快速度发展下去产生的新的社会形态。
2.算法偏差和机器歧视
基于海量数据和强大算法的人工智能系统正在影响甚至替代个体行为决策,在人工智能取代个体决策的趋势下,算法偏差和机器歧视并不鲜见且影响重大。例如,谷歌的图片软件就曾错将黑人标记为“大猩猩”,Flickr的自动标记系统也曾错将黑人的照片标记为“猿猴”或者“动物”。谷歌的算法歧视问题早已引起人们注意,相关研究表明,在谷歌搜索中,相比搜索白人的名字,搜索黑人的名字更容易出现暗示具有犯罪历史的广告;在谷歌的广告服务中,男性比女性看到更多高薪招聘广告。
3.人工智能引发的技术性失业
技术性失业是人工智能面临的经济伦理的重大挑战。2017年1月,麦肯锡全球研究院发布《未来产业:自动化、就业与生产力》报告指出,在800多种职业2000多项工作活动中,将近60%的职业或行业中有至少30%的工作内容在技术上可以自动化,但能够全面自动化的职业或行业不超过5%,在人类与机器共事的情况下,自动化每年可以将全球生产力提升0.8%至1.4%。该报告同时指出,自动化技术带动的大规模劳动力转型将持续几十年,类似的劳动力转型历史上早有先例,例如发达国家整个20世纪的农业劳动力大幅减少,但并未出现长期的、大规模的失业,这是因为技术发展同时衍生出之前不曾预见的新工作形态。
4.人机情感伦理
2015年秋季,英国BBC和美国CNBC等媒体报道了一家美国企业制造出女性形象“性爱机器人”的消息,该公司负责人认为该产品可以帮助丧偶者解决生活烦恼,这台真人大小的“全球首款性爱机器人”以6995美元的价格销售,据悉该机器人预设了“交际型”、“服从型”等多种性格模式,但该产品却引起了广泛的伦理讨论。对此,英国德蒙福特大学机器人伦理研究员K.理查德森(Kathleen Richardson)指出,过度专注机器人将“损害人类之间的情感共鸣能力”,并在互联网上发出警示性声明,向全世界募集支持者。
作为决策辅助者甚至直接决策者,人工智能在金融、教育、就业、医疗、信赖、刑事执法等诸多领域开始扮演显著角色,人工智能能够确保公平吗,是否会给当事人带来损害……?来自技术界和科学界各方面的杰出人士对于人工智能的各种可能的负面影响已经表达出了担忧。马斯克、盖茨、沃兹尼亚克、霍金等都对这些潜在危险发出了警告。数据科学家欧尼尔在其著作《数学武器:大数据如何加剧不平等、威胁民主》中将造成歧视、个体损害等不利后果的人工智能称为“杀伤性数学武器”,因其不透明性、规模效应及损害性而应当引起足够关注。关注人工智能的伦理问题并在研发设计过程中考虑这些问题正成为一个趋势。
如今,我们欣喜地看到,包括联合国、美国、英国、IEEE等都已经开始关注人工智能的伦理问题,谷歌DeepMind和Lucid AI团队都已经设立了伦理审查委员会。未来,人工智能的透明性、算法公平、监管和责任、信任等将进入更广泛的公众讨论视野,相关标准和规范将进一步出台。新出现的诸如伦理、责任、安全、隐私等问题,需要在跨学科的基础上,以及在政府、企业、民间机构、公众密切合作的基础上解决,以此来削弱人工智能的不利影响,创建人类与智能机器彼此信任的未来。正如DeepMind创始人哈撒比斯所言:“人工智能是一个伟大的技术,它本身都是中性的,可能被用于好的地方或者坏的地方,所以我们必须确保它的使用者是负责任的。”
(本文为惠志斌在2017年8月28日由上海市社联《探索与争鸣》杂志社和华东政法大学政治学研究院共同主办的“人工智能与未来社会:趋势、风险与挑战”学术研讨会上的主题发言,经本人整理,不代表本公众号的立场。)