人工智能是引领本轮科技革命和产业变革的战略性核心技术之一。习近平主席强调:“把新一代人工智能作为推动科技跨越发展、产业优化升级、生产力整体跃升的驱动力量”。最近,ChatGPT火爆出圈,引发全球对人工智能发展的新一轮广泛关注。ChatGPT异军突起,不仅给人工智能带来突破性创新,也将给产业发展带来颠覆性变革。如何认识ChatGPT带来的深刻影响,如何应对技术创新带来的治理和监管挑战,都是当前需要深入思考的重大问题。
ChatGPT是人工智能的突破性创新
2022年11月底,OpenAI发布了ChatGPT人机对话交互模型,头5天即涌入100万用户,此后活跃用户数量节节攀升。截至今年1月底,月活跃用户已经达到1亿,成为历史上增长最快的消费者应用程序。ChatGPT是一种专注于对话生成的语言模型,拥有持续的上下文对话能力,能够根据用户的文本输入,产生相应的智能回答,可以同时支持文章写作、诗词生成、代码生成等功能。ChatGPT的特点在于极大地凸显出超强的“思维”能力和“对话”能力,从而可以像人类那样对话和问答。ChatGPT体现出的诸多能力是以往人工智能所没有的,例如,ChatGPT写成证券分析研报,虽有人工稍许改动,但基本逻辑却很清晰。再如,ChatGPT能轻松通过美国执业医师资格考试、宾夕法尼亚大学沃顿商学院MBA的期末考试等。ChatGPT表现出来的超强能力让人们对人工智能的未来前景充满期待。
本质上,ChatGPT仍然是深度学习(deeplearning)模型下的新一代人工智能,但是又表现出不同于以往的突出特点,核心在于强大的技术创新让新一代人工智能技术具备了更高的“智商”、更高的“自由度”、更先进的技术系统。一是引入新的技术路线。ChatGPT不再是传统人工智能类似功能叠加的复合Agent模式,而是使用“大语言模型+Prompting”的技术路线,基础大模型类似大脑,指令微调则是实现模型的微调优化,两者结合实现逼近人类的语言智能,同时也较以往的人工智能更加接近人类的思维模式,让人工智能与人类的交流更容易让人接受。二是引入强化学习模式。ChatGPT和以前GPT大模型的核心区别在于:ChatGPT是基于大语言的基础模型框架,通过调用数据及人类反馈的强化学习进行反复训练。也就是说,经过人类的使用,ChatGPT可以获得使用者对于模型优劣和使用体验的反馈,从而基于这些反馈进一步优化模型。在这种模式下,虽然强化学习并没有对模型参数产生任何影响,但又明显提升了任务的效果。三是内容生成方式进入里程碑式的新阶段。以往的人工智能停留在专业生成内容、用户生成内容的阶段,而ChatGPT则进入了利用人工智能技术自动生成内容的新时代。这种内容生成方式能在大数据帮助下突破创作内容和创作量上限,创建文本、音频、图像、视频、3D模型等多种形式,让内容生成变得高效容易、富有个性。
ChatGPT是影响产业变革的“双刃剑”
ChatGPT让人工智能更加“聪明”、更加“主动”、更加“人性化”、更加“有行动力”,ChatGPT是人工智能的技术变革,由此也将带来深刻的、甚至是颠覆性的产业变革,学术界对此问题多有探讨。梳理一下,可归纳为五个方面:一是人工智能将对实体经济进行更为深入的改造。特别是在医疗、教育等与人类生活紧密相关的服务行业领域,人工智能有望深度参与其中,并与人类的劳动紧密配合,产生更为智慧、更高质量的服务。人工智能的“行动力”则能够有效克服人类的惰性,让人工智能既能产生新的“思想”,又能扎扎实实地“落实”。二是人工智能与实体经济将会产生更为深入的融合。不仅是与人类生活密切相关的服务业将有深刻变革,还可以预见,基建、制造、采掘,乃至种植、养殖等一产、二产的几乎所有行业都将接入人工智能技术,让产业发展更为高效、更为智能。三是将会创造更多难以预料的“未来产业”。ChatGPT全新的内容生成方式,让人工智能具备了远远超过人类的快速获取知识的强大能力,人工智能也将由此进入发展快车道。这很可能会带来人类难以预料的人工智能新产品、新技术,由此也将衍生出人类目前难以预料的产业形态。四是有望创造更高的经济增长效率。ChatGPT将通过两种方式提高生产效率:一方面,ChatGPT给各行业带来的技术进步将直接提升生产效率;另一方面,ChatGPT可通过提高自动化水平、改变生产方式进一步提高生产效率。五是人工智能将以更快的速度改变社会就业结构。ChatGPT是人工智能的升级版,很可能会让人工智能对就业结构的影响扩大化。一方面,对于某些岗位将加剧“机器取代人类”。机器BCG咨询公司和Faethm公司的研究结果表明,人工智能的日益普及让人类在经济中的作用大幅萎缩,数百万个工作岗位即将消失。另一方面,人工智能对劳动力就业的正面影响也很明显。人工智能在提高生产效率的同时,也会扩大生产规模,创造新业态,创造新的就业岗位。
ChatGPT在有望引发产业变革的同时,也存在风险隐患,甚至有些问题还很难预知。一是隐私安全问题。人工智能算法存在不透明性,导致用户信息在不知不觉中被“盗用”。一方面,由于商家收集消费者信息的情况非常普遍,即使消费者信息被利用,并且伤害到消费者权益,消费者也难以知道是哪个商家所为。另一方面,在一些国家地区对商业侵权的惩罚非常困难,所以即使消费者知道商家侵犯了自身权益,也很难对商家进行惩罚。二是社会伦理问题。ChatGPT获得知识和信息的来源非常广泛,ChatGPT创造出来的“思维”该如何界定产权?在直接服务人类生活的领域,ChatGPT和服务人员之间该如何界定职责分工?伴随人工智能的“主动服务”,人类很可能变得更加悠闲,也相应更加懒惰,这是否有利于人类社会的进步?这是不是我们想要的?这些问题都需要在今后的人工智能发展中不断研究解决。三是信息偏见问题。ChatGPT的功能提升很大程度上来源于大量的语料训练。但是在一些未经训练的领域,ChatGPT很可能会创造出不可理喻的“答案”,表现为一本正经地“胡说八道”。当我们逐渐信任ChatGPT之后,对于这些忽然冒出的“胡说八道”,我们很难辨别,也很容易被误导。四是数字鸿沟和算法偏见问题。数字鸿沟存在于不同国家、地区、行业、企业之间。由于数字技术水平并不均衡,技术应用程度存在差别,这让国家、地区、行业、企业之间的信息落差进一步加大,贫富分化进一步加剧。算法偏见则存在于不同人群之间,弱势群体容易被算法忽视,这些人因此可能受到不同程度的伤害。
全球主要经济体加速人工智能治理模式探索
人工智能发展速度之快,已经远远超出传统监管体系的约束能力。一些针对传统经济的监管手段,在面对人工智能带来的新产业、新业态时,既缺乏监管技术手段、技术标准,又缺乏有效的监管法律依据。特别是面对跨行业、跨领域、跨区域、多主体的人工智能安全和伦理领域,传统监管体系根本无能为力。如何应对人工智能快速发展带来的挑战,完善人工智能治理模式,已经是世界各国高度关注和亟待解决的共同问题,ChatGPT的横空出世或将再度燃爆人工智能治理这个讨论焦点。
客观来看,当前在人工智能治理问题上,并没有既定的全球规则和标准框架,也没有一个专门的国际机构来对其进行监管。各国基于自身利益,在人工智能治理上总体呈现“各自为战”态势,也表现出差异化特征。美国和欧盟作为全球两个主要经济体,采取了两种截然不同的监管态度,代表着人工智能治理的两个典型方向。
美国政府表现出一定的克制,主张“软”治理模式。早在2019年,美国总统特朗普签署《维护美国人工智能领导力的行政命令》,明确了美国在人工智能治理领域的总基调。其后,2020年1月发布《人工智能应用监管指南》,确立了人工智能使用规范的指导原则,将监管视为一种阻碍创新的行为,认为必须“避免妨碍人工智能创新和增长的不必要的监管或非监管行动”。2022年10月,发布《人工智能权利法案蓝图》,特别强调了人应该有的权利,即:不受不安全或低效系统所害、不受算法和系统歧视、个人隐私受到保护、知晓人工智能系统的使用并理解人工智能如何和为何产生最后的结果、有权选择不使用人工智能技术。总体来看,美国还是强调“少管”,除必要点外,能不管就不管。
而欧洲则建立了一套相对较为激进的监管制度,采取了“硬”监管模式,欧盟要求成员国的企业在部署创新技术之前需要预先获得政府批准。自2018年以来,欧盟先后出台《欧洲人工智能战略》《人工智能协调计划》两个重要政策文件,初步勾勒出欧盟人工智能发展的战略框架。2019年4月,欧盟发布《可信人工智能伦理指南》,进一步完善细化了相关战略,明确了“可信人工智能”的两个必要组成部分和七个关键条件。2020年2月,欧盟发布了关于人工智能监管和数据战略的白皮书,将人工智能应用情况分为高风险和低风险,并设立了两个监管部门。在此背景下,2021年4月,欧盟提出《人工智能法案》条例草案,试图在确保伦理和透明度的情况下,为人工智能系统开发和适用提供清晰指导,以期实现欧盟引领全球人工智能治理的战略目标。该草案基于风险进行制度设计,根据不同人工智能系统的风险高低,施加不同的监管措施。高风险人工智能系统将面临更严格的监管要求,如使用哪些训练数据、如何保留数据、向用户提供哪些信息、系统的准确性等。相比之下,低风险人工智能系统不受这些要求约束,只被鼓励参与自愿监管计划。
除欧美地区外,日本、印度、新加坡、阿联酋等国以及经合组织等国际组织也发布了人工智能监管倡议,主要围绕人权和福祉、问责制、透明度、伦理性和社会道德标准、社会包容性和多样性、非歧视性和公平性等诸多关键点展开。日本、韩国等从发展的视角,针对制造业智能化转型、新技术应用等问题来探讨人工智能伦理问题,也很有特色。
纵观各国人工智能治理方案可以发现,人权和福祉普遍被认为是人工智能治理的第一要点。电气和电子工程师协会(IEEE)倡导的《人工智能设计的伦理准则》《蒙特利尔议定书》等都提出人工智能设计应考虑人类福祉。第二要点是问责制,其中大多数倡议强调人工智能系统必须是可审查的,确保人工智能制造商、设计师、所有者和经营者对人工智能造成的伤害负责。第三要点是透明度,应制定可测量标准,以客观评估人工智能系统合规情况,以及取代人类决策的过程。第四要点是伦理性和道德性,IEEE、日本AI协会等建议人工智能设计应考虑社会和道德规范。第五要点是社会包容性和多样性,应避免人工智能的使用扩大经济体及个人等之间的发展差距。第六要点是合法性,IEEE认为人工智能不应被赋予“人格”,应仔细审查现有法律,以确保其没有赋予人工智能法律自主权。第七要点是环境危害和可持续性,确保人工智能不会造成环境危害。
完善具有我国特色的新一代人工智能治理体系
近年来我国持续重视人工智能治理,瞄准国际一流水平不断探索创新。2019年6月,发布《新一代人工智能治理原则——发展负责任的人工智能》;2021年9月,发布《新一代人工智能伦理规范》,积极引导全社会负责任地开展人工智能研发和应用。《电子商务法》《数据安全法》《个人信息保护法》《网络安全法》《关于促进平台经济规范健康发展的指导意见》等相继发布实施,人工智能“游戏规则”逐步规范,数字市场监管日趋完善,数据要素交易制度基本建立。特别是在2022年,我国先后出台《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》,向联合国《特定常规武器公约》缔约国大会提交了《中国关于加强人工智能伦理治理的立场文件》,提出人工智能治理要坚持伦理先行、加强自我约束、强化责任担当、鼓励国际合作等多项主张,表明了推动各方共商共建共享,加强人工智能全球治理,积极构建人类命运共同体的中国立场。另外,我国在国际上参与各类技术标准制定的情况越来越多,截至2021年底,在国际标准化组织ISO中承担技术机构秘书处的数量已达71个,占所有职位数的近10%,在技术创新中的国际地位正在明显提升。
但是也要看到,伴随人工智能技术的快速发展,人工智能治理手段也必须跟进创新。特别是ChatGPT的出现,让人工智能原本具有的隐私安全、社会伦理、数字鸿沟和算法偏见等问题更加凸显,劳动力就业领域“机器取代人类”的问题有加剧的趋势。创新人工智能治理手段、治理模式,已经成为促进人工智能健康发展的关键环节。借鉴发达国家的经验做法,我国在人工智能治理方面,应该着重抓住五个要点:
一是构建符合我国实际的治理模式。特别是要对人工智能治理的核心概念达成共识,探讨人工智能系统的关注点、研究议程,尤其是对隐私保护、数据治理等有争议的问题,必须进行深入研究。二是制定人工智能法律体系。明确人工智能使用的价值观、知识产权、隐私权等伦理问题,规范透明度、安全性和问责制等使用问题,建立监管规则、技术规范等,强化人工智能的正面作用,减少人工智能的负面影响。三是设立人工智能治理机构。由政府有关部门牵头,纳入企业、学术界、民众等治理主体,构建一个共建、共治、共享的人工智能治理框架,专门探索解决人工智能治理相关问题,组织落实人工智能治理的相关法律和规范。四是建立人工智能监管体系。制定并公开监管标准,明确监管手段、监管机构、保障措施。构建监管体系必须坚持透明度原则。五是积极参与国际人工智能治理。特别是多方参与技术标准制定,确保在人工智能领域的国际竞争和共同治理中,占据有利位置,抢抓战略制高点。
作者: 中国电信研究院战略发展研究所副研究员 陈凤仙 来源: 《中国发展观察》2023年第3期