高奇琦:从大国协调到全球性机制:人工智能大模型全球治理路径探析

选择字号:   本文共阅读 2642 次 更新时间:2024-06-05 21:53

进入专题: 人工智能大模型   全球治理   技术多边主义   大国协调   全球性机制  

高奇琦  

 

内容提要:人工智能大模型全球治理的关键是对大模型进行科学分类。大模型可以分为超大模型和一般模型。对于超大模型的治理,可以参考核武器治理的思路,重点是实现超大模型的有限发展和不扩散。对于一般模型而言,要在安全可控的基础上发挥其对各国生产力的推动效应。一般模型的治理关键是对风险进行定价。关于人工智能大模型的全球治理,不仅要充分发挥传统机制的作用,还需要构建新的专门性国际机制,努力形成一种全球性的机制复合体。

关键词:人工智能大模型 大国协调 全球性机制 全球治理 技术多边主义

 

人工智能大模型全球治理迫在眉睫。从技术变革的角度看,大模型的出现代表了人工智能领域的一次重大突破,极大提升了机器学习在自然语言处理、图像识别等领域的性能,并持续推动经济结构重组。大模型在社会互动与文化方面的变革性则表现为其对信息获取、知识学习和交流方式的改变。同时,大模型技术变革在演进过程中逐渐成为一项全球安全和治理的重大挑战。例如,网络安全、技术竞争和全球技术监管的现实需求,迫使各国建立新的法律和政策框架,并通过加强国际合作的方式来解决。尤其是大模型所引发的关于数据隐私、算法偏见等问题的全球伦理争议,引起了各界关于国际合作如何在人工智能使用和监管中发挥重要作用的思考。一方面,全球治理需要考虑如何制定共享的伦理准则和技术标准,以确保人工智能技术体现公平、透明和负责任原则。另一方面,大模型的快速发展也要求全球政策制定者、技术专家和社会各界形成更加密切的合作,通过国际对话和政策协调,应对由其所引发的就业变化和社会不平等问题。大模型作为一种技术革新在推动全球技术进步的同时,也促使国际社会重视全球治理体系在人工智能发展中的协调性作用。关于大模型全球治理机制的建设路径,既要运用传统治理机制,也要构建新的国际机制,即探索构建大模型全球治理的机制复合体。

大模型全球治理的定义与风险

关于大模型全球治理这一概念,一般有两种理解。一种是将大模型用于解决现有的全球治理问题。大模型作为人工智能技术的一个新发展,可以被用于全球治理的各个方面。另一种则认为大模型作为一个新技术本身正在产生诸多新的全球性问题,而解决这些问题需要全球治理的思路。本文使用的大模型全球治理概念,主要指第二种。大模型可能带来的风险主要分为三类:失业、失序和失控。

第一,失业。大模型不可避免地会加剧失业,大范围的失业问题可能引发经济危机或政治危机。早在2018年,牛津大学便已出版一份关于人工智能就业冲击的报告,警示人们高度关注这一问题。即便如此,大模型技术的发展还是远远超出了人类专家的理解。OpenAI的研究人员正是在其内部看到了从外部可能还无法理解的一些先进技术,因此才在2023年年初发布有关GPT对劳动就业市场影响的论文。从当前技术进展来看,OpenAI的这份报告准确地预见了大模型对就业市场的冲击,特别是外语翻译人员、专业设计师、程序员、金融从业者、作家等面临非常高的就业替代率的职业。伴随大模型技术的不断发展和应用,失业问题将变得更加严重。

第二,失序。知识秩序是政治秩序的基础。大模型作为一种新的知识生成器,无疑会对传统的知识秩序产生重大影响。换言之,大量大模型生成物的出现,很有可能创造一个完全虚拟的世界,使人们建立信任变得极为困难,这有可能会引发较为严重的政治信任危机。如果政治信任危机与经济危机叠加,则会产生更为严重的社会影响。

第三,失控。失控主要源自大模型自身的能力和意识。大模型代表了通用人工智能到来的可能性。一旦通用人工智能实现,极有可能产生如下两类问题:一是超级能力。目前的GPT-3的参数量是1750亿,而采用了混合专家模型(Mixture of Experts)的GPT-4的参数量则有可能达到万亿计。根据规模法则(Scaling Laws),大模型的超能力会在一定规模上突然涌现。若这种超能力被用来制造核武器或生物病毒,人类将很难进行有效控制。二是超级意识。若大模型具有通用人工智能的能力,其可能会产生自我意识。目前相关研究表明,大模型具备人类个体某个阶段的意识,这可通过心智理论来证明。大模型产生自我意识之后,可能会采取“越狱行为”来摆脱人类控制。此外,大模型还可能误导人类作出错误决策,继而引发严重冲突。

从这个意义上来讲,大模型全球治理的关键是进行分级治理。换言之,要区分两类模型。一是超大模型。对于超大模型的基本治理原则首先应是不扩散和非恶意使用。由于超大模型具有某种超能力,一旦其被恶意使用,将会产生巨大负面影响。同时,对于这样的超能力,需要采取最小扩散原则。当然,在实际情形中,按照美国目前的技术逻辑,其一定要拥有这样的超能力,以巩固自身的优势地位。一些国家作为重要的追赶国家,往往会采取技术突破的思路。因此,超大模型的突破只是时间问题,但超大模型不应该形成扩散态势。换言之,如果主要国家拥有超大模型的能力是不可避免的,那就要避免其大范围扩散。因为只有控制掌握者的数量,才能够一定程度上降低恶意使用的概率。当然,对于超大模型的开发者和应用者而言,也要形成一套相关的严格使用规则。使用者不能将超大模型用于恶意行为,如使用超大模型技术对他国进行降维打击或推翻他国政权等。

二是一般模型。一般模型的基本技术逻辑应该是可扩散与和平使用。一般模型的参数量相对较小,其拥有超能力和超级意识的概率比较小,对人类社会的影响更多体现在失业和失序方面。大模型本质上是新型生产力工具,会在一定程度上改善人们的经济状况,人类不能完全阻止这类大模型的使用。一般模型的治理主要通过更加精准的定价机制,在一定程度上调整大模型的使用节奏,促使大模型为人类社会发挥更加积极的作用。

管控超大模型

管控超大模型,首先需要对超大模型进行定义。目前通行的办法是对参数量进行定义。这种界限大约是十万亿到百万亿参数。超大模型的治理重点应该体现为对超级意识和超级能力的控制。因为超大模型可能具有强大的能力,对其应采取有限发展的逻辑,即不能纵容其无限发展,这一点类似于核武器。核武器在最初开发时,一个基本逻辑是可以节省常规武器的弹药,其仍然是在某种生产力逻辑下发展起来的。但到冷战后期,核武器足以将地球毁灭若干次。大国之间核战略的基本逻辑是“相互确保摧毁”(Mutual Assured Destruction),因而需要限制核武器的数量和规模。

核武器的这种发展逻辑同样可以被用来理解大模型治理。大模型同样是一种生产力工具,因此完全限制大模型发展的思路是一个天真的想法,因为没有人会在生产力发展的道路上停下来。然而,当这样的生产力可能对人类社会产生重大的破坏性影响时,人类就会更加趋向于考虑其负面效应。从这一角度来讲,有限发展需要成为超大模型治理的基本逻辑。基于此,人类社会需要确保超大模型的不扩散。

目前推动大模型扩散的重要方法是开源。开源是计算机领域的一个通行做法,开发者完成某个程序的开发之后,往往把这样一个程序放在相关社区之中,供大家免费下载。大模型领域的开源运动极大地降低了其获取和使用门槛。例如,在开发GPT-4时,OpenAI和微软用了2.5万块的英伟达A100,训练时间大概为3个月,训练成本为6000多万美元。然而,在开源运动的推动之下,以LLaMA 2为代表的开源使得中小开发者有机会参与大模型的部署。通过LangChain和LlamaIndex等工具的辅助,参与者可以在自己的设备上部署自己微调过的大模型。从这个意义上来讲,开源运动是一种民主化运动。但是,对于超大模型而言,要一定程度地限制开源。因为一旦超大模型拥有的超能力被恶意使用者获得,将给人类社会带来巨大麻烦,其负外部性将无法管控。因此,开源,特别是超大模型的开源必须限定在一定范围之内。

完全限制超大模型是不可能的。大模型支撑的人工智能是一种通用性技术,也是第四次工业革命的关键性技术。超大模型是主要大国获取国际领导权和国际威望的重要筹码,完全限制其竞争性开发,在实践中很难操作。因此,超大模型治理的核心原则应该转向尽可能地减少扩散,这需要依靠某种类似于核不扩散机制的国际性条约来实现。这就涉及多边控制,同时还要为这种多边控制建立某种相应的机构和核查机制。例如,建立类似于国际原子能机构(IAEA)的“国际人工智能机构”,可以对那些试图突破超大模型的国家进行相应限制,如对相关的重要物资进行管控。在大模型开发中,算力是关键物资之一。总之,管控超大模型需要更多从核武器发展和控制的思路来考虑,并逐步从大国协调走向全球性机制。

对于超大模型的开发而言,美国、中国会成为最重要的行为体。美国可能率先在超大模型上取得突破,中国则会加速追赶。还有一些主要大国也可能会加速突破。一旦各国在超大模型上形成突破,再进行完全限制就不太可能,这实际上会成为一种“奔向截止日期”的努力。在这一过程中,中美互动至关重要,因为超大模型的最终风险是其超级能力和超级意识,各国的生产力竞速最终可能会使超大模型作为“第三者”获利。因此,中美需要建立必要的沟通机制,包括自我控制和交换信息,之后再从中美的双边机制向多边机制延伸。与核武器的不扩散机制类似,在建立超大模型不扩散机制的过程中,需要将超大模型开发权利放弃者的权利和义务结合在一起,如主要行为体之间建立某种类似于核不扩散机制的超大模型不扩散机制,并通过类似于允诺他国一般模型准入的条件,来换取他国放弃追求超大模型。

对风险进行定价

超大模型产生的风险更多是一种外爆风险。无论是其超级能力还是超级意识,其效应还是相对显而易见的。然而,对于一般模型,人们往往只会看到其提高生产力的一面。借用让·鲍德里亚(Jean Baudrillard)的概念,一般模型的风险更多的是一种内爆风险,这种影响是内在的:从外表来看,其并没有发生太大变化,但是内部已经发生了深刻的结构调整。

对于一般模型而言,其首先会表现出提高生产力的一面。正因为如此,它的负面影响才可能会被“隐藏”,或者被“包裹”起来。一般模型的风险主要在于,其在快速部署的过程中会对传统的社会结构产生冲击。应对这类风险最重要的做法应该是减缓其部署的节奏,并增加人类应对的时间,让变化在相对缓慢和可控的状态下发展。这一点类似于碳排放机制。碳排放机制的基本逻辑是,减少排放或者可控排放,而不是完全不排放。如果完全终止排放,这对于很多国家特别是发展中国家而言,就意味着对发展权的完全排斥。因此,碳排放机制的关键是减少排放,即先达峰再逐步中和。在碳减排过程中一个重要经验就是,用经济和定价手段可减少人们排放的动机。这同样可以运用到一般模型的部署和使用过程中。

因此,可以在一般模型部署的过程中,在其费用上叠加一笔智能税。这样的智能税并不能由部署者所得到,而是通过直接进入公共部门作为某种公共基金的方式,来对那些受到一般模型应用冲击的人进行各种类型的补偿。前提条件是对大模型产生的失业风险进行相对准确的测评,如对大模型的部署可能会对哪些岗位的工作产生负外部性的影响进行测量,同时将这样的测量结果反映在智能税的征收中。这种智能税的征收机制可以在一定程度上减弱人们部署大模型的动机,因为人们在部署时会考虑效率或者经济原则。如果增加一笔税收的话,使用者可能还会考虑雇人来完成工作,这样就会相对减缓大模型部署的速度,也会给人类社会的调整赢得更多的时间,并且相对有效地减少大模型对就业产生的冲击。另外,我们也可以通过定价机制来相对减缓知识产权和虚假信息等问题的集中爆发。大模型的成功在很大程度上是人类知识的一种加总和放大,但大模型并没有为其使用的人类知识付费。所以,需要对大模型的使用进行某种知识产权的追偿。

对于虚假信息的滥用,同样可以进行惩罚性定价。人工智能本身生成的信息很可能是不真实的,这是由它的幻觉所决定的。但正是这种幻觉,构成了生成式人工智能创新的基础。如果追求完全消除这种幻觉,实际上会扼杀人工智能的创新性。然而,生成式人工智能产生的信息能够对公众产生误导。这种误导还存在明确责任对象的问题:是大模型本身的误导,还是使用者的误导?因此,需要对大模型服务提供商和使用者进行一定的滥用惩罚性定价。换言之,一旦这样的信息被滥用,那么无论是大模型服务提供商还是使用者,都要为其付出一定的成本。这种成本的存在,使信息滥用得到一定程度的限制,否则,在一个巨量创造信息的世界中,人类之间的信任会变得越来越困难,最终会影响整个政治系统的稳定。其中的一个基本考虑,就是让两类风险都统一在一种整体性的定价模型之中。同时,还可以借鉴碳交易的形式推动大模型风险交易。

当然,在定价过程中,仍然存在一些问题。例如,如何对大模型产生的失业效应进行准确定义。过高的定价无疑会影响大模型发展的速度。同时,这种定价还要形成整体性机制,因为单独一国定价的意义会大打折扣。大模型企业会采取“用脚投票”的方式,去其他更加友好的国家发展。因此,需要在世界范围内建立一种定价的整体性机制,这就使全球治理变得至关重要。

在对风险进行定价的过程中,可以形成一种多边机制,并且要更多地反映发展中国家的意见。正如联合国政府间气候变化专门委员会,在推动应对气候变化的过程中实现的多国参与和多行为体参与,这是一种典型的国际层面的“协商民主”(Deliberative Democracy)。整体而言,在管控超大模型的过程中,大国协调可以发挥主导性作用,因为其涉及超大模型不扩散的内容。然而,在推动一般模型广泛运用的过程中,则要更多听取发展中国家的意见,即更多采取多边机制,最终使一般模型的内部性风险在一种相对缓慢的过程中发生。这样一定程度的“内爆”,就有望成为塑造人类社会新形态的一种力量。

从大国协调到全球性机制

技术多边主义主张将技术置于一种整体主义视角下考虑,同时通过多边机制逐渐将技术的进步性发挥出来,并及时限制其可能产生的风险。技术多边主义需要在大国协调和全球性机制之间达成平衡。这就涉及一个是“小多边”还是“大多边”的问题。大国协调在很大程度上是“小多边”。在超大模型的管控上,要更多以“小多边”为主来推动超大模型的不扩散;而在对一般模型的风险定价方面,则可以采取多国参与、跨国协商民主的“大多边”模式。

超大模型往往涉及大国的关键利益。如果方案太过理想主义,则无法达成实际目标。因此,在此过程中,大国协调至关重要。按照集体行动的逻辑,行为体数量越少越容易达成一致行动。超大模型的管控,可考虑先以中美协调为基础,然后逐渐扩展到中美欧,再邀请其他大国加入。当然,在美国不断加大对中国打压和遏制的背景下,这个过程能否顺利推进取决于中美互动以及中美双方对通用人工智能危险的整体性把握,这实际上构成了中美之间建立智能互信的基础。然而,在涉及一般模型的广泛使用和风险定义方面,则要更多考虑一种类似于联合国政府间气候变化专门委员会的全球性机制。在这一过程中,要充分发挥协商民主的作用,并鼓励更多行为主体参与其中。尽管协商过程可能会比较长,但却是必要的。

同时,国际社会应尽快达成普遍共识。一旦大模型被广泛运用,人们应对的时间会越来越少。整体来看,最终大模型全球治理要建立一种整体性的全球性机制复合体,主要涉及两个方面。一是超大模型的不扩散,二是一般模型的广泛使用。其中既要控制超大模型的风险,又要使一般模型的进步效应发挥出来。主要大国在这一过程中要发挥更为积极的作用,先通过双边互信来建立合作机制,然后扩展到多边机制,最后再以全球性机制将人工智能治理的成果固化,这就实现了一种从国家治理到全球治理的拓展过程。

第一,充分运用好传统多边机制。这要求在现有的国际框架内充分挖掘和发挥传统机制的作用。例如,在联合国框架内,已有众多与全球人工智能治理相关的国际机制,这些机制可以为人工智能技术的伦理、透明度及其广泛应用提供治理基础。联合国教科文组织可以在教育和文化领域内推动关于知识失序的国际讨论,而世界卫生组织可以关注大模型对医疗均等性的影响。同时,由于大模型可能导致失业问题,国际劳工组织的角色变得尤为重要,它可以协助形成应对自动化影响的国际策略。随着人工智能技术发展,知识产权保护和追偿问题也与世界知识产权组织的工作内容有一定的相关性。此外,G20作为全球经济合作的主要平台,可以促进成员之间达成共识,推动建立相应工作机制,包括对人工智能引发的市场变动和就业影响进行战略性调整和预防性政策制定。由此可见,传统机制在应对由大模型带来的全球挑战时,可以延续其原有的功能和责任,但需要针对新兴技术的特点进行适当的调整和扩展。

第二,建立专门的协调性机制。例如,建立类似于国际原子能机构的“国际人工智能组织”,并设立相应国际核查机制。该组织的职责将包括监督与大模型相关的国际标准遵守情况,确保所有国家在开发和部署大模型技术时的透明度和责任,由此对那些突破性发展的超大模型国家的行为进行定期核查和验证,在防止技术滥用的基础上降低全球安全风险。同时,可借鉴国际货币基金组织等国际组织经验,优化投票权分配,确保每个国家的声音都能被公平听取,并反映不同国家在全球技术领域的贡献。全球人工智能治理需要形成类似碳交易的智能风险定价市场,该市场能够为人工智能应用中的潜在风险定价,鼓励企业和国家在开发和部署大模型时采取风险最小化策略。在这一过程中,人工智能税也可作为国际组织的财政来源之一,以减轻由相关技术快速发展所产生的社会成本,如失业和技能过时。人工智能税收入还可以用于资助全球人工智能安全研究、支持被技术变革边缘化劳动者的再培训,并促进人工智能国际合作与发展等项目的落实。

总体而言,传统机制倾向于利用现有机构的政策、国际合作网络和影响力来推动全球范围内对人工智能技术的统一理解和应对措施,为技术治理提供稳固的框架和权威性。新型的专门协调机制则聚焦具体技术问题,如算法透明度、技术伦理、数据安全等,通常具有更专业的技术导向和更灵活的反应能力,旨在达成针对性更强的专业要求。最终,在传统机制和新型机制相互影响,以及各国关于人工智能治理规则相互作用下,形成机制复合体(Regime Complexes),实现对大模型全球治理问题作出整体性回应。

 

【本文是国家社会科学基金重点项目“加快数字化发展与建设数字中国的政治保障研究”(项目批准号:21AZD021)的阶段性研究成果】

高奇琦,华东政法大学政府管理学院教授、政治学研究院院长

来源:《当代世界》2024年第5期

    进入专题: 人工智能大模型   全球治理   技术多边主义   大国协调   全球性机制  

本文责编:SuperAdmin
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 国际关系 > 国际组织与合作
本文链接:https://www.aisixiang.com/data/152205.html

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2023 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统