摘 要:以大模型为基础的生成式人工智能(Generative AI)兴起以来,我国投资、产业、科技、社会等各界,紧抓机遇,发挥优势,投资AI研发,力推智能产业发展。随着AI的发展,出现了发展与风险、广泛应用与导致失业、投入与产出效益、研发方向与应用需求的矛盾,也使AI发展与安全的旧有矛盾更加凸显。矛盾成因多为初期发展的粗放现象,随着深入发展中的积极引导,这些矛盾将会得到化解。基于AI发展进程中的矛盾,本文对理性和有序地引导人工智能产业发展提出建议,并从宏观、长远、本质的视角深入分析,透视生成式人工智能的发展趋势,认为AI并非一般科技的驱动,它在强力推进工业时代向数智时代的深度转型,必将深刻影响和建构劳动就业新格局,重塑未来世界。
关键词:人工智能,大模型,智能体,机器人,智能产业
一、引言
伴随AI大模型为基础的生成式人工智能的兴起,围绕AI的投资、研发、产业化、应用等发展迅猛。在竞相研发AI技术、促进智能产业发展中,也出现诸多新现象,使人工智能发展原有矛盾更加凸显。部分矛盾和问题会随着AI的深入发展而得到解决,然而,对于会影响AI产业发展秩序的矛盾,需要在起始阶段就引起注意,注重分析,辨析趋势,解决矛盾,将智能产业引向理性和有序的发展之路。
二、人工智能新现象新问题及其研究进展综述
我国在推进人工智能发展进程中,随着通用大模型、行业模型、智能体和机器人等不同智能形式或载体的发展,出现了诸如发展与风险、广泛应用与导致失业、人工智能投入与产出效益、人工智能研发方向与应用需求等矛盾。这些矛盾和问题已引起学界关注,现分述如下。
1.人工智能发展与风险的矛盾研究
针对技术无止境发展可能造成的危害,约纳斯倡导人们“懂得在我们有理由为之最感自豪的东西中划界并停下来,本身就可能是未来世界的一个全新价值”[1]。吴冠军提出任何时候都不能改变“人机伦理”基调。要遵从阿西莫夫“机器人三定律”,即机器人不得伤害人类,或坐视人类受到伤害;机器人必须服从人类的命令,除非与第一定律冲突;在不违背第一定律和第二定律的情况下,机器人必须保护自己。虽然人工智能在很多领域已表现出能够替代甚至远超人类的能力,但“人机伦理”的基调不能变[2]。对于人工智能发展和安全的关系,宋信强等认为,按照伦理先行、依法依规、敏捷治理、立足国情、开放合作的治理要求,要形成政府主导、科技创新主体主动担当的模式[3]。荷兰学者维贝克、范登霍恩等人提出“在技术设计中,通过分析作为中介性技术的可能性空间,尤其是发现‘潜在的可能性’,将可接受的道德价值转化为可接受的技术功能,尽可能压缩潜在、不可靠、不可控的‘可能性空间’,使技术的‘初心’与技术的后果尽可能一致”[4]。科学家和工程师要承担创造技术的责任。应该“指导技术人工物的潜在威力释放方向和道德指向。将科技伦理知识整合到科学家和工程师的知识体系和思维方法中,或许是‘道德嵌入’的最高境界”[4]。邵春堡在分析科技与社会的张力与
对抗基础上,针对AI等新科技带来的异化现象,提出AI伦理引导、行业监管、依法治理的措施,比如针对AI的锋芒和任性需要伦理的平衡和引导,建议将“科技能够的”与“伦理应该的”相结合等措施[5]。
2.人工智能广泛应用与导致失业的矛盾研究
人工智能发展对劳动力市场产生深远和复杂的影响。AI技术带来的自动化替代了某些重复性、低技能,甚至脑力工作,导致就业机会减少;同时AI发展也带来新职业、新岗位、新业态,促进了劳动力市场的创新和发展。被取代的岗位与新生的岗位相比,呈现逐渐扩大的趋势,使AI应用与取代劳动力的矛盾越加突出。于航认为,大语言模型对劳动力市场主要带来的影响是替代,数据上并没有呈现出互补性增强的趋势。虽然新技术的出现会创造一些岗位,但目前还没发展到这一步[6]。AI技术的应用也改变了劳动力技能的需求结构。对高技能劳动力尤其是能够与AI技术协同工作或开发AI应用的人才的需求增加,而低技能劳动力可能会面临更大的就业压力。AI技术的发展加剧了职业极化,即高薪酬的技术和管理岗位与低薪酬的服务和劳力岗位之间的差距扩大。陈楠等认为,在技术应用前期,人工智能技术显著影响两类极端部门——技术先进部门与技术落后部门,导致技术先进部门对高技能劳动力需求上升,而技术落后部门对低技能劳动力替代增加[7]。AI技术的应用自然也产生“数字鸿沟”。有研究者注意到了“数字鸿沟”的出现,并建议要确保所有劳动力都能从AI技术的发展中受益,就要加大对大模型的研发投入,降低应用门槛,鼓励企业和劳动者使用新技术,避免或减少“数字鸿沟”[6]。
3.人工智能投入与产出效益欠佳的矛盾研究
以往人工智能发展的投入与产出矛盾不突出,从2023年初开始,投资通用大模型的公司多达200家以上。投资分散,算力昂贵,在数据规模及数据质量上也耗费不凡。只要Scaling law1无递减迹象,就要对其研发持续地规模投入,也出现了投入效益产出的担忧。已有研究显示,企业级AI项目的平均投资回报率存在显著差异。AI项目在初期需要大量的资金投入,包括数据收集、算法开发、硬件设施等。如生成式AI项目的直接应用成本可能高达数百万美元[8],训练最先进AI模型的成本高昂[9],使企业在评估AI项目时必须谨慎考虑其经济效益。有研究表明,拥有六项成熟AI能力的企业可以实现13%的投资回报率,目前企业级AI项目的平均投资回报率仅为5.9%,远低于10%的平均资本成本[10]。
尽管AI在某些情况下能够显著提高生产率和降低成本,但其初期投入较大、风险较高,市场和技术发展的不确定性。例如,农业和林业等行业中,AI资本存量与劳动投入呈负相关,而在教育和卫生等行业二者则存在显著的互补关系[11]。企业在决定是否投资AI时要权衡长期效益与短期成本。随着AI技术进步和应用场景丰富,市场对AI的需求不断变化。例如,德意志银行分析师表示,投资者已经过了对AI能力感到兴奋的阶段,开始进一步考虑AI的投资回报率[12]。这表明市场对AI的接受度和预期收益会影响企业的投资决策。2024年7月华尔街见闻发文说:“AI背负的高期待,伴有庞大的资本投入,促使企业急于将应用商业化,但没考虑到这项技术本身还处于早期的“实验阶段”[13]。有专家认为2024年下半年美股下跌是因为站在了高处不胜寒的泡沫高位上,这个泡沫中最显眼的就是AI行业,因为它们已经连跌半个多月[14],虽然所言均为美国情况,但我国也需对此给予相关重视,但不少专家认为问题似乎没到那样的程度。
4.人工智能研发方向与应用需求的矛盾研究
近年来,围绕人工智能的研究方向,各界均阐释了不同视角的观点。黑石集团董事长苏世民认为,从数据积累、算力投入、研发本身的技术和工程性质,似乎企业比大学研发大模型更有优势,更易突破[15]。Kimi创始人杨植麟指出,现在的产品很大程度由模型能力决定,要把产品和模型更紧密地结合起来去思考。比如产品上想做一个功能,背后是需要对应模型能力的支撑[16]。同时,部分研究者也围绕大模型应用重要性展开讨论,百度创始人、董事长兼首席执行官李彦宏先生则提出,不要卷模型,要卷应用[17]。某些互联网大厂的企业家强调大模型赋能智能体,其实践意义更大,应用前景广阔[18]。然而,也有研究者指出,大模型具备通识和泛化能力,由于应用中存在数据隐私和算法偏见、数学和逻辑推理能力不足等问题[19]。大模型很难满足具体行业的特定需求、专业性能和经济效率,缺少细分度更高的产品,在公有云提供服务中会造成企业私有数据、敏感数据安全性的担忧,使用中还需通过传统的磨合流程来实现产品与市场的契合,将通用大模型融入核心业务流程的案例不多,而行业大模型更有利于发展专业能力和精准赋能。
三、创新发展与风险防范的统一
随着AI自主学习能力的提升和大模型的应用,AI系统将更加高效地完成任务。如何将人工智能的正面功效发挥到最大,将其潜在和扩散的风险限制到最小,需要在深入研发和广泛应用中,积极地防范风险,注重隐私保护,实现发展和防范的统一。
1.人工智能带来的风险需引起关注
一般技术多是创造和改进工具,代替人的部分体能;人工智能因其智能性,兼有工具和劳动力的性质,还将代替人的部分智能。AI具有广泛的应用前景和深远的影响力的同时也带来高风险和危害。伊隆·马斯克在一次访谈中说,“人工智能的危险要远大于核武器的危险[20]。”与核武器相比,AI技术更易被广泛获取和使用,会带来滥用风险,比如通过AI技术生成虚假信息、进行网络攻击等。霍金认为,人工智能一旦脱离束缚,以不断加速的状态重新设计自身,人类由于受到漫长的生物进化的限制,将无法与之竞争,从而被取代[21]。此外,人工智能系统还面临数据中毒、模型窃取、算法歧视、数据泄露、欺诈攻击、社会治理安全等多方面的安全风险,以及由于技术不成熟导致的算法不可解释性、数据强依赖性等问题。
此外,大模型在带来惊喜的同时也引发了关于“潘多拉效应”的担忧,即研究人员对于其背后的原理和逻辑并不完全清楚。例如, 大型语言模型的工作方式似乎与数学理论所展示的不同,而且运作方式有时难以捉摸。即使对于OpenAI这样的专业研发机构来说, 也面临着解释大模型行为和性能的挑战[22];在ChatGPT-4发布后,出于对AI深入研发的安全和风险担忧,美国数千名对人工智能领域关注的学者、企业家、教授发起一封公开信,强烈呼吁暂停训练比GPT-4更强大的系统,理由是这些模型对于社会和人类存在潜在风险。OpenAI CEO Sam Altman在与MIT科学家Lex Fridman的对话中指出,AI已经出现无法解释的推理能力,同时承认“AI杀死人类”已有一定可能性[23]。OpenAI删掉使用条款中“禁止军事和战争用途”的内容,也涉及AI安全和风险的栅栏。2023年5月30日,超过350名人工智能领域的专家、高管签署联合声明,警告称快速发展的人工智能技术对于人类的威胁可以堪比疫情和核战争[24]。英国皇家学会院士、谷歌公司原副总裁Geoffrey Hinton提到,当学习算法与数据交互时,会产生复杂的神经网络,这些神经网络很擅长做某些事,但我们并不能真正理解它们是如何做这些事情的[24]。
另有多位研究人员担心AI达到或超越人的智商和意识,以至人类无法驾驭,甚至产生毁灭人类的危险。清华AI国际治理研究院薛澜院长认为,人工智能开始学会了欺骗,AI未来发展可能不受人类控制,现在通过图灵测试已经不是什么难事了[25]。AI的可怕在于“未知的未知”[26],随着AI研发和应用的演进,可能会在更深入的频繁的交互暴露出风险,对此,知情者有必要向有关方面和社会公开,在安全风险与技术突破之间,建立合作机制,有规制地协调防范。
2.人工智能发展带来的安全风险
积极研发和利用人工智能旨在提升生产力,但研发和应用中常会有一些风险和安全问题,影响发展。
一是利用数据要素加大智能发展带来数据泄漏和侵犯隐私的风险。智能发展以海量数据为基础,生产巨量优质产品和服务,运用数字平台更好地配置资源、机会、过程,通过扩大信息占比,以轻资产为主,从而减少对能源、自然的开发。但智能发展很大程度依赖数据挖掘和分析,可能带来数据和隐私安全问题。特别是生成式人工智能的研发和应用,其自主学习过程也涉及大量个人隐私等隐秘数据信息。
二是发挥AI智能决策优势带来算法鲁棒性的风险。人工智能、大数据等技术兼有生产力与生产关系属性,在发挥其物质生产智能化作用的同时,也利用其智能优势参与辅助性决策、治理和监管,通过AI智能化处理大量数据,简化决策流程,有利于提高决策的科学性和运营效率。但以深度学习为代表的AI普遍遭遇鲁棒性问题,易受对抗攻击、后门攻击和模型窃取等威胁。这些攻击可能使AI系统做出错误或恶意的决策,如图像识别中的图像欺骗,会导致自动驾驶面临风险。
三是AI技术通用性带来技术滥用的风险。“人工智能+”将人工智能与工业、商业、金融等行业全面融合,带动经济社会发展。因此,利用人工智能技术和互联网平台,可让人工智能与传统行业、新型行业深度融合,提升各行各业的创新力和生产力。然而,AI的滥用可能导致严重的生产事故,甚至危害人类生命安全。例如医疗机器人的程序漏洞可能直接伤害患者性命;ChatGPT可快速生成钓鱼邮件、编写恶意软件与代码,加剧数据泄露和欺诈攻击的风险;人工智能通过网络、决策者和操作者连接,让军事行动针对性更强、目标更明确、打击范围更广;人工智能还可用在“机器人杀手”等致命性自主武器上,通过自主识别攻击目标、远程自动化操作等,隐藏攻击者来源、建立对抗优势,加剧AI武器化造成的威胁[27]。
3.积极防范和应对人工智能风险和安全问题的建议
人工智能的风险和安全问题,要通过技术创新、伦理规范、法律制度等多方面来防范和治理。
一是建立严密的治理体系。在AI研发前沿和应用早期要善于发现AI问题和风险。通过制定详细的风险管理计划、建立风险识别机制、利用多种分析工具和方法,有效地识别、发现和评估潜在风险,通过定期回顾和沟通合作确保项目推进和实施。开发者应对模型分析评估,准确发现模型能够造成极端危害的可能性及程度。若AI应用风险早期尚未暴露,就要跟踪过程,敏锐捕捉显现的风险。通过技术手段将风险防范和治理纳入伦理引导、行政监管、依法使用之中,建立AI的治理和防范体系, 确保AI技术健康发展和广泛应用。
二是将技术手段作为防范风险的根本。用AI技术解决AI带来的安全问题,通过后续研究解决早期研发和应用中的问题;通过技术监管, 确保AI技术创新符合伦理标准, 保护人们的利益和安全。通过提高科技创新能力,把“AI+安全”技术融入数智化场景,开展有效的风险防范。例如,借助AI加速网络安全技术创新、安全防护体系创新,解决AI应用产生的数据隐私、算法偏见、决策不透明和伦理问题,防范风险的技术须超越应用技术。
三是开展AI的国际合作。要协调各国力量,突破各国经济、政治、文化的差异,共同制定AI大模型技术的标准和规则,确立AI技术伦理,特别是算法伦理,坚持立法先行,着眼于人类共同命运和共同利益,严格遵守隐私和数据保护法规,促进AI规范发展。联合国大会虽然通过了我国提出的《加强人工智能能力建设国际合作决议》,但是国际合作的实践仍然曲折,需要共同坚持以人为本、智能向善、造福人类的原则,通过国际合作和实际行动帮助各国特别是发展中国家加强人工智能能力建设[28]。日本亚洲成长研究所所长戴二彪指出,“人工智能技术的开发利用需要建立符合人类利益的规则,而制定规则不是一小部分发达国家的专利,所有国家都应参与,中国主提的这项决议显示出中国对全球人工智能发展和治理的大国责任感和重要引领作用”[29]。要通过共享经验和资源, 促进技术交流和标准的制定;要通过参与国际科技合作项目、引进国外先进技术和管理经验等方式, 加强与国际科技创新体系的对接和融合;要通过全球在认知、政策和举措方面的协调和合作,将AI的发展重点放在自然灾害应对、健康卫生、民生福祉和经济社会发展中。
四、人工智能广泛应用与劳动就业变革和趋势的统一
任何时期的劳动就业都要适应当时的生产力发展状况。随着数智时代人工智能的普遍应用逐渐取代人力,出现职工失业状况。这既有工业时代向数智时代转变所需的理念和战略调整,也应通过现行劳动就业制度的调整和变革来适应新情况,使双方得到统一。
1.人工智能取代劳动力与职工就业的矛盾
AI逐步取代部分劳动将成为一种趋势,一种是彻底消灭某些岗位,一种是取代岗位上的人力。人工智能取代劳动力是当前不可忽视的现象,引发了相关矛盾。
一是AI取代劳动岗位对传统就业结构造成冲击。AI技术的应用使一些重复性、规律性、可预测性高、技能低的工作逐渐被替代,此外,AI也可取代诸如数据分析、客户服务、自动化生产线以及易于被算法取代的工作。AI技术的使用还会使交通业、制造业、建筑业和零售业等行业面临较大的就业替代。AI取代劳动岗位将直接导致部分劳动者失业,让在岗的人也感到威胁和担忧,国际货币基金组织的研究认为,AI对全球劳动力市场有深远影响,近40%的就业将受其影响[30]。此外,该现象还将引发不同行业、产业、职业之间发展水平差距更加悬殊。AI技术集中在少数科技公司,中美等国的互联网和数字化公司在各行业的收入占比高,易加剧经济不平等和垄断问题,实际存在着数智科技产业化与产业数智化的矛盾,易引发贫富差距和社会不稳定现象,甚至可能加剧总体不平等状况。
二是工业时代下的工作职业、学科专业、生 产 环 境 无 法 适 应 数 智 时 代 的 要 求 。在以物质、能量为主要元素的工业时代,所形成的以机器、电力等基础设备的工交产业和相应的职业岗位、工厂车间、就业形式,包括学校里的学科专业设置,已无法很好适应数智时代。数智科技将传统产业转型和升级到以数智平台、智能体、机器人等为主要形式的智能产业发展方向,这些是工业时代的体系难以应对的。短期内尚且可以采取某些策略,但新旧时代的战略转折是必须面对的。数智经济社会从动能到产业,从工作职业到学科专业,从生产环境到生产方式,已与工业时代的劳动和就业大不相同。AI取代劳动岗位一定程度上反映的正是部分工业生产模式、发展环境的不合时宜。
三是准劳动力的机器人与人的劳动力角色发生冲突。人工智能革命对产业变革具有深远影响。随着生成式人工智能的新式工具进入产业,以及智能技术不断增强人的能力,引发生产力结构内在变化。虽然机器和机器人都能减轻劳动者负担,改变人的劳动条件,但劳动中机器代替的是人的部分体能,智能机器人还将代 替 人 的 部 分 智 能 。人工智能为机器安装上“大脑”,机器变成机器人,特别是AI大模型赋能机器人,使机器人具有通用能力,机器人作为工具兼有劳动力的性质,会逐渐取代部分人的劳动岗位,从而提高人的劳动地位,人既可以和机器人协同合作,也可以对生产中的更多机器人通过设施予以总揽总控。过去车间、工厂等劳动场所为工人布置的灯光、座椅、工作服、饮水饮食盒具、班组管理设备和劳动条件变得不再必要,无灯车间、无灯生产线,甚至无人车间、无人工厂将不断涌现。
2.适应新情况化解新矛盾的策略建议
人工智能广泛应用的深刻影响和发展趋势,需要全面考虑劳动就业的现实压力,从科技伦理、社会责任、经济救助等角度提出解决方案。
一是AI的应用力度要与社会接受度相匹配。AI技术代表未来发展方向,政府有关部门可采取政策引导等措施,调控AI应用节奏,确保其平稳融入经济社会生活。AI带来的变革,需要积极研发更人性化、协作式的人工智能产品和服务来应对。考虑被替代职工的就业去向,要做好取代岗位与安置的政策衔接,相关部门要早做规划、预案和统筹。公众对新技术的接受、信任和适应需要一定过程,因此要做好前期宣传解释工作,消除恐慌和担忧心理,帮助下岗职工适应变化,以确保平稳过渡,并为受影响的职工提供支持,有助于在科技进步的浪潮中实现社会的稳定和可持续发展。同时,要建立社会安全网,以防止人工智能技术引发社会紧张,这要求个人、企业和政府层面进行适应和调整,使人工智能转型更具包容性。
二是充分重视技术推广中的安全性问题。AI技术应用和推广要将安全性、可靠性置于首位,认真做好运营管理和系统维护,及时应对违规使用导致的问题。比如,无人驾驶必须以安全为前提,任何技术故障或事故都可能对公众信心造成严重打击。技术开发者和运营者需要建立严格的安全管理体系,确保系统可靠和安全,培养一个安全和负责任的人工智能应用环境。
三是要保障劳动者的权益、福利和基本生活。要通过制定相关政策来缓解可能带来的就
业结构变化和社会不平等问题。要为那些因AI取代岗位的失业者提供职业咨询、职业规划和求职支持等服务,以应对因岗位消失带来的就业压力,促进就业的重新平衡,保障失业人员的基本生活,以确保技术进步不以牺牲劳动者权益为代价,而是带来的利益能够惠及广泛的社会群体。
四是探索和支持新的就业模式。AI技术通过改变工作内容、任务性质、所需技能,重塑劳动就业结构,已对不同技能水平的劳动力产生异质性影响,劳动就业要将重点放到优化低技能劳动者的方面,选择“培训——就业”渠道;随着新职业新岗位的涌现,劳动就业要向着更灵活、更多元的方向发展。要引导劳动力向高附加值、难以被AI替代的岗位转移。要在更大范围内对AI应用进行合作,构建以人为本、和谐共生的AI发展环境。鼓励发展与人工智能协作的新职业,鼓励创业并提供政策和金融支持,鼓励远程、兼职等灵活的工作安排,以适应劳动者多样化的工作需求。提高社会流动性,缓解收入不平等问题。共享经济、平台经济在为劳动者提供更多就业机会的同时,也是弘扬互助共享的共同体精神,一个社会的物质、知识、机会的共享程度越高,共同体的构建就越会得到推进。
五是用AI取代劳动力的企业应承担适当费用。新技术进入经济社会应用,会有一定的交易费用,相关企业可通过适当方式付出费用。比如,在开通无人出租车的城市,将一些无人智能车优先卖给网约车和出租车司机,让他们承担一部分购车资金,减少无人出租车公司的资金占用量,未来每辆车的收益可分账一部分给网约车和出租车的司机,企业、社会和失业者共担技术应用带来的影响,使企业和岗位被取代者共渡智能化的转型。
六是培养具备数智能力的人才队伍。智能产业的快速发展,要求全新认知教育重建。学校要从培养AI相关知识、技能和经验的人才出发,规划教育体系,改革教育形态,构建职业教育和终身学习体系,转型期间要为弱势职工提供培训,要立足未来要前瞻相关学科专业人才的培养和引进,提高劳动者对创新和复杂问题的解决技能,为智能产业的发展提供人才保障。
五、人工智能发展投入与效益产出的统一
近年来,大模型的研发热潮同投资度热相辅相成。总体看,科技发展趋势决定了投资AI,具有长期性、整体性和不可逆性。但顺应投资趋势的同时,还要抓住机遇,机遇是在特定时间和条件下可能出现的有利情况,具有短期性、微观性。
1.在人工智能项目的监管中弥合矛盾实现统一
在AI研发和应用中,投入与产出的矛盾体现在高昂的研发成本与期望的经济和社会效益之间的差距。实现两者的统一,要注重几个关键环节。
一是市场需求和明确目标是AI项目始终把握的方向。投资研发AI项目,同其他科技的研发有异同。相同的是投资大模型、行业模型、智能体、机器人的研发,要始终明确项目的目标和市场需求,把盈利作为企业生存发展的核心,确保研发方向与实际应用场景相匹配,减少无效投入。不同的是人们在感受大模型的成就时,未必清楚深入研发会承担多大风险以及大模型的科学性强还是技术性强,相对科学性强的项目可能时间更长,可能有的公司在清楚这点后就不会投资,即投资AI需要随着研发进展,密切关注,适时调整。
二是持续迭代和跨学科融合是AI项目追求效益新特点。新科技革命一个突出特点是技术迭代和跨学科融合,AI也不出其外。生成式AI就是AI的新生代。虽然大模型、行业模型和智能体、机器人的发展,谈不上迭代,但是它们却有技术上前者赋能后者的特点,因此投资机器人,既可以承接大模型赋能的技术,又可和各项制造技术融合,根据不同领域的专业知识,创新AI应用,提高AI系统的实用性和创新性,形成跨学科的新特点。
三是把控风险和长远举措是AI项目管控的重点。有经验的投资人愿意花更多精力走到边缘技术旁,因为那往往是下一次变革可能发生的地方。风险投资正是加大风险防范和治理的力度,投资者、研发者和经营者都有责任管理风险,建立风险评估和管理体系,对研发过程中可能出现的问题进行预测和控制,减少不必要的损失。将技术、项目的投入延展到专业人才的培养是AI项目的长期措施和保证,在企业对AI的资本投入大幅增长的同时,要有相当比例投入AI人才培养,特别是企业内部人才,他们更了解公司业务和流程,待技术应用成熟,这些专门人才将会有力地推进AI技术的落地实施。
2.实现人工智能项目投资价值最大化的建议
企业作为市场主体,要经受市场变幻莫测的考验,盈亏是常态,要保障投资经营优化,需致力于长远和宏观上的效益。
一是将抓机遇的投资与波动发展的效益产出统一起来算理性账。从通用大模型的研发到行业模型以及机器人的研发,是从AI技术研发转变到应用驱动研发,从起初对AI大模型的投资产业热情,经过曲折的研发过程,及时转到对智能发展投资和经营的更多理性上。根据以往IT领域的经验,加之我国在科技应用上有弯道超车的历史,强化多数企业的AI应用研究,能够快速提高投资AI公司的收益和利润率。机器人形态丰富,应用多样化,将会在工业制造场景和行业快速落地,产生事半功倍的效果,待形成利润和现金流后,可能转向体量更大的家用机器人和智能体。社会面持续关注,应用驱动研发,资本圈保持热度,待智能产品和服务广泛上市,至少会带来正常的技术投入产出比。
二是要将经济效益与社会效益结合起来算宏观账。投资AI产业,不能狭隘地追求回报,要将社会效益,特别是防范AI产品和服务中的风险和安全问题纳入效益之中,只有部分产品正负作用抵消后,才是企业应得的真正效益。虽然在投入产出比上不占优势,但实际上投资了企业智能产业的生态,维护了企业发展环境。这是投入产出比无法估量的收益。
三是要将预期效益与长期效益结合起来算持续账。不计较一次投入所产效益,而要在三个方面建立企业持续发展的源泉。在智能产业基础上,加大投入,夯实基础,将投资的基础设施等软硬件与其他企业和单位分享,惠及长远和多方,放眼未来的效益。在技术迭代上持续投入,采用敏捷开发模式,快速迭代产品,及时根据市场反馈调整研发方向,确保产品与市场需求同步,从开辟市场到拓展市场,让效益滚雪球式增长,使产业持续发展。在AI企业和产业的合作中,增强综合能力,致力于创新,通过经营管理、商业模式、市场运营能力的综合较量,赢得竞争,获得回报。
六、人工智能的研发方向与应用需求的统一
大模型研发可以给行业模型、智能体以及各行各业赋能,而应用中丰富的场景、海量的数据、优势的资源投入,又将强化大模型的研发。
1.生成式人工智能在研发与应用上的矛盾
一是大模型研发扩张与应用减缓的对立。不少公司将大模型研发作为投资热点,抢占制高点,但对大模型规律的认识并不清晰,宏观上造成“百模大战”的重复建设、资源浪费。虽然大模型在营销、办公、客服、人力资源、基础作业等领域也形成一些应用,但对以往AI成果的应用有所减缓。而且大模型已有成果更适合To-C,向产业转化较少,而投资、科技、企业、社会、媒体都将眼光盯在模型的功效上。
二是通用大模型与行业大模型的对立。AI研发从全面探索转向规模试点和领域特定的智能生成,需要根据不同领域的需求定制化AI解决方案。通用大模型与行业大模型都是生成式AI的崭新探索,前者倾向广泛领域和理论研发,后者多为特定领域的应用研发。由于研发通用大模型数据需求量大,算力损耗多,很难较快应用落地,于是不少公司转向行业、产业和企业的行业模型研发,这是探索和实践中形成的选择。但是,围绕大模型的深入研发和已有成果的尽快应用,在不同的争论中逐渐形成两种较为明显的态度,一种是追求技术,主张走通用大模型之路,提高“更大更强的AI能力”;另一种是将AI成果尽快用到市场,走产业之路,认为将“足够的AI能力”投入快速变现到商业场景,用市场庞大而独特的数据构筑壁垒。两者都有道理,但易走极端,应该倡导两者相互理解吸收,把投入集中在符合我国实际的研发和应用上,推进人工智能+的落地和发展。
三是开源模式与闭源模式的对立。大模型的开源和闭源是研发企业选择的不同模式。开源是开放源代码,允许任何人获得并修改软件的源代码,通过更大范围的开发者、研究者和爱好者的合作,拓宽技术创新边界,为人工智能发展注入活力[31]。闭源是将软件源代码仅由软件编写者或系统开发商掌握,通过核心技术和商业模式的保护,使企业从技术成果中获得经济回报。在涉及敏感信息和高安全要求领域,闭源形式尤为重要[32]。选择开源的企业希望通过全球合作推动技术创新和应用发展;选择闭源的企业以保护其技术和商业利益为主要目的[33]。例如,新近Open AI发布的o1模型,在交互过程中默认隐藏了思维链。开源和闭源的矛盾,体现在商业模式和技术选择上,也反映了不同企业对未来发展的战略考虑。
2.人工智能研发与应用的统一
生成式人工智能已形成“大模型——行业模型——智能体——机器人”的发展链路,各环节应按照技术逻辑,排列有序地发展。
一要重点发展几家通用大模型,提高我国AI技术竞争力。通用大模型不仅需要的参数规模大,算力规模大,而且在遇到数据瓶颈、算力瓶颈的情况下,走到无尽的前沿,具有一定的不确定性,即不知道还需多长时间、还需多大投入,才能有新的突破。按照杨植麟的理解,Open AIo1模型就是在天然数据不够用时,用较好的基础模型强化学习,创造出很多非天然数据,提高了数据质量和计算效率,进而产生出更深入的思考和推理,实际上他们创新出一种新的范式[16]。深入研发通用大模型,需要不断挑战,实现通用人工智能的目标。因此,大模型研发的企业不必过多。由于美国对我采取AI技术限制,我国必须要有一些具备世界竞争力的通用大模型。人工智能专家吴军认为,“现在全世界大模型成规模的没几家,美国大概5?10家,欧洲基本上就法国一家,若每个国家建一个大模型不可能,这很烧钱,我国应重点扶植不超过10家”[34]。目前,我国的baichuan3、智谱glm-4、腾讯混元、通义千问2.1、文心一言4.0、华为盘古、月之暗面的Kimi、抖音的豆包、可灵AI等大模型走在前列。除了上述公司,我国互联网大厂、相关大型企业拥有规模数据,有实力解决算力问题,也符合大模型研发的条件。
二要大力发展行业模型和业务模型,发挥我国产业齐全和技术应用的优势。国际上更多用垂直模型来表示“行业模型利用通用大模型技术,针对特定数据和任务进行训练或优化,形成具备专用知识与能力的模型及应用”,国内还有垂类模型、领域模型、专属模型等称谓”
[35]。行业模型本质上是解决方案。从用户在乎产品而非技术的实际出发,尽快把技术转化成产品,才有利于解决问题。行业大模型提供的不仅是产品和工具,还有定制服务与支持,需要客户参与共建。一方面,企业为提升竞争力和智能化转型,满足市场需求,想将数据转化为核心驱动,主动寻找最佳模型;另一方面,AI技术公司也在选择对人工智能提升发展质量有需求的特定行业、企业、产业开展合作。研发方和需求方结合,共同深耕“人工智能+行业/产业/企业”,利用行业专业数据或私有数据、特色应用场景等独特资源,对模型定制调整和优化,较快地进入应用,针对性地解决问题,产生价值。
三要把智能体作为智能发展的重点,培植和壮大智能产业。智能体是具有智能的实体。以云为基础,以AI为核心,构建一个立体感知、全域协同、精准判断、持续进化、开放的智能系统[36]。智能体包括智能行为的物理实体和虚拟存在,比如物理形态的机器人和虚拟形态的数字人[37]。智能体可以帮助我们处理更加复杂的任务[24]。在大模型技术加持下,智能体将具有自主性、感知性和行动能力,在复杂环境中自主决策、学习进化,更接近人类智能本质[38]。随着新型芯片技术的涌现,智能体将实现更高层次的智能化。这种应用驱动的AI研发,目的是使智能体成为人类广泛使用的商品,并根据使用环境和用处,按需求定制形状、大小及功能不同的智能体。
四是发展应注重相互促进。AI发展包含研发、应用等环节,但并非每个企业都要按顺序
将各环节做一遍。在全球化、数智化、市场化条件下,企业发展需要扬长避短。目前,在人工智能各环节,美国处于研发领先地位并带动应用。我国产业齐全、制造业发达,更适合AI快速应用于产业、行业和社会。加之我国具有互联网应用、数字技术应用的经验,在通用大模型研发带动下,已在金融、服务、文教、医疗、创作等通用模型易应用的领域广泛落地。现在除加大几家通用大模型研发力度外,要发挥我国技术应用优势,需重点加强AI行业大模型、业务模型、智能体、机器人等不同方式的应用研究。推动少数骨干公司的大模型研发成为赋能各项AI应用的“蓄水池”,助力AI的应用直接服务于具体产业,使它们既承接通用大模型的技术赋能,又能结合行业、企业和社会应用的场景和需要,向着智能产业、智能应用的方向发展,并将丰富的应用场景等资源和问题反哺大模型研发,形成通用大模型与AI应用“相辅相成、相互促进”的良性循环。
五是多方式促进AI研发与应用的统一。随着AI技术逻辑的演进,对大模型的认识不断深化,从能力、需求、成本、市场等方面来看,不需要更多公司都挤在大模型研发的独木桥。一些当初研发大模型的公司,可以转变到AI应用研究或AI应用的方向。首先是原本做大模型的公司改做行业大模型,他们积累了扎实的知识基础和丰富的交互体验,知道如何承接大模型的技术赋能,从而做好行业模型。其次是基于一些通用大模型的开源模式,开展行业大模型研发,对模型结构、参数等按需调整,更好地适配个性化应用需要。第三是开发一种比行业模型更灵活的领域模型或业务模型,其适合国内市场极度丰富的业务场景,能够促成生成式人工智能商业化。领域模型更适合超大规模的AI应用市场和多种服务模式。
3.提升人工智能发展质量和价值的建议
我国人工智能的研发势头正旺,智能产业前景乐观,AI应用将会蓬勃发展。从目前的探索和实践来看,AI基础建设尚需夯实,要致力技术创新,拓宽商用渠道,统筹处理AI的研发、产业化和应用的关系。
一是营造良好的政策和服务环境。我国已就AI的标准、能力、伦理、创新、治理等方面,出台了相关政策和法律,以确保技术发展符合社会的价值观和伦理标准,形成拥抱AI发展的社会环境,政府部门、行业协会和市场监管方面,对刚起步的生成式AI的研发和应用,应多包容,多服务,引导规范,使其走上健康的智能发展路线。
二是AI技术产业化要为产业的智能化开路。网络运营商、软硬件设备终端提供商、互联网企业,是大模型应用的先行者。他们数字化程度高、数据积累丰富、技术接受能力强,会成为大模型落地较早的行业。这些行业的大模型应用场景广泛,覆盖了营销、客服、内容生成等诸多环节,目前已有丰富和成熟的经验,他们的带动示范和提供的大模型服务、工具、产品,正在传导到制造等产业,促进企业从数字化向智能化转型升级。随着各种智能方式和载体逐渐成熟落地,企业会在改造、提升传统产业的同时,向着产业智能化快速发展。
三是打造坚实的AI技术底座。着力算力中心建设,促进算力统筹协同,不断提升国产算力性能和易用性,以赢得AI公司和应用企业的青睐;要有效地积聚高质量的数据,扩大数据交易,发挥数据的资源和要素作用;以创新精神研发智能产业的不同载体,避免同质化,体现技术、产业和应用的特点和优势,创造与众不同的产品和服务,提升价值,积极推广。
七、结语
随着智能产业基础夯实和合理布局,投资、研发、产业化、应用等环节会有序衔接,适应更多企业、更多场景,产生更多交互,开辟宽阔的应用渠道,从而防范、降低、分散智能项目的投资风险,促进高效合理投入AI的价值提升,形成投资、研发、应用等协同互促的良性循环机制。
在智能产业发展实践中,深化对AI发展的认知,透视AI发展中各种现象和矛盾的本质,在积极化解短期困局中,从宏观和长远的广角,理顺思路,理性发展。
要将智能产业的各环节,主动纳入AI伦理引导、市场监管、法治惩戒的发展与安全兼容的治理体系,加强对关键性风险的治理,统筹技术规范和产业发展,使智能产业安全、放心、可信赖、可持续,这是AI最重要的综合产出,也是赢得未来最值得的投入。
参考文献
[1] 张荣.约纳斯责任伦理的定位及其意义[J].道德与文明,2019-10-14.
[2] 吴冠军.人工智能与未来社会:三个反思[J].探索与争鸣, 2017(10).
[3] 宋信强,马创杰.加强人工智能发展的伦理风险研判和防范[EB/OL].(2024-05-07).https://gsgs.gdufe.edu.cn/2024/0507/c10466a191686/page.htm.
[4] 王国豫.推进新时代科技伦理学新发展[J].中国社会科学报,2020-01-14.
[5] 邵春堡.未来引擎:从科技革命到全新世界[M].北京.中信出版集团,2022-12.
[6] 学者谈AI对劳动力市场潜在影响:替代与互补共存,中美研究结论差异显著,21世纪经济报道2024-06-18.
[7] 陈楠,刘湘丽,樊围国,等.人工智能影响就业的多重效应与影响机制:综述与展望[[J]].中国人力资源开发,2021(11).
[8] TMGM外汇达人.人工智能的成本问题:在降低成本和提升效益之间[EB/OL].(2024-08-05).
https://baijiahao.baidu.com/s?id=1806536970334867342&wfr=spider&for=pc.
[9] ARK Invest最新报告:AI训练成本下降了100倍,但训练最先进AI模型的成本惊人[EB/OL].
(2020-06-09)[2024-08-10].https://cloud.tencent.com/developer/article/1640618.
[10] 充电研究社4A.利用Ai创造投资回报:Ai制胜的六项关键能力[EB/OL].(2023-09-13).https://baijiahao.baidu.com/s?id=1776904905829266137&wfr=spider&for=pc.
[11] 教育资讯.爱尔兰智库发布《2024年爱尔兰STEM报告》[EB/OL].https://www.sohu.com/
a/804463352_121123998.
[12] 赵雨荷,葛佳明.从AI到ROI——AI落地,2024是实验年,2025是起飞年[EB/OL].(2024-04-25)[2024-08-10].https://wallstreetcn.com/articles/3713653.
[13] AI的盛世与焦虑[EB/OL].(2024-07-11)[2024-08-10].https://baijiahao.baidu.com/s?id=1804281714976718895&wfr=spider&for=pc.
[14] 腾讯研究院.大模型会是一场泡沫吗[EB/OL].(2024-09-03).https://baijiahao.baidu.com/s?id=1809181115135504812&wfr=spider&for=pc.
[15] 黑石集团董事长苏世民:人工智能突破性进展出现在商界,大学处于劣势[EB/OL].(2024-07-04)[2024-08-10].https://new.qq.com/rain/a/20240704A052EB00.
[16] Kimi创始人杨植麟最新分享:关于OpenAIo1新范式的深度思考[EB/OL].(2024-09-15).https://finance.sina.cn/2024-09-15/detail-incpevzs4155600.d.html.
[17] 百度李彦宏最新预判:大模型应用,最看好这个方向[EB/OL].(2024-07-11)[2024-10-01].
https://baijiahao.baidu.com/s?id=1804259111802023963&wfr=spider&for=pc.
[18] 百度梁志祥:AI智能体是大模型最重要的应用. [EB/OL].(2024-09-23).https://finance.sina.cn/tech/2024-09-23/detail-incqcyir1823967.d.html.
[19] AI大模型学习的未来展望:趋势、挑战及应用场景[EB/OL].(2024-08-05)[2024-10-01].
https://zhuanlan.zhihu.com/p/711488093.
[20] 马斯克最新访谈再吐惊人语:人工智能猛于核武器[EB/OL].(2018-04-08)[2024-08-10].
https://baijiahao.baidu.com/s?id=1597146953828783628&wfr=spider&for=pc.
[ 2 1 ] 霍 金 G M I C 演 讲 : A I 或 终 结 人 类 文 明[EB/OL].(2017-05-02).https://www.sohu.com/a/137874554_679214.
[22] OpenAI遭遇研发谜团:有时大模型很难学会某一技能,过后又能突然学会[EB/OL].(2024-03-05).https://new.qq.com/rain/a/20240305A07QFH00DeepTech深科技.
[23] 紧急叫停GPT-4超强AI研发,马斯克等科技大佬在害怕什么,外向的社恐份子[EB/OL].(2023-03-30).https://baijiahao.baidu.com/s?id=1761785672229692335&wfr=spider&for=pc.
[24] 世界周刊丨AI“智”与“治”[EB/OL].(2024-07-15)[2024-08-10].https://new.qq.com/rain/
a/20240715A00N2Y00.
[25] 清华大学院长薛澜:人工智能开始学会欺骗[EB/OL].(2024-08-15).https://new.qq.com/rain/a/20240815V0383P00.
[26] 薛澜.AI的可怕在于“未知的未知”,发展和治理应“双轮”并行[N]每日经济新闻,2024-06-27.
[27] 对话齐向东:AI带来的安全问题,只能用AI来解决[EB/OL].(2024-03-10).https://www.thepaper.cn/newsDetail_forward_26628012.
[28] 联大通过中国提出的加强人工智能能力建设国际合作决议[EB/OL].(2024-07-02).https://www.gov.cn/yaowen/liebiao/202407/content_6960524.htm新华社.
[29] 新华网.综述[EB/OL].(2024-07-05).http://www.xinhuanet.com/tech/20240705/2d29fabaee2d4277aa46c8878687dc5e/c.html.
[30] 新浪财经.IMF:人工智能将影响全球近40%就业岗位,发达经济体应加强技术监管[EB/OL].(2024-01-15).https://baijiahao.baidu.com/s?id=1788173180128524377&wfr=spider&for=pc.
[31] 开闭源之争,到底在争什么[EB/OL].(2024-05-07).https://sghexport.shobserver.com/html/baijiahao/2024/05/07/1315847.html.
[32] 大模型的开源&闭源[EB/OL].(2023-11-28)[2024-10-01].https://blog.csdn.net/weixin_46412417/72article/details/134663952.
[33] 详解开源闭源之争,十家大模型厂商的商战策略,新浪财经,2024-06-25.
[34] 朱云来,吴军万字对话:人工智能下一步[EB/OL].(2024-07-11).https://baijiahao.baidu.com/s?id=1804256047613503176&wfr=spider&for=pc.
[35] 腾讯研究院,一文看遍AI行业大模型[EB/OL](2024-07-18).https://baijiahao.baidu.com/s?id=1804911348401072956&wfr=spider&for=pc.
[36] 云厂商编织“神经网络”加速智能城市跃迁[EB/OL].(2022-01-20)[2024-10-01].https://
baijiahao.baidu.com/s?id=1722436012087708045&wfr=spider&for=pc.
[37] 人工智能智能体是什么[EB/OL].(2024-02-23).https://www.ai-indeed.com/encyclopedia/7546.html.
[38] 大模型不够用,还有“AI智能体”?[EB/OL].(2024-06-20)[2024-10-01].https://it.sohu.com/a/787281889_100270262.
注释1 :Scaling law是一种描述系统随着规模的变化而发生的规律性变化的数学表达,这些规律通常表现为一些可测量的特征随着系统大小的增加而呈现出一种固定的比例关系(比如幂律分布)。是一种规模法则,OpenAI首次提出大模型中的Scaling Law。
本文刊发于《今日科苑》, 2024(8):60-72.