生成式人工智能是利用现有文本、音频文件或图像创建新内容的技术。2022年11月,OpenAI公司发布了生成式人工智能产品ChatGPT。自面世以来,ChatGPT以出色的“类人”表现,在全球引起轰动。作为典型的生成式人工智能, ChatGPT以自然语言处理领域的大语言模型(Large Language Model,LLM)为支撑,强大的数据、算力与语言模型赋予了它出色的文字内容生成能力,开启了一种全新模式的人机互动。ChatGPT可以被应用于现实生活中的许多场景和产品中,无论是文本生产、网页翻译等日常语言处理,还是站点制作、代码编写、脚本绘制等专业技术领域,它都能成为一个“不错的助手”。不久前推出的GPT-4是一个多模态人工智能模型,在保留了从人类反馈中强化学习(Reinforcement Learning from Human Feedback,RLHF)的算法基础上,能够更好地处理文本与图像、音频和视频之间的转换和“理解”,是生成式人工智能领域的又一次突破。目前,人类已从最初的“惊叹”中回过神来,开始正视“GPT系列”等生成型人工智能的广泛社会影响。
生成式人工智能进入“创造”与道德领域。在生成式人工智能出现前,“创造”通常被视为人类的独有技能。而现在,生成式人工智能已在某种程度上能够参与“创造”。在一定意义上,“创造”的本质可能是,通过从数据和信息中学习关键要素,从而生成全新的内容和产品。采用“自注意力机制”的生成式人工智能,不仅能够找出文本、语句或代码之间的相互关系,还能基于历史对话内容实现连续多轮人机对话与交互,从而增强自身的学习能力,具有较强的创造性。此外,主流生成式人工智能通常加入了预先设计的道德准则,在一定程度上“具有安全机制和祛除偏见能力”,在应对一些“不当的请求和提问”时,能作出拒绝式的委婉回答,从而使其在知识产出过程中与人类的认识需求和价值观尽可能保持一致。这使得生成式人工智能开始具备“成为道德上被接受的人类社会成员”的潜能。
生成式人工智能面临法律风险与挑战。风险与挑战主要包括以下几个方面。一是生成内容的知识产权相关问题。生成式人工智能的运用使得“程序算法和独立思考的界限”进一步模糊,生成内容的利益归属及相关纠纷的解决路径也尚未明确,这在法学界已经引起了广泛关注和热烈讨论。尽管知识产权问题并非生成式人工智能所独有,但较之“分析式人工智能”,生成式人工智能的知识产权问题显然更为突出。二是作为“知识产权归属”对立面的“不良信息归责”问题。尽管现有的生成式人工智能在研发过程中已经尽量避免输出带有明显歧视、偏见或侮辱、攻击、色情、暴力导向的内容,但在实际运行中,如果使用者有意绕开规则,则可能输出不良、虚假或违法信息。对此类“信息产品”的处置,甚至比知识产权归属问题更加棘手。三是数据来源的合法性问题。生成式人工智能所需的数据来源缺乏透明性,若未经许可擅自使用特定信息,其行为的合法性将受到质疑。比如,近日有国外半导体设备制造企业在使用生成式人工智能产品后,发生了半导体设备测量资料、产品良率等机密信息泄露事件,并被迫“进一步收紧内部监管和员工培训”。上述问题没有一个是可以轻易解决的,这将使生成式人工智能更加深度地与人类社会“纠缠在一起”。
生成式人工智能影响人类学习和批判性思考能力。由于生成式人工智能的知识体系和文本训练来自人类现有的知识结构,因此其能力边界与人类向其投喂的知识数量、知识质量以及丰富程度密切相关。以ChatGPT为例,从内部视角看,其知识产出源于大型语言模型(Large Language Models,LLMs),涉及众多的幕后工作者和无数次的文本数据训练;从外部视角看,由于缺少有效的验证过程,因此难以把握其知识生产过程的准确性,往往只能对其输出的内容进行有效性评估。毕竟,面对“现成”的、“还不错”的半成品乃至成品,人们很难有强烈的动力去质疑或拒斥。更何况,一些人“两句三年得,一吟双泪流”辛辛苦苦生产的智力产品,甚至比不过生成式人工智能短短几分钟的“创造”——这一现象正变得越来越普遍。生成式人工智能可以在知识生产领域为人类提供便捷的基础服务,帮助人类用户提高知识生产的效率。而用户对于技术的依赖,或使其成为生成式人工智能的被动接受者,并逐渐形成某种“习惯”。一定程度上,这可能影响甚至剥夺了人类学习、理解和质疑的能力。主动思考,是人类思维的重要特征。可以合理预测,生成式人工智能的广泛普及或将大大减少人类的主动思考,易于使人们形成思维惰性,从而难以实现思想升维。如果说“奶头乐”是娱乐层面的低端替代,那么生成式人工智能则可能带来思维层面的“中端替代”甚至“高端替代”。随着生成式人工智能的发展,人类思维的独立性将不可避免地受到深刻影响。
生成式人工智能影响人类思维方式。相比于传统搜索引擎,生成式人工智能的语言“理解”与生成能力带来的社会影响更为强烈。传统搜索引擎已使一部分人的深度思考能力受到影响,甚至逐渐丧失了交叉验证、多方考察和现实求证的基本追求。主流生成式人工智能则没有像传统搜索引擎一样罗列出各种可能答案供用户选择,而是直接呈现其所认为的“最优答案”。不少人认为,源于生成式人工智能的答案是“合理的”,但却找不到明确、直接的合理性依据。生成式人工智能的出现,让人们发现了某种“捷径”——从这个角度说,生成式人工智能似乎正孕育着一场思维革命。生成式人工智能颠覆了过去以公开或半公开的信息和内容为基础的互联网应用模式,而走向数据和算法驱动的新模式,成为一种不再向大众公开、无法通过搜索引擎抓取内容的“黑箱大集市”。这种模式将从底层基础开始,给社会各个层面和各个领域带来全新的变革与挑战。这是一种相当彻底的“重构”,是对人类思维方式的深刻影响。
生成式人工智能改变人类知识生产方式。霍尔斯特(Norbert Hoerster)指出,人类的自由至少包括这样三层含义:一是“不被外在决定”;二是“我们有一定的自由去行动,也就是有行动自由”,“我们的相关行为没有因为外在的情况而被阻止”;三是“我在对这个问题作出决定时,没有感觉到任何心理层面的强迫或者压力”。而位居“自由意义体系”最核心地位的,则是一种“拒绝的自由”——这也是人类面对人工智能的底线尊严。尽管目前的主流生成式人工智能在知识产出上预设了道德准则和情感底线,但仍缺乏面向社会需求的明确“规则算法”,并且面临许多已知的局限(如社会偏见、幻觉、对抗性提示等)。生成式人工智能在知识生产过程中,体现的概率性语言(如“最合理的词语组合”“陈词滥调”等)和拼凑式创新,似乎打破了人类传统的知识生产和知识认证的系统性与平衡性,并在一定程度上限制了人类知识生产方式的自由化发展。概言之,在生成式人工智能的加持下,可能有过多“未经验证”的知识进入人类知识体系,并在算法的加持下占据更加优越的展示位置,从而重构人类的知识生产方式。
可见,生成式人工智能带来的挑战是多向度、面向未来的。面对生成式人工智能的种种挑战,一种可行的基本策略是,将生成式人工智能的运作不透明与对人类的影响,限制在一个可接受的范围之内,从而确保“人工”决定和影响“智能”,而不是相反。通过法律架构与技术手段、伦理规制,保证人类智能系统对人工智能系统的正确引导和关键把控,是应对生成式人工智能颠覆性重构的重要举措。
(作者单位:苏州大学马克思主义学院;浙江大学科技与法律研究中心)