蓝江:生成式人工智能与人文社会科学的历史使命

选择字号:   本文共阅读 19288 次 更新时间:2023-06-15 18:29

进入专题: 人工智能   ChatGPT   人文社会科学  

蓝江  

 

随着人工智能技术的发展,尤其是当新的人工智能技术发展到一定程度的时候,人文社会科学是否还具有自己独特的价值?当人工智能可以创作诗歌、绘画、撰写学术论文时,人们不由得惊呼,人文社会科学曾经的领域正在日益被新兴的人工智能,尤其是生成式人工智能所蚕食。例如,以AI绘画和ChatGPT为代表的生成式人工智能,在全球范围内再次掀起了人工智能讨论的热潮。与以往的人工智能讨论不同,这次ChatGPT等人工智能应用接触了普通大众,让每一个拥有智能设备的用户都可以轻易地接触到人工智能发展所带来的震撼。与之前带有科幻式和未来学式的人工智能的遐想不同,生成式人工智能给普通人带来的直接体验让人们感觉到那个曾经离我们似乎很遥远的未来科技乌托邦,似乎即将成为我们日常生活的一部分。

面对AI绘画和ChatGPT的震撼,有人唏嘘不已,感叹艺术家和作家、人文学科的研究者即将失业,人工智能将取代人工的议论再次甚嚣尘上。另一方面,科技乐观主义者借用ChatGPT带来的热潮,让赫胥黎的“美丽新世界”式的未来科技神话又一次变成塞壬的歌声,让人们为之如痴如醉。为此,我们需要思考这个新的人工智能神话究竟为人类社会带来的是什么?如何从哲学社会科学的角度来认识生成式人工智能?如何思考在人工智能等新科技条件下的人类生存境遇?这些问题俨然已成为人文社会科学研究必须面对的新课题。

一、生成式人工智能与人类的生存境遇

ChatGPT,其全称是生成式预训转换机器人,是由美国人工智能研究实验室OpenAI推出的一款模仿自然语言的应用,该应用的特点是,利用神经网络架构并接受大量数据和语料库的机器学习,能够模仿普通人的对话和写作。2022年11月,一则新闻将ChatGPT推上热搜,一名学生用ChatGPT生成的论文被教授打了高分。正是这个结果,让无论支持还是反对人工智能的人都感到无比震惊,也掀起了ChatGPT讨论的热潮。实际上,早在2018年11月,OpenAI发表了《用生成式预训练转换器来改善语言理解》一文,指出:“我们引入了一个框架,通过生成性的预训练和辨别性的微调,用一个单一的任务诊断模型实现强大的自然语言理解。通过对具有长篇连续文本的多样化语料库进行预训练,我们的模型获得了重要的世界知识和处理长距离依赖关系的能力,然后成功地转移到解决诸如问题回答、语义相似性评估、尾随确定和文本分类等鉴别性任务上,在我们研究的12个数据集中的9个上提高了技术水平。长期以来,使用无监督(预)训练来提高鉴别性任务的性能一直是机器学习研究的一个重要目标。”

ChatGPT的火爆迅速转变成人工智能是否会取代人类,人类的知识和能力在未来是否还有用这样的大众化的议题。甚至一些用户在注册之后,以问出ChatGPT无法回答的问题而沾沾自喜,更有学者在媒体上发表文章论述,人类的某些能力(如艺术、理智思考、亲情等)无法完全被人工智能取代。这种讨论实际上只是重复了之前关于人工智能技术发展的恐慌和幻想,无益于真正揭示ChatGPT这类生成式人工智能究竟在何种层面上带来的进步和冲击。其实,对于人文社会科学来说,首先面对的任务就是需要理解什么是生成式人工智能、ChatGPT究竟代表着什么。人文社会科学需要解释ChatGPT这类生成式人工智能对于未来人类生存境遇的冲击和价值。生成式人工智能不仅仅是一个科学技术问题,也是一个人文社会科学问题。我们可以分别从四个层面来讨论ChatGPT的问题。

数据是生成式人工智能的基础。ChatGPT之类的人工智能应用是基于大量数据库和语料库的生成式系统。ChatGPT的成功并不在于应用本身,而是它吸纳了大量的数据进行机器学习。在人工智能时代,任何新应用都依赖于网络上生成的大量数据和语料库,这是人工智能发展的前提条件。但是,我们不能简单地将ChatGPT理解为Google和百度之类的搜索引擎,因为ChatGPT的奥秘并不在于从一个静态的数据库和语料库中提取数据,而是更看重与提问和交谈主体之间的互动关系。利用搜索引擎,不同的主体搜索同一个关键词在数据库中不会产生结果上的差别。但是,生成式人工智能不同,ChatGPT不是一个静态的数据库与语料库,每一次与对话主体进行交谈和互动,都推动了机器学习和成长,这次对话和下次对话会有明显的差异。比如,有用户让ChatGPT作一首七言绝句,第一个提出这个要求的用户得到的肯定是一首烂诗,但与ChatGPT对话足够多了,它就从用户的需求中得出七绝需要押韵、有平仄、有意境等,经过很多次训练之后ChatGPT逐渐成长,相信在很短时间里它可以学会如何做出满足用户需求的七绝,还能创作不同风格和意境的诗歌。其中的关键在于,ChatGPT将每一个跟它进行交流对话的用户作为最现实的数据库和语料库,我们每次向它提问甚至嘲讽它,都能促进机器学习。在这个意义上,ChatGPT的数据库不是一个静态的数据库,而是数以百万计的用户将自己的经验直接给予ChatGPT来进行机器学习,让其得以成长。这意味着,ChatGPT并不是其应用程序本身有多么智能,而是它能吸收足够多的数据库和语料库;它掌握的不是个体信息,而是全景信息或长篇连续性文本;它学习的不是个别的数字和句子,而是整体的语境。尽管ChatGPT的技术基础是数字技术和智能科技的进展,但它掌握的是人文社会科学所面对的背景,ChatGPT创作的诗歌、撰写的论文,其实都是它在吸收了大量的长篇连续性文本的数据之后的产物。

算法是生成式人工智能的基本结构。人工智能基本上采用神经网络算法,即将问题分解成诸多节点(神经元),让其自动互联和构成。在这个意义上,十分类似于乔姆斯基所说的生成式语法系统。乔姆斯基定义的“生成语法”是一套规则系统,它不取决于预先设定的语言规则,而是提出了一种生成原则,让语言交流的对象在对话中直接生成属于自己的语法规则,这个规则就是生成语法。乔姆斯基提出:“通过精确的描述,这种宽泛的语言理论能提出一种统一的方法,通过一个句子的生成过程来确定结构描述,从而让人们充分了解到这个句子是如何被使用和理解的。简而言之,从被合理描述的语法中,应该有可能得出强加在构成话语特定行为之上的完整过程和概括模式。对于具有正确形式的语法,其规则可以分成两类,一类是任选的,一类是必需的。在生成话语的过程中,只用那些必需的规则。那么,可以把语法的任选规则看作是产生某个话语过程中的选择机制。”基于神经网络架构的生成预训练转换器,与乔姆斯基设想的语言模型是一致的,机器学习的网络十分善于利用基础的神经元链接的生成原则,学习和模仿任何与之对话的对象,并通过语言转化体现在表述之中。其中最基础的是一种被称为“朴素贝叶斯算法”,这种算法能够在海量的连续性语料库和数据库中发现一些微弱的关联。人工智能学家佩德罗·多明戈斯指出,与其在形式上赋予各种数据以完成的规律,不如“发现一种通用的学习算法”,去“发现宇宙最深层的规律,所有现象都遵循该规律,然后找出计算的有效方法来将其与数据结合起来”。简言之,一旦与生成式人工智能对话越多,提出的要求越复杂,越有利于神经网络算法的生成。

算力是生成式人工智能的动力。生成式人工智能的井喷式发展,除了有基于神经网络的机器学习算法之外,更重要的是算力的巨大进步。当代人工智能学家、《奇点临近》的作者雷伊·库兹韦尔重新翻译了冯·诺依曼的《计算机与人脑》一书时,就发现了冯·诺依曼对算力的重视。在为新版《计算机与人脑》撰写的序言中,库兹韦尔写到:“冯·诺依曼阐述了他的计算模型,并继续阐述了人脑与计算机的本质同构性。他承认明显的结构差异,但通过应用图灵的所有计算的等同性原则,冯·诺依曼提出了一个策略,将大脑的方法理解为计算,重新创造这些方法,并最终扩大其算力。”若没有算力的加持,即便有了机器学习的算法,也无济于事。其实,朴素贝叶斯算法早在上世纪五六十年代就提出了,但没有足够算力来实现神经网络算法。随着超级计算机和量子计算的发展,让之前无法实现的巨大算力可以相对轻松地在今天实现。根据Similarweb提供的数据,仅2023年1月,每天ChatGPT就要与全球1300万人进行对话,如果每人平均聊天1000字节左右,也就产生了130亿个字节,根据测算这需要602台DGX A100服务器才能满足这个访问量。这意味着,未来ChatGPT的进一步突破式发展,或许需要更强大的算力才能达到人们在科幻小说中看到的情形。当然,这需要以量子计算机等新型算力机器的发展为前提。

人的存在是衡量生成式人工智能的价值尺度。ChatGPT不是超越人的存在,恰恰相反,它从一开始就实现的是与人的互动和共生。在《流浪地球2》中,从事数字生命开发研究的工程师马兆在临终前对图恒宇说的一句话是:“没有人类的文明是毫无意义的。”这样的结论同样适用于生成式人工智能。以提交ChatGPT论文的案例来解释,这个案例的精彩之处并不在于ChatGPT写出了这样的论文,而是在于教授将这篇论文视为学生撰写的论文。换言之,ChatGPT实现的是人类的交往,它所写的论文的参照物是人类的语言体系和知识系统。因此,我们真正感到震惊的不是ChatGPT多么智慧、多么超越人类,恰恰相反,我们所感到震惊的恰恰是ChatGPT竟然可以这样“像”人,我们竟然无法辨别出它的作品是否是人类的创作。

因此,我们需要重新思考生成式人工智能为我们带来的生存境遇。ChatGPT等生成式人工智能的价值在于,它参与到人类的知识和经验之中,它的目的并不是彻底取代人类,而是形成我们的身体经验和人工智能的神经网络经验的交互和对接,让基于人类身体的碳基伦理和基于神经网络算法的硅基伦理可以在一个共生的层面上结合起来。马克思主义认为,人从来不是抽象的存在物,任何人的存在都是一定历史阶段上的产物。技术改变了人类的生存方式,机器化、电气化都曾经带来天翻地覆的变化,但同时也推进了人类生存境遇的巨大变革。生成式人工智能的发展当然不是人类末世论的预兆,恰恰相反,它或许可以成为构建基于智能技术的人类命运共同体的契机,也为重新思考人文社会科学提出了新的任务。

二、智能互联主义与新的认识世界的框架

人文社会科学对于我们审视人工智能技术的发展的另一个重要价值在于:在科学技术迅猛发展的时代,根据历史唯物主义基本原则,重塑符合新时代要求的新的认识世界的框架。人文社会科学对于ChatGPT之类的生成性人工智能的意义,不仅仅是在人工智能里注入人文主义的内涵,甚至为人工智能技术塑造所谓的伦理标准。对于人文社会科学研究者来说,这种观念尽管有着良善的目的,但很难落到实处。比方说,在一些人看来,ChatGPT的发展会威胁到人类伦理和价值,所以人文社会科学需要为这些人工智能设定一个与人类共处的边界,让人工智能遵守人类的习俗、道德、规范和法律。ChatGPT绝不是在人类之外创造一个取代和废弃人类的智能世界,最终淘汰人类,走向一个超人类社会。这种科幻小说式的情节并不是当代人文社会科学学者思考的方向。相反,人类仍然是ChatGPT的使用者和主体,在这个意义上,一些技术恐惧论者所担心的问题并不会成为当代人工智能技术发展的重要问题。这就需要人文社会科学用新的认识世界的框架来审视ChatGPT等生成性人工智能所带来的变化。的确,新科技革命带来的创新,人工智能和大数据技术带来的影响,绝不是之前任何一个机械工具能够与之相媲美的。原因在于,生成性人工智能正在塑造一种不同于以往的认识世界的框架。然而,目前的问题是,人们对ChatGPT关注点大多集中在未来哪种职业会失业、人工智能是否会取代人类等这样粗浅的问题上。用这种方式来思考问题,实际上就是缺乏正确的认识框架来思考人工智能技术对于人类世界带来的整体和系统的影响。在这个意义上,我们更需要用普遍联系的、全面系统的、发展变化的观点观察事物。我们在面对生成式人工智能时主要面对如下问题:

1、方法论上的个人主义

在现代社会的发展历程中,个人主义不仅在社会存在论和认识论上具有史无前例的影响力,在方法论上也有着巨大的影响力和渗透力。“方法论个人主义是一种解释学,它断言,除非这些解释完全是根据关于个人的事实来表达的,否则,解释社会(或个人)现象的任何尝试都应不用理睬。”简言之,方法论个人主义关注的是个人事实,忽略了现象在整体社会中的影响。譬如,对于ChatGPT来说,方法论个人主义最容易被引导的方向是,ChatGPT的出现对于个人来说会带来哪些积极或消极的后果。所以,当人们面对ChatGPT时,会感叹它写的论文和人写的一样好,这样人类个体的这个能力就会被人工智能所取代,从而使个体的利益受到损害。从方法论个人主义的角度出发,个体很自然地会形成一种面对ChatGPT的恐惧。

2、对生成式人工智能的物化认识

从方法论个人主义的主观视角出发导致的必然结果是,将ChatGPT之类的生成式人工智能视为一种物化的对象,认为人工智能产品与一般的物没有任何差别。由于个人主义方法论,选择将个体之外的事物,在认识上物化为不依赖于个体的对象、一个孤立的静态的物体,那么ChatGPT与人类的交互关系和生成关系,在这个物化的认识中就被遮蔽了。在这种物化的认识论之下,ChatGPT似乎已经成为现成的物质产品,而我们与ChatGPT的对话仿佛是主体在个体性的基础上面对一个外在的他物,而这个他物以等待我们去发现的方式放置在我们面前。这或许正是某些人在向ChatGPT提问,而ChatGPT提供的答案令人啼笑皆非时的真实感受,他们或许会想,这么简单的问题都回答不对,怎么好意思叫最先进的人工智能呢?这种想法恰恰代表着一种物化认识论,即不能以互动和实践的维度面对ChatGPT。其实,ChatGPT从来不是一个回答问题的机器,而是一个聊天机器人,它的任务不是正确地回答问题或给出令人满意的答案,而是尽可能在与人的互动中学习人类的交往行为,从而让自己表现得更像人。在这个意义上,ChatGPT不是单纯的物,而是一个不断在互动中生成的智能。

3、零和博弈思维

方法论个人主义和物化认识论的叠加造成的结果是,将人与ChatGPT的关系视为零和博弈关系。许多ChatGPT的用户,在进入对话之前,实际上会占据一种优势地位,即主观个体性相对于物化对象的优先地位。在所谓的聊天中,用户是主动一方,而ChatGPT是等待着我们认识和使用的物质对象,正因为如此,一旦生成式人工智能超越了主体与物化对象之间的关系,人们便会在一个零和博弈的层面上来思考人工智能与人类主体之间的关系。于是,在一些人的思维中,他们选择了最差的零和博弈关系,作为构建个体与生成式人工智能之间的关联:要么ChatGPT不过如此,永远无法超越真正的人类(如那些提出让ChatGPT无法给出令人满意答案的问题的人的心态);要么感到恐慌,认为在人工智能的发展下,人类即将失业,被人工智能所取代。这种零和博弈思维恰恰是方法论个人主义和物化认识论组合的结果,他们无法想象人类与人工智能共同生成的形式,认为人工智能和人类只能在相互取代的逻辑中不断地搏杀。

这种零和博弈逻辑认为,要么人类遏制人工智能发展,选择宁可不要技术进步,也要捍卫人类的主体地位;要么人类彻底被取代,人工智能彻底摧毁人类世界。解决这个问题,恰恰需要今天的人文社会科学建立一种新的认识世界的框架,扭转狭隘的方法论个人主义和物化认识论,我们需要一种智能关联主义的立场,即在一个更宏观的生态中综合地看待人类和生成式人工智能的关系。在这种智能关联主义中,个体和人工智能不是彼此孤立的,而是在彼此的互动关系中共同生成的。我们可以认为:“数字生态下的各种信息体 (包括人与人工智能体)的关系,不能仅仅从单一或几个行动元来思考,而且他们面对着更复杂的网络环境,一个将周围的对象都转化为海量数字的信息体之间的智能关联网络,这是一种新生态、一种不同于自然生态的生态系统,是一种完全基于作为行动元的信息体智能互动和关联的数字生态。”在与ChatGPT互动中,随着我们的每一次提问,ChatGPT的神经网络算法就向前迭代一次,形成新的版本,一旦同时与ChatGPT交流的个体达到上亿人,那么ChatGPT的进化速度是非常惊人的,在这个时候任何与ChatGPT提问和交流的个体都被整合到一个巨大的智能关联的数字生态中,我们参与了交往,并生成了人工智能的迭代结果,每一个人都不独立于人工智能之外,而ChatGPT也只有在与更多人交往的基础上才能具有更像“人”的人工智能的能力。

这种数字生态下的智能关联主义对于人文社会科学学者意味着什么?卡伦·巴拉德曾经给出一种基于物理学上的衍射现象和量子纠缠的认识论,他说:“事实上,最近对衍射(干涉)现象的研究提供了关于量子态纠缠本质的见解,并使物理学家能够在实验室中检验形而上学的想法。因此,虽然偏差仪器确实测量了差异的影响,但它们更深刻地突出、展示和证明了世界不断变化和偶然的本体论的纠缠结构,包括认识的本体论。事实上,衍射不仅揭示了纠缠的现实,它本身就是一种纠缠现象。”尽管巴拉德谈到的是微观世界的量子物理学,但他提出的衍射和量子纠缠的关联,实际上可以用来解释生成式人工智能与诸多人类用户的关系,即若没有数以亿计的用户不断地向ChatGPT提问和互动,就不可能有今天的ChatGPT,而且这个纠缠过程仍然在继续,在生成着新的智能关系。我们可以将这种类似于量子纠缠的用户与生成式人工智能共同生成的形式,称之为智能关联主义。而且随着人工智能的发展,并不是人类逐渐被人工智能所取代,相反,是一个越来越相互依赖、越来越纠缠的状态。不仅人类的互动越来越依赖于与人工智能的交流,而且人工智能的具体形态也高度依赖于人类与之交往的方式。在这种新的认识世界的框架的影响下,人类并不会被人工智能所取代,而是促使人类进化为一种智能关联体,而人工智能也不是人类的替代体,而是在与人类的交往之间形成一种新的行为体,加入到整个数字生态之中。对于人文社会科学而言,亟待解决的任务不是让人类回到方法论个人主义,而是让人与人工智能体系形成一种互动和关联,共同构造人类生存的智能环境。

三、生成式人工智能与意识形态

一旦我们采用智能关联主义的新的认识世界的框架审视人与生成式人工智能的关系,我们就会发现,人工智能并不是一种客观主义的产品,更不是一种价值中立、与人类行为无关的物,而是一种与人类的交互行为处于纠缠关系之中的共生整体。生成式人工智能与之前的人工智能开发的策略不同,如在国际象棋上战胜萨姆索诺夫的深蓝,以及在围棋上连克李世石和柯洁等顶尖棋手的AlphaGo,这些人工智能是以一种相对稳定和完备状态面对人类主体,这样的人工智能很难做到跨领域学习。但生成式人工智能一开始并不是面对客观的具体领域,而是面对人,它的神经网络算法的基本规则,并不是给出具体的结论,而是给出在人类看来像是“人”的作品的回应。换言之,ChatGPT就是面对人的互动,它努力学习的恰恰是人类的思维模式和行为模式,并在对话中将这种学习的互动成果展现出来。因此,ChatGPT并非客观中立的产品,意识形态问题一定会通过某种形式体现其中,即生成式人工智能具有明显的意识形态倾向。生成式人工智能的意识形态性主要体现在如下几方面:

1、语料库和数据库的意识形态性

有研究者指出,ChatGPT在进行语料库学习中所产生的信息偏见问题:“ChatGPT作为一项基于数据库挖掘以及与人类交互而形成知识的智能工具,是基于已有的数据库和接收到的问题,提供或在更严格的意义上说是生成答案。在其答复问题时,会明确声明其是一个人工智能模式,并告知用户其当下所使用数据库更新的时间节点,警示用户其所提供答案也不一定准确,可能会产生有害的指令或蕴含有偏见的内容。”ChatGPT开发者已经意识到回答的答案不是公正而中立的,而是根据提供的人类语料库和数据库的内容产生了偏见。语料库是有意识形态性的,当机器学习使用那些具有明显意识形态问题的语料,而用户本身也是带着自身的价值立场与ChatGPT互动,当ChatGPT与之对话时,不可避免地会受到意识形态的影响。然而,更加需要我们关注的是更广泛的英语语料库的问题。毕竟,在ChatGPT的会话和回答中,七成以上的用户是用英文来交流,而背后的数据库和语料库绝大部分都是英文数据,在这些数据中难免存在一些带有严重的意识形态导向,甚至虚假和捏造的内容,而ChatGPT的机器学习都不分良莠地加以吸收,其后果是在后续生成的回应中ChatGPT会提供大量带有意识形态倾向甚至虚构的信息,进一步来影响与之对话的用户。

2、算法的意识形态性

尽管我们理解算法的基础是布尔代数、哈希函数、傅里叶变换、朴素贝叶斯算法等一些基础的数学定理和程序,但这并不意味着不带来无涉于意识形态的算法。例如,哈希函数本身是一种数学原理,但哈希函数的赋值则是可以选择的,决定了哈希函数可以面对信息时进行有效的筛选。如果将哈希函数的赋值原理延伸到整个算法系统,可以说算法的基础原理是价值无涉的,但算法的各种参数、赋值、变换实际上存在着人为价值介入的可能性。因此,美国学者斯科特·蒂姆克就提出:“目前开发的计算机算法技术都受到了意识形态的操控,如今,这些算法技术的进一步发展,已经让我们无法看清美国资本主义再生产的所有片段。”蒂姆克看到了资本主义在算法运行中进行意识形态控制的事实。对于ChatGPT来说,就是算法中植入的程序、赋值、参数和变换等问题。

3、 应用场景的意识形态性

将人类与ChatGPT的关系放在智能关联主义的背景下,意识形态的问题就不纯粹是单独的用户和ChatGPT的程序问题,我们还需要考察应用场景和智能环境。什么是应用场景?简言之,用户会在什么样的情况下与人工智能进行对话和交流?在ChatGPT兴起之初,人们大多是带着好奇心注册并缴费,成为ChatGPT的用户。但这种好奇心并不能维持长久,ChatGPT需要形成更有实用性的应用场景。当然,在目前的生成式人工智能的情况下,我们仍然需要在人工辅助的情况下来完成这些应用场景的任务,如由ChatGPT帮忙撰写一份初稿,用户在此基础上进行修改和润色会变得方便得多。但其中的意识形态风险在于,当人们在一个固定的应用场景中使用ChatGPT,如撰写研究报告,那么这个领域的写作就会被人工智能深入控制,行文风格和习惯、书写内容都十分容易被ChatGPT所掌握,长此以往,这些领域成为ChatGPT的应用模板不断复制的领域,即便真正的人类个体来从事写作的时候,也需要符合这样的应用模板。比如,在新闻报道中的应用会让报道的格式趋同化,而自媒体的文稿也让网络主播尽可能按照固定的人工智能的模板来进行创作。当然,这并不代表新闻记者、学术研究者、自媒体从业人员会失业,但问题在于,唯有按照ChatGPT生成的模板来运作,才可能被视为好的新闻稿、好的论文或好的底稿等。

因此,人文社会科学研究者在面对ChatGPT等生成式人工智能带来的挑战时,需要有明确的意识形态立场。ChatGPT或许在原初的数学原理和基础构想上是中立的,但一旦它接触到不同语料库、不同的用户,算法被不同赋值、定义、变换,其意识形态的独特价值就昭然若揭了。法国思想家阿尔都塞提出过“意识形态国家机器”的概念,他指出:“一种意识形态国家机器就是一个由各种确定的机构、组织和相应的实践所组成的系统。在这个系统的各种机构、组织和实践中得以实现的,是国家的意识形态的全部或一部分。”在阿尔都塞的时代,意识形态国家机器是家庭、学校、教会、新闻媒体等,它们起到帮助国家统一意识形态,达到稳固的资本主义统治的效果。我们可以借用这个概念,将生成式人工智能视为一种意识形态国家机器,这就需要今天的人文社会科学研究者赋予其特定的意识形态内涵。

因此,我们需要在算法和程序上完成独立于西方的生成式人工智能系统。我们欣慰地看到,百度推出的文心系统和复旦大学推出的Moss系统,正在填补这方面的空缺。不过,无论是文心系统还是Moss系统,当然需要有人工智能方面的技术专家的辛勤付出,而对于人文社会科学学者而言,其使命在于,赋予这些中国的生成式人工智能系统丰富的数据和语料库系统,形成属于我们自己的应用场景。在生成式人工智能领域,我们一方面可以看到我们与美国在人工智能方面存在的技术差距,也需要看到这种技术差距背后隐含的意识形态的话语霸权。面对这种话语霸权,需要中国的人文社会科学研究者站好自己的意识形态立场,用自己的话语和语料库,用我们自己的应用场景来抵御ChatGPT带来的意识形态冲击和风险。在我们自己的生成式人工智能的应用场景中,形成中国式的人工智能生态,吸收更广大的世界人民共同参与其中,一同建构一个更美好的人类命运共同体。(注释略)

(作者系南京大学哲学系教授、博士生导师,南京大学马克思主义社会理论研究中心研究员)

来源:《思想理论教育》2023年第4期

    进入专题: 人工智能   ChatGPT   人文社会科学  

本文责编:SuperAdmin
发信站:爱思想(https://www.aisixiang.com)
栏目: 爱思想综合 > 学术规范
本文链接:https://www.aisixiang.com/data/143746.html
文章来源:本文转自从ChatGPT智能革命谈起,转载请注明原始出处,并遵守该处的版权规定。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2024 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统