摘要:人工智能的发展使得人工意识或机器意识成为一个被关注的主题。但人是机器的理念与机器是人的理念并不等同,人有意识而机器没有是基本共识。然而,人工智能的巨大成功激发人们去探讨人工意识和人工生命问题,这其中必然会面临许多挑战和争论,包括哲学的、伦理的以及科学和技术的。具体而言,这些挑战和争论涉及人工意识的可能性与不可能性,它与心智的相关性和组成的无关性,智能体的形态计算性与可实现性以及其内在世界与外在环境的耦合关系,智能体的道德地位的实在论与关系论之争,其中一个核心问题是如何知道机器有意识这个认识论难题,该问题可能通过对人工意识进行文化建构和适应性表征来解决。
“人工意识”(Artificial Consciousness,AC)一词1992年首次出现在科学语境中,与“机器意识”(Machine Consciousness,MC)几乎不加区分地互用。亚历山大(I.Aleksander)给出的定义和研究范围是:“人工意识(AC),也被称作机器意识(MC)或者同步意识,是一个与人工智能和认知机器人相关的领域,这一领域的目标是寻求需要综合哪些信息才能使一个人工机器拥有智能。”显然,人工意识研究旨在尝试对人类认知中与意识这种难以捉摸、有争议的现象所认同的方面进行建模实现,主要目标是弄清一个核心问题——意识是需要与环境紧密耦合,还是认知系统的内在特征。此后,科学界、人工智能界和哲学界没有就是否以及何时能够取得这样的成就达成共识。因为有意识心智的经验属性,包括感受性、意向性、心理表征、自我意识等,并不为已知的任何物理系统所共有,即使目前最先进的社交机器人也不例外。也就是说,物理系统如何产生了意识的问题,各种观点并存且意见不一,对意识的各种建模——高阶思维模式、工作记忆模式、全局工作空间模型、复杂性模型、循环模式、神经场模式、关联心智以及基于注意力的CODAM模式——也只是对大脑意识的部分功能做出解释。
尽管如此,人工意识的研究肯定会对人们如何看待意识的方式产生影响,也会导致许多问题——生物脑(尤其是人脑)和人工脑(人工神经网络)有没有统一的意识或心智理论?有意识系统是否必须通过自然进化产生?人工意识是否有必要成为具身心智(类生物意识)?非生物结构的人工脑没有先验经验是否能够产生反事实(假设)的意识?等等。这些问题都很棘手,均是科学和哲学难题,但并不妨碍我们从不同视角去探讨。本文不是要回答这些问题,而是从哲学上思考人工意识研究出现后机器意识的可能性和不可能性、形态计算的可实现性、人工主体的道德地位以及文化建构和适应性表征实现策略。
一、人工意识的可能性与不可能性
人是机器的观点由来已久。但是机器是否也有心灵,则是计算机特别是人工智能出现后,人们才开始真正思考并着手创造人工意识。智能机器人拥有理性的逻辑推理能力,因此人们自然地以为理性是意识的特征,自然地会推出理性实体具有意识。由人工智能体具有理性的逻辑能力推出它拥有意识,这种逻辑显然是站不住脚的。我们不能因为人类有意识有理性,就自然地推知人工智能也因基于理性就有意识。对人而言,其感性(指感受性、身体体验)和理性(逻辑推理、计算规划)是统一的,有时也可分离,比如大脑在进行数学计算时主要是理性在起作用。对人工智能来说,它没有感受性但有推理能力(即操作符号解决问题),这表明生物意识和逻辑推理是可分离的。这就是早期的计算主义(心智的计算理论)的观点:心智之于大脑,犹如软件之于硬件,也是计算机科学和人工智能中的“二元论”。
显然,缺乏感受性(意识)的机器是哲学上所说的“僵尸人”(只能行动没有心智)。目前的智能机器人就是某种意义上的“僵尸人”。这意味着人工智能体不可能拥有意识,也暗示了人工意识的不可能性。这一观点的代表是塞尔的生物自然主义——意识是生物现象,物理的机器不可能有意识。这种观点的深层逻辑是,机器缺乏生物大脑通过进化而来的固有因果力。然而大脑的因果力是什么,塞尔也没有说清楚,认知神经科学家也没有阐明。看来,因果性是人工智能缺乏意识的“硬伤”,这表明人工智能的推理不是确定性的因果推理,而是非确定性的统计推理。这样一来,如何让人工智能有意识,就是让其拥有因果力。而这一点恰恰是目前的人工智能还做不到的(不排除未来能做到的可能)。
笔者认为,我们还不能借人工智能缺乏因果力而排除人工意识的可能性,因为意识具有多样性,其物理实现也应该具有多重实现性。计算智能可能是实现人工意识的路径之一,即让机器人有“真信念”。比如简单的恒温器,按照麦卡锡的说法,它知道“这里太热了”“这里太冷了”“这里温度正好”三种信念。麦卡锡的逻辑是:信念意味着意向性,意向性意味着意识。然而问题在于,机器没有信念,只有无意图的倾向性,麦卡锡所说的信念实际上是一种物理倾向性,不是意向性,他混淆了倾向性与意向性概念。恒温器肯定没有意识包含的意向性,尽管它能感应所处环境并对环境采取行动来应对温度变化。这实际上是用大众心理学的自然语言术语解释机器功能,如“信念”概念。
从心智的计算理论来看,意识源于智能系统用以推理“自我”的模型结构。为了解释信息处理系统如何拥有某物的模型,我们必须有一个先验的意向性概念来解释系统内的符号为什么以及如何指向事物(符号接地问题)。这种非人的意向性理论(物理智能系统)的基础,是系统状态与世界状态之间存在和谐的匹配——感知—行动循环。人工意识能否实现,就看人工智能能否成功地找到视觉、语言和运动等基于计算机模拟的计算解决方案。比如,人工意识的超建模(supermodeling)方法将意识框定为自我感知,并将意识表征为一组模型,这些模型相互吸收数据并集体同步(即同步意识)。实验表明,在一系列脉冲神经元模型中检查内部和外部的同步组合,这些神经元彼此耦合并与外部刺激耦合,从而产生明确的视野。这表明,神经元间的耦合似乎增强了神经模型与现实的整体同步,这种整体同步的实质是适应性表征。
如果意识被理解为是通过行动来感受和反映内部和外部的自我存在,那么这种自我存在使主体不仅感受自己的存在,也与自由意志有关。如果是这样,意识就是关于个体存在的感觉和觉知(意识到某物),并且可以按照意志做不同的活动,这些活动包括选择、实现某些目标和为生存而战等。如果对意识的这种理解是对的,那么人工智能体的意识也应该具有感觉和觉知的功能,并且可以按照它自己的意志做不同的活动?或者说,人工智能体会具有达马西奥所说的核心意识和扩展意识或核心自我和扩展自我?人工智能体会进一步产生人工意志或人工人格?这些问题必然涉及更高级的人工道德或伦理问题。
目前来看,数字计算机中并没有表现出意识和思想,人工智能的自主学习系统也没有。施拉格(R.H.Schlage)通过分析图灵机中物理符号的形式化操作能模仿人类思维的理由,说明“机器意识”这个概念是错误的,因为它重新解释“指代”和“意义”来迎合物理符号的操作,以此消除了意识在人类话语体系中的关键功能。词语之所以有指称和意向性意义,是因为大脑将从微观世界接收到的物理刺激转化为定性的、宏观的意识表征(心理表征或表象)。由于编程机器缺乏这种能力(符号接地能力),计算机没有为其符号指定特定含义的表征。如果说人类的意识和思想及其固有的内容是由于其有机体的因果本性涌现的,那么串行处理计算机或并行分布式处理系统作为编程的电子机器缺乏这些生物性因果能力。所以,人类和人工智能的根本区别就在于固有的因果能力。人工智能系统侧重表现的是统计相关性而不是因果性,这不仅预示了人工意识的不可能性,同时也预示了人工智能的发展很可能从符号的和统计的人工智能走向量子人工智能。即使量子人工智能有望实现另类的人工意识,我们也要看到,量子计算很可能会导致无意识的泛计算主义(pancomputationalism)。
二、人工意识的心智相关性与组成的无关性
意识是复杂的,也是简单的。说它复杂是说,意识很难定义和分类,更与心智、自我、自由意志等概念纠缠不清。说它简单是说,意识就是我们每时每刻的觉知,用现象学的术语说是现象意识或主观体验或感受性。若要对意识进行人工建模,创造出的机器意识会有我们所说的意识属性吗?哲学上所说的心智或心灵(mind)功能如何体现?这些问题是人工意识或机器意识研究难以逾越的障碍。
就人的心智(意识)来说,弗洛伊德的地形学理论(topographical theory)将其分为三个层次:无意识、前意识和有意识。这三个层次与结构理论的三个组成部分本我(Id)(人格中最原始的部分,满足基本需求,包含着最具动物性的冲动,如吃、喝和性)、自我(Ego)(以社会可接受的方式满足本我的愿望来处理现实)和超我(Superego)(最后发展起来的高级意识,取决于道德和是非判断)纠缠在一起。哈希姆(H.T.Hashim)和拉玛汉(M.A.Ramadhan)进一步将意识分为五个层次:无意识(unconscious)、前意识(preconscious)、潜意识(subconscious)、意识(conscious)和后意识(postconscious)。无意识是指主体无法轻易检索或记忆的受压抑思想。前意识是指主体不主动去思考,而一旦想起来就能很容易检索到的思想,与无意识形成鲜明对比,其特点是现实测试、可回想的记忆,以及与词语表述的联系。潜意识包括意识之外的一切事物,它是心智的一部分,但目前并不在焦点意识中;潜意识作为掌管一切的强大辅助系统(操纵潜意识的方法包括自我暗示、催眠、诱导以及建议等),是意识之外一切事物的数据库,其中储存着信念、思想、记忆和以往的经历;可以说,潜意识是一个潜在的指导系统,与意识之间是双向关系,监控来自感官和机遇的信息和行动。意识是主体当前的心智状态,负责主体当前的行为和行动,一般有两种主要功能:一是引导主体集中注意力;二是想象力,即创造不真实图像的能力。换句话说,意识控制着主体当前心智中的感觉、知觉、记忆、情感和幻想等。就人类意识来说,它是客观思维现象,没有记忆(即不储存内容),一次只能处理或显示一个思想。这一特征具有四种基本功能:(1)识别,即判断来自感官的信息;(2)比较,即将当前情况与潜意识或前意识中的类似情况进行对比;(3)分析,即对感官接收到的数据进行分析,要么接受要么拒绝;(4)决定,即在分析的基础上决定什么是好的坏的,什么是消极的积极的。后意识是一种想象(虚幻)的意识层次,涉及未来事件和思维,用以解释其他意识层次无法解释的行为。这种后意识状态面向未来,在不同的人群中可能相当不同,比如在现实主义者和理想主义者之间,年轻人与老年人之间。因此,后意识是大脑的一种小状态,在老年人身上可能价值较低,且会造成其他影响,不同于它们在大脑中通常的作用。
如果上述对意识的分类是合理的,那么人工意识的实现也一定与之相关(至少功能上),但如何实现意识的这些方面的确是个难题。人们不禁会问,一个非形式的组织网络(如神经网络)在应对复杂任务时产生答案的能力是什么,这些任务需要整合大量的信息作为高级认知和集体活动来设计?一些网络配置是否比其他网络配置更有利于完成这些任务?近年来基于信息整合理论的方法似乎可用来评估有组织的意识系统,即首先评估组织间为实现特定任务而共享信息所形成的信息网络,然后评估自然网络(大脑)整合信息的能力,这种能力由其信息链接效率较低的成员的分区来决定,类似于动态系统中的慢过程决定快过程。
我们知道,人类意识和机器意识的构成成分完全不同,前者是生物—化学的,后者是数学—逻辑的。准确地说,人类意识是基于生物—化学的感受性心理现象,人工意识是基于物理—机械的非感受性推理能力。两种意识在功能上可能很相似,但在感受性上可能完全不同。如果意识能够在不同物理成分的载体中实现,自然主义和机器功能主义就需要结合,二者之间需要保持适度的张力,而且这种张力要通过计算来执行,因为人工意识的研究离不开计算机及其计算建模。
计算机的出现和人工智能的发展表明,计算作为抽象的高级认知是知识生成的重要手段,在方法论上可将计算作为认知或高级认知功能。如果从认识论视角将计算视为认知,那可能是我们借助机器学习理解认知的关键。根据这种认识论,计算可被视为在合适的知识理论框架内以及在合适的知识领域中生成知识的过程。事实上,这种对计算的理解与机器无关,人们可以用计算术语解释各种高级认知功能,如责任感、自我意识、内省、自由意志、创造力、预期和好奇心等。如果这种方法是有效的,那么人工认知的诸方面如人工感知、人工意识甚至人工道德以及人工人格的计算理解就是可能的了,即通过计算来实现。同时,这也意味着可通过计算实现的人工意识与意识的组成(有机的还是无机的)无关。
三、人工意识的形态计算与可实现性
智能计算可能是目前实现机器意识的主要手段,但分歧是巨大的。许多人认为现象意识不能在机器中实现,因为在考虑情绪、检查人类意识和注意力之间分离的情形时,这一点变得很清晰。也就是说,由于机器无法拥有情感和感受性,因此机器意识是不可能的。众所周知,人工智能是基于规则的符号操作过程,自注意力在其中起重要作用,比如chatGPT的多头自注意机制。这表明机器智能是不需要(人所理解的)意识的。虽然人们可以根据规则和机器学习对意识、情感和道德行为进行编程(写出算法)并对其进行评估,但可能永远无法通过编程这样的控制系统来重现人的情绪或移情能力。因此,机器智能不等于机器意识,人工意识只是在模拟人类意识,缺乏进化过程。例如,在计算机视觉中,现在有执行对象跟踪和面部识别的程序,以及对象识别来帮助视障人士。这种复杂的物体识别能力在人类进化过程中被认为在整体面部处理上需要意识。然而,当机器识别人脸时,它会基于存储的图像信息,并使用比较算法来确定两个图像之间的相似度,这是一个相对缓慢且不完美的过程——作为基于特征的注意例程的基本形式运行。然而,这一过程根本不需要意识,因此缺乏意识的人脸识别系统并不完善。如果考虑到意识和注意的分离情形,计算机视觉不需要任何形式的意识体验也能处理信息,而且效果还算不错(何况人也有认错脸的时候)。
在目前的机器人领域,行为概念在运动层面被简化为一个简单的事实概念。这个过程根本不需要意识的参与。意识更多的是社会领域的一个文化概念,与计算主义范式不相容。机器人学中的形态计算方法,是将意识概念开发为人工脑的可计算转换,这种转换可表达情感和意识事实(数据)。这种人工脑的计算生成允许自主机器人的有意图和真正的适应性行为。这种基于形态计算的机器人一般由两部分组成:先以建构主义方式使用符号和概念计算来生成机器人在其环境中移动的表征,再以动态几何方式使用形态实现前一部分的表征。这种模型将机器人的身体视为对其物质底层的形态理解,严格遵循具有形态控制的大规模多智能体组织的概念。
然而真正的问题在于,这种形态计算的人工脑真的体现了人脑的功能,包括意识、情感和心智?显然不是,形态计算的实质是功能模拟,并不是真正地在物理上实现了生物脑(人脑)的功能。人工脑是一种表征系统,在这种系统中,表征的生成系统将取决于输入信息和物理行动子系统的生产质量。那么,为什么表征系统能够以没有生物反应性而有意向的方式运行呢?我认为问题的关键在于适应性。一个表征系统若不具有适应性,它就没有反应性了,若同时具有了适应性,成为适应性表征系统,反应性加上表征性,至少表面上看上去有了“意向”行为。
当然,人工智能的表征系统严格说是一个软件系统,按照卡登(A.Cardon)的说法,该系统可被视为大脑工作方式的计算转换,允许从底层获取的信息中产生有目的的内部表征,从而导致行为或生成另一个内部表征。这种软件系统在可感知、物理作用于环境的底层与允许生成相关当前表征的内部存储器之间实现牢固的连接,从而形成一个无限循环过程。这种无限循环过程功能上表现出了有意识主体的行为。这个表征软件系统一般由三部分构成:(1)表达当前情境的方面组织(aspectual organization)——该组织通过激活自主的主动元素(智能体)不断构建事物的表征,其中的每个主动元素都有一个语义解释;(2)组织记忆,这种记忆将过去的事实和事件积累在具有语义特征和主动能力的实体形式上;(3)表达几何运动的形态表征系统,它关注正在进行的方面组织,根据一些预定义的趋势在线控制方面组织产生的构造,并使其适合环境约束。这种形态学控制的结果即是生成的表征。没有这种形态成分允许对过程运动的共同控制,系统就永远不会有自我意图,而只是一个自然反应性行为。
由于形态计算软件是一个表征系统,意义的涌现就在其中了。因为在表征系统中,基于耦合的方面组织和形态系统的加工过程导致了特定构象的记忆组织产生了内容(语义)。这种状态被作为一个内部对象记忆,而且系统能够进一步管理,保证其持续学习。实验表明,基于这种表征系统的机器人可以在未知的环境中巧妙地进化——能够收集数据,分析数据做出决策,并根据其自定义的目标行事。这种具有适应性表征的决策方法包括六个关键能力:(1)表征语境情形;(2)将注意力集中在特定元素(对象或对环境的动作)上;(3)感受这些选定元素的情感;(4)制定行动计划;(5)对聚焦对象、系统循环做出反应;(6)调整当前计划,并记住完成的动作。这六个能力很可能在多智能体系统开发出来。
机器意识的主观测试也表明,如果我们确认了机器人中没有发生上述能力的变化,我们就没有理由相信意识存在于机器中。这里还有一个需要澄清的问题是,意识是被视为信息还是算法?如果把信息和意识等同,最大问题在于信息本身没有意义,信息只有经过(人的)解读才有意义,即意义只有通过解释才能获得。比如大脑皮层中的动作电位(大多数神经科学家认为意识存在于此),只有经过专门的神经网络处理后才具有意义。因此,渡边正孝(Masataka Watanabe)认为,意识规律的客观目标不是作为信息的神经元激活本身,而是处理和解释这些激活的神经算法。这意味着,意识可通过神经算法(如遗传算法)得到解释。这种将神经信号转化为神经算法的过程,我认为是适应性表征过程,因为算法是人创造的。
我们进一步设想,如果脑机接口是实现机器意识的正确方式,那么人工脑与生物脑就可整合。这意味着生物意识和人工意识是可兼容的,我们的生物意识(数据化后)可以上传到电脑中。如果有一天意识上传的梦想得以实现,人类意识就转换为了机器中的意识,数字生命成为可能。但我们要清楚,这种机器中的意识还不是机器本身的意识。前者是人的意识在机器中的储存,后者是机器自己有意识。
四、人工意识的内在世界与外在环境的耦合
如果机器有了意识,就意味着它有了一个“内在世界”(即内在表征系统)。换句话说,适当编程的计算机和人工智能可以为自己的目标而行动,并可能产生自我意识和体验情感。这种观点普遍遭到质疑,因为它混淆了物理(无机)和生物(有机)之间的界限。根据生物科学,主体性或能动性、心理因果关系和感受性都是建立在生命物质独特的稳态性之上的,这与神经科学数据和物理定律一致,其哲学立场是生物自然主义。根据生物自然主义,一个成功的行动对其行为主体来说是稳态的(homeostatic),可以由一种感觉引起,这种感觉不是作为一种力量,而是作为一种控制信号。根据大脑研究和物理学的定位原理,感受性可能是在特定的神经元中产生的一种基本的、生物形式的能量;主观性被解释为热力学上的必要条件,其假设是:通过将动作电位转换为感觉,神经细胞避免了电化学脉冲造成的损害,这就排除了对感受性的客观观察。这是将生命视为自组织和自维持系统,这种自组织系统的主体是物质的,其能动性依赖于生命物质,我们所说的感受性就产生于这种生命物质中。而感受性作为控制信号会影响主体的行为,即感受性是在特定神经元中产生的能量,而能量是可以测量的,比如使用正电子发射断层扫描(PET)和功能磁共振成像(fMRI)测量。总之,生命、感受性和行动之间是相互依赖、相互影响和相互支持的,构成了一个生命、感知和行动的循环,从信息计算的视角可将其表征为能量及其转换。这也是认知神经科学的方法和具身认知的观点。例如,切拉(A.Chella)和曼佐蒂(R.Manzotti)的“面向意识”的通用架构试图实现环境耦合、自主性和复原力、现象体验(感受性)、第一类语义学(符号操作的意向性)和第二类意向性(自我动机)、信息整合、注意力等研究目标。他们认为,人工意识的研究应该回答三个基本问题:(1)意识是不是一种真实的物理现象;(2)意识是否可以被人类设计和人工系统实现;(3)意识要么是一种计算现象,要么是更多的东西,无论哪种方式,它都可以被理解和复制。这些问题中的一个核心问题是——意识是需要与环境紧密结合,还是认知系统的内部特征?在这个核心问题上存在内在主义与外在主义的争论。
在认知科学中,将心智视为包括意识、思想和智能在内的东西会产生一些误解。事实上,不同学科对认知有不同理解,这在一定程度上不可避免地会产生偏差。笔者认为,对认知的理解应该建立在自然科学、自组织科学、人工智能和人工生命、网络科学和神经科学已有成果的基础上,也就是对认知进行广泛的综合理解。具体来说,认知除了人类的高级心理活动外,还应该包括亚符号和亚意识过程,如情感,同时也承认其他生物的认知以及人工智能的扩展和分布式社会认知。这是一种广义的认知观,包括了自然认知(意识、智能)和人工认知(意识、智能),两种认知均可通过形态计算来部分实现。
形态计算实质上是一种自然主义方法,根据这种方法,认知是在生物体内基于处理信息的身体结构而演化出的复杂的多尺度现象。这一观点将认知主义、“4E+S”(具身的、嵌入的、生成的、延展的和情境的)认知方法与活的认知主体的形态计算(信息—计算—自组织)观点联系在一起。形态计算被模拟为一个由交换或交流信息的节点(如智能体)组成的动态结构,其最典型的例子是活的单细胞。单细胞生物群体(如细菌)通过形态计算进行交流,并形成群体或薄膜,从而呈现出社会分布式认知。细胞群通过形态计算聚集成具有特定控制机制的多细胞集合体,进一步形成组织、器官、生物体和生物群。这种网中网的分层组织(等级结构)可加快信息处理速度。随着神经系统的发展,生物的形态计算出现了新的特质,即有了神经系统,作为认知主体的多细胞生物获得了自我表征的能力,从而能够区分“我”和“他者”,并呈现出支持运动的基本功能。这表明,拥有与传感器和执行器相连的中央控制神经系统的动物能够运动,从而提高其生存概率。动物的大脑由大量相互沟通的细胞组成,其中单个神经元是一个相对简单的信息处理器,而整个大脑则具有高级信息处理/计算能力,这是以形态计算的方式来实现分布式认知。
概言之,主体的自我表征系统可视为一种“内在世界”——能反映意识的一个重要特征。对于人类,“内在世界”意味着大脑具有抽象能力,如想象力,主体通过这种抽象能力与外部世界相互作用产生知觉和行动。神经科学研究表明,一个行动可通过简单刺激大脑额叶的神经元来模拟,好像是真的发生了一样,尽管最终的行为并没有导致肌肉的运动。同样,外部刺激产生的知觉可通过刺激内部的感受皮层得到模拟,就像真的受到外部刺激一样。类似地,人工意识也可通过为机器人建构“内在世界”来让其行动,比如执行简单的抓取动作或移动。这种由外部刺激引发的简单动作重复多次后,就可能在机器人内部形成一个“内在世界”,这个“内在世界”驱动机器人行动,而不是外部刺激所致。这样一来,机器人能够用自我生成的输入控制外部世界与内在世界的联系,从而构成一个内在世界与外在环境的互动与耦合。
五、人工智能体道德地位的实在论与关系论
如果人工意识得以实现,我们就不得不考虑其道德地位问题了。与这种强人工智能有关的主要道德或伦理问题之一是:人们如何设计人工智能体(artificial agents,AAs)以确保其行为符合人类道德,即人工智能体要适当地考虑和对待创造它们的人类。这是后人工智能时代我们人类必须考虑的问题。如果所设计的人工智能体能够“考虑”和“对待”他者,就表明它具有道德意识和道德地位,我们就应该考虑如何对待它们了。这是人工意识的道德地位问题。比如,巴斯尔(J.Basl)为基于能力的道德地位论辩护,认为一个实体的道德地位是由其拥有的能力决定的,而不是由其起源或物质构成决定的。这意味着,如果一个智能机器拥有像我们一样的认知和心理能力,那么它的道德地位将与我们相当。然而,巴斯尔认为,机器极不可能拥有像我们一样的能力和利益,因为我们很难知道它们是否有意识,即使它们有意识,我们也不知道它们有什么能力和利益。退一步讲,如果机器意识存在,那也一定不同于我们人类的意识感受性(即知道自己有疼痛感等)。这一点一定与组成身体的材料是有机的还是无机的有关。
假设一个人工智能体有了意识,它就有了主体性,成了人工主体,应该有道德地位。在这个问题上存在着实在论和关系论之争。道德实在论认为,一个实体的道德地位,特别是与道德归属的关系,与其在体验有意识的满足或痛苦状态的能力密切相关,也就是说,道德地位和经验能力都是主体的客观属性。与此相反的是社会关系论,认为在道德地位或意识的情况下不存在任何此类客观属性,这些属性的确定完全取决于社会归属或共识,即道德地位不是客观性的,而是关系性的。对人而言,两种观点都有道理,实在论强调主体的生物意识和体验属性,社会关系论强调道德归属的关系属性,即道德是人际间的。对于人工主体或机器意识主体,主体的体验和意识满足感不存在了,但人机和机际的交互关系仍然存在,此时人工主体或机器有道德地位或道德归属吗?换句话说,一个实体是否有道德地位和道德归属,与有意识幸福感和感受性有关还是无关?根据实在论,人工智能体没有道德地位,因为它没有意识体验,但按照社会关系论,它有道德地位,因为它处于关系中,孰是孰非存在巨大争议。
事实上,在人类与机器(生物—机器)之间存在一系列状况或过程,不是实在论和社会关系论这两极观可以完全说明的。托伦斯(S.Torrance)将生物—机器的范围从一端非常接近的生物共性案例与另一端简单的人工智能行为相匹配。在这两个极端,关于有意识满足或痛苦状态的能力和道德地位的决定似乎相对简单——一个极端是绝对“是”,另一个极端是绝对“不”。按照托伦斯的划分,在人类与机器(生物—机器)之间存在如下一系列状况或过程:(1)神经状况——有神经结构,并映射了意识的神经相关物。(2)代谢状况——复制人类和其他生物体中意识的生理相关物(包括血液循环、肌肉活动、消化过程、免疫系统反应、内分泌过程,这些被认为与意识的生物发生形态密切相关)。(3)有机条件——支持意识的机制,它在显示自我维持/再创造(自创生)过程的意义上是有机的,该过程需要主体与其环境之间的特定能量交换以及内部代谢过程,以支持这些机制的延续和维持相对于周围环境的有效边界条件。(4)发育状况——有至少接近人类和其他生物的生活史(经历了胎儿、新生儿、婴儿等阶段),包括具身探索、学习、与照顾者和教师的原主体间关系,以及发展更复杂的主体间性形式的能力。(5)感觉运动状况——感觉运动与环境相互作用的示例形式,被认为与有意识的知觉活动有关。(6)认知状况——显示意识的各种认知标记或伴随物(由意识的认知理论识别)。(7)社会条件——一般在各种社交场合中以流畅协作的方式与人类(和其他人工主体)互动。(8)情感/福利状况——显示出有广泛需求、欲望、厌恶、情感的证据(有点类似于人类和其他生物所表现出的需求)。(9)道德状况——赞同道德承诺(以自主、自我反思的方式,而不是简单地通过程序化的规则),承认有需要、欲望等人的适当道德权利。(10)内省条件——能够表达对自己意识的内省认识,并能够通过在严格的实验条件下进行的各种自我报告测试。(11)图灵条件——以强大而持久的方式对图灵测试风格的意识探针做出积极响应,包括通过文本或其他过滤界面过滤的盲对话或现实世界语境中的物理互动情节,比如社交机器人。
可以看出,(1)至(5)是生物(物理—生理)层次,(6)是认知层次,(7)至(10)是情感和道德层次,(11)是人工智能层次。这是一个从物理—生物、认知、情感—道德到智能的演化过程,道德发生在认知阶段之后,是基于认知的高级智能形态。仅从智能发展来看,这是一个从具身形态(人类智能)到离身形态(人工智能)的演化过程,其中嵌入了道德和情感的成分。按照这种划分,人工智能体的形成包含了道德过程,当然应该是道德主体(需通过图灵测试)。这里的异议在于,正如前面提及的,一个实体有无道德地位,与其有无生物意识或有无交互能力,拟或二者兼有的情况有关,这其中存在一个认识论难题——如何知道机器有意识。
六、如何应对机器意识的认识论难题
与确定人工智能体的道德地位同样棘手甚至更难的一个问题是,即使我们造出了有意识的机器人,我们如何知道呢?这是判断人工意识的认识论难题。该问题与哲学中的“他心”问题相似但不同,前者是同类(人)间的交互,一般可通过移情或同理心来解决(你我他都是人,都有意识),后者是不同类(人和机器),移情方法不管用了,更多的是使用类比,如人是机器、大脑是计算机。如此一来,人机间的“他心”问题比人际间的“他心”问题更复杂。陈壮飞(Chin Chuanfei)认为,人工意识的研究经历了从不可能性到多样性的发展,在对人工意识的哲学挑战中,多样性逐渐取代了不可能性,比如关于现象意识不可能在机器中产生的观点,涉及关于意识本质的布洛克的“中国脑”思想实验和关于意识解释的查尔莫斯的“难问题”。上述表明科学的自然主义方法也许是一种化解这些挑战的合理经验方法和解释模式。这意味着,要发现机器是否有意识,研究者应该依靠通过实证方法发展起来的意识理论,而不是由思想实验引发的关于意识的直觉判断。不过,自然主义方法也面临一个哲学挑战——意识的多样性问题。这一新的挑战表明,即使我们能制造出有意识的机器,也无法知道机器是否真的有了意识。换句话说,即使人们设计出各种测试在行为或功能上能够判断机器意识,但其内部是否生成了意识感受性,我们根本无从知晓。这是认识论的一个严重挑战——如何知道和判断机器意识。如果我们不能解决这个意识多样性或多方面问题,我们就无法确定智能机器所缺乏的生物特性是否构成了意识,也就无法确定智能机器是否有意识。
关于机器意识的认识论难题表明,自然认知(心智)和人工认知(心智)之间的鸿沟依然巨大,能否填平也未可知。如果未来的人工智能系统使用以前未知形式的信息处理机制,比如“超级图灵多膜”机制,那么自然推理和人工推理在拓扑学和几何学方面的差距是否可以弥合?尽管人工智能在实践中取得了巨大成功,但其理论重点仍集中于人工智能的科学和哲学问题上,力图为有关心智是什么、思维如何运作、生物进化如何产生多种思维以及单个生物体的不同发展阶段等古老问题提供答案。事实上,目前的人工智能还无法复制或忠实地模拟其中的大部分,包括康德描述的非经验、非逻辑和非条件的古老但仍在广泛应用的数学发现。正如斯洛曼(A.Sloman)认为的,这个难题不仅对作为科学的、工程学的和哲学的人工智能有重大影响,也对心理学和神经科学有深刻影响,因为它们还没有解决心智或大脑如何能够发现必然真和不可能性的问题,而这些真理和不可能性不仅仅是逻辑上的真理或谬误。近期在《自然》杂志上发表的论文认为,人工智能正朝向具有人类推理能力的方向发展,这是Google DeepMind 开发的人工智能系统AlphaGeometry,据称它能够以接近人类奥赛金牌得主的水平解决复杂的几何问题。在对30道奥数几何题的基准测试中,AlphaGeometry在标准奥数时限内解决了25道题。相比之下,此前最先进的系统仅解决了其中的10道题,而人类金牌得主平均解决了25.9个。在笔者看来,这项研究仅仅说明了人工智能的推理和解决问题的能力可以与人类匹敌了,推理之外的能力如情感和道德仍然不能与人类相比(其实根本没有情感和道德感)。也就是说,人类的推理能力人工智能可解决,比如通过“计算智能”,但并不意味着生物的感受性也可解决,因为生物学问题涉及具有这些惊人能力的人类大脑和思维特征的进化史。也许只有在这些非人工智能问题得到解答之后,人工智能工程师才能设计出具有阿基米德等人古代数学能力的“人工心智”。
意识的高阶句法思维(higher order syntactic thought,HOST)计算理论认为,高阶句法思维的适应价值在于解决多步骤句法计划需要修正时出现的信用分配问题。HOST意味着,一个感觉像什么的有机体(如人类)能够思考自己的语言和语义思想,意味着感受性、原始感觉和情感是进化出HOST处理系统的次要原因,而感觉和情感处理之所以感觉像某种东西,是因为它进入规划和HOST系统而不感觉像某种东西是不可能的。也就是说,HOST的出现不是感受性、原始感觉和情感直接导致的,还另有原因,比如有机体与环境的交互可能更重要。因此,意识包括机器意识是多智能体(包括人)交互形成“共识”(consensus),我称之为“交互意识”。根据共识理论,在人工智能体网络的动态系统中,多智能体之间需要达成共识,其中的“共识”是指,智能体之间就某一相关数据达成一致,而该数据取决于所有智能体的状态。这里的共识算法或协议是一种交互规则(类似于我们的社会规范),它规定了一个智能体与其网络中所有其他智能体之间的信息交换。这意味着,如果不同智能体之间能够达成某种共识,它们构成的人工系统就会产生意识(机器意识)。而达成“共识”恐怕需要文化的介入,因为在“共识”的意义上,意识是一个打上文化烙印的概念,即意识的生成不仅是生物进化在起作用,文化进化也参与其中。
七、人工意识的文化建构与适应性表征
如何将有文化特征的意识嵌入计算机系统是新一代人工智能要面对的第一个难题,即如何建构人工文化来让机器人发展出自我意识。这也是机器学习中的文化迁移问题,即如何在机器学习中设计一种算法能够将学习成果和经验嵌入机器人的行为中。文化信息的迁移对人而言是常见也是容易的,对机器人则很难甚至不可能,但对此问题的工程学探索在20世纪90年代后期就开始了。
尝试将“经验”嵌入机器人的实验是布鲁克斯及其团队设计的机器人COG,目标是将COG设计为具有自主意识的机器人——它拥有感受系统来“获得经验”,而不是通过信息加工获得意识。COG是第一个将反应式扩展到人工意识领域的尝试,旨在解决交互中的符号处理问题、优先选择能力(通过价值评估做决定)、自我检测能力(感知内部状态)。此后的COG提升研究包括为COG获得自我认识的交叉绑定模式(将视觉、听觉和身体感受模式绑定)、人形认知机器人Nico、镜像认知机器人测试以及拟人机器人。这些通过实验发展出的机器意识研究,为未来的具身人工智能奠定了基础。
例如,卡登(A.Cardon)提出一种可计算方法,试图将意识概念移植到人工脑(人工神经网络)中,这种人工脑能够表达情感和意识事实。若能够制造出这样的人工脑,我们就能为自主机器人提供有意向的、真正的适应性行为。这种管理机器人行为的系统由两部分组成:一部分是使用符号和概念,以建构主义的方式计算和生成机器人在其环境中移动的表征;另一部分是使用形态学以动态几何方式实现前一部分的表征。机器人的身体将被视为对其物质基础的形态理解,即该模型严格遵循具有形态控制的大规模多智能体组织的概念。表征系统是该模型的核心,其严格意义上的内部表征由两个截然不同但又紧密耦合的部分组成:一部分是由一些基本主动实体的活动产生的表征组织,它通过聚集局部表征特征来构建当下表征,从而形成一个动态组织;另一部分是在几何层面上对前一个表征进行操作的形态评估系统。在这个模型中,积极主动的各方面元素通过其活动产生一种全局感,同时根据机器人的状态、行为和其组织记忆表征了一种组织结构,整个过程是适应性的和表征性的。AlphaGeometry的运行机制与此类似,即预先生成所有可能的几何图形,然后根据具体任务来组合已有图形解决问题。
如果“共识”、整体同步观察、内在世界是适应性表征,那么人工意识可通过适应性表征来实现。这是关于意识和智能生成的适应性表征方法论。根据这种方法论,意识或认知系统被视为适应性表征系统,不考虑其构成成分是无机的(物理的)还是有机的(生物的),是自然的(如人脑)还是人造的(如人工脑)。适应性表征用于人工意识研究的依据是:人的意识是一种超级功能适应性,感受性本身就是适应性,而适应性造就了主观性,因此意识是一种真实且适应的现象,这对意识生物而言具有进化生存价值。人工意识的实现可用符号表征替代意识,强化目标适应性,扩展意识(心智)分布于世界的范围。这与“世界心智”(World-Wide-Mind,WWM)的设想相吻合。“世界心智”说的是心智可以物理地分布于世界各地,比如通过互联网形成的世界心智。因此,人工智能和人工生命的研究者应该将智能体思维和智能体世界构建为互联网上的服务器。这一设想在通用人工智能领域的实现还为时尚早,比如制定“心智网络协议”,但在亚符号领域可以尝试,例如在多智能体系统(MAS),心智位于不同的智能体中。我们有一个心智和一个身体,构成一个行动者,多个行动者可以协调行动。而MAS多个“心智”在一个身体(系统)中解决多个问题,更接近多目标导向生物(如蜜蜂)的适应性行为。因此,人工意识和人工生命更倾向于MAS方法,如进化机器人技术,它是一个分布在网络上的智能体社会,而不是一个单一智能体的心智。
综上所述,人工意识的概念不再只是通过科幻小说如《摩羯座》《黑镜》阐述的那样,也很可能通过人工智能方法加以实现。比如有这样一种设想,如果我们能够在注意图式理论的指导下将外部环境模型、自我模型与注意模型整合起来,以一种恰当的方式将它们关联起来,机器很可能就会产生具有意识的错觉,这样的机器可以说具有了我们所说的意识。“恰当的方式”我认为是适应性表征。但随之而来的问题是:人是否生来就有心智?心智是随时间经学习发展而来的文化能力?无进化史的机器人能够像人一样拥有意识或心智?机器能否有意识这一认识论问题会产生怎样的伦理影响?这些问题仍然是开放的。由于机器意识与人类意识大相径庭,而且我们是依据人类意识探讨机器意识的,因此我们必须解决什么形式的机器意识才是与我们的道德相关的意识形式,也许人工意识是通过适应性表征来合成心智的问题。
〔本文为国家社会科学基金重大项目“人工认知对自然认知挑战的哲学研究”(21&ZD061)的阶段性成果〕
魏屹东,山西大学哲学学院教授。
本文载于《学术月刊》2024年第10期。