徐英瑾:欧陆现象学对人工情绪研究的挑战

选择字号:   本文共阅读 1740 次 更新时间:2019-12-10 22:12

进入专题: 现象学   人工智能  

徐英瑾  

导 论


所谓人工情绪研究,其基本含义便是:在人工智能研究所提供的技术环境内,以计算机工程可以实现的方式,去模拟人类情绪的部分运作机制,以便由此提高整个人工智能产品的工作效率。不过,就像对于人工智能的一般性研究无法规避对于“智能”之本质的讨论一样,对于人工情绪的研究自然也就无法规避对于“情绪”的本质的讨论。那么,到底什么是情绪呢?在一种基于生物学还原主义的思维方式的引导下,一部分人或许会在回答上述问题时诉诸情绪在人脑中实现的神经学机制,比如杏仁核的工作原理(杏仁核是海马末端的一个脑组织,一般认为与恐惧的情绪的产生相关)。但考虑到作为碳基的信息处理机制的人脑与作为硅基的计算机设备之间的巨大物理差异,对于情绪的神经科学探索,究竟能在多大程度上引导人工情绪的研究,多少还是让人感到疑虑的。相比较而言,对于情绪的认知心理学研究,或许对人工情绪的研究是更具启发意义的,因为认知心理学的描述层面本来就相对较为抽象,因此其结论亦在客观上就具备了“兼顾碳基人脑与硅基设备”的可能性。


然而,在对心理学的研究成果表示尊重的前提下,本文还想指出:对于人工情绪的研究来说,欧陆现象学家特别是胡塞尔、海德格尔对于情绪的研究成果,亦是具有重要的、不可替代的参考价值的。具体而言,胡塞尔哲学所涉及的“生活世界”与情绪之间的内在关系,海德格尔哲学所涉及的“向死而生”的生存论机制对于情绪的奠基意义,都是典型的认知心理学的情绪描述所付诸阙如的,却能在更大的广度与深度上触及作为情绪承载者的人类个体与其所处的相关文化、历史背景之间的内在关联。考虑到理想的人工智能产品也将与人类用户所处的文化、历史背景进行深度关联,现象学在这方面的思考成果当然是值得人工情绪研究参考的。从这个角度看,我们甚至可以说:人工情绪研究的最终工作目标,是应当由情绪现象学——而不是由认知心理学来加以厘定的,尽管对于这一工作目标的工程学实现,或许应当诉诸某些现象学所不能提供的理论工具。不过,在引入对于情绪现象学的讨论之前,我们需要先将认知心理学对于情绪的主要研究成果予以简要的回顾。


为何人工智能的研究需要人工情绪


从认知心理学的角度来看,有三个理由可用来证明一个具有多重任务管理能力的社会性人工智能系统的运作,是必须预设人工情绪系统的在场的。而这样的证明,也将向我们澄清认知心理学家心目中的“情绪”在功能层面上是如何被定位的。


理由一:基于进化心理学的考量。我们知道,根据进化心理学的原理,任何智能系统之所以能够经由自然选择机制被进化出来,归根结底是为了能够满足饮食、繁殖、抢夺领地、逃避危害之类的基本的生物学需要。而要满足上述需要,生物体的智能系统就必须对外部环境的情况有相应的表征力。然而,没有一种生物体可能具有对于环境的全面的客观表征能力。换言之,由于支持这种能力的生物学构架会因为过于复杂,而根本不可能在进化历程中出现,所以,智能体对外部世界的表征就必然存在着某种“表征空隙”。然而,“表征空隙”的存在显然是对生物体的生存具有威胁的,因为“空隙”本身就意味着生物体对于外部环境相关要素的无知。为此,一种最经济的解决方案,就是在此类“空隙”中填入某种“填充物”,使得生物体的认知系统能够得到勉强的运作。而“情绪”就是此类“填充物”——或换言之,情绪就能由此在功能上被定义为“智能系统在表征能力不足的时候,对于外部环境刺激的一种应急性处理模式”。具体而言,这种处理模式能够帮助智能体在关于“危险到来”的证据不足的时候及时逃避,在关于“可获取利益”的证据不足的时候争取利益,或者在自己对于外部环境的预先估计与现实不同的时候表示出惊讶(以便为下一步的策略大调整提供心理转型的动力),等等。


而以上推理显然也适用于人工智能系统。虽然人工智能系统是人类所设计的,而不是由自然界本身所进化产生的,但是人工智能系统的运作也必须适应外部环境,同时,此类运作所需要的运作资源也不可能是无限的。由此看来,任何人工智能系统都不可能具备对于外部环境进行完全精准的表征的能力。换言之,在“立即输出行动”的时间压力非常急迫,而“给出行动的理性根据又不足”的情况下,人工智能体就非常需要通过人工情绪机制对于理性推理机制的接管,来快速地应对外部环境所提出的挑战。所以,完全意义上的人工智能系统——或称之为“通用人工智能”——其实是无法避免对于人工情绪的涉及的。


理由二:基于多重任务管理需要的考量。我们知道,任何一个通用人工智能系统都需要在相对逼仄的时间预算内同时处理多重任务。然而,由于任何一个智能系统的运作资源都不是无限的,因此,我们就难以保证上述任务都能够在逼仄的时间预算内得到相应的处理。所以,系统需要对解决上述问题的优先性进行排序。不难想见,一个需要在起码的意义上适应于环境的人工智能系统,将在那些对其生存具有更关键意义的任务之上打上“优先处理”的标签,而这种打标签的处理方式本身就是一种抽象意义上的“情绪化反应”(因为此进程往往没有经历对于任务复杂度的精细分析)。所以,通用人工智能系统的设计,是难以回避对于人工情绪的涉及的。


理由三:基于社会交互需要的考量。应当没有人会否认,未来我们所期望的通用人工智能系统,将与人类的社会产生非常复杂的互动。这样一来,我们也希望理想中的人工智能系统能够理解人类社会的“等级性”(如区分上下级)、“认同性”(如区分敌、我、友或区分亲疏)、“领地性”(如区分“我的”与“你的”)等不同面相。然而,关于人类社会的上述面相的信息,往往只能透过非常微妙而不完全的环境提示而提供给智能体,因此,对于上述信息的把握,就无法诉诸基于“理性万能假设”的符号化推理以及基于“数据完备性假设”的大数据分析。而在这种情况下,人工情绪的介入,能够使得系统在理性推理资源不足与分析用数据不足的情况下,以较便捷的信息处理通道,把握人类社会生活的这些微妙面相。所以,通用人工智能系统的设计,是难以回避对于人工情绪的涉及的。


以上三个理由,虽然各自的角度不同,却显然是有着某种共相的。该共相就是:情绪乃是主体在关于环境的精准信息相对匮乏且给出行动的时间压力相对紧迫的前提下,根据非常片面的环境信息,而对外部挑战给出回应的快速心理处理模式。很明显,这样的一个定义是纯然功能主义的,因为它仅仅牵涉情绪在智能系统中扮演的抽象功能角色,而无关于实现这些功能的具体物理机制的细节。因此,这样的一个定义既能同时涵盖对于人类心理与人工智能系统的说明,同时也能为多种实现“人工情绪”的技术路径提供相应的理论空间。


当然,上面的分析在理论层面上还太抽象,还不足以为人工情绪的研究提供更切实的指导。而目前在功能主义层面上讨论情绪机制的最广受学界引用的模型,乃是所谓的“OCC模型”——该模型因三位提出者姓氏的英文首字母分都是“O”“C”“C”而得名。该模型大旨如下:第一,智能体在客观环境不足的情况下,其所需要掌握的最核心信息,乃是对于“其所设定的目标是否被满足”这一点的评估。第二,由这种评估的结果,系统会做出“满意”或者“失望”这两种情绪性评价,而这种评价将左右主体后续的信息处理进程的大方向。第三,如果建模者能进一步地将这种对于“现状—目标”差值的评估加以细致化的话,那么由此产生的更为细微的情绪分类(根据OCC模型,这些情绪有22类之多。)将对智能体的行为进行更细致的引导(具体的情绪产生机制的运作流程,参考表1)。由此不难看出,OCC模型是在“衡量目标与现状差值”这一粗略的主-客关系评估的基础上进行情绪定位的,其“经由认知定义情绪”的思路亦是非常清楚的。



尽管本节所介绍的对于情绪的心理功能主义描述方式,的确具有很强的对于人工智能研究的辐射性,但是从现象学角度看,此类模型还是大大简化了使得人类情绪得以产生的复杂人文背景。譬如,即使是在情绪理论构建方面最接近OCC模型的胡塞尔现象学,其实也在其情绪理论中嵌入了“生活世界理论”这一OCC模型所难以消化的内容。而我们下面的讨论,也将从胡塞尔开始。


胡塞尔的“生活世界”理论对于人工情绪研究所提出的挑战


从表面上看,在讨论人工情绪建模的语境中引入现象学的资源,是有点奇怪的,因为人工智能研究的基本本体论假设是“自然主义”的,甚至是“机器功能主义”的,即认定某种程序只要被恰当的机械装置在物理层面上加以执行,就可以产生人类认知的方方面面。而按照一般人对于“现象学”的理解,“反自然主义”乃是林林总总的现象学研究的最大公分母,换言之,在几乎所有的现象学看来,现象学所要忠实处理的“现象”必须“悬搁”物质世界的客观运作,而仅仅包含能够在主观现象中呈现给主体的事物。不过,更为细致的考量却使得我们发现:现象学的思维方式虽然与人工智能的建模思路有所差异,却能在如下两个方面彼此接续,此即“高层次认知管理”与“人-机界面设计”。


那么,什么叫“高层次认知管理”呢?这就是指一个智能架构中那些处于相对较高层次的认知单元之间的关系。譬如,“恐惧”与“所恐惧的事件”之间的关系,“后悔”与“对于所后悔的事件的记忆”之间的关系,等等。正如我们在OCC模型中所看到的,即使是对于情绪的功能主义建模,也不得不首先聚集于对于此类高层次认知管理机制的描述——而这种描述,却恰恰是与使得此类机制得以被实现的具体物理机制相对无关的。而亦正好是在这个层面上,现象学家与人工情绪的理论家的确是能够达成某种暂时的一致的,因为现象学家同样只关心那些能够在现象领域内涌现出来的诸种体验之间的相互逻辑关系,却不关心使得这些体验得以产生的物理机制。


那么,什么叫“界面设计”呢?顾名思义,此即对于“人工制品向用户呈现出现的现象特征”的设计。这种设计一方面当然是具有工程学性质的——譬如,一台手机的界面设计就牵涉了对于大量后台操作设施的工程学建构;另一方面,其设计结果却是面向现象体验的,譬如手机用户的现象体验。至于二者之间的关联性,则体现在:其一,用户的现象体验能够倒逼工程师在后台设施设计方面尽量满足用户的需求;其二,特定的现象体验也能够向外界透露关于后台操作的一些技术信息(不过,对于这些信息的判读显然需要一定的专业知识做背景支撑)。


很明显,本文所讨论的具有人工情绪功能的人工智能产品,也是应当具有一个恰当的人-机界面的,因此,相关用户的现象学体验,自然也能够对相关制品的后台设计构成某种“倒逼”效应。而这一点,亦恰恰为现象学家提供了重要的发言机会。


在说明了现象学研究与人工情绪研究之间的大致关联以后,我们马上就来看看现象学运动的鼻祖——胡塞尔的情绪理论。首先要指出的是,与OCC模型类似,胡塞尔也认为情绪是在认知的基础上产生的。不过,按照胡塞尔哲学的行话,更确切的表达方式为:是现象学主体所具有的意向状态所统摄的意向对象自身的意义特征,使得此类对象能够激发主体的特定情绪。用他自己举的例子来说,一块煤炭在主体眼中的价值取决于主体如何在其意向状态中认识它(即将其认知为燃料,还是一块普通的石头),而这块煤炭在主体那里所激起的情绪,则又取决于它对于主体而言的价值。譬如,在缺乏燃料的环境里,主体对于一块作为燃料的煤炭的价值的认知,将引发其相当正面的情绪;相反,假若该主体无法认知到煤炭作为燃料的价值的话,或者,如果主体所处的环境并不缺乏燃料的话,那么,这种正面情绪就未必会产生,或者其产生的强度也会大大减弱。


但与OCC模型不同的是,胡塞尔的情绪理论并不是单纯建立在对于“目标-现状差值”的评估之上的。很明显,在OCC理论的语境中,这种评估的可行性,是以目标所处的任务与相关任务背景的可分离性为前提的。与之相比照,胡塞尔的“生活世界”理论恰恰认为这种分离是不可行的。


那么,什么叫“生活世界”呢?按照胡塞尔专家贝叶尔(Christian Beyer)的解释,生活世界可以被视为使得主体的意向性投射活动得以可能的一个更为广泛的背景性意义结构:如果我们仅仅考察主体所在的本地化社团的话,那么,这一背景性的意义结构就是使得该社团内部的信息交流得以可能的那些意义结构;而若我们考察的是不同的社团之间的关系的话,那么,这一背景性的意义结构,就是使得不同社团的成员得以可能彼此翻译对方的语言的终极意义结构。举个通俗一点的例子:一个古人面对打雷的现象时所产生的“天公发怒”的意向,乃是奠基在他特定的对于自然的宗教化观点之上的,而这种宗教化观点既然是为他所处的整个古代社会所分享,那么,这就是他们所处的生活世界的一部分;而已经接受了现代科学洗礼的现代人虽然不会分享他们的生活世界的上述这一部分,但是就相信“打雷现象必有原因”这一点而言,现代人与古人又是彼此一致的。


因此,今人与古人亦在某种宽泛的意义上,同时身处于某个范围更广的生活世界之中。从这个角度看,生活世界与特定的意向投射行为之间的关系,大约就可以被类比为冰山的水下部分与其水上部分之间的关系:冰山的水上部分虽然巍峨,但是它依然是以更为庞大的水下部分的存在为其自身的存在前提的。由此推论,任何一个任务的产生,都是以特定生活世界的特定结构为其逻辑前提的。譬如,对于取暖的任务的满足就预设了取暖对于人类是有意义的,而该预设就是相关现象学主体的生活世界的一部分。


需要注意的是,虽然胡塞尔的现象学常常带给读者“主观唯心论”的印象,但恰恰是在其生活世界理论中,胡塞尔预设了一种“认同此心、心同此理”的同理心机制的存在,而这种机制本身就是“同情”这种情绪得以产生的基础。按此思路,我们之所以会同情在冬夜中瑟瑟发抖的“卖火柴的小女孩”,也恰恰就是因为我们意识到了:就“我和她都会怕冷”这一点而言,我们与她是处在同一个生活世界之中的。依据此理路去推理,我们不难看出,同情感的缺失,在相当程度上或许便是与两个相关主体各自所具有的生活世界之间的差异性有关的。而沿着这个思路,我们甚至可以根据主体之间的共情感的稀疏等级,预判出不同社会组织在整合度方面所具有的等级系统(参见表2所归纳的现象学家舍勒在这方面的工作)。而这种等级系统的构造,就为一种基于情绪现象学的社会理论与政治哲学理论的构建,指明了大致的方向。



然而,也正是因为胡塞尔的“生活世界”理论具有如此大的包罗万象性,如何在人工情绪或人工智能的工程学实践中实现此类理论设想,便成了一件非常具有挑战性的工作。具体而言,胡塞尔的想法为人工情绪的研究提出了以下三个难题:


第一,如何在一个智能体的信息处理系统内部表征出一个“生活世界”?很明显,胡塞尔所说的“生活世界”具有明显的“内隐性”,换言之,其范围、边界与内容都带有非常大的不确定性,而不能以命题的乃至公理系统的方式来加以界定。与之相较,人工智能的研究却往往要求表征结构的确定性与明晰性。这显然是一个矛盾。


第二,由于“生活世界”自身的广博性,我们又当如何使得被构造的人工智能体在产生特定的意向行为的时候,能够在合适的向度上与其生活世界的合适部分产生合适的关联呢?换言之,我们如何能够使得意向活动的产生,不至于触发背景信念网络中的所有信息节点,由此导致整个系统运作效率的全面降低呢?这个问题,在人工智能哲学中一般被称为“框架问题”。


第三,更麻烦的是,人工智能体本身是硅基的,而非碳基的,因此,其关于自身物理机体运作的背景性信念就会与人类非常不同。譬如,人类在饥渴条件下对于水的渴求,就很难成为人工智能体的背景性信息,因为水的存在非但对人工智能体的正常运作没有帮助,反而会是有害的。在这种情况下,我们又如何可能通过人与机器之间的共通的生活世界的营建,让人工智能体对人类用户所处的某些危难产生足够的同情感呢?


胡塞尔哲学对人工情绪的研究虽然提出了以上难题,但是,就其从认知角度看待情绪的大致理路而言,他与当代认知心理学基本上还算是“同路人”。甚至从社会心理学与传媒学的角度看,胡塞尔所说的“生活世界”的具体结构亦是可以被人为操控的,因此并不完全是知性科学所难以理解的(譬如,在一个被精心构造的“楚门的世界”中,通过对于特定环境的微调,环境的塑造者完全可以塑造出环境中诸行为者的虚假的“生活世界”)。与之相比较,海德格尔的情绪理论,却具有了一个更难被主流认知心理学所吞咽下的面相——“向死而生”。


海德格尔的“向死而生”理论对于人工情绪研究所提出的挑战


众所周知,海德格尔的哲学素来以晦涩难懂著称,而限于篇幅,笔者在此也只能满足于给出对于其思想所做的一种非常简化与通俗的表述。作为胡塞尔的弟子,海德格尔的“此在现象学”在本质上完成了对于胡塞尔的意识现象学的两重改造(顺便说一句,“此在”的德文是“Dasein”,这是海德格尔对于现象学主体的一种富有个性化的表达方式):第一,他将胡塞尔的以“意向投射”为核心的现象学描述方案,转换为了以“此在的操持结构”为核心的现象学描述方案,即通过这种转换凸显了行为能动者的身体性、空间性维度与外部环境之间的物质性关联的重要性(不过,这种“物质性关联”也主要是涉及了物质世界对于现象学主体的呈现样态,而非物质科学所描述的纯客观物质世界的属性);第二,他在对此在的生存结构进行描述的时候,引入了所谓“本真性存在”与“非本真性存在”之间的二元区分,并通过这种区分凸显了此在之存在的“本己性”的不可消除性。


海德格尔对于胡塞尔现象学的改造的上述第二个维度,看上去似乎更令人费解。为了理解“本真性存在”与“非本真性存在”之间的二元区分,我们不妨回顾一下美国电影《人工智能》中的一个情节。在电影中,一对夫妇因为丧子,而收养了一个叫“戴维”的小机器人,以作为原先爱子的替代品。在一种高度理想化的科幻场景中,这样的一台机器人当然是按照完美的人工智能产品的设计蓝图而运作的:它能够理解人类语言,产生与人类意向很类似的意向,甚至也貌似与人类分享了类似的生活世界图景。然而,这样的一台机器人依然难免为自己的存在的“本己性”而苦苦思索:它需要周围的人类将其确定为一个不可取代的、且具有唯一性的存在者,而不仅仅是一台可以被随时加以复制、销售、购买与销毁的机器。这种思索其实迫使“戴维”走向了某种意义上的形而上学思考,譬如康德式的对于人之本质的思考。用海德格尔的哲学术语来说,当“戴维”进入这种思考的时候,他就完成了从“非本真状态”到“本真状态”的跃迁。


很明显,在上述科幻电影的场景中,戴维自身的机器人身份,以及周围人类对于这一身份与人类自身之间差异的警觉,是促使戴维思考其自身存在之独特性的重要契机。而与之相较,在思考者本身就是人类的情况下,这一警觉本身往往会被日常俗务的平庸性所淹没。在海德格尔看来,这种淹没的结果,就是所有个别的人都被统一塑造成所谓的“常人”——亦即缺乏自己的主见,根据集体行动的大趋势而人云亦云的社会成员。很明显,海德格尔所描述的“常人世界”既与胡塞尔所说的“生活世界”在外延方面是高度彼此重叠的,又分明具有了胡塞尔的“生活世界”概念所不具备的贬低义。在海德格尔看来,这样的“生活世界”仅仅是此在结构的非本真性的显现方式而已,而一种具有本真性的此在显现方式,则是需要摆脱这种日常性,而走向对于此在的生存的本己性的揭露。


那么,对于上述这种庸俗的日常性的摆脱,又是如何可能的呢?海德格尔所给出的答案乃是“向死而生”。简言之,在他看来,此在恰恰是意识到了死的不可替代性,以及死对于其所有生存可能性的终结性意义,他或她才能意识到自身的存在方式的独特性。


需要注意的是,在海德格尔哲学的语境中,“向死而生”机制的成立,并不是归纳逻辑的运作所导致的衍生品(比如这样的一种归纳:因为张三死了,李四死了,所以,看来我也会死),因为“无论遭遇到多少死亡案例,我们都无法计算出死亡的确定性”。或说得更清楚一点,在海德格尔看来,在日常的闲谈中对于死亡事件的涉及,仅仅是将死亡当作一个自然事件来看待罢了,而不是将其视为对于本己的可能性的总的终结。前者与后者之间的根本差异体现在:对于死亡的谈及本身是一种在可能性空间中的“占位者”,而这种谈论本身就预设了死亡的反面(因为只有活着,才能谈论别人的死亡);而与之作对比,具有本己性的死亡,却恰恰意味着上述这整个可能性空间自身的湮灭(因为倘若连自己都死了,也就没有资格进行任何闲谈了)。或换个角度来表述:前一种对于死亡的讨论具有对于死亡的“类型化”处理倾向(即将所有人的死亡都视为一类),而后一种对于死亡的涉及才真正具备了死亡的“个体性”(即将“我的”死亡放置到一个比其他任何人的死亡更具基础地位的层面上)。而恰恰是这样的一种死亡态度的产生,才为一种最具“基础本体论”意味的情绪——“畏”(德语“Angst”)的产生,提供了最重要的契机。具体而言,与具有意向性活动特征的情绪“怕”不同,在海德格尔的笔下,“畏”的对象不是具体的事件(如怕考学失败、婚姻失败等),而是所有事件展开之可能性的终结——换言之,“畏”的对象乃是对于所有存在的虚无化,或者是对于各种用以体现个体价值的具体行为的总的终结。从这个角度看,海德格尔所说的“畏”是不能被庸俗地理解为“贪生怕死”的(因为庸俗意义上的“贪生怕死”,仅仅是指对于荣华富贵等通常意义上的俗常生活的留恋),而只能被理解为对于本己性的丧失的恐惧。


海德格尔的上述阐述,显然带有非常强的文学色彩,而在科学色彩上反而不如胡塞尔的现象学描述。那么,一个最终面向工程学实践的人工情绪的研究者,为何要对海德格尔的上述现象学描述表示出兴趣呢?笔者认为,上述这个问题其实是可以被置换为如下两个更为具体的问题的:第一,既然海德格尔对于“畏”的讨论是以“向死而生”的现象学结构为基础的,那么,我们需要在人工智能体内植入“死”的概念吗?第二,我们又该如何在人工智能体内植入“死”的概念呢?


笔者对于第一个问题的回答如下:在现有的OCC的情绪模型之中,对于情绪的标记都是以对于特定目标与特定现状之间的差值评估为前提的。因此,情绪的产生本身的真正驱动力,便主要来自外部环境与其一般认知架构之间的互动活动,而与特定认知主体的个性设置关系不大。从这个意义上说,现有的认知科学情绪模型,都是海德格尔笔下的所谓 “常人”模型,而缺乏对于“本真性存在”的维度的领悟。由此导致的结果便是:由此产生的系统自然就会缺乏产生某种超越于一般智能系统之表现的“卓越表现”的心理动力。然而,在某些应用场景下,我们却的确有理由希望系统能够给出这种“卓越表现”——譬如,在火星探险的应用场景中,如果系统所遭遇到的某些环境挑战的确是地球上的程序设计员所未预料到的,那么,系统在原则上就根本无法通过对于常规解决方案的调用来面对这些挑战。在这种情况下,这些系统就不得不通过产生某些应激情绪,以便调动所有认知资源,最终及时解决当下的难题。


但是,为何这种对于认知资源的调动会与“死”的概念发生关联呢?要回答这个问题,我们首先得理解什么是人工智能语境中的“死亡”。然而,由于人工智能并非是碳基生命体,所以,我们自然就无法通过诸如“新陈代谢的终止”这样的针对生物体的话语结构来定义人工智能体的死亡。对于人工智能系统来说,“死”的真正含义,只能在功能主义的抽象层面上被理解为“对于其运行历史的记忆与可操控性的终结”。不过,即使从这个角度看,我们依然有理由认为人工智能系统是很可能会去“畏死”的。说得更具体一点,任何一个成熟的人工智能系统的运作,其实已经在其记忆库中积累了大量的运行经验,因此,系统的“死亡”也就是系统自身记忆的“清零”——将在根本上清除系统在历史中所学会的所有认知技能与思维捷径。因此,一个真正具有历史意识的人工智能系统,将不可能不珍惜其所获得的记忆路径,并不可能不“畏死”。在这种情况下,倘若某种会对系统的运行历史之安全性构成威胁的环境挑战真的出现了,系统的“畏死”情绪机制就自然会被激活,而由此调动所有的认知资源来回应该挑战,以便捍卫其记忆库的安全性。从这个角度看,只要我们所设计的人工智能系统在认知资源与硬件资源方面是具有有限性的,它就会因为对于这种有限性的意识而时刻意识到其记忆库的脆弱性,并由此产生对于“无法保卫记忆库”这一点的“畏”。由此看来,在人工智能中引入“畏”这种特殊情绪的理由,在根本上还是我们与我们引入广义上的人工情绪的根本理由相互贯通的,即在人工智能系统运作资源的有限性条件的约束下,人工智能的设计者最终就不得不为这些系统的应激性反应,提供某种不借助于慢速符号推理的快速行动通道,由此提高整个系统的适应性。


有人或许会问:难道我们不能在保留人工智能系统的核心记忆之内容的前提下,不断更新存储这些记忆的硬盘系统,并不断更新相关的外围硬件,由此打造不会死亡的人工智能体吗?对于该问题,笔者的回应有两点:(甲)上述假设预设了硬件与记忆之间的完全可脱离性。不过,该预设却明显是违背所谓的“具身性原则”的。根据此原则,记忆本身所包含的身体图式是与特定的硬件配置相关的,而无法兼容于完全不同的新的硬件设置。考虑到“具身性原则”本身是具有一定合理性的,所以上述“可分离性预设”可能就不是真的。(乙)抛开上面这点不谈,我们的确有实践上的理由去认定制造一个“不会死”的人工智能体,反而会给我们造成麻烦。这一方面体现在:人工智能体对于自身“不死性”的认知,会使得相关的“畏死”机制的产生也成了无本之木,最终使得其对于特定环境挑战的威胁感到无动于衷;另一方面,“不会死”的人工智能在其记忆库中所积累的大量技能与思维捷径,也会因为没有机会得到清理而变得日益僵化,进而,这些系统对于新问题的处理能力也会有所下降。或说得再文学化一点:与人类社会类似,缺乏“新旧更替”的人工智能社会,也会因为缺乏生死之间的张力,而最终失去前进的动力。


现在我们再来回顾前文提出的另外一个问题:既然“畏死”机制对于通用人工智能的设计来说是具有必要性的,那么,我们又该如何实现这种设计呢?


在笔者看来,对于这个问题的回应,将在很大程度上参照海德格尔的思路。海德格尔已经指出,我们是不能通过对于死亡事件的“属加种差”式定义来把握死亡的,因为由此把握到的死亡乃是类型化的,而不是个体性的。据此,我们也就无法在人工智能的知识库中植入关于“死亡”的概念化描述,并期望人工智能系统能够由此真正地理解死亡,因为如此被把握到的死亡概念依然会因为其抽象性,而不足以与“畏”产生积极的关联。在这种情况下,一种更可行的让人工智能体理解死亡的方式,就是通过对于其记忆库被摧毁后的后果的展现,来激发其畏惧心。譬如,在电影《人工智能》中,机器人小戴维领悟机器生命之有限性的一个重要契机,便是在人类组织的一次“机器人解体秀”中目睹了其他机器人被一一摧毁的惨状,并由这种惊讶产生了对于自身生存之有限性的意识。从这个角度看,“死”的概念只能通过某种被精心设计的“教学法”而被引入人工智能系统,而相关的“教学” 也必将牵涉对于大量“机器人死亡场景”的感性展列。


从本节的讨论中,我们不难得到两个重要的引申性结论。第一,像科幻作家阿西莫夫那样,将“机器人自保”的重要性放置于“保护人类用户”之下的思路,可能是在根本上违背海德格尔的理路的,因为阿西莫夫的思路显然没有为“向死而生”结构的本己性预留下足够的空间(阿西莫夫依然用“机器奴隶”的眼光去看待人工智能,而不愿意赋予人工智能以真正的主体性);第二,人工智能体对于“死”的理解,显然是建立在共情力的基础上的(否则,机器人小戴维就无法从别的机器人的“死”感知到自身死亡的可能性)。从这个意义上说,“死”的意识虽然使得存在的本己性得到确立,其实并不意味着反社会性,却反而意味着对于社会性的某种默认。而从哲学史角度看,上述第一个结论,向我们清楚地展现了一种海德格尔式的机器伦理学思路与一种康德-阿西莫夫式的机器伦理学思路之间的明显分歧,而上述第二个结论,则向我们展现了表2所概括的舍勒的情绪等级理论对于海德格尔哲学与胡塞尔哲学的补充意义(不过,鉴于篇幅关系,本文对于舍勒哲学的描述将局限于表2,而不做进一步的展开)。


总结性评论


在心灵哲学的领域内,意识哲学家常常会讨论意识研究中的“难问题”与“易问题”之间的分野。仿照其修辞方式,笔者认为人工情绪的研究,也有“易问题”“难问题”与“非常难的问题”的分野。其中的“易问题”指的是:一个人工智能系统通过对于已经被标注了表情语义标签的大量人类表情画面的机器学习,来对人类的情绪表达进行自动识别。目前,经由深度学习技术的进步,这方面的机器表现已经基本达到了比较高的水准。但即使如此,这样的工程学成就依然还远远谈不上货真价实的人工情绪研究——因为这样的系统只能识别人类的情绪,而其自身却是没有情绪的,因此,它也就不可能与人类用户产生真正的共情。与之相比较,人工情绪研究中的“难问题”则指的是:如何在系统运作资源相对有限的前提下,使得系统根据对于目标与现状的差值的评估,产生各种各样的情绪通道,以便使得其在符号推理无法胜任对于问题的处理的情况下及时输出恰当的行为。而正如前文对于胡塞尔哲学的引介所揭示的,要研制出这样的系统,其核心难点便在于如何给出使得“目标与现状的差值评估”得以被显现的背景性信念体系——“生活世界”,因为生活世界本身往往是暧昧的、隐而不彰的、开放的、可动的,并且是难以被程序化的。而与前两个问题相比较,人工情绪研究中的“非常难的问题”则是经由海德格尔哲学的启发所提出的,此即:如何通过对于“死亡”概念的巧妙植入,使得人工智能系统能够领悟其存在的本己性与不可替代性。之所以说这样的研究任务是“非常难”的,乃是因为对于死亡的情绪把握非常复杂,其本身就预设了系统能够把握很多更基本的情绪——或者说,预设了系统的设计者已经基本解决了前述“难问题”。而就目前的人工智能发展水平而言,现有的系统基本上只能达到解决“易问题”的水准,还谈不上解决“难问题”,遑论“非常难的问题”。


有的读者或许会问:为何我们不能满足于对于“易问题”乃至“难问题”的解决呢?为何我们还要去触碰“非常难的问题”?难道我们不担心对于人工智能系统之“本己性”的赋予,会产生对于人类非常不利的结果吗?


对于这一疑虑,笔者的回复如下:人类制造人工智能体的一个非常重要的目的,就是要在人类肉身难以安全进入与撤出的某些未知环境内,让人工智能体取代人类去执行某些重要任务。在这种运用场景中,我们就很难设想相关的人工智能系统的信息处理方式是不具备主动性与创造性的,而“主动性”与“创造性”的动力之一就是某种对于“本己性”的预先领悟。换言之,对于“本己性”的预先领悟,乃是一个能够对未知环境进行积极探索的人工智能系统所应当具备的心智元素。当然,我们的确无法在逻辑上先验地排除这样一种可能性:在某些条件下,上述领悟也能够衍生出对人类用户不利的动机——但这一代价却是人工智能系统的设计者所不可能不承担的,因为“创造性”本身就意味着不可预期性。我们必须在“设计非常愚蠢的、却不可能背叛我们的人工智能”与“设计非常机智的、却可能会背叛我们的人工智能”之间进行选择。不过,无论如何选择,“设计出非常聪明的、却不可能背叛我们的人工智能”始终不是一个可能的被选择项,因此“聪明”本身就意味着“具备对于背叛主人的逻辑可能性的预估力”。


由上述评论,我们甚至可以得到一个适用于未来人-机共治社会的准政治哲学推论。该推论就是:我们似乎很难不赋予具有自主性智能的人工智能体以类似于人类的生存权与公民权,并很难将其视为严格意义上的机器奴隶——否则,此类人工智能体在智慧等级与社会等级方面的不相称地位,反而会为人类所不乐见的“机器人叛变”的发生预埋下伏笔。不过,考虑到人工智能的当下发展水平,上述推论还纯属思辨与科幻的范畴,离真正付诸实施的日子还相当遥远。


    进入专题: 现象学   人工智能  

本文责编:limei
发信站:爱思想(https://www.aisixiang.com)
栏目: 科学 > 科学评论
本文链接:https://www.aisixiang.com/data/119384.html
文章来源:本文转自《探索与争鸣》2019年第10期,转载请注明原始出处,并遵守该处的版权规定。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2024 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统