廖备水:论新一代人工智能与逻辑学的交叉研究

选择字号:   本文共阅读 5588 次 更新时间:2022-04-09 13:29

进入专题: 人工智能   逻辑学  

廖备水  

摘要:新一代人工智能以大数据和机器学习技术为核心,实行的是联结主义的路径。该路径在场景相对封闭的数据密集型应用中取得了巨大成功,但面临可解释性差、伦理对齐困难、认知推理能力弱等瓶颈问题。为了在一定程度上解决这些问题,不可避免地涉及对开放、动态、真实环境中信息的刻画,以及对人类推理和解释机制的建模。形式论辩可以提供不一致情境下知识表示与推理的通用机制,与偏好、权重、概率等决策因素的灵活结合机制,局部化和模块化的语义高效计算机制,以及基于论证和对话的可解释机制等。有机结合形式论辩与现有大数据和机器学习技术,有望在一定程度上突破现有技术瓶颈,促进新一代人工智能的健康发展。


关键词:新一代人工智能  认知推理  伦理对齐  可解释性  形式论辩


作者廖备水,浙江大学哲学学院教授(杭州310058) 。


来源:《中国社会科学》2022年第3期P37—P54


“新一代人工智能”是为了因应当前信息环境、社会需求、人工智能研究目标等的巨大变化,而发展起来的人工智能新理论、新方法和新技术,实行的是联结主义路径。作为计算机科学和人工智能基础的逻辑学,在符号主义人工智能中起到了直接的基础性作用,但在以机器学习技术为核心的新一代人工智能中的基础性作用相对较弱。不过,随着大数据智能、群体智能、跨媒体智能、人机混合增强智能、自主智能系统等新一代人工智能前沿方向的快速发展,现有单纯基于统计方法的人工智能技术遭遇发展瓶颈。第一,现有的机器学习算法的可解释性差,在医疗、法律、金融、军事等高风险决策领域的可应用性低。第二,随着大数据技术和自主决策算法的日益普及,如何保护个人隐私,在实现安全、公平和透明等方面与人类的伦理价值对齐,仍然是一个开放性问题。第三,现有以机器学习算法为主的新一代人工智能技术容易受到不完备信息和噪声数据的干扰,缺乏对各种复杂知识的表达能力,不能建模人类在各种开放、动态环境下的推理形式,难以实现各种认知智能。尽管这些问题所针对的方向不同,但不论是为了提高可解释性,还是要进行伦理对齐或认知推理,都离不开知识的表示和推理。那么,这些问题所涉及的知识有何特点?作为计算机科学基础的数理逻辑是否足以表达和处理这些知识?如果答案是否定的,那么怎样的逻辑学理论和方法可以胜任?本文接下来的内容就围绕这些问题展开。



一、新一代人工智能的瓶颈问题及其所涉及知识的特点


当前,基于大数据和机器学习的新一代人工智能技术面临着可解释性差、伦理对齐困难、认知推理能力弱等瓶颈问题。这些问题都具有很强的交叉学科特点。例如,在提高智能系统的可解释性方面,从计算机科学和人工智能的角度,需要解决用于解释的知识的获取问题;从逻辑学的角度,需要解决知识的表示和推理问题;从社会学和心理学的角度,需要研究有效的人机交互问题,等等。本文主要从逻辑学的角度,分析上述问题所涉及的知识的特点,并在此基础上,探究与之相关的逻辑学基础理论和方法存在的问题和发展路径。


(一)可解释性问题及其所涉及知识的特点


可解释性要求人工系统能够为其决策提供人类可理解的理由。这些人工系统包括基于简单规则集的系统、基于知识的系统以及依赖于机器学习的系统等。随着机器学习技术和自主智能系统的发展,可解释成对智能系统的必然要求,特别是一些高风险决策领域。一方面,深度学习的“黑箱”性质造成深度学习缺乏对事物的语义以及事物之间因果关系的描述,因此可解释性差,使得用户难以信任深度学习算法,开发人员难以发现和改正算法存在的问题。其结果是深度学习算法难以被应用于交通、医疗、法律、金融、军事等高风险决策领域。另一方面,对于需要复杂知识表示和推理的应用,机器学习方法和知识表示方法的综合使用使决策的因素和过程变得更为复杂。例如,在法律推理领域,深度学习方法经常被用于进行情感分类、人脸识别等感知任务,而人工规则以及由归纳逻辑编程、关联规则挖掘等获得的知识则作为法律决策的理性知识。对于这样的系统决策,若缺少必要的解释机制,则难以获得相关参与方的信任和采纳。


在上述背景下,可解释人工智能近年来成为人工智能领域的研究热点。从解释的对象看,现有的方法主要集中在对机器学习模型或其预测结果的解释。主要方法包括直接建立可理解的模型,或在不可理解模型之外建立一个平行的可解释模型。前者一般基于决策树和贝叶斯网络等内在可理解的方法,后者则需要在原有模型之外获取相关知识来进行解释。对于机器学习算法以外的其他可理解的智能系统的解释,可以直接利用可理解模型中的知识。例如,在法律人工智能领域,可利用正面先例和反面先例、法律规则和法律论证等。从解释的深度看,可分为低层次的“狭窄的”解释和高层次“强”解释。前者仅说明基于一个特定的数据如何做出一个决策,而后者则将参与主体的信念、动机以及社会文化等因素也纳入解释过程,建立以人为本的会话解释系统。这样,解释不仅需要认知过程,也需要交互过程。其中,认知过程主要是关于原因和可能的反事实案例的识别,而交互过程则涉及解释者和被解释者之间的互动,目的是向被解释者提供理解决策结果所需的信息。


由上述分析可知,为了提高可解释性,人工智能系统不仅需要获得用于解释的相关知识,而且要具备合适的知识表示和推理手段,以及将推理结果作为解释内容与用户交互的途径。总的来说,与可解释性问题相关的知识具有因果性、不一致性和不确定性的特点。因果知识反映事件之间的因果关联,是解决可解释性问题的核心之一。现有研究表明,由于使用统计泛化来解释事件为什么发生并不能令人满意,在解释中很少用到概率。知识的不一致性和不确定性体现在与解释相关的其他知识中,如法律规则、法律论证、决策规则等,以及在智能系统与被解释者的动态信息交换过程之中。


(二)伦理对齐问题及其所涉及知识的特点


随着无人驾驶、医护机器人、军用武器等自主智能系统的发展,机器伦理成为一个热点研究领域。其核心问题是如何使得自主智能系统的行为或行为序列与人类的道德判断对齐。目前,用于实现机器伦理的方法主要包括自上而下方法、自下而上方法以及结合二者的混合方法。自上而下方法依据给定的伦理理论或伦理规则来约束智能系统的决策和行为。这种方法又可分为硬性约束和柔性约束两类。前者通过设置硬性的规则,当这些规则的前提未得到满足时,智能主体不能实施特定的行为。这使得智能主体没有违反规则的可能,因而限制了智能主体的自主性。后者通过基于规范的奖惩机制来实现对智能主体行为的柔性约束。通过执行奖惩机制来引导智能主体遵守规则,使得智能主体能够自主决策。目前,基于价值和规范推理的柔性约束成为管理开放、动态多主体系统的主流方法。自下而上方法通过机器学习从大数据中学习伦理原则,并以此来指导智能主体的决策和行为。在这两种方法中,都涉及伦理价值和道德规范,只是对它们的获取方法不同:前者来源于给定的理论和规则,而后者则来源于机器学习。总的来说,伦理对齐问题所涉及知识一般具有如下特点:


第一,不同的规范之间可能存在冲突。这些冲突可能发生于同一伦理体系内不同伦理原则之间,或者不同伦理体系的不同伦理规范之间。在多智能体场合,冲突可能存在于个体智能体内部,或者不同智能体之间。由于冲突的存在,智能体需要依据特定的评价标准(如道德上的、利益上的、审美上的)做出选择。


第二,伦理价值和规范具有动态性和情境依赖性。伦理价值不仅与特定的文化背景有关,而且与不同利益相关方的立场和偏好有关。事实上,在不同地域、国家、民族和文化背景下,伦理和价值是变化的,且这种变化会使规范系统产生迥异的推理结果。与此同时,当一个伦理行为涉及多个利益相关方时,不同利益相关方对伦理价值的排序可能不同。


(三)认知推理问题及其所涉及知识的特点


新一代人工智能以大数据和机器学习为核心,但当前作为机器学习典型方法的深度学习只能做到“感觉”(sensation),达不到“感知”(perception),更缺少认知推理的能力。为了完成复杂的任务,人工智能系统除了感知和行动之外,还需要理解、推理、自主决策等能力以解决复杂场景的困难问题。


认知推理是对知识和信念进行推理。依据哲学认识论,一个根本性问题是解释人类如何可能从外部世界获取知识。类似地,对于人工理性主体,也面临这个问题。为了能够获得关于世界的信息,并形成可靠的信念,一种简单的方法是在设计时把所有知识内建到人工主体的知识库中。然而,如果要让人工主体可以在一个不断变化的复杂环境中运行,这种方法显然是不可行的。因此,人工主体的设计者至少需要解决如下三个问题。第一,感知不一定是真实的。世界不总是与它所呈现的完全一样。由于这个原因,自动把感知信息转化为信念并不合适,而需要基于当前信念和观察信息,通过理性推理,获得相对可靠的信念。第二,感知实际上是一种形式的采样。由于认知的局限性,一个主体不能在所有时间检测到世界的所有状态。换句话说,主体所感知的信息只是世界的某个局部、某个片段。第三,世界在变化。主体的推理应该能够适应一个演化的世界。当世界发生变化时,主体的信念需要随之改变。


因此,为了实现认知推理,智能系统需要具备获取知识、表达知识、更新知识和对知识进行推理的有效途径。知识图谱是一种用图模型来描述知识和建模世界万物之间的关联关系的技术方法。现有的机器学习方法从大数据中发现和构造知识图谱,积累了大量的知识。然而,在由机器自动建构的知识图谱中,往往存在不完备的、不确定的、甚至冲突的信息和关系。此外,知识图谱中的知识还具有动态性,即新知识可以随时加入或删除,且新知识可能与已有的知识发生矛盾。这些都是认知推理问题所涉及的知识的特点。



二、传统逻辑学理论面临的挑战

前述新一代人工智能发展所面临的三个瓶颈问题及其所涉及知识尽管在种类上有所区别,但都具有不完备性、不确定性、不一致性等特点。同时,这些知识都来自开放、动态、真实的环境。作为计算机科学的数学基础的经典逻辑(数理逻辑)无法表示和处理这类知识,而传统非单调逻辑虽然在理论上克服了该问题,但在普遍适用性、可计算性、动态性和易解释性方面存在重要挑战。


(一)知识的不完备性、不确定性和不一致性:对经典逻辑的挑战


首先,经典逻辑不能有效表达不完备、不确定的知识,即存在例外的知识。这与新一代人工智能上述瓶颈问题所涉及知识的特点不符。例外既可以发生于认知推理中,也可以发生于规范推理中。在认知推理方面,由于主体对世界认识的局限性,主体所获得的认识经常是片面的、暂时的、不准确的。这些知识可以表现为常识、因果关系等。例如,在可解释性方面,因果关系经常存在例外。“转动点火钥匙引起发动机启动”,但这个关系在各种例外下可能不成立,如“油缸中没有汽油”。在规范推理方面,规范实施的条件经常与上下文有关,因此一条规范是否可实施一般存在例外情况。例如,“闯红灯是一种违法行为”,但这条规范在一些例外下可能不适用,如“这次闯红灯的是一辆救护车”。这些包含例外的知识难以在经典逻辑中得到表达。如果用p和q分别表示“转动点火钥匙”和“发动机启动”,那么蕴含式“p→q”显然与“转动点火钥匙引起发动机启动”的含义不符。其原因是,“转动点火钥匙引起发动机启动”实际刻画的是“正常情况下,转动点火钥匙引起发动机启动”,但存在例外。如果要直接用经典逻辑来刻画这个因果关系,就需要在蕴含式的前件中包含所有的例外,但这是难以做到的,因为例外情况不可穷尽,或者即使可穷尽,在表达方面也非常繁琐和低效。



(二)普遍适用性、可计算性、动态性和易解释性:对传统非单调逻辑的挑战


为了克服经典逻辑的上述问题,20世纪80年代以来的多种非单调逻辑通过扩展经典一阶逻辑,基本达到了可以表达和处理不完备知识的目的。在这些方法中,有些通过给经典一阶逻辑的模型集合或可能世界集合添加限制条件,使得以常识性知识作为前提的结论是在“尽可能正常的模型”或“尽可能正常的世界”中得到的;有些采取“封闭世界假设”,在推理规则中增加“失败即否定”条件,来实现当例外未出现时可推出某些结论的目的。用这些方法建立的形式系统显然都是非单调的,因为一旦例外出现,之前与之相关的结论就会被收回。


上述非单调逻辑系统尽管满足了例外可表达和推理非单调这两个重要特性,但仍然存在不少问题,不能直接用于解决新一代人工智能的瓶颈问题。


第一,在冲突处理方面,传统非单调逻辑系统适合于表达由例外引起的冲突,但难以表达实践推理和多主体交互中的各种冲突,从而通用性较低。在实践推理中,规范之间的冲突可能来自主体的不相容的决策或行动选项,而不一定是例外,如上述规范r1—r3。在多主体交互的推理中,主体通过交换论证、比较论证和评估论证来实现说理的目的。这种基于论证的推理模式难以在传统非单调逻辑中得到直接表达。


第二,传统非单调逻辑尽管可以在理论上解决不完备知识的表示与推理问题,但计算复杂性非常高。例如,一阶逻辑的有效性问题是递归可枚举(半可判定)的,而一阶缺省逻辑却不是递归可枚举的;又如,命题Horn语句的可满足性问题可在线性时间内完成,而同样的问题在命题缺省逻辑和限制逻辑中则是NP完全的。由于传统非单调推理的复杂度总体较高,而人工智能对计算速度有很高的要求,因此常常只能采用非单调逻辑的计算复杂度较低的片段。


第三,对于非单调的推理系统,新信息的加入可能引起已有推理结果的变化。在系统计算复杂性很高的情况下,如果在新信息加入后需要重新计算所有的推理结果,不仅低效,而且在许多情况下也是不可行的。为了解决该问题,一种自然的解决思路是对系统的动态性进行局部化处理。然而,在传统非单调逻辑系统中,难以区分局部推理和全局推理,给动态性的局部化处理带来了根本性的困难。例如,在缺省逻辑中,命题的一个证明是由若干缺省规则组成的有穷序列。缺省规则由三部分组成:先决条件、缺省条件和结论。对于序列中的每条推理规则,需要检查其先决条件是可证的,而缺省条件的反面是不可证的(即该规则的实施不会引起不一致性)。由于证明的过程伴随着一致性检查,每条规则的可应用性(局部推理)和整个证明是否成功(全局推理)是结合在一起的。因此,当信息发生变化时,通过重新检查所有证明或构造新证明来刻画系统的动态性,显然是低效而困难的。


第四,推理的可解释性牵涉到推理结论和过程是否易于被人类用户所理解。由于解释的对象是人类,因此一个解释不仅要反映一个推理内在的逻辑关系,而且需要以人类日常交流的方式来表达。人们在进行解释、说服或协商时,经常以提供论证或反面论证的方式进行。例如,为了解释“应该给病人服药”这个结论,可以提供一个论证“当用药时间到的时候,(为了保护病人的健康)应该给他服药;现在用药时间到了;所以,应该给病人服药”。这是一个演绎论证,由两个前提和一个结论组成。另一方面,如果“应该给病人服药”这个结论不成立,可以提供一个论证来反驳它:“当病人正在忙的时候,(为了保护病人的自主权)不应该给他服药;现在病人正在忙;所以,不应该给病人服药”。以此类推,通过使用论证可以达到各种不一致情境中推理和说理的目的。遗憾的是,这种人类经常使用的推理和说理的模式在传统非单调逻辑中没有得到直接的反映。不管是通过给经典一阶逻辑的模型集合或可能世界集合添加限制条件来实现的非单调逻辑,还是通过增加缺省条件来建立的缺省逻辑,其证明过程都难以被普通用户所理解。同时,一体化的证明过程也不便于多主体交互过程中的推理与说理。



三、基于形式论辩的研究路径

上一节的分析表明,在新一代人工智能背景下,为了实现对不完备、不一致信息的表示和推理,并解决可计算性、动态性和易解释性等方面的问题,不仅在逻辑基础理论方面要求有新的方法,而且在计算高效性和人机交互有效性方面也需要有新的机制。


在探究这些新方法和新机制的过程中,一种自然的思路是回归到人类的常用推理和说理模式。众所周知,人类的推理和说理经常以交换论证的形式进行。直觉上,一个内部自洽的论证是可接受的,当且仅当与之有冲突的其他论证均被拒绝。通过这种方法,一致性仅限于论证内部,而不同的论证之间可以有冲突。当新的论证出现时,与之存在冲突关系的其他论证的状态可能发生变化。换句话说,这种基于论证和论证之间交互的方法不仅可以表达不完备的、不一致的知识,而且可以实现非单调推理。沿着这个思路,自然产生如下问题:这种以交换论证的形式进行的推理是否具有严格的数学模型?如果存在这样的模型,它与传统非单调逻辑有何关系?


可喜的是,近年来发展起来的形式论辩理论(又称为“论辩逻辑”)以一种数学上严格的模型刻画了上述思路。它由抽象论辩理论和结构化论辩理论组成。其中,抽象论辩理论由人工智能领域知名学者潘明勇(Phan Minh Dung)于1995年提出。它是形式论辩理论的核心,阐明了在一组具有冲突的论证中如何选择集体可接受的论证子集,并证明了多种传统非单调逻辑都是抽象论辩理论的特殊形式。与此同时,除了对传统非单调逻辑的表达,其他不一致情境中的推理,如稳定婚姻问题和多人合作博弈问题等,也都可以在抽象论辩理论中得到统一表达。因此,这一理论可以看作是关于冲突的演算。它解决了不一致情境中推理的核心问题,在人工智能和逻辑学领域具有里程碑式的作用。更为重要的是,在抽象论辩理论中,抽象论辩框架的概念可以被看作是有向图,而图论中的节点可达关系和强连通分量等概念为建立静态或动态系统的高效算法提供了天然的支持。作为抽象论辩理论的具体化,结构化论辩理论研究底层知识的表示、论证的构造、攻击关系的识别、优先级关系的使用,使得基于论辩的推理系统满足一些期望的理性假设或特性。由于形式论辩理论刻画了人类的推理模式,基于论证的推理和对话机制可被应用于建立可解释模型。


鉴于上述原因,基于形式论辩的方法在解决新一代人工智能瓶颈问题方面有望发挥重要作用。接下来从五个方面对基于形式论辩的研究路径作介绍和分析。


(一)形式论辩理论


论辩是人类智能的重要方面,人们经常通过论辩来进行日常推理、科学决策、澄清观点等。在许多情况下,一个观点是否可以被采纳,不是完全取决于该观点的真假,而是取决于与支持该观点的论证有反对关系的其他论证的状态。人类推理经常以交换论证的形式展开,且推理过程经常受语用因素的影响。为了刻画人类这种论辩机制的本质,使得该机制可以被应用于计算机科学领域,抽象论辩理论应运而生。该理论刻画了人类论辩的重要原则:“笑到最后的才是最好的”。基于该思路, 潘明勇提出了抽象论辩框架的概念,并通过它来定义论证的可接受性。下面以一个例子来引入这一概念。


参考机器伦理的一个简单例子。设想有个用于老年人陪护的道德人工主体,它能够依据特定的规范、价值和信念等进行推理与决策。我们考虑它的一个推理片段。该片段涉及两条观察信息o1和o2、一个假设“电池显示异常”、一个缺省“一般情况下,电池显示正常”、两条规范n1和n2、一条信念规则b1,及四个论证α、β、γ和δ,如图1所示。其中,“去送药”和“去充电”在逻辑上相互反对,信念规则b1的后件“规范n2不适用”反对规范n2的推理关系,缺省的结论反对假设。每条规范都与其要实现的价值关联。这些价值包括“健康”“可持续性”“安全#1”“安全#2”。其中,“安全#1”表示当前时刻的安全价值,“安全#2”表示长期的安全价值。基于这些知识,论证由一个结论和支持该结论的理由组成。例如,非形式地,论证α表示的是“去送药给老人,因为:观察信息o1显示老人用药时间到;如果老人用药时间到,应该给他送药(体现‘健康’和‘安全#1’价值)”。 论证之间的攻击关系可以是反驳(α与β之间)、底切(从γ到β)或破坏(从δ到γ)。这三种攻击关系可以被理解为:当一个论证的结论反对另一个结论时,前者“反驳”(rebutting)后者;当一个论证的结论反对另一个论证的推理关系时,前者“底切”(undercutting)后者;当一个论证的结论反对另一个论证的前提时,前者“破坏”(undermining)后者。



通过上述例子,我们可以洞察到基于论证的推理具有如下重要性质:尽管各个论证内部的知识表示和逻辑结构可以不同,论证之间攻击关系的来源也可以不同,但是从论证可接受性的角度看,这些不同的因素并不产生任何影响。其原因是对于一个内部自洽的论证,其可接受性仅与攻击它的其他论证的状态有关,而与该论证的内部结构无关。因此,可以用抽象的论证和攻击关系来刻画不一致情境中的各种推理系统所共有的冲突处理逻辑结构。这样,在评估论证的状态时,可以不考虑论证内部的结构。我们把这样的论证称为抽象论证,同时把由一组抽象论证集合A及其上的攻击关系R构成的二元组称为一个抽象论辩框架,记作F=(A,R),其中。显然,可以把一个抽象论辩框架看作一个有向图。


给定一个抽象论辩框架,可以通过建立具有一般意义的评价标准来定义论证集合的可接受性。通常把这样的评价标准称为论辩语义,而把每个可接受的论证集合称为该语义下的一个外延。与人类的推理直觉相对应,最基本的语义(称为可相容语义)必须满足无冲突性和可防御性。形式化地,我们说一个论证集合是无冲突的当且仅当E中的任何论证之间都不存在攻击关系,E可防御论证α∈A当且仅当对于每个攻击α的论证β,在E中都存在一个攻击β的论证。因此,无冲突性确保推理结果的协调性,而可防御性则反映了人类论辩机制的上述重要原则“笑到最后的才是最好的”。满足这两个条件的外延也称为可相容外延。在此基础上,通过添加其他条件,可得到其他语义下的外延。例如,若一个可相容外延包含它可防御的所有论证,那么它是一个完全外延;把一个极大的完全外延称为优先外延;把一个极小的完全外延称为基外延。上述例子所对应的抽象论辩框架(记作F1)如下图所示。它有两个优先外延E1={α,δ}和E2={β,δ},一个基外延E3={δ}。



在抽象论辩理论中,定义多种不同的语义是为了反映人类在运用冲突或不确定信息进行推理时的不同选择,以实现不同需求。例如,在认知推理中,轻信的主体倾向于选择更多的不十分确定的结论,而有怀疑精神的主体则仅选择可靠的结论。抽象论辩理论不仅定义了各种条件下论证的可接受性,而且对论证的内部结构和攻击关系的来源没有限定,因此有很好的普遍适用性。


(二)不一致情境下知识表示与推理的通用机制


以抽象论辩为基础的形式论辩理论刻画了人类推理的一般机制,使其具有良好的通用性。形式论辩不仅可以刻画传统非单调逻辑,而且可以用于建模其他各种不一致情境中的推理。


在不完备知识的表达方面,基于形式论辩的方法与传统非单调逻辑方法不同。基于形式论辩的方法既不是通过给经典一阶逻辑的模型集合或可能世界集合添加限制条件,也不是在推理规则中增加“失败即否定”条件,而是通过添加新论证以攻击已有论证来实现的。例如,对于上述论证δ“一般情况下,电池显示正常”。在不存在其他论证时,论证δ自然成立。当有新的信息出现时,不需改变原来的论证,而只需增加新论证和攻击关系。例如,当出现新论证η“观察信息o3显示,此次电池显示存在异常”。这样,η击败δ,并得到一个新的抽象论辩框架(记作F2)。由此可见,通过增加论证和攻击关系的形式来刻画例外,更加灵活。它避免了重新构建论证或证明的过程,只要通过有向图中节点的添加,就可实现例外的表达。由于在一个抽象论辩框架中,论证的状态取决于与其具有攻击关系的其他论证的状态,因此关于论证状态的推理是非单调的。在前面的例子中,当论证δ没有攻击者时,δ是可接受的;当增加了攻击δ的论证η后,论证δ是被拒绝的,因此其结论也被拒绝而撤回。



除了可以灵活刻画意外情况以及关于论证状态的推理是非单调的,抽象论辩理论还提供了更加通用的冲突表示和处理机制。由于负责处理不一致性问题的抽象论辩理论相对独立于底层知识的类别、来源、表示语言和表示方法,因此不论具体论证由何种知识、通过何种方法来建构,也不论它们是由单个命题构成,还是由一组命题构成的,只要找出不同论证之间的攻击关系,就足以阐明所有论证的状态是如何相互制约的。从而,不一致情境下的各种推理可以用抽象论辩理论统一建模。


在上述例子中,除了认识推理,还有规范推理。规范之间的冲突也可以表示为相应论证之间的攻击关系。这样,因果推理、知识图谱推理、规范推理等在形式论辩中均可以得到统一表达。


此外,在形式论辩理论中,区分局部推理和全局推理。前者局限于个体论证内部,因此可以采用不同的推理形式,如演绎推理、基于可废止规则的推理、基于论证图式的推理等,也可以是不同的推理种类,如认识推理、规范推理、因果推理等。这样,不同种类的论证可以被放在一个抽象论辩框架中评估。这种推理模式充分反映了人类推理和说理中可以包含各种推理类型的特点。


(三)与偏好、概率等决策因素的灵活结合机制


在运用不完备和不确定的信息进行推理时,研究者要求形式系统能够方便地表达偏好和概率等信息。这是由于这些因素在日常论证中广泛存在。例如,在规范推理中,价值及规范之上存在偏好排序。具体地,对于图1的决策知识,规范经常用于实现特定的伦理价值:规范n1与 “健康”及“安全#1”关联,n2与 “可持续性”及“安全#2”关联。由于价值上存在排序,与之相关的规范也存在排序。这些排序的存在,会影响到推理结果。在图1中,如果“健康”和“安全#1”总体上比“可持续性”和“安全#2”的重要性更大,那么,直觉上应该选择“去送药”。因此,为了得到理性的结论,形式系统需要能够表达偏好和概率等信息。


值得注意的是,形式论辩理论提供了表示和处理偏好或权重的方便机制。对于偏好,其基本原理是通过把组成论证的各部分的优先级提升到论证之间的优先级,即把个体之间的优先级提升到由个体组成的集合之间的优先级。为了达到该目的,通常采用民主原则或精英原则。给定集合X和Y,依据民主原则,说X优先于Y,当且仅当对于Y中的任意个体y,在X中都存在一个x,使得x优先于y;依据精英原则,说X优先于Y,当且仅当在Y中存在个体y,使得对于X中的任何个体x,都有x优先于y。尽管这两种原则不是普遍适用的,但在特定情况下有着较好的可应用性。



形式论辩理论还提供了表示和处理概率的机制。以上述例子为例,当运用观察信息进行推理时,由机器学习方法得到的信息存在不确定性。假定观察信息o2和o3的概率分别是p(o2和p(o3。于是,论证β有p(o2的概率存在,论证η有p(o3的概率存在(即出现于论辩框架中)。当考虑论证的存在概率时,论证的可接受性也具有概率。这样,通过把概率理论和论辩理论结合起来,可以对既不一致又不确定信息进行表示和推理。值得注意的是,在许多情况下,信息的不一致性和不确定性无法单纯由概率理论或论辩理论来表达,而需要二者的结合。在图1的例子中,我们可以用论证之间的攻击关系来表示规范之间的冲突,而用论证的存在概率来表示观察信息的不确定性。


(四)基于局部化和模块化思想的高效语义计算机制


符号主义人工智能的瓶颈问题之一是计算复杂性问题。在引入非单调推理机制之后,相应算法的计算复杂性进一步提高了。因此,如何有效提高非单调推理系统的计算效率,降低计算复杂性,是逻辑学与人工智能交叉研究的重要问题。抽象论辩理论具有基于模块化和局部化思想的高效计算机制。






(五)基于论证的可解释机制


上文提到,为了提高可解释性,人工智能系统不仅需要具备知识获取、表示和推理手段,而且要有将推理结果作为解释内容与用户交互的途径。现有研究表明,基于论证的辩护是影响解释相关的最关键因素。其原因在于人们进行思想交流时经常采取基于论证的交互方式,而形式论辩的推理机制直接反映了这种方式。具体而言,从局部推理的角度看,个体论证的逻辑结构可以用于解释一个断言成立的前提条件;从全局推理的角度看,通过抽象论辩框架中不同论证之间的攻击关系,可以解释一个论证为什么被接受或拒绝:一个论证及其支持的结论是可接受的,当且仅当它的所有攻击者都是被拒绝的;一个论证是被拒绝的,当且仅当存在一个攻击者是可接受的。


此外,从解释的机制看,可以采取不同的方式,如基于论证的对话机制、基于论证树的解释、基于子框架的解释等。



结论与展望

新一代人工智能的瓶颈问题给逻辑学的发展提出了新的挑战和机遇。该挑战的核心是要求基于逻辑的系统必须能够处理来自开放、动态、真实环境中的不完备、不确定和不一致的信息,同时在可计算性、动态性和可解释性方面具有良好性能。传统非单调逻辑克服了经典逻辑的缺陷,能够表示不完备信息并进行非单调推理,但在通用性、可计算性、动态性和易解释性等方面存在不足。形式论辩作为一种关于冲突的演算,通过分层抽象的方式来刻画人类推理与说理方式,不仅可以等价表达多种传统非单调逻辑,而且为建模各种不一致情境中的推理提供了更加通用的模型。同时,在抽象论辩层次上,通过利用图论中节点可达关系和强连通分量等概念,建立分而治之的方法,可以在很大程度上提高系统语义的计算效率和系统动态性的处理效率。此外,基于论证的解释机制为提高人工智能系统的易解释性提供了一个重要途径。


上述结论表明,人工智能在发展过程中所遇到的挑战性问题对于逻辑学、哲学等相关学科基础理论的发展具有重要促进作用。这也进一步验证了逻辑学必须与时俱进,现有逻辑系统需要得到不断修正,不断进步。众所周知,逻辑学研究是20世纪哲学和数学研究的核心内容,也曾在计算机科学和人工智能的诞生和发展过程中起到至关重要的作用,使得这一学科在现当代依然作为人类思维和各类理论研究的基本工具和方法。但进入21世纪以来,在新一代人工智能的背景下许多逻辑学理论和方法难以找到用武之地。逻辑学研究面临着缺少参与度和新的推动力等难题。以新一代人工智能的瓶颈问题及其所涉及知识的特点为导向,新建立的逻辑语言和推理机制,针对的是开放、动态和真实环境中的信息处理,以及新一代人工智能推理的一些主要方向,因此可以在一定程度上突破现有逻辑学理论在新一代人工智能应用中的局限性,并为逻辑学研究找到新的增长点。进一步地,上述人工智能与逻辑学相互促进的交叉研究思路也可以对其他方向的交叉研究产生推动作用。例如,哲学和人工智能两个领域的互动推动着人工智能逻辑研究的进一步发展,而逻辑学的术语体系在其中可以使得哲学和人工智能研究之间的沟通更为便利。


此外,由上述分析可知,逻辑学基础理论的革新有利于促进新一代人工智能所面临瓶颈问题的解决。然而,如同人类的认知必须和感知相结合才能实现智能那样,人工智能的发展也离不开感知方法和认知方法的结合。因此,如何把基于逻辑的方法与机器学习方法相结合是一个需要进一步解决的挑战性问题。一方面,机器学习方法一般由数据驱动,主要采用概率和统计方法,反映的是某些特性的量的规定性。相反,有关概念和特性的逻辑表征体现的是事物的性质或关系。从认知科学的角度看,机器学习方法重在感知方面,而符号方法重在认知方面。人工智能不同研究范式的融合根植于它们所模拟的认知类型的可融合性。因此,需要把二者紧密联系起来。从方法的层面看,二者的结合路径可以多样化。  


第一,在认知推理方面,基于知识图谱的认知推理是一个可行性较高的路径。一方面,人类的各种知识可以在知识图谱中得到恰当表达。尽管知识图谱中的知识可能是不完备的或存在冲突,但基于传统非单调逻辑或形式论辩的方法可以有效处理这类知识。另一方面,知识图谱的生成和演化可以基于机器学习方法。通过分类和聚类,新的知识不断被加入知识图谱或对知识图谱进行更新。这样,对于需要认知推理的时候,就可以利用基于知识图谱的推理来弥补数据驱动的机器学习方法在推理决策方面的不足。此外,在处理计算复杂性和系统动态性方面,基于形式论辩的方法提供了模块化和局部化的计算支持,可以在一定程度上提高系统的计算效率。


第二,在伦理对齐方面,事件分类、事实认定、价值原则获取、因果关系识别等可以运用机器学习方法,但社会规范和文化规范的表达、不同主体的价值及其排序的表征以及基于这些形式化知识的推理等,则只能采取符号方法。目前,国内外学者已通过各种方法来把机器学习与基于规则的知识表示结合起来,以实现伦理对齐。例如,结合量化论辩树和机器学习的方法用论辩树来表达网络诈骗案件的规范知识,用数据驱动的机器学习方法来获取论辩树中节点的初始值以及边的权重,以此来优化决策,克服法律规范难以在机器学习中得到明确表达的缺点;利用归纳逻辑编程来实现基于案例的学习,把伦理原则与公众意见结合起来,以指导公共政策。


第三,在可解释性方面,现有单纯基于统计学的机器学习方法以特定的数据集为训练样本,只研究事物的关联性,而不阐明其因果性,因而可解释性差。为了解决该问题,现有方法研究机器学习中的因果推断,建立事件之间的因果关系。由于因果关系具有可废止的特点,即因果关系不是必然成立,优先级或权重更高的因果关系可以使得与之冲突的因果关系不成立。因此,利用机器学习所获得的因果关系,结合其他相关领域知识进行推理,并在此基础上建立解释模型,是一个重要的研究方向。此外,把量化论辩理论与机器学习相结合,也是一个值得探索的方向。



    进入专题: 人工智能   逻辑学  

本文责编:陈冬冬
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 哲学 > 逻辑学
本文链接:https://www.aisixiang.com/data/132549.html

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2024 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统