内容提要:以恰当的方式对一台计算机进行编程能否生成真正的思维,这是围绕人工智能可能性的诸多争论所聚焦的问题。但是,若有思维,则必有在思维的存在者(thinking beings)。对一台计算机进行编程,究竟使得何种类型的存在有了智能呢?是作为物理对象的这台计算机,或者这台计算机的某个部分,抑或是在这台计算机上运行的程序,又或者是其他东西?当前几乎还没有对此问题的讨论。然而,如果人工智能是可能的,那么此问题就一定要有一个答案。然而,要得到一个令人满意的说明却并不容易。
关 键 词:人工智能 思维者 形而上学
什么是人工智能
很多人都相信人工智能的可能性。他们认为,仅凭着以恰当的方式对一台计算机进行编程,就有可能产生智能。或者,单凭编程可能还不够,这台计算机的内部状态可能也需要以恰当的方式与它的环境联系起来,让这台计算机有类似知觉(perception)一样的东西。而且,这台计算机可能还需要引起一些可以感知的变化来显示它的智能,让这台计算机有类似行动(action)这样的东西。或许人工智能只能以一种机器人的形式出现。我们假定,所有这些附加的要求都可以满足。
我用“计算机”来意指电子的数字计算机。“人工智能”通常指的是电子智能,而不是像科学怪人①那样由人工创造的生物智能。我用“智能”来意指信念、欲望、情绪、觉知(awareness)等统称为思维和意识的一般心理现象。有些心理现象可以通过计算机编程生成,但有些心理现象就不行,信念和欲望或许可以,但情绪和有意识的觉知就不行。这就是有关这些心理现象的一个重要的事实,但是我们先把这个重要的事实放在一边。当前我的兴趣在于这样一个观点:对计算机编程确实能够产生心理现象。
“人工智能”这个术语还有别的意思。通常,它指的都是计算机中的那些我们可称作智能行为(intelligent behavior)的东西:就是要让机器去干这些人类只有运用心理能力才能干成的事,比如识别垃圾邮件、下棋、开车等。这个术语也能意指通过对计算机编程来模拟或者模仿心理现象。在本文中,人工智能是指在计算机中产生真正的思维或者意识,凡是承认这种可能性的观点,都被称作强人工智能(strong artificial intelligence)。
人工思维与人工思维者
一般认为,要知道人工智能是否可能,只需要考虑心理现象自身的本质。我们需要确定的是,心理现象的本质是否要求心理现象具有一种特殊的基质(substrate)。我们知道,生物有机体中能够产生思维和意识。那么思维和意识的本质中是否有什么东西,妨碍了计算机中产生思维和意识呢?有人相信,心理现象的特点完全就在于其因果作用,这就是所谓的“功能主义者”。他们还争论说,基质并不重要,只要它能做事就好。思维就像是计时——任何一种东西,只要它会按规则的时间间隙发生变化并记录下已经历经过多少次这样的变化,就都可以用来计时。至于这种东西由什么构成,或者这个过程中是否出现齿轮、沙子、水或电子器件,都是无关紧要的。另有一些人会说,心理现象不像计时,因为心理现象所需要的不只是让行为具有适当的因果作用。这些哲学家对人工智能常持怀疑态度。
但是,即便表明了心理现象的本质中没有东西将心理现象束缚在生物基质当中,这也并不足以确定人工智能的可能性。要确定人工智能的可能性还需要更多东西。不但一定要有人工思维或者人工意识,而且一定得有什么东西作为思维或者意识的主体。有思维或者意识,就有在思维或者在意识的东西;正如有生命,就有活着的东西,有运动,就有处在运动中的东西。那么,有人工智能,就必有一个人工的智能存在者,即由于计算机的作用而且有智能的东西。
所以,人工智能的可能性涉及两个不同的问题。一个问题是,思维自身的本质属性中是否有什么东西妨碍思维出现在计算机中。我们可称之为人工思维问题(the question of artificial thought)。另一个问题是,是否有什么东西能够成为人工思维者。我们可称之为人工思维者问题(the question of artificial thinker)。这第二个问题关系到人工思维者会成为何种实在。除了心理属性之外,人工思维者还会具有什么属性?它会是物质的东西吗?若是,它由什么物质构成?若不是,它又会是何种非物质(immaterial)的东西?如果不是物质,它会由什么构成?
这问题必有一个答案。就像自然思维者那样,人工的智能存在者一定得有某种本质。它一定或者完全由物质构成,或者不由物质构成。若是前者,那么某些特殊原子(或许是计算机硬件或者机器人设备的某些小的部分)就会一次次构成它。哪些原子才是人工的智能存在者呢?答案不一定要精确。可以有一些原子,它们既不明确是又不明确不是人工思维者的组成部分,正如一个原子可以既非明确是又非明确不是你我的组成部分。但是,关于哪些原子(若有的话)是它的部分,哪些不是它的部分,哪些处于其间状态,总得有个说法。如果人工思维者不是由物质构成的,那就得说明其非物质的本质。
要评估人工智能的可能性,我们不但要对思维和意识自身的本质有所了解,还要了解在思维的和有意识的存在者的本质。而且,正如有理由质疑是否一台计算机所做出的任何事都可以算作是真正的思维或者意识,同样也有理由质疑对人工思维者的形而上学本质的说明是否可以接受。
近乎所有关于人工智能可能性的讨论都专注于人工思维问题。与之相反,人工思维者问题则乏人问津。哲学家们通过追问是否计算机能做任何事都可以算作思维,来追问人工智能是否可能,但对于这些“计算机”究竟是何种东西,哲学家们却几乎一言不发:人工思维者究竟是计算机,还是计算机程序?
关于人工智能的讨论,常常在叙事方式上遮蔽人工思维者问题。对人工思维问题的一个典型陈述是问,“智能是否能够仅仅具身在系统之中,该系统的基本结构与大脑类似……或者它能否以别的方式来实现”。这就以两种方式让我们游离于人工思维者问题之外了。其一,它提到人工“系统”,“系统”是一个能够指代几乎所有东西的模糊术语(类似于“基质”和“媒介”)。问“这个系统”在某种情况下是否具有智能,不过是在问某个有理解力的对象是否具有智能,而没有进一步显示出它不属于任何特殊实在。这阻碍了我们对这个对象的更具体的追问。其二,它问智能是否“具身在”某物之中,或者在某物之中“被实现”。这并不是在问这东西是否事实上是智能的,而不过是在问它与智能的属性是否处在某种既密切相关又说不清道不明的关系当中。即便知道了智能可以“具身在”计算机当中,也并没有告诉我们这个智能的东西到底是什么。诸如此类的表述方式是经过精心选择的,其目的就是为了既表述出人工思维问题,又不引发人工思维者问题。这并没有什么错,因为我们不可能一下子问出所有问题。但是,这确实妨碍我们看到人工思维者问题的存在。
一定要有一个思维者吗
我曾说过,如果人工智能是可能的,那么必然要有什么东西能够作为这个智能的主体,正如有思维就有在思维的存在者。多数承认人工智能的人都接受这个主张。②但是他们应该接受吗?难道说,生命需要有活着的东西,运动需要有在动的东西,但是,没有任何东西在思维,又怎么会有思维出现呢?如果是这样,人工智能就不需要有人工思维者,而其辩护者们就不需要为人工智能的本质操心了。人工思维者问题也就不会浮现。
我认定人工思维要有一个主体,我也认定人的思维要有一个主体,两种认定理由完全相同。③我相信现在我正通过书写来传递的这些思想,都是属于某人的思想,它们是某人的状态,或者某人正在从事的活动,这篇文章有一个作者,如果有什么存在者正在思维这些思想并将其写下来,那便是我,如果这些思想没有思维者,这篇文章就没有作者,推出的结论就是:我不存在。那就不会有什么类似于我这样的东西,正如不会有像牙仙子这样的东西。而且,如果我不存在,你也同样不会存在。我相信我的确存在,也相信你存在。
但是,如果有可能在一台计算机中产生了思维却没有任何东西在进行这个思维,那也就有可能在一个人中产生思维却没有任何东西在进行这个思维。你我现在正沉浸于其中的这个思想就不需要有人来思维。即便我们不存在,事物同样会如此这般显现出来。在这种情况下,事物不会向任何人这样显现。但是,如果有思维而无思维者,那就类似有现象而无任何存在者使得事物如此这般向其显现。而且,这样一种可能性,将会削弱我们相信自己存在的所有根据。
质疑包括我们自身在内的思维存在者的存在并不一定是疯狂的,正如质疑物质世界的存在也不一定是疯狂的。但是由于这些质疑缺乏强有力的理由,因此我们就应该接受:我们存在,而且人工思维就像我们自己一样,拥有一个思维者。
计算机硬件观
假定在恰当的环境中以恰当的方式对一台计算机进行编程有可能产生真正的思维。这个思维的主体是何种事物?人工智能究竟让什么有了智能?
人工思维是由计算机的状态和行为构成的,有鉴于此,最明显的答案就是:计算机本身是有智能的。正如我们前面提到的,这是那些讨论人工智能的人最常见的说法,这些人通过追问计算机是否能思维来追问人工智能是否可能。他们认为这个主张是理所当然的,因此既不为其提供论证,也不考虑其他替代方案,甚至完全不打算弄清计算机是什么对象。但是,他们似乎认定,如果计算机被恰当地编程,这时变得有智能的就是一块计算机硬件,即由东亚制造,由金属、塑料和硅制成的物理对象。
对自然智能的主体有一种富有魅力的描述与此类似:我们是生物有机体。生物有机体就是我们在镜子中看到的东西。我们看起来是物质事物,和有机体没什么两样。我们应该期望,人工思维者之于计算机,就如同我们自身之于人类动物(human animals)。这样,如果我们是人类动物,那么人工思维者就一定是计算机。
人工思维者就是计算机或者计算机的一部分,这种观点被称之为计算机硬件观。我认为计算机硬件观是对人工思维者问题的最好回答,但却不是一种容易让人接受的观点。最明显的质疑就是,它违背了关于跨时间同一性(即思维存在者的持续性)的一些广为接纳的观点。
如果人工思维者就是几块计算机硬件,那么对一台计算机进行智能编程,就是要让先前无智能的存在变得有智能。而当程序停止运行,这个智能的存在就会失去它的智能,重新变回一块普通的计算机硬件。人工智能程序在我的台式计算机上运行一小时,就会让这台机器(或者这台机器的一部分)有一小时的智能。在这段时间之外,它就和我的桌子一样没有智能。很明显,这肯定是错的。对计算机进行智能编程,不仅把智能的属性给予了先前没有智能的存在,而且还创造出一个智能的存在者,这是一个诱人的设定。而关闭程序,抹除数据,就毁掉了这个智能的存在者,而非仅仅是剥夺了它的智能。然而,不管是运行还是停止这个程序,却并不会创造或者毁灭任何一块计算机硬件。这样一来,从这个诱人的设定就可以推断出:人工思维者和运行于其上的计算机有着不同的历史,在人工思维者存在之前和终结之后,计算机都会存在。更一般地说,人工思维者和计算机的持续条件不一样:计算机关闭电源、删除数据也能存在下去,但是人工思维者就不行。这样看来,人工思维者就不可能是计算机。
另一种诱人的想法是,人工思维者能够从一块计算机硬件转移到另一块计算机硬件。这不需要在物理上把一台计算机的零件拿掉,接到另一台计算机上,一次电子数据迁移就足够了。此外,把一台计算机的所有数据迁移到另一台计算机,结果会导致第一台计算机丧失它所有的心理属性,如记忆、信念、偏好、认知能力等,而这些东西都被第二台计算机得到了。这会让第二台计算机产生一个错误的信念:它就是第一台计算机,它做过第一台计算机在数据迁移之前做过的所有事情。由迁移而产生的这个存在,还以为它就是原先那个思维者,那个在记忆中的存在,而且这个存在连同数据一起从第一台计算机迁移到第二台计算机,这也是一个诱人的设定。
但是,这个想法也不能兼容于计算机硬件观。你不可能通过电子数据迁移来移动一块硬件——金属和塑料制成的物理对象。按照那个诱人的想法,人工思维者具有的一种属性,任何一块硬件都不具有,那就是通过电子数据迁移来移动。计算机硬件观意味着,没有任何一种电子迁移能够把人工思维者从一台计算机转移到另一台计算机。
对于人类思维者的争论比较熟悉的那些人都知道,“动物主义”的观点即我们是生物有机体,受到批评的理由与此类似。假定你的大脑被移植到我的头颅之中(或者你大脑中的心理信息被迁移给我),那么由此产生的这个人(即他)在心理上是与你而非我联系在一起的。他将拥有你在手术前的记忆、信念、偏好及其他心理属性。多数人都会说,他就是你——这场手术不会给我一个新的大脑,而只会给你一个新的身体。但是,这场手术并不会给一个有机体新的身体,不会把有机体消减到大脑的尺寸,不会把有机体转移到新位置并用脑外部分的新添补来供养这个有机体。这场手术像肝脏移植一样,只是把一个器官从一个有机体转移到另一个有机体。由此推出,人类思维者拥有任何有机体都不具备的一种属性,即可以通过大脑移植从一个有机体向另一个有机体转移。如果是这样的话,我们人类思维者就不可能是有机体。出于类似的理由,人工思维者就不可能是计算机。
一个在思维的存在者的续存(persistence)就在于某种心理上的连续性:如果一个在思维的存在者x现在存在,那么在另一时间存在的某物y是x,仅当y和现在存在的x在心理上以某种方式是连续的。换言之,某种涉及心理连续性的条件对于一个在思维的存在者的持续存在(continue existing)而言,既是充分的又是必要的。但是,没有任何涉及心理连续性条件对于一个人类有机体或者一块计算机硬件的持续存在而言,是充分的或者必要的。
人工智能的支持者们当然要放弃心理连续性的观点。他们接受的观点是,对一台计算机进行智能编程不可能创造一个智能存在者,但是却能让一个先前无智能的存在变成智能的,而且删除相关的数据并不会毁掉任何智能存在者,只会让它处于无智能的状态。他们否认人工思维者能从一块硬件转移到另一块硬件,完全不理会心理上的连续性可能有多少,而且,他们会说,把你的大脑放进我的头颅中的结果,是你给了我新的大脑,而非我给了你新的身体。他们不认为有哪种心理连续性对于一个智能存在者的持续存在而言,是充分的或者必要的。我没有说这有什么错。我自己也反对心理连续性的观点,因为我认为我们是有机体。但是,如果人工智能的可能性能排除掉关于跨时间人格同一性的主导观点,那会是一个重要的消息。
思维者的部分观
目前为止,有一个我一直忽视的难题,即确定人工思维者的空间边界或空间部分是什么的问题。试想我桌上的这台计算机是智能的。没有人会说我们通常称作计算机的这种东西的所有部分,包括键盘、鼠标、显示器和电源线,都是人工思维者的部分。那么什么东西会是人工思维者的部分呢?
如果有人工的智能存在者,而且人工的智能存在者是物质的东西,那么这个问题就必有一个答案。一些原子必定是给定思维者的部分,而其他原子不是。或者一些原子可能既不绝对是也不绝对不是给定思维者的部分。但是物质的东西一定具有边界,无论边界是清楚的还是模糊的。
自然的智能存在者也有一个十分类似的问题:我们的边界在哪儿?哪些原子现在是我的部分,哪些原子不是?(以及如果我的边界是模糊的,哪些原子既不绝对是也不绝对不是我的部分?)这个问题也必有一个答案——暂且假设人类思维者是由原子构成的。
我们应该会期望有一条原则可以确定这些问题的答案:解释为什么在思维的存在者的边界就在他们所在之处,或是解释是什么使某物成为某一思维者的一部分。如果我的手是我的部分而我的手套不是,那么必有为什么会这样的解释。这不可能是没什么可多说的一个“原始事实”。一定有以下这一形式的原则:
如果在t时x是在思维的存在者,那么当且仅当……x……y……t……时,必然有y是在t时x的一部分。
如果自然思维者是生物有机体,那么要问确定自然思维者边界的是什么,就是在问确定有机体边界的是什么。对于这个问题,这里提出了一个答案:
如果在t时x是自然的思维存在者,那么必然有y是在t时x的一部分,当且仅当y在t时参与x的生命周期。
其中,生命周期是指从其周围吸收粒子、将复杂的生化形式加于粒子之上、而后又以降解形式将粒子排出的生物事件或过程。有机体的生命周期大体上是其生理的、免疫的以及代谢活动的总和。我的手是我的部分是因为它们参与我的生命周期——我的双手和它们的所有部分都得到我血液的滋养、并参与我的代谢过程。我的手套不是我的部分,因为它们没有参与我的生命周期。关于什么才算是生命周期涉及许多艰深的问题,但至少这是一个开始。
显然上述情况不适用于人工思维者。人工思维者的相应原则又会是什么呢?如果我的计算机中央处理器是人工思维者的一部分,而键盘不是,那么为什么会这样呢?我能想到的最好答案是这样:
如果在t时x是人工的思维存在者,那么必然有y是在t时x的一部分,当且仅当y直接参与在t时x的思维。
计算机键盘看起来完全没有参与计算机的思维。尽管其电源参与计算机的思维——没有它,计算机无法产生思维——但与计算机数字电路的某些部分相比,这种参与看起来只是间接的。这表明人工思维者将会完全由电子元件和连接电子元件的电线所构成,人工思维者将会是由金属和硅所制成的、仅一两盎司重的一个薄的、蜘蛛网一样的东西。
如果人工思维者的部分只是直接参与其思维的那些东西,那么我们应该会期待自然思维者也是这样。这一原则看来是由在思维的存在者的本质所派生的——与作为一个思维者意味着什么有关;与人工思维者没有任何关系。
这与前面的联想相矛盾,即我们的部分由我们生物的生命周期所确定。但这并不令人惊讶,因为之前的答案假定我们是有机体,而当前这种解释好像排除了这一点,而是表明我的手不是我的部分。尽管通过帮助滋养我以及为我提供触觉信息,我的手对我的心理活动有用,但它们的参与好像最多也只能算是间接的。在思维的存在者有手作为它的部分,这在形而上学上是不可能的;可以推测,除了我的大脑以外,我的其他所有生命器官也都同样不可能。一些哲学家说过类似这样的话,并由此推断我们就是大脑。但这一观点似乎表明我大脑的许多部分并不是我的部分:比如我大脑的血管就好像只是间接地参与我的心理活动。我大概应该完全由神经细胞构成。(并且可能活性神经细胞也不是每一部分都会直接参与思维,而是只有传输信号的那些部分才会。比如,细胞核和线粒体的参与看起来只是间接的。)我们也应该是只有几盎司重的、薄的、蜘蛛网一样的东西。
在思维的存在者必须由且仅由直接参与其心理活动的所有事物构成,我把这一观点称为思维—主体极简主义(thinking-subject minimalism)。这一观点在许多方面让人不安。一个令人担忧之处就是很难说清楚某物直接参与某个存在者的思维或其他任何活动意味着什么。哪些原子直接参与某人的行走——相对于只是间接地参与或完全不参与来说?我怀疑是否有什么规则可以据以回答这个问题。
更严重的是,这个观点很难一般化。若要求参与任何活动的任何存在者,都必须仅由直接参与这一活动的事物构成,这是不可能的,就好比一个存在者只有当它仅由直接参与观看的原子所构成时才能看见,并且只有当它仅由直接参与记忆的原子所构成时才能记得。神经学家告诉我们,观看与记忆使用的是大脑的不同部分。这就表明直接参与某人的观看的原子与直接参与此人的记忆的原子不一样,那么就会得到这样的结论,即没有人能既看见某人的脸又记得此人的名字。参与看的事物,要么太大而无法记得名字,因为还有不直接参与记忆的部分;要么太小而无法记得名字,因为没有把这些部分包括在内。或者当然可以两者都有。参与看的人和参与记忆的人,由不同的原子构成,就一定是不同的人。这对于人工思维者可能也同样适用:任何看见名字的人工思维者都会不同于记得名字的人工思维者,正如会有不同的电路电位直接参与到这些活动当中。
很有可能没有存在者能参与一个以上的心理活动,因为没有两个心理活动会具有完全相同的原子直接参与其中。看起来是某一个存在者在执行包含大脑不同部分的许多心理活动,而实际上可能是许多个不同的存在者——可能是既重叠又不同的——每一个只执行一个这样的活动。既有能力看见又有能力记得的“通用”思维者,将会是简单的(缺乏部分)且大概是非物质的。
有可能思维—主体极简主义会以更为可行的方式而普及,也有可能人工思维者的部分由本质上不同于极简主义的某一原则所决定。由于人工智能的支持者们相信人工思维者是物质的东西,他们将需要解决这一问题的办法。
宽松的态度
物质的东西是由原子构成的。所以对任一物质的东西而言,必有某些原子在一个给定的时间是它的一部分,而某些原子此时不是它的一部分。④如果人工思维者是物质的东西,那么哪些原子会是人工思维者的部分,这个问题必有一个答案。我曾说过,这个问题的答案应该在某一原则的指导下出现,比如思维—主体极简主义:某一人工思维者的部分仅为直接参与其思维的那些事物。但这一原则看上去让人无法接受,而又很难想到更好的。(这对自然思维者并不构成问题,至少如果自然思维者是有机体,那么什么东西是它们的部分与是否直接参与思维无关。)但是对人工智能的可能性而言,这个问题却是一个麻烦的问题。
试想如果有人对这个问题持宽松态度。假设对我的台式计算机进行智能编程后,计算机内有了各种各样的思维。那么这些思维的主体是什么呢?我们创造出的是什么样的人工思维者,或者是让什么样的人工思维者变得有智能了呢?这一问题的答案也许并不令人感兴趣。可以说,思维者的候选者有很多,有计算机本身,包括鼠标、键盘、显示屏和电源线等。计算机有很多部分。或许也不是计算机的任何部分都能作思维者的候选者,或许我们可以排除键盘上的空格键。如果我们能让整齐划一的思维—主体极简主义观念说得通,那么或许就不得不把计算机中直接参与思维和意识的那些部分囊括进来。但是更多限制就没有了。由这台计算机和这张桌子一起构成的事物是一个候选者;由本周的这台计算机的这个时间部分和上周的那张桌子的那个时间部分一起构成的事物,也是一个候选者(宽松态度包括对时间部分与无限制的构成的承诺),等等。但是没有说明的是,这些候选者中谁是计算机中正在进行着的思维的思维者。它们都是思维者,它们之间并没有心理上的差异。
根据宽松态度,这个问题的答案对于自然思维者也同样没什么吸引力。我的思想的思维者是什么?我是什么事物?这些问题同样也没有吸引人的答案。这里有很多候选项:我的大脑;我大脑的某些部分;这个有机体;这个有机体的各种“任意的、未分开的部分”,比如它的上半部分;由我的大脑和我的桌子所构成的事物等等。但谁也说不准这些候选项中哪一个是这些思想的思维者,他们都是这些思想的思维者。
我们使用人称代词及其相关名称与谓词时,至多有语言惯例的约束。我们使用诸如“我”和“奥尔森”这样的词指称有机体,而不指称大脑,不指称有机体的上半部分、不指称一个大脑和一张桌子所构成的事物。(大多数情况下,我们根本不会涉及这样的任意划分出来的实体。很明显我们忽略它们是有实际原因的)这就是为什么说我有手以及说我有150磅重是对的;而说我有3磅重和我居于我的头颅中(没人曾在此见到过我)则是错的。类似的规则约束着这些一般术语的使用,比如“人”“哲学家”“印度教教徒”。不过,适用于我们依照惯例使用的这些术语的存在者的心理属性与不适用于这些术语的存在者的心理属性之间,仍然没有差别(至少只要这些存在者都包括直接参与相关心理活动的事物)。
所以我们不需要接受思维—主体极简主义。更笼统地讲,我们不需要担心人工思维者的问题。无论是自然的还是人工的在思维的存在者,它们的形而上学本质并没有什么让我们感兴趣的事实——或者至少没有比它们是物质的东西这一事实更能引起我们的兴趣。
但是无论宽松的态度有什么优势,它都与强人工智能配合不佳。这一态度的预设是从来没有任何一个事物能够思维。如果某一事物具有心理属性,那么其他许多事物,包括以第一个事物为部分的许多事物,就具有相同的心理属性。如果我的大脑是有意识的,那么我的上半部分、除我左手以外的我的全部、整个这个有机体以及由这个有机体和我的桌子所构成的这个事物就也都是有意识的。我不确定该如何完整地阐述这一原则,但我们可以通过说心理属性是“大小不变的”(size-invariant)来概括这个原则。
一个问题马上出现了:还有什么其他属性是大小不变的?比如质量就不是:我的上半部分、这个有机体和我的大脑都不能具有相同的质量。形状、颜色、位置、温度、硬度——以及很明显,尺寸——也都不是。很难想到我们熟悉的什么其他属性是大小不变的,这好像是心理属性所特有的。为什么会这样呢?是什么使心理属性大小不变?
最顺理成章的原因是,心理属性缺乏质量、尺寸、形状以及其他常见属性的客观实在性。我们发现这对于解释和预期行为的目的有用,比如,将心理属性归属于某些实在,或者用丹尼特的经典表述“占据对于它们的意向立场”,并且,出于不同的目的而将心理属性归属于不同对象,可能是有用的,比如,处于不同目的而把心理属性归属于大脑而非有机体,或者反之亦然。只是这种归属的正误,与质量、尺寸或形状的归属的正误判定方式不同。关于事物的心理属性,并没有无可动摇的事实,最多只有出于某些目的而将其归属于某物是否合宜的事实。
很少有哲学家接受关于心理的这种工具主义的或是反现实论的观点。针对当前目标,说得更确切些,这种观点可能会使强人工智能失去吸引力。计算机究竟能否具有(或产生)真正的思维或意识,这是不成问题的,问题只在于出于某些目的而说计算机具有真正的思维,用处究竟会有多大。而我们都知道这个问题的答案。气象学者明确地发现,说他们的计算机关于天气系统“知道”得比他们自己要多是有用的。我们也都发现,出于某些目的,将心理属性归属于复印机(“复印件认为没纸了,虽然我刚往托盘里加了纸”)以及恒温器(“发现房间温度升高了”)是有用的。科幻小说中最复杂的计算机与19世纪的恒温器之间的心理差异,可能只是程度的问题,正如恒温器和人类之间可能有的差异一样。
工具主义的观点认为,模拟智能和真正产生智能是没有差别的。对于心灵哲学而言,计算机可能并不比恒温器更有趣。如果在关于人工智能的可能性的探究中有什么值得关注的点,那就一定在于事实上哪些事物可以进行思维或是有意识的。而这与宽松的态度看起来是不一致的。
如果要有真正的人工智能,在恰当的环境中用恰当的方式对计算机进行编程必能生成真实的思维或意识。但这一真实思维或意识还应该有主体。而通过对计算机编程使哪种存在者有了智能,这很难说清楚。说明人工智能的主体是什么,并不像解释自然智能的主体是有机体这么清楚自然。
人工的智能存在者一定是某种物质的东西。至少,任何推定的人工的思维或意识都是由某个物质事物的状态或活动构成的,而如果处于心理状态中或沉浸于心理活动时缺乏思维或没有意识,那么这一物质事物将成谜。这可能就是为什么多数关于人工智能的讨论,都将人工智能使计算机能够思维看作理所应当的。
但是,这个观点有悖于许多人想要讨论的人工思维者的续存条件:运行相关的程序时,人工思维者形成;关闭程序时,人工思维者受到破坏,比如抹除相关数据。没有人假定我们称之为计算机的所有部分,包括键盘,就是由智能编程而得到的在思维的存在者的部分。人工思维者可能最多是计算机的某一部分,只是很难说它会是什么部分,而这个问题一定有一个答案。
对于由此而有了智能的这种存在者,如果没有令人满意的解释,或者至少没有显示有这样的解释存在,我们就无法确立人工智能的可能性。这一点有待完成。我不是说它无法完成,但可以肯定的是,任何这样的解释对人工的和自然的思维者的本质都会有意想不到的影响。⑤
[本文受到华中师范大学中央高校基本科研业务费项目“心智与人工智能的价值性研究”(项目号:CCNU20TD005)资助]
注释:
①原文为弗兰肯斯坦医生的怪物,国内通常译为科学怪人——译者注。
②无论如何,这似乎都是从下述事实中得出的结论,即通过追问计算机是否能够思维来追问是否可能有人工智能。
③我对此观点做详细分析,完全是因为哲学家(和学生们)在讨论笛卡尔的第二沉思时常常质疑这个观点,即便他们从不质疑他们自身的存在。产生这种差距的理由不在于笛卡尔做了什么削弱这个观点的事,反倒在于他赞成这个观点。要让哲学家去质疑什么东西,最稳妥的方式就是你旗帜鲜明地赞同这样东西。
④在时间观部分的观点中,物质事物通常不是由原子而是由原子的时间部分构成。就处于那时的原子的时间部分是处于那时的对象空间部分的(没有空间限制的)一部分而言,原子仍然是某一时间某一对象的一部分。
⑤感谢Luca Barlassina、Tom Cochrane、Mihretu Guta和Karsten Witt等给予本章早期版本的宝贵建议。