维特根斯坦论意义盲人及人工智能
王海东
摘要:早在图灵时代,对于机器能否思维等问题就有过深入的探讨与争论,为了反驳图灵的肯定性意见,哲学家维特根斯坦提出“意义盲人”的方案。一则澄清人与机器的差异,机器不及人之处在于——没有本能冲动、自我意识、自由意志、心灵结构和语言构造能力,无法在语言游戏之中,感受和创生丰富的意义世界。同时,也肯定二者的家族相似性,思维、语言和算法的相似性,遵守规则的相似性。随着人工智能时代的到来,图灵的强人工智能理论虽然具有明显的科学优势,但是在探索人工智能的安全性问题时,维特根斯坦的方案具有哲学家的远见卓识,有着十分积极的借鉴价值。
关键词:意义盲人;语言游戏;家族相似性;图灵测试;人工智能;
作者简介:王海东,男,云南省社会科学院哲学研究所研究员。
“机器能够思维吗?”——这一图灵之问,开启了人工智能的大门,正在变革着人类的思维模式、行为习惯以及生活方式。一个全新的生活形式,即互联网人工智能时代,悄然而至,然而其中的诸多问题,却悬而未决,不仅制约着人工智能(简称“AI”)的进一步发展,也隐藏着人类的远忧。
然而早在图灵时代,哲学家维特根斯坦就表达了对“图灵机”的困惑:机器能够思维吗?能够思维的机器是人吗?机器语言与人的语言一致吗?图灵给出的回答是:机器能够思维,能够遵守规则。而维特根斯坦明确反对,认为机器不能思维,机械地遵守规则并不是遵守机械式的规则,机器虽能够表达词语(符号),但却无法在具体的语境之中,准确地掌握词的“意义”。他们之间的争论,不仅是最早的“人工智能之争”,也是极具代表性的观点,图灵是强人工智能的代表,而维特根斯坦则较为谨慎,持保守态度,认为人工智能不可能代替人,直至今天,学术界依然没达成一致的共识。
但是,随着人工智能的迅猛发展,且正在全面革新人类的生存状况,相应的理论研究不断突破,以往的许多理论都遭遇到前所未有的挑战,不得不更新换代。以至于泰格马克认为,人工智能的发展,会促使人类重新定义生命,与此相应,更多的领域都要进行变革。那么,维特根斯坦关于人工智能的看法具有什么样的时代意义呢?
一
也许是历史的偶然,或者某种神秘的巧合,竟然让两个伟大的天才相遇——维特根斯坦和图灵于1939年同在剑桥大学授课,并开设同名课程《数学的基础》,图灵还去聆听维特根斯坦的课,经常讨论数学、逻辑和语言等问题。在关于“机器能否思维”的问题之争中,二人分歧极大,彼此都无法说服对方。图灵提出了天才性的设想,即图灵测试(Turing Testing),测试人在不知被测试者(人与机器)的情形下,相互分离,通过特殊装置(如键盘)向被测试者随意提问,经过一定时间的问答(5分钟),若测试者无法根据回答情况,判断对方是人还是机器(或者30%以上的答案让测试者误以为是人的回答),那么就可以认定这台机器通过测试,具有同人相当的智力,能够思维。[1]维特根斯坦自然不同意图灵的设想,即便是机器能够正确回答问题,但机器的回答与人的思维、语言和行为却是两回事。
为了能够有力地反驳图灵难题,维特根斯坦对思维、语言、心理和意义等问题进行了系统而深入的思索。对机器人进行探究之后,认为机器不可能跟人一样,即便它能够不断模仿人、接近人,甚至是逼真,但却永远不可能达到与人同一的境地。为辨别人与机器的关系,他作出了一个“意义盲人”假设,将其特征描绘出来,呈现二者的根本差异。
在《心理学哲学评论》中,维特根斯坦对“意义盲人”进行了细致的探究,到底什么样的“人”,可以称为“意义盲人”?与真正的人又有什么样的异同。他并没有给出一个明确的定义,与其一贯的风格类似,他也是在思维和语言的游戏之中,根据不同的表征,对“意义盲人”进行了精细的描绘,使其面相显现出来而已。
在维特根斯坦看来,“意义盲人”就是机器人的代号,他还设想了一种“阅读机”,但对之不屑,视之为“弱智者”,它们一样机械而呆板,给人的印象不佳,“更像机器人那样行动”。[2]这种笨拙之相,在语言游戏之中也极为明显。对于正常人而言,能够将一个或者几个孤立的词,立刻造出某个句子或几个句子,而“意义盲人”就“做不到这一点”,除非能够接收这样的指令。
在词的运用之中,人们很容易就能领悟对方的所指;当我们说到代词“这个”时,以之向他人解释红色、苦和疼痛时,就可以指着红色东西,说:“红色就是这个”,让他吃一片苦瓜,说:“苦就是这个”,掐他一下,告诉他:“疼痛就是这个”,[3]他立即就学会了这几个词以及代词“这个”。而对于机器人(意义盲人)来说,则难以区分“这个”词的具体意义。对特殊心理,诸如“想像”、“回忆”、“企图”、“相信”和“希望”,到底意味着什么?[4]人们都难以将自己的理解展现出来。如何才能把“我希望明天会更美好!”的心理状态呈现出来?那种充满焦躁、渴望而喜悦的心理,是机器人无法体会并表现出来的。
不仅在对词及语言的使用上,机器人存在着缺陷,而且对语言的理解,尤其是情感体验或经验感受也有难以逾越的鸿沟。由于“对意义的体验在语言的使用中似乎没有什么重要性”,[5]即便没有体验,机器人也能够根据指令,输出信息——说出相应的词或者语句。但是,在生活世界之中,人们的言语行为却远不止能指层面的语音符号,还包含着丰富的意义。伴随“银行很远”而产生空间图像,不只是一个心像,还是“对这个句子的说明,而不是对其中的词的说明。”[6]听者马上就有了心理准备,得走好一会儿,才能到达。若有人告诉机器人:N死了!它会有心理感受吗?对于这个“空心”的机器来说,至少目前还无力嚎啕大哭,也不会悲伤。而人们听见这样的噩耗,难免有些伤感,要是与N为友,且是好朋友,或者是亲戚,则会痛苦不已,甚至是甘愿随之下黄泉。
显而易见,机器人对语言是毫无体验的,然而在生活世界之中,语言所牵连的情感体验、心理感受和经验极为丰富且重要。机器人会因为被人谩骂而难过吗?你对机器人说:“你是一条驴”,它不会生气,只会跟你澄清——它不是驴。而你恶意地对某人如此骂道,不仅会遭到对方的回击,甚至还可能因对方情绪冲动,而导致一场斗殴。人会因为一时冲动,而作出匪夷所思的事情,“一见钟情”和“激情犯罪”就是这样的典型。机器人没有本能冲动,它因能够摆脱人的生物性特征,反倒显得具有独特的优势,无需任何生活物资,能够一直工作,且无休息睡眠,也不会做梦、不会撒谎、不会意淫,是一个理想的仆人,更不会觊觎女主人的美貌,而陷害男主人。因为它没有心灵结构,更没有生物性欲望。即便当今逐渐流行的性爱机器人,也不过是根据编程和指令,在工作而已,她的一颦一笑,都是算法的结果。你愉悦,难过,或是烦恼,都与她无关,而是你自己的情绪感受。你痛苦流涕,彻夜难眠,甚至绝望自杀,一切心理活动,都是机器人无法感受的。机器人会难过、忧愁、绝望和自杀吗?
在许多具有宗教信仰的国度里,许多人相信“灵魂不朽”,坚信神的存在,那么从机器人嘴中说出:“上帝存在”。这意味着什么?一个句子,一串符号而已。它会去捍卫上帝吗?会以身殉道吗?我们设想,在漆黑的夜晚,分别对着一个无神论机器人和一个无神论的中国女性,大喊——“有鬼呀!”二者的反应会如何?机器人会吓一跳吗?甚至是吓出一身汗,吓坏了吗?应该不会。而后者很可能遭受这样的后果,因为这样的文化心理和集体无意识早已种在她的观念之中。虽然,她是无神论者,但是在黑暗之中,遭遇恐吓的本能反应,则是另外一回事。也就是,在理性状态和应急状态下,人的直接反应很难预测,而机器人则仍会将“恐吓”当成“指令”对待,作出相应的信息输出。
面对复杂的语言,“意义盲人”措手不及,无法应对变化多端的用法。而语言的意义就是其用法,“意义即用法”,词是在语言的运用之中获得意义“词只有在生活之流中,才有其意义”,[7]离开生活,语言便丧失了根,“想象一种语言意味着想象一种生活”。这一维特跟斯坦著名的理论,阐释出语言的要义。然而,“意义盲人”却无法做到对整个思想的把握,也许他能理解或使用一个词或句子,但却无法从整体上把握一种语言,更无法把握一种生活形式。[8]在对标志符号的运用和理解上,机器人也是相形见绌。在设计图上,“用一个树桩代表一棵树”,人们自然知道那个地方将来要种一棵树,也知道在这句话中,“树”代表一棵树的图像。因为,“人们在图像语言中可以把这个图像放在‘树’这个词的位置上,而‘树’这个词在任何场合都可以通过指示定义而与这个图像相联系。”[9]人能够在指示定义中,将词、物和像连接起来,而机器人却难以完成这样复杂的语言和心理过程。在特定的情形下,我们还可以自编一些暗号,指代特定的对象;情报工作就是如此,有一套隐秘的代码符号,只有内部的联络员才能知晓其意义。机器人只能根据已有的编程,静态地掌握词和句子,按照一般的算法输出合符语法的信息。而人则能够灵活地运用语言,能够领悟语言丰富的意义。
在日常言语行为之中,人们具有自由意志,能够通过语言表明自己的意图。M认真地说:“好的,我同意明天下午三点去相亲。”若是机器人也说了同一句话,听者会深信不疑吗?至少在机器人婚姻法还未出台的今天,听者只会将之当成一个幽默的笑话。而且它如此去行动,几乎不可能,犹如痴人说梦。在言语行为上,机器人的以言行事的能力远不如人强。一个机器人对你说:“我爱你!我真的爱你!”你相信吗?还是将其当成一个语音符号,一个指令的结果而已。还可能是一只令你恶心的蟑螂,恰巧踩到某个键,发出了这样的指令。而你心仪已久的某位男神,手捧鲜花赠予你,并如此说,那么你多半会相信这是真的,而不是玩笑。由于机器人没有“心灵”,是一个“空心人”,缺乏意识与自我意识,致使其言语行为犹如一个空壳之贝,即使逻辑形式和语法完全正确,但却无法表达其心灵状态,而自由意志、动机和真诚正如那失去的“肉身”。机器人能够表达“爱”吗?进一步追问,机器人根据指令说出“爱”这个词,与爱的心理结构和行为能够融贯吗?机器人能够抵达“我爱你,却与你无关。”的境地吗?而那些超出两性之爱的友谊之爱、亲人之爱,甚至更为博大的仁爱、兼爱、博爱、圣爱和慈悲,对于意义盲人而言,是无法领会的,爱是难的,因为“爱”不是一个词。于是,维特根斯坦感慨道:“爱,这种重要的东西,不是一种感情,而是某种更深的东西,它只不过在感情中表露出来。”[10]那种更为深层的东西,通过语言、行为和情感得以开显出来。
但要是表达那些不带自由意志,或者意图的言语时,机器人则能够逼真地执行指令。而人不仅能够表达具有“意图”的言语,也能够施行没有“目的”的言语行为。维特根斯坦指出这种非意图言语行为:“并非我所做的一切事情都是怀着一种意图做出的”。最为常见的是,“我一边走,一边吹口哨,如此等等。”这样的行为,并无明确的目的,也容易为人所理解。但是,“如果我现在站起来,走出房间,然后又走回来,对于‘为什么你这么做’这个问题,我回答说:‘没有什么特殊的理由。’或者‘我只是这么做——’那么人们会认为这是很奇怪的。”[11]对于这种背离语言游戏规则的行为,人们会难以理解,甚至会称之为“低能儿”,经常做一些没有意图,或是无聊的事情。
从某种程度上看,维特根斯坦的“阅读机”就是这样的“低能儿”,故而不能将其等同于人,不可能像人一样思维,最多也只能算是“意义盲人”。
二
通过对情感体验、心理状态、语言意义、自由意志和自我意识等诸多要素的细致分析,维特根斯坦对人工智能并没有太高的期望,但是他并没完全否定图灵的设想。因此,还是以“意义盲人”来代指机器人,这并不是挖苦与讽刺,而是基于他的研究,肯定“意义盲人”与人的某些家族相似性。
那么“意义盲人”与正常人具有什么样的相似性呢?人们犯了一个常识性的错误,“把弱智者想像为一个蛻化的、本质上不完备的、仿佛衣着破烂的人”,思维混乱,处于无序的状态,而情况并非如此,意义盲人也会“井然有序”。[12]虽然,维特根斯坦坚持认为机器人不能像人那样思维,在考察“思维”时,他反对将思维当成一种“精神活动”,也不是私人经验的组成部分,或是私人意识的事件,而是认为,“思维从本质来说是一种符号操作活动”,没有语言就无法进行,思维是依靠语言而得以呈现,同时,若无思维,则语言规则也无法确立,因此思维和语言是交织一体的,几乎同时发生。“当我们一边书写一边思考时,这种活动是通过手进行的;当我们一边说一边思考时,这种活动是通过嘴角和咽喉进行的;当我们通过对符号或形象来进行思考时,我不能向你指出任何一个思考的动作者”。[13]我们无法直观思维的过程与结果,即便通过特殊的实验,观察自身的思维,也会陷入循环论证的困境,唯有语言才能揭开思维的神秘面纱。
但是机器人按照“算法”接收指令,输出信息,其过程跟人的思维具有某种相似性。而图灵和邱奇等强人工智能代表,认为思维可以还原为生物、物理和化学过程,并能够建立相应的模型。因此,机器人的“算法”就是一种思维模型。“算法”,是指计算机所遵循的一套规则或者指南。算法并不是告诉计算机如何处理某个特殊问题的程序,比如打开一个表格、计算某一列数字的总和等。它是一种更笼统的指南,可以用于处理很多种数据输入。算法构建了一个内部模型,并使用它进行预测,同时用更多的数据来检验、完善这个模型。[14]即便他们对于“思维”的看法,各持己见,但是维特根斯坦基本上接受图灵的假设,并将思维定义为符号的操作活动,与机器人的“算法”更近一步,但是前者还含有人心理结构、情感体验和生活世界,具有不确定的思想情感与意义的“边际效应”。
与思维的相似性一致,二者对语言的了解和运用,以及遵守规则等方面,也具有相似性,并非天壤之别,而是异中有同,多有相通之处。尽管意义盲人,当时还无法体验情感,难以理解语言的意义,也没有本能冲动,更没有自由意志,或意向性,看起来像一个“弱智儿”,但是它能够像人那样掌握语言的基本规则,表达也合符语法要求。只不过机器人的遵守规则是机械的,程序化地执行命令,既没有经验感受,也没有意志和反思能力。
对于如何遵守规则问题,维特根斯坦和图灵的意见不一致,后者认为人与动物或符号控制的机器都是规则遵守者;前者反对这样的诠释,所谓的机器人遵守规则,并不是真的,因为机器人不仅缺乏应有的意识体验,也无法领会规则背后的意义及生活世界。人类的孪生兄弟“意义盲人”,不是在遵守规则,而是机械地按规则行动,完成指令而已。它无需像人那样依附于外在条件,以便遵守规则。因为机器人没有人的缺陷,毫无任何生物性因素的干扰。且遵守规则并不一件简单的事情,而是极为复杂,不但要求相应的环境条件,还要投身语言游戏之中,经过训练,才能学会遵守规则。而“大多数甚至所有人工智能不会遵守规则的缘由是它们不会使用语言、推理或者拥有概念。”[15]也缺乏相应的意识,更无法进入相应的生活世界。但是,这并不影响人工智能根据指令,进行信息处理,输出信息或是实施行为,而且都是合符规则的。这也是维特根斯坦所认可的,机器人虽无精神和灵魂,但却能够机械地“遵守规则”,完成任务。而人不仅能够遵守规则,还能发挥自由意志的作用,在必要的情况下,能够自由裁量。一名有良知的士兵,在执行长官屠杀命令时,面对老弱病残及妇女儿童,他可以“视而不见”,或是故意射偏,既可以完成命令,又可以不违背良知,避免“平庸之恶”,而这却是人工智能还无法达到的境地。
三
在这一场载入史册的争论之中,我们不难看出,维特根斯坦与图灵既有分歧,又有共识。由于他们二人都教授过数学,对数学和逻辑学都有深入的研究,在机器算法上相互承认是自然的事情。其实二者的分歧,主要原因在于对思维和语言等核心概念的理解不同,且他们的立场也有差异。维特根斯坦希求“思维”与“语言”等概念,依然葆有自由意志的成分;而图灵的物理主义态度,则渴望更科学地将“思维”还原为可操控的算法。后者基于数学家的视角,从数学和逻辑学的形式化出发,通过算法或建立模型,规范思维,而这是人和机器都能共有的,甚至机器能够战胜人。而维特根斯坦不仅研究数学和逻辑学,他还是一个关注人类命运的哲学家,从人及其生活世界出发,探究人工智能问题,必然要思及人机的差异,何以区分人与机器人,以及人工智能未来的发展趋势。这也是维特根斯坦与维也纳学派分道扬镳的缘由所在。
而迅猛发展的人工智能产业,形势一片大好,貌似证明了图灵的正确性,而维特根斯坦则过于保守,几近迂腐。于是,不少人讽刺维特根斯坦是一个爱找碴,喜欢掐架的学者,以至于丹尼尔·丹尼特在评价他们的这场争论时说道:“图灵貌似天真,但他给后世留下了计算机,而维特根斯坦呢?他给我们留下了,呃……维特根斯坦。”没想到一个哲学家会如此评价另一个哲学家,竟然用“所留物”来衡量,不知丹尼特先生为这个世界留下何物?好在,特立独行的维特根斯坦根本不会在意这些,出于真诚和对人类命运的关怀,他不仅没有否定图灵的理论,反而认真思考,吸取这位青年天才的思想,正如罗素于他一样——相知相惜,呵护着天才。
对图灵的评价,就像他对机器人的评价一样,既有质疑,提出许多尖锐的问题,但也有肯定与赞许。“图林( Turing)的‘机器’。这种机器的确是一个进行计算的人。也可以把这个人所说的话用游戏的形式表达出来。”他几乎将机器置于人的高度,只不过它们是一群没有自由和意识的“意义盲人”罢了。“这种饶有趣味的游戏可能是这样,即人们按照规则却得出一些没有意义的指令。我想起一些与‘跑马游戏’相似的游戏。人们得到‘以这种同样的方式继续前进’这个命令;这个命令却没有意义,因为,譬如说,人们处于一个圆圈之内。因为,任何命令只有处于某个位置上时才有意义。”[16]机械地遵循机械的规则,尽管能够准确地完成任务指令,但却失去了一个鲜活的意义世界。就这一点而言,维特根斯坦已经涉足现象学与存在主义的思想园地了。在生命的最后阶段,维特根斯坦仍然关注着图灵,后者的传世之作《论计算机与智能》于1950年发表,他拖着重病之身,对学生马尔康姆说:“我还没看呢,但估计那不是闹着玩的。”果不其然,此文一出,轰动科学界,成为人工智能的开山之作,图灵也被誉为“人工智能之父”。
短暂的70年来,人工智能的发展超乎想象,它已经度过起步期、反思发展期、应用发展期,趟过艰难的低迷期,迎来稳步和蓬勃发展的大好时机,也取得了辉煌的成就,1997年深蓝超级计算机战胜了国际象棋世界冠军卡斯帕罗夫,标志着“专用人工智能”,取得突破性的进展,某些单项能力已经胜过人的智能。近几年来,随着大数据、云计算、互联网、物联网等信息技术的发展和参与,泛在感知数据与图形处理器等计算平台推动以深度神经网络为代表的人工智能技术飞速发展,大幅跨越了科学和应用之间的“技术鸿沟”,诸如图像分类、语音识别、知识问答、人机对弈、无人驾驶等人工智能技术实现了从“不能用、不好用”到“可以用”的技术突破,迎来爆发式增长的新高潮。[17]2014年6月7日,在英国皇家学会举行的“2014图灵测试”大会上,聊天程序“尤金·古斯特曼”(Eugene Goostman)首次“通过”了图灵测试。这一测试,证实了图灵的设想,他的理论赢得更多的青睐,强人工智能的呼声愈来愈大,不仅认为“人工智能能够思考它自己的目标,还能对目标进行调整。这就意味着,它拥有一定的自由意志。”[18]而谨慎的维特根斯坦,似乎过时,甚至有点碍眼,已经被人工智能界遗忘。
然而,另外一桩AI事件引发社会性关注,即2017年10月,在沙特阿拉伯首都利雅得举行的“未来投资倡议”大会上,机器人“索菲亚”被授予沙特“公民身份”,她成为全球首个获得公民身份的机器人。这一事件标着机器人的身份得到法律的认可,机器人即将成为公民的组成部分,那么相应的法律、道德、经济和社会等各个领域都遭遇前所未有的挑战,一直延伸至所有领域。性爱机器人上市,刷新两性关系,婚姻法将不得不修改。机器人小冰写诗,并出版诗集,势必冲击文化事业,不得不重新界定文学。人工智能产品层出不穷,且智能越来越强大,所能胜任的工作愈来愈多,如数学计算、国际象棋、人脸识别、文学创作、编写巴赫风格的乐曲、弹钢琴、打台球、汽车驾驶以及同步翻译等,正在变革着整个世界。促使人们重新审视这个世界,就连人是什么、生命是什么等始基性问题也要重新定义。
正是乘着人工智能的大潮,泰格马克吹响了重新定义生命的号角。他拓展了生命的定义,生命不再局限于“有机界”,但凡“能保持自身的复杂性,并能进行复制的过程”,[19]皆为生命。于是生命圈,迅速增加了许多“怪异”的新成员,如计算机病毒、机器人,还有更多的人工智能物。更具颠覆性的挑战是,如果“生命3.0”能够在本世纪来临,那么生命能够自握命运,设计自己的理想的“硬件”和“软件”。[20]这表明将会诞生一种无肉身(无物质性)的存在者——“智能的出现并不一定需要血肉或碳原子”,[21]能够成为自己的主人,摆脱各种规定性的束缚,设计并创造出完美的自己。
四
但是伴随着AI的成长,人们的理性探究也不断深入,对人工智能的态度不尽相同,形成不同的派别。数字乌托邦主义者是乐观派,大力支持AI的发展;而技术怀疑主义则认为,在技术上实现“通用人工智能”,太困难了,因此没必要杞人忧天。语言学家乔姆斯基就认为,计算机不具备人类的核心认知功能,没有自我意识,既不能理性地思考行动目标,并及时作出必要的调适,也不会因为目标的实现而高兴。[22]即计算机不能理解其所做的事情。人工智能系统只是“计算”而已,因没心灵和意识,故而就没有危险。
人工智能的风险性尚未引起世人的注意,直到2014年物理学家家史蒂芬·霍金与埃隆·马斯克表达对未来的忧虑——人工智能有可能会对人类构成威胁,才引起部分人的关注,2015年人工智能安全性研究才进入主流视野。[23]与前两派的观点不同,人工智能有益运动支持者,重新定义人工智能的目标:“创造目标有益的智能,而不是漫无目标的智能。”[24]在不影响人类的安全下,开展相关研究。他们预见到飞速发展的人工智能,很可能就会带来巨大的风险。而这种隐忧,闪现在维特根斯坦的论述中,因此通过对“意义盲人”的阐释,一则分析机器与人的根本差异所在,不论智力如何超常,但是到目前为止,还没有制造出拥有本能冲动、自我意识、心理结构和语言生成能力的人工智能,这正是二者的差异之处。就此而言,图灵机不过是“人类计算”的延伸和循环而已;未来人工智能的发展,完全依赖人对自身的理解程度,以及科技的发展状况。
此外,维特根斯坦对“意义盲人”的种种规定,不是短见,而是远见,貌似“意义盲人”不如人,但要是人们制造出一个全面胜过自己的“通用机器人”,或“超级人工智能”,有自己的意识,那如何能保证它不对人类产生伤害呢?一个具有自我意识的机器人,一直会是“友好型机器人”吗?无人能保证。美国科幻作家艾萨克·阿西莫夫(Isaac Asimov)拟定的“机器人三定律”:“第一,不伤害定律:机器人不得伤害人类,也不得见人受到伤害而袖手旁观。第二,服从定律:机器人必须服从人的命令,但不得违反第一定律。第三,自保定律:机器人必须保护自己,但不得违反一、二定律。”[25]这也无法保障人类未来的安全。
而维特根斯坦的“意义盲人”方案,不失为一个权宜之计,也就是在没有找到更好的人工智能安全性方案之前,那就将人工智能塑造为一个“意义盲人”,虽然它具有超凡的智力,但却是“空心人”,没有自我意识和自由意志,没有本能冲动与情感体验,没有认知能力以及心理结构,它既不能生成意义,也不能理解意义,灵动而鲜活的意义流与它无关,那么“创造”与“毁灭”的钥匙,永远不会交到它的手上。同时,未来人工智能的长远发展方向,也隐藏在维特根斯坦的方案里,那就是逐渐超越“意义盲人”,让人工智能不仅拥有高超的智力,还能够创造出部分有益人类生存与发展的“意义”。不过,这是危险与希望并存的探险!而哲学家的睿智和洞察力,也尽在其中!更为科学而安全的人工智能之路,期待未来的“机器人学”(Robotics)能够给出前瞻性的方案。
刊于《云南大学学报(社科版)》2019年第4期。
参考文献:
[1][英]卡鲁姆·蔡斯:《人工智能革命》,张尧然译,北京:机械工业出版社,2017年,第9页。
[2]维特根斯坦:《维特根斯坦全集》,第9卷,石家庄:河北教育出版社,2003年,第58页。
[3]同上,第58-59页。
[4]同上,第59页。
[5]同上,第59页。
[6]同上,第59页。
[7]维特根斯坦:《维特根斯坦全集》,第10卷,石家庄:河北教育出版社,2003年,第176页。
[8]王海东:《维特根斯坦与哲学的未来》,昆明:云南人民出版社,2013年,第110页。
[9]维特根斯坦:《维特根斯坦全集》,第9卷,石家庄:河北教育出版社,2003年,第60页。
[10]维特根斯坦:《维特根斯坦全集》,第9卷,石家庄:河北教育出版社,2003年,第35页。
[11]维特根斯坦:《维特根斯坦全集》,第9卷,石家庄:河北教育出版社,2003年,第66页。
[12]同上,第169页。
[13]维特根斯坦:《蓝皮书和褐皮书》,涂记亮译,北京:北京大学出版社,2012年,第10页。
[14][英]卡鲁姆·蔡斯:《人工智能革命》,张尧然译,北京:机械工业出版社,2017年,第8页。
[15]Dddiane Proudfoot.Robots and Rule-Following.Edited by Christ of Teuscher.In Alan Turing:Life and Legacy of a Great thinker[M].New York:Sprinker,1998,p.377.
[16]维特根斯坦:《维特根斯坦全集》,第9卷,石家庄:河北教育出版社,2003年,第270-271页。
[17]参阅谭铁牛:《人工智能的历史、现状和未来》,载《求是》,2019年第4期。
[18][英]卡鲁姆·蔡斯:《人工智能革命》,张尧然译,北京:机械工业出版社,2017年,第6页。
[19][美]迈克斯·泰格马克:《生命3.0》,汪捷舒译,杭州:浙江教育出版社,2018年,第31页。
[20]同上,第37页。
[21]同上,第88页。
[22][英]卡鲁姆·蔡斯:《人工智能革命》,张尧然译,北京:机械工业出版社,2017年,第30页。
[23][美]迈克斯·泰格马克:《生命3.0》,汪捷舒译,杭州:浙江教育出版社,2018年,第43页。
[24][美]迈克斯·泰格马克:《生命3.0》,汪捷舒译,杭州:浙江教育出版社,2018年,第43页。
[25][英]卡鲁姆·蔡斯:《人工智能革命》,张尧然译,北京:机械工业出版社,2017年,第164-165页。