大家好,我对人工智能基本是外行,很多技术性的细节不太清楚,这个问题引起我的关注,然后有一些哲学上的反思是从2018年在北京召开的世界哲学大会。
在人工智能时代重思何以为人
在哲学大会前一年有一个启动仪式,同时举行了一个国际学术讨论会,主题就是“学以成人”。
当时正值AlphaGo旗开得胜战胜人类选手,这使我感到好像人类对何以成人有一些懈怠,而机器则正在努力通过深度自主学习而“学以成人”,当然这个“成人”只是说在智能方面努力变得类似人,甚至未来可能在这方面超越人。
人工智能,还有基因工程、纳米技术等等这些在新世纪发展特别迅速的高科技,对我们过去司空见惯的问题提出了挑战,促使我们重新思考“何以为人”或者说“人是什么”这个古老的问题。
这一问题常常是在对人与物的区分和辨析中展开的。过去的“物”是比较明确和容易辨认的,我们的人类文明有1万多年的历史,创造了很多人造物,采集狩猎社会基本是利用现成的自然物,人类学会种植、畜牧后开始创造一些新的物品,比如驯养动物新品种等等。
农业文明创造的很多新的东西都跟人很不一样,都是“人造异己物”。到了工业革命时代也没有大的变化,我们参观任何一个工业革命展览馆、博物馆,都可以看到庞大的蒸汽火车跟我们是很不一样的。
我们现在如果到微软总部或者硅谷参观一些高新科技的博物馆,孩子们可能会大失所望,因为看不到什么东西,都是很内在的,需要听讲解才能了解。但是它们很厉害,比如前面的讲者讨论的芯片,虽然很微小,但是在智能方面跟人很像。
这些智能机器是人工的或者说人造的,人第一次充当了某种创造智慧生物的造物主角色,创造出了“类己物”。
现在人创造出来的“物”可能会超越自己,反客为主。根据对人工智能科学家的调查,很多人预测几十年后或者至少在本世纪之内就会实现通用超级人工智能,机器就可能全面地超越人。当然这只是一种可能,即使无法完全实现,人工智能的发展也会相当可观。
过去的超人是自然超人,比如尼采的梦想就是超人的理想,而现在的超人是由人创造的,人最后的发明创造可能就是这种新的超人。
重温人的定义
人工智能将超越人促使我们思考人是什么。我们总要在比较中下定义,过去我们给人下定义根据的是人和动物的差别。
人有智能,是能够制造和运用工具的动物,而且会不断地发明新的工具。人还有工具理性之外的精神能力和意识,还有默会的知识,有发展了的情感、意志、直觉、信仰等等。
另外可能最重要的,人有一种综合的统贯的自我意识,主体意识,有自己的人格。
如果仅仅从身体上看人和其他动物的差别,也许你首先看到的是“人是两足无毛的动物”。最重要的差别和潜能一出生是看不到的,就是他内在的潜能,语言潜能、意识潜能、思维能力等等,这些要慢慢地发展显现出来。
以前把人和动物相区别来定义人,现在出现了人工智能机器这种新型的物,亦人亦物,或者说非人非物,那么人的定义可能需要某种更新,要增添一些内容。
过去我们强调人与动物的差别的一面,跟人工智能机器比较我们要把人和动物放在一起,跟哺乳动物、灵长类动物放在一起。
从相同的一方面看,他们都是碳基生物,都具有身体的脆弱性,他们最后都必然死亡。这个脆弱性、必死意识并不一定完全是弱点,它也可能是人的一个特点,很多道德和美好的东西都依赖我们的脆弱性。
我们为什么赞美青春?因为青春和美丽不会持续很长时间。智慧也同样,到了八九十岁很多人不仅会记忆力衰退,甚至可能陷入痴呆状态。
人工智能机器是一种硅基生物,它可以通过不断地更换零件永远地生存下去,在任何气候、环境中都能够生存。
人工智能机器仅仅在一个方面与人相似,即拥有高超的计算理性,能够自我深度学习,在这方面未来它还可能超越人。但是,它目前还没有工具理性之外的意识和能力,没有综合的自我意识,也没有碳基生物的身体。
那么未来世界会不会是一个硅基生物的世界?这一点实现会有两种途径,一个是“人的物化”,还有一个是“物的人化”。
人的物化是指使用各种人造器官,比如人造心脏,甚至以后还可能会在大脑中植入芯片,使人变得更加聪明、美丽、长生不老等等。如果这样的话,那他还是不是一个人?这个需要打上问号。
另一个是物的人化,就是我们所说的未来可能会出现的超级人工智能机器。
科技何以进步至此?
人类科技的进步主要是最近几百年才发展起来的,现代科技为什么会突然加速?
人类文明有1万年的历史,其中5000年是在夯实物质的基础,就是吃饱肚子,然后让一些人慢慢开始有空腾出来专门劳心。
文明需要有钱,也需要有闲。要腾出时间精力来,一些人才能专门从事精神活动,政治治理等等,所以文明经过了一半的历史才出现国家。
又经过了2500年,也就是后面的一半,才出现精神文明的价值体系,这就是雅思贝尔斯所说的“轴心时代”,各大文明开始创造自己的知识。
科技在近代突然加速,后面的原因、动力是什么?是价值观的根本转变,或者说志向的根本转变。
这个是谁发现的呢?培根。
培根在17世纪初写了《新工具》等著作,发现前面的2000多年没有多少人从事自然科学研究,大家都在从事纯精神的哲学、神学、人文学等等。
培根注意到了新时代的方向,他认为现在应该调整学术的目标,提出新的口号“知识就是力量”。原来知识是自在的,人在知识中得到涵养,成为某种圣贤、圣徒。但是现在知识要成为一个工具性的东西,要“在行动中征服自然”,发现新的力量,给人类带来实际的福祉。
在这个转变后面其实又有一个强大的社会平等的潮流,如托克维尔所说的,平等潮流就像天意一样势不可挡。虽然事实上不一定能达到平等,但是至少在价值观念上是平等的。这个时候就不再以质量取胜,而是数量,这个社会将以多数人的价值观为主导。
这就回到陀思妥耶夫斯基提出的疑问,他认为多数人比少数人更重视地上的面包,就是物质,而不是更重视天上的面包,也就是精神;更重视安全,而不是自由;更相信奇迹,而不是理性,是不是这样?
至少在价值观方面我们看到这个世界又开始趋同了,我们不是说现在大家很分裂吗,其实分裂恰恰因为我们的价值观很接近,所以就会有利益之争。
因为大家追求同一个东西,按照经济学的法则它必然是稀缺的,永远不可能按需满足,那么肯定就会有冲突,而且会冲突得越来越厉害,这个我们暂且不谈。
近代科技加速最深的原因还是根植于人性。少数人有一种不可遏制的好奇心,古希腊最早的哲人就是对世界发生了很多疑问,那个时候跟功利无关,他不是要取得什么利益,他就是好奇,对真理有一种宝贵的好奇心。
多数人也有不可遏制的功利心、利用心,如果通过这些近代的技术发明能够带来莫大的福祉、福利和方便,那何乐而不为呢?
人还有一种不安分和无聊感,这像叔本华所说的。另外,国家都在追求富强,追求自己的国家利益也不能不关心物,不能不关心物的知识。还有人的求胜心,战争也是推动近代科技加速的一个重要因素。
工业革命以来只有200多年,这200多年人类取得了什么样的成就呢?人均寿命翻了一番,原来只有40多岁,现在有七八十岁;人均收入水平可能翻了不止几番了,财富大大增长。在某种意义上,科技给多数人创造了闲暇和时间,引起了社会生活的巨大变迁。
但是科技的奇迹也带来了一个隐忧。物质文明本来只是基础,也必须优先满足,但是如果把物质基础变成了上层建筑,也就是把这个必要的追求变成了最高的,甚至是唯一的价值追求,那会带来什么?
首先肯定会带来技术的进一步发展甚至指数级的飞跃发展,但是最终会怎么样?这是我在《文明的两端》这本书里提出的问题。
人何以为人,难道人只不过是一个能够满足自己不断增长的物欲和体欲的动物吗?更重要的问题是,如果从底线思维的角度思考,日益强大的控物能力会不会给人类及其文明带来难以预测的灾难?
人将何为?
面对未来科技难以预测的发展状况,我们要努力地寻求自控能力和控物能力的平衡。
控物能力是指人类控制物质的能力。自控能力则是指一种人类的精神能力,包括能够用精神淡化对物质的追求,用道德对物欲进行自律的能力。
人的自控能力不会随着控物能力的提高而自然而然地提高。我们这200多年来技术进步了多少,人的道德精神水平又提高了多少?我记得好像张文宏说过一句话,他说几百年来人类道德没有多少进步。要不人类怎么今天还这么分裂,这么窘迫,这么焦虑,甚至这么痛苦?
物质多少算够?我们还需要追求一些什么东西让我们的人生更丰富、更多面?而且还要避免可能对人类或者对文明将带来的灾难。
上次有一个中欧商学院的同学问我,2500年以后我们会怎么样?我说你想得足够的远,谁也不知道会怎么样,如果科技按照现在的速度发展,也可能那个时候一个人就拥有毁灭人类的能力,这个人可能是个狂人。我这样说可能是杞人忧天,但是说说也没有坏处。
平衡也是一种古老的智慧,古希腊人追求卓越,但也讲究平衡,我们知道古代中国人一直也是比较讲究平衡和中道的。
我们要设定某些范围、某些限度,因为人性不可能达到完美无缺,不可能成为天使或者上帝,你把一个强大的力量交到他手里,要考虑他能不能胜任。
寻求人类的控物能力与自控能力的平衡这一任务是艰巨的,需要全社会各个阶层和行业的共同努力。但还是会有一些“关键的少数”起重要的作用,包括第一线的科学家和技术专家;企业家和投资者,他们往往可以决定研发的方向;政府的官员,他们制定相关的政策、法规,并在某些时候作出决断;最后是知识分子和媒体工作者,他们会探讨人工智能对人的各种可能影响和后果。
时间有限,我只能点到为止,绝大部分内容都包含在这两本书里,如果大家有时间和精力可以参考一下。
《人类还有未来吗》主要讲人工智能、高科技对我们的挑战,《文明的两端》主要分析了人类文明的开端和现代这一端。
好,谢谢诸位。