人工智能时代的科学和技术及其应用已经引发了政治、法律、道德和经济等一系列问题,而且必将产生更多难题。在这些问题中有一个硬核,这就是自由意志。换言之,上述这些领域在人工智能时代所面临的问题和所遭遇的挑战,最终都关涉自由意志,因而它们也可被视为对自由意志的挑战;而只要自由意志依然保有其在人的意识中的核心地位,那么这些难题就不会形成颠覆性的力量。因此,考察和研究自由意志与这些难题和挑战的关系或许就是研究和应对它们的一个要务。需要注意的一点是,在人工智能时代,关于自由意志的研究具有了不同于以往的新视域:有一类不同于人类的人工自为者即所谓人工一般智能(AGI)可能会在未来某个时刻出现,而它们的根本特征就是具有自由意志。这类自由意志或更一般地说意识将以并非如人类那样的生物机制为物理基础。这样的一种可能性成为本文的考察和探讨的一个重要背景,它会激发起人类先前局限于唯一一种自由意志的境域而无法生成的观念,或无法想象的情形。不过,下文主要考察和讨论目前的人工智能科学和技术及其应用给自由意志造成的难题和挑战,不会涉及人工自为者的自由意志,而仅仅将它当作一种可能的背景。
一般而言,自由意志被视作人类的根本特征,人类意识和一切知识的至上原则,亦是人类自我认同的最终根据。与此同时,许多人也凭借理性本身的能力质疑、挑战自由意志,以自由意志的决定来怀疑自由意志的存在。因此,自古以来,它就成了各种哲学和科学理论的聚讼之点。在历史上,对人的自由意志最大的贬抑来自宗教,而自现代以降,质疑或否定自由意志的观点主要来自决定论和物理主义,即一些哲学主张。决定论在其理论的逻辑方面,尤其是在物理世界的因果关系一致性方面,展现了强大的论证力量:因果原则构成了自然科学的基础,因果性在哪里断裂,自然科学就会在哪里中断。有人认为,量子力学对自然的因果关系提出了挑战,然而,它所挑战的只是传统所理解的因果样式,而没有挑战因果规律本身,否则,人类的科学研究就会中止在量子力学面前。因此,自由意志确实存在,就此而论,有两个事实相当重要,它们乃是理解人的意识和自由意志的关键,并且对理解人工智能的性质和特征亦有莫大的帮助。第一,意识和自由意志的存在并不影响自然界的因果性,而从另一方面来说,所谓因果性正是通过意识和自由意志的活动而被认识的。对人类来说,倘若没有意识和自由意志,物理世界的因果规律也就无从谈起。第二,迄今为止已经进行的大量研究皆无法以实证的方式清楚地揭示意识现象的生物的,或更为一般的物理的形式和机制。尽管人们无可否认,意识和自由意志必定奠基于生物的或物理的基础之上,但如要将意识或自由意志归结为具体的生物活动,那么到现在为止最有效的论证还只是依据一般原理所做的推论,而缺乏实证的说明和实验证明。在物理世界中,事件与事件之间的因果关系总是能够以某种方式确切地建立起来,尽管量子现象被视为例外,唯其如此,量子现象才被尝试用来解释意识活动。然而,量子世界的确定的因果关系或许要以不同于现在的理论范式来解释。第三,意识,尤其是认识活动,始终能够超越人的物理存在的时空限制。
此外,一个并不根本却颇为有趣的事实是,即便那些决定论者也不会接受他们自身被当作并无自由意志的一般物理事物对待这样的做法。这就是说,在日常生活中,决定论者或物理主义者的理论主张与其对自己作为具有自由意志的个人性质的认同相冲突,但却可以和谐共处,并行展开。不过,本文的讨论重心不在于理论的构造和论证,而在于从事实出发讨论人工智能时代的科学和技术造成的自由意志的难题和相应的挑战,进而在分析的基础上总结出若干需要进一步讨论的要点。
自由意志:经典挑战
自由意志作为人类的根本特征,乃是人类社会规范的基础和前提,大凡现代社会那些体系复杂的法律、道德和其他规约无不奠基于自由意志。长久以来,论证自由意志的文献汗牛充栋,而对自由意志的质疑同样经久不息,但出于思辨的论证,无论是肯定还是质疑,既不更加巩固亦不些微撼动自由意志作为法律和道德规范的根本前提的稳固性。
随着现代自然科学的兴起,自由意志论与非自由意志论之间的论战进一步加剧,争论和论证的手段也从思辨的理论转向实证的手段。在当代,对自由意志最大的一次冲击是由美国生理学家本杰明·李贝特(Benjamin Libet)的实验研究所引发的。李贝特认为,这个实验及其研究的结论是:“大脑的一个自发的自愿动作的肇端是无意识地发生的。”这个实验的主要内容和程序可简述如下。
在实验中,李贝特让被试在某一刻用自己的手指揿一按钮,并同时要盯着一个圆钟。这个钟表面画有一个分成若干格子的圆圈,有一个圆点绕着它转。被试可以自己决定什么时候动手指,而不是在外界信号诱发下动手,但他们被要求:当他/她第一次有意识或有冲动去做动作时要留意圆钟上圆点的位置。这样,被试揿按钮时,圆点在圆钟上的位置也被记录了下来。通过比较标志了揿按钮的时间和被试做动作的有意识的决定的时间,研究人员能够计算出试验的全部时间。从被试肇始原初的决断一直到动作的发生。平均来说,从有意识地要揿按钮的意志第一次出现到摁下按钮,平均过了大约200毫秒。
研究人员也分析了准备电位(EEG)相对于动作定时的每一次实验的记录。由此人们可注意到:大脑活动包含了动作的肇端——主要集中在第二运动皮质区——平均发生于试验以按钮揿下而结束之前约500毫秒。这就是说,研究人员记录了正在升高的大脑活动,它开始于在被试报告第一次觉得要做动作的有意识的意志前大约300毫秒。换言之,无意识的脑电活动的累积先行于大脑内明显的做动作的有意识的决定。因此,根据李贝特的论文,实验所测试到的被试从大脑开始增强的活动到按钮压下之间持续了500毫秒,而被试是在第300毫秒左右才报告了要揿下按钮的决定或意志。因此,这300毫秒是无意识的活动,但它先行于有意识的活动或决定并产生了这个有意识的活动。正是这300毫秒使得李贝特可以得出前面那个惊世骇俗的结论:一个自发而自愿的动作在大脑之中开始是无意识地发生的。
这个实验及其结论一时引起轩然大波,因此,李贝特1985年这篇论文就与许多篇专门讨论此文的评论同时发表。在欧美刑法学界,一些年轻的法学家甚至据此要求修改刑法原则:既然人没有自由意志,就无法对其行为负责。倘若接受这个观点,那么现行的刑法体系的基础就会轰然崩坍。不仅如此,整个现行法律体系也同样会失去基础。这个争论在西方理论界从20世纪80年代末一直持续到现在,但只是到了最近几年,它才成为中国学界的一个话题。
自然科学家们则继续进行相关的实验,改进或修正李贝特的研究。2008年约翰-迪伦·海恩斯(John-Dylan Haynes)采用功能性磁共振成像仪器(functional magnetic resonance imaging)扫描被试者脑部,做了类似的实验。他得出结论说,从根本上说,大脑首先开始无意识运转以酝酿出一个决策,一旦全套条件成熟,意识就参与进来,然后才产生运动。
李贝特和后来一些科学家所做的实验,尤其是实验的结论,无疑也遭到了许多的质疑和反驳。威尔莫特(Chris Willmott)对这类实验提出了一般性的批评,他认为,“没有哪一个对认知的神经科学研究是完善的。以EEG(准备电位)为基础的实验,就信号的物理位置而言,缺乏精确性,而以fMRI(功能性磁共振成像仪器)为仪器的研究就事物的定时而言,准确性更低。”
米尔(Alfred Mele)对李贝特实验提出如下一个主要的反驳:在这个实验中,并没有任何直接的方式说明,哪些现象对应哪些神经事件。具体来说,在李贝特的研究中,很难确定准备电位对应什么现象,比如,它是否就是意向的形成或决定的做出,或仅仅是冲动(urge)。如果准备电位对应纯粹的冲动,那么,实验的结果就会允许如下结论:意向形成或决定是一个有意识的事件。这样,在米尔的分析下,李贝特的研究就保留了这样的可能性:意向形成和决定毕竟是意识事件。
纳米亚斯(Eddy Nahmias)指出,李贝特研究激起了人们对自由意志的担忧。但是,纳米亚斯论证说,仅仅揭示存在着使行动在机会上增加10%的更大可能性的无意识事件,无法反驳自由意志论,因为对所有的自由意志论者来说,自由意志是与这种非决定论的因果性相容的:即由无意识的事件在因果链条上的某个时点上导致行动。
纳米亚斯对李贝特研究做了进一步的分析。他指出,在李贝特式的异常性质的实验情境下,一个有意识的意向在将临的某个时间上折叠是一定的,所要测试的乃是:被试对这个一般的决定在某个特定时间的执行。纳米亚斯指出,在开车或做饭时,人们总是会形成一个有意识的意向去完成一个一般类型的动作,然后,对这些一般的有意识的意向的特定执行并不以额外的特定的有意识的意向为先导。比如,一个人会形成一个开车回家的一般的有意识的意向,但他所做的那些特定的转弯不会以一个相配的特定的有意识的意向为先导——一个人可以是处于自动驾驶的状况。但是,在这样的状况下,一般的有意识的意向在产生行动时仍然发挥关键的因果性的作用。在李贝特研究中,当某种指示被给予时,被试形成了在某个时间或其他时间收缩的一般的有意识的意向,并且如果这些一般的有意识的意向的特定执行不是以特定的意识的意向为先导,这就恰恰与纳米亚斯所举的开车和做饭的例子一样。
纳米亚斯的分析相当有说服力,因为在李贝特实验中,被试已经被告知要做一些什么动作,要遵守一些什么规则,因此动作的一般的指向不仅是有意识的,甚至带有某种程序化的特征,而这就与开车和做饭的状况相类似。李贝特实验,包括后来的孙俊祥(Chun Siong Soon)、海恩斯等人的实验,都无法设置这样的条件:在实验开始之前,被试的大脑是一片空白,连关于接下来的实验的任何想象都没有。
不仅如此,李贝特实验以及其他人的实验还容有其他解释的颇大余地。最近,海恩斯领衔和克拉夫塔(Matthias Schultze-Krafta)等人所做的实验修正甚至推翻了海恩斯先前的结论。他们2016年发表的实验报告说,这个实验的目的是要观察:在一个自发的动作的准备电位启动之后,人们是否能够取消这个动作。如果可以,那么是在哪个时间点。被试要与一个脑—机接口挑战,后者被训练得能够探测人们实时的准备电位,能够发出停止的信号。这个团队的实验表明,被试的主体即便在准备电位开始之后仍然能够否决一个动作,即取消一个动作是可能的,只要停止信号在动作开始之前200ms发生。他们陈述结论如下:“我们的结果提示,甚至在准备电位启动之后人们仍然能够取消或否决一个动作。直到一个无法返回的时点,即大约在动作启动之前约200毫秒,这是可能的。无论如何,甚至在一个动作启动之后,都有可能改变和取消那个已经展开的动作。”
海恩斯是这篇论文的通讯作者,正因为他是李贝特实验的改进者,因此,这个新的结论就尤其重要:人的自由意志或意识的自由需要从一个更为宽泛的意义上来理解,而在任何一个动作中,更不用说在实验室特定条件之下的动作,意识也全程伴随,尽管会以不同的方式,以及不同的表现样式。
事实上,在1985年在其公布和研究那个标志性实验的论文中,李贝特也做了类似的说明。但是,人们后来在引证李贝特的实验研究时,它似乎被忽略了。这个说明由两段文字组成,为了清楚起见,这里分别引证如下:其一,“然而,可以发现,在特定的有意识的意向出现之后的150毫秒或剩下的时间内,做动作的最终决定依然是有意识地受到控制的。事实上,在去做动作的预先安排好的时间之前的100—200毫秒时段内,被试能够‘否决’运动的执行。”其二,紧接着前面一段话,李贝特在这篇著名的论文中继续补充说:“有意识的意志的作用可能不是肇始一个特定的自愿的动作,而是选择和控制有决断的结果。它表明,有意识的意志能够在一个许可的样式中发挥作用,或许可阻止那个做动作的意向无意识地兴起的运动的执行。或者,存在对有意识的激发或触发的需要,没有它们,最终的运动输出不会随无意识的大脑的肇始的和准备的过程而起。”
李贝特实验研究以及海恩斯和孙俊祥等人的实验,对于理解大脑神经活动和意识的生物基础无疑具有重大的帮助和促进。这些实验表明,自由意志乃是意识的一个主要特征,而意识活动的生物基础不仅可以观察,而且可以从各个不同角度和层面来观察。但是,迄今为止,这些实验,包括那些旨在弄清语言活动与大脑生物活动现象之间关系的研究,都存在明显的局限性,就如前面的批评者所指出的那样,大脑电位或电活动与特定的意识活动之间的对应,在相当大的程度上属于推测,并不能建立起确定的因果关系。
行文到此,人们可以发现,自由意志与大脑生物现象之间的关系极其复杂,这种复杂性更由多重复杂关系构成:意识活动本身的复杂体系、大脑神经活动的复杂系统、外在现象与这两者之间的相互作用关系,如此等等。在这样一个盘根错节的关系中,单一现象之中的关系的厘清对增进认识无疑有益,但一般性的结论无法仅仅凭借诸如李贝特实验这样有局限的、因果关系并不明确的实验得出。因此,物理主义或决定论在这里面临一个难以完成的任务,即它必须从整个世界的因果关系中来解释人的意识活动,包括自由意志。同时,就当下情形而言,物理主义或决定论的一个致命弱点就是:它们只是出于一般物理规律而做出的一个推论,并无法具体地指明那些导致特定的有意识的活动的特定的因果关系。而就前文分析的例子来说,如果物理主义或决定论主张有意识的活动肇始于大脑和其他的物理活动,那么它们也无法清楚地指明同时对大脑发生影响的其他各种复杂的因素和关系,因为许多可能的生物的或物理的现象还远未被认识。而那些已经被初步认识的物理现象和活动似乎只是与那个或那些有意识的活动相关联。
在这里,做出一个假定应当是合理的:人的意识虽然在现象上是通过个别的思维、语言、情绪乃至下意识的反应等实现的,然而就其现实性而言,它乃是一个整体;我们承认意识的最终基础是生物的,或者更一般地说,物理的,即便如此,意识乃是以其整体依赖于生物基础,或物理现象。在这样一种关系中,并非每一单独的意识活动依赖于单独的一个生物现象。正是在这个意义上,每一个意识活动无法还原为一个单一的生物活动,反过来,从单一的大脑生物活动也无法推出某一对应的单一的意识活动。自由意志作为意识的卓越特征,情形亦是如此。
当下的冲击
第一个大问题中所讨论的李贝特类型的自由意志实验和研究,无论结论如何,它们都有一个基本的前提,即人的全然的生物性质。这就是说,无论自由意志存在还是不存在,人的物理基础就是生物的个人。然而,在人工智能时代,情况发生了重大的变化,人的性质正在经受变化,从而人的自由意志的基础也发生了变化,并且由于这个时代的各种科学和技术的应用,人的意识和自由意志与由于各种中介而与外在世界的关系,甚至与自身的关系,也发生了变化。这些变化正在逐渐改变既有的自由意志主张及其理论的基础,也就无可避免地要冲击或侵蚀自由意志本身,从而从基础的方面冲击政治秩序和法律和道德规范,使之面临严重的新挑战。
从长远来看,这种变化及其后果应当说比李贝特类型的实验更其严峻,其挑战也就更具根本性,因为它是在削弱、侵蚀甚至取消自由意志的生物基础,尽管现在它们甚至还达不到严重质疑自由意志的程度,至多是削弱了自由意志在个人行为中的作用。但是,鉴于人工智能、基因工程和脑—机接口等科学和技术的快速发展,既有的自由意志主张和相应的理论亦将受到逐渐加剧的冲击,而这也就承带了对现行社会秩序、政治和道德规范的逐渐愈演愈烈的挑战。因此,目前的探讨和研究虽然立足于现实问题,却要着眼于人工智能时代各种科学和技术发展的未来前景及其应用的可能性。在下文我将先分析和讨论这些冲击带来的挑战的类型、性质和特征,然后考察它们的严峻性以及可能的因应之道。
首先,我将首先从自由意志的间接、延时和远程执行这一现象入手分析。无人驾驶在今天已经成为现实,它不仅在汽车上,也在飞机、舰船和其他交通工具上得以实现,诚然,在它们之中,无人驾驶汽车是最为典型亦最受关注的自动交通工具,因为它要能够应对路面交通的复杂而动态的人、规则、物之间的关系,并保持自身的安全而有效率的行驶,而这就意谓,它在一定程度上要自动地处理与人的行为之间的复杂关系。类似无人驾驶的系统还被用于武器系统,后者比民用无人驾驶系统更为尖锐而直接地关涉正义、法律和道德的责任。
在下文,我从两个方面来考察自由意志与这些系统的关系:
第一,无人驾驶系统的法律和道德责任由谁人承担。无人驾驶汽车甫一出现立刻就引起其责任归属的问题和争论:它们一旦失误或造成事故,由谁承担责任?这是一个相当现实而急迫的关切,同时它又牵连了根本的理论问题,即责任的最终根据,或行为的决定根源。而在人的社会关系中,这种最终根据无疑被认为是人,而不是其他的事物或现象。无论是自然人,还是法人,都被认为具有自由意志。相较之下,无人汽车则被判定为并无自由意志,连起码的认识和情感都付诸阙如。因此,只能由其背后的人来承担责任。有关具体的细节,人们会争论究竟要由汽车设计和制造公司负责,还是要由汽车的运营公司,或无人驾驶汽车的具体管理者负责。不过,类似的技术细节并不是什么新的问题,亦非大的难题,因为这些责任的确认和分担在有人驾驶车辆的事故中也同样会遇到,因此可比照有人驾驶的情形予以处理。
第二,无人驾驶汽车的所有程序最终由人设计、指令由人预设,它所能处理的各种状况都是人类根据自己的经验和认识而设定并归类处理。不仅如此,从目前的情况看来,无论中间有多少层的监控是由人工智能系统自动执行的,所有的无人驾驶系统或自动运作系统,最后都受人的监视和控制。由此,我们看到,在无人驾驶汽车或类似系统中,人的自由意志通过人工智能的驾驶系统,得以外在、延时、持续、复合或反复地执行。
在这类人工智能的无人系统中,人类的理性设计、合理计算和各种具体的策略和决定等体现了认识、情感和自由意志的决定通过人工智能系统外在地、延时、多次、多点和重复地执行,人类的道德选择和倾向被转化为面对现实状况的一定的算法。这种做法实际上与李贝特的实验有相同之处:一系列的条件和情景规定好之后,人只需响应这些条件和情景而做出各种反应和决定。诚然,无人驾驶面临的情况要复杂得多,要处理的因素也不在一个数量级。但是,无论如何,它只能处理人们设想好的各种条件和状况下的事件,并按照预定的方案——无论这些方案在具体执行时看起来是如何的自主和随机——来应对。
其次,与第一点密切相关,人工智能在执行先前由人类完成的医疗诊断,包括医疗影像读片等行为时,同样也涉及责任问题。虽然现在的人工智能诊疗系统和读片系统在程序上只是提供和建议治疗方案,并非做出最终的治疗决定。但是,当人工智能的诊断和治疗方案的准确率和有效率超过一般医生的诊疗水平时,普通医生就会倾向于依赖这样的系统,因此,虽然最后的诊疗决定由医生签署,但诊断结果和治疗方案都是由人工智能系统做出的。一旦这类系统在算法、大数据等方面得到进一步的改善,从而对某些疾病诊疗的准确率和有效率超过一般医生水平,并且这类水平持续保持稳定,它有一天就可能被赋予一定程度的执业权,那么,在这样的情况下,与无人驾驶汽车的相同的责任归属问题就出现了。比如,人工智能影像诊疗系统倘若误读了影像,比如错过了某些结节,那么该由何人承担责任?是研制和生产这个系统的机构或公司、使用和操作这个系统的医疗机构,或者更具体地说,直接操作和管理这个系统的操作人员,还是主管的医生?就现在的情形来说,这些问题最终都归结到医疗的最终责任,因而直接关涉自由意志,而在这里就是医生的诊断和治疗方案的确定,并且包括医生的道德情感等方面的因素。现在,人工智能诊疗系统,在综合了无数医生的经验、病案、人体的生理和病理的各种指标等大数据,凭借特定的算法,经过专门的训练之后,将原本的医生的医疗判断和决定,以一种似乎自主的方式予以执行。从根源上来说,这种执行依然来自于人的自由意志,不过,它现在是被外在、延时、重复地执行,而且,这种人工智能诊疗系统所体现的自由意志已经不是某一个人的意志,而是许多医生的自由意志的综合、叠加和延伸。但是,在归责时,人们又只会追溯到若干直接相关者,而非为这个系统贡献经验或病案的所有医生和其他相关人员。于是,不同个人的自由意志经由人工智能诊疗系统既被综合,亦被分离了。
再次,现在我要分析和讨论涉人的生物技术与自由意志的关系。与人工智能并驾齐驱地发展并导致人的性质改变的另一重大技术是基因工程。就现实的效用而论,基因工程主要用于疾病的诊断、预防和治疗,尽管也有其他应用的个别案例。那么,现在的问题就是,接受过基因治疗的人的自由意志是否受到影响?诚然,同类的问题很早就已经出现,但它们与自由意志之间的关系似乎并没有受到关注。比如,大脑中植入的起搏器是否会影响个人的自主决定?如果联系上文所述的李贝特的实验,而脑起搏器的作用就在于产生特殊的电活动,以用于治疗特定的疾病,譬如帕金森症。这种电活动即便受到严格的限制,也会对大脑产生一定的副作用。或者退一步说,即便完全作用于病灶,它确实也对大脑产生了外来的电活动,而这种外来的电活动是否会影响或妨碍人的自由意志?
现代医学和医疗技术的发展使得越来越多的义器被用于医疗,这使许多病人获得了生存的机会、康复的条件和改善生活质量的手段,但同时却也改变了人的存在的单纯生物属性,而这里所要讨论的问题是,这些义器与人的自由意志的关系是如何的?比如,人工耳蜗是否会导致这样的问题?人工耳蜗的功能就是将来自外界的声音转换为一定编码形式的电刺激并施加于听神经。这里有一个关键之点,即人类认识的一个重要来源即听觉的信息及其质量因人工耳蜗技术的局限而被改变,比如,人类的自然耳蜗有约16 000个精巧的毛细胞,而人工耳蜗最多只有22个电极,因此,外界的声音信息因此被极大地弱化和简约化,而这无疑会改变自由意志赖于做出决定的知识的性质,从而影响到自由意志。如果考虑得更加周全,那么人们也就可以继续追问,心脏支架等义器是否也会造成类似的后果?
如所周知,在医疗活动中,药物作用会引起人的精神状况的改变,从而对自由意志造成暂时的或长久的伤害。因此,医疗的义器、药物以及手术等都会对人的自由意志造成影响。但是,这里要追问的是,与传统药物、手术以及心脏支架、人工关节等一类被认为并不导致人的生物属性重大改变的义器相比,基因工程、诸如脑起搏器和人工耳蜗一类改变人的生物属性的义器,对人的自由意志的作用有什么样的差别?基因工程是从人的生物信息,即基础结构上影响人的自由意志,而诸如脑起搏器等神经义器则通过直接对大脑和其他神经施加电活动或刺激而从信息来源上影响人的自由意志。传统的医疗手段和技术虽然会改变人的生物器官或组织,但是并不改变人的生物的属性和结构,因此,它也不能定向地改变人的性质。与此不同,基因工程和神经类义器直接改变了人的生物的性质和结构,使人成为复合人,即生物部分与人工部分共同运作的生命。这是一个重大的转折,它表明,自由意志的物理基础不再是单纯的生物体。
又次,人工智能与生物科学和技术的更进一步发展的方向就是脑—机接口(brain-computer interface,或brain-machine interface),而它将给自由意志带来更加重大和深远的影响。泰格马克在《生命30》中表示,这代表了人类进化的未来趋势的一个方面,即人可以制造人的身体的硬件。而其意义所及,人身的硬件的可替换性同样也承带某种意义的软件的进化。人工耳蜗改变了人接受外界声音的途径和方式,比如,人工耳蜗绕过了生物耳蜗的毛细胞这一环节,声音信息被直接处理为电活动,后者直接对听神经进行电刺激。而诸如脑起搏器就是直接对大脑施以电信息刺激。
综观现在的发展,脑—机接口的研究和发展大约呈现出三个方向,即(1)搜集和破解大脑电信号并以此来操作外部的各种设备,(2)由诸如人工智能系统等设备向大脑输入信息,(3)双向信息交流。人工耳蜗和脑起搏器等属于第二类,尽管它们不属于人工智能系统——当然,这不妨碍它们进一步发展成为人工智能系统。脑控打字系统、截瘫病人行走系统属于第一类。最近媒体纷纷报道的马斯克的Neuralink公司拟向美国FDA申请明年开展临床试验的植入大脑的电极,也属于第二种。第三个方向是人们现时努力的一个目标,但迄今并没有成功的报道。第一、二两类脑—机接口都已经付诸实用。事实上,早在Neuralink的预告之前,美国一家机构已经研制出类似设备,并用于临床。据《自然·医学》最新报告,科学家和技术人员为帮助截瘫病人站立起来而在脑—机结合的研制方面取得重大进展。因为脊髓损伤造成的脊柱感觉运动网络与大脑之间的连接中断,可以通过硬脊膜电刺激系统(EES)恢复稳定的、协调的运动。虽然病人不仅需要训练,亦需要一定的支撑系统才能恢复行走功能,但病人能够动态地站立和独立地迈步。这项新的技术进展具有相当多方面的重大意义,它除了给截瘫病人带来福利之外,对此处所探讨的议题来说,亦有多方面的影响和启发。
首先,这表明,人的大脑和神经信号已能破译出来,这对探讨和认识大脑现象和意识活动具有莫大的帮助;其次,神经信号可以通过义器来传递,从而大脑与腿部神经便被重新连接了起来,使得下肢神经能恢复支配肌肉运动的功能。既然人体内部生物的神经信号的传递能够通过脑—机接口实现,那么,同理,外部信号同样能够通过脑—机接口传递给大脑和其他神经系统,控制人的肢体的活动。脑—机接口发展到这一阶段,人们自然而然要推进一步,试图向人的大脑输入更为复杂的信息,比如印象和观念。倘若这类研究和试验成功,那么,人的自由意志之受到外在影响,就是直接、稳定(robust)和明显的。前面所述及的截瘫病人的硬脊膜电刺激系统,虽然并不接受外部的信息,只是通过破译和还原来恢复因伤病而中断的大脑与肢体神经之间的连接,但是,人们就此依然可以提出如下的追问:这种翻译和还原在多大程度上接近原本的人的生物神经信号,或者神经信号通过这个系统传递的准确率有多高?而就这里所讨论的议题来说,倘若这个系统由于技术水平、质量或操作等导致神经信号的失准等障碍而导致人的错误行为,或需要承担责任的行为,那么,对人的自由意志的归责是否会因此而降低?即便这个系统按其所标明的技术指标等没有任何瑕疵,亦没有操作问题,在发生了导致法律责任的行为时,这个行为主体是否可以因为他或她使用了这个系统而申明:他或她不能承担相应的法律责任或道德责任,因为他或她的自由意志因这个系统而被削弱或妨碍,甚至取消?
回顾历史可见,医疗活动对人的自由意志的影响是向来就存在的事实,然而,基因科学和技术、义器以及脑—机结合的系统等对人的自由意志产生了直接的、稳定的(robust)、有目的的作用和影响,并且,随着科学技术的进步,诸如脑—机接口一类的义器应用会变得越来越普遍,甚至普及至每一个人,而这正是先前尚未出现过的现象。在这种情形之下,自由意志不仅失去了原本单纯的生物基础,开始奠立于复合的基础,而且直接接受外来的传导特定信号的电活动,无论影响大小,介入的脑—机接口及其直接施加的电活动或信号,无疑是人们重新思考自由意志的主张和相应的理论时无法回避的因素。
最后,除了上述几种形式之外,算法和大数据这两个人工智能的标志性技术,还通过掌握人的行为规律从外在掌控角度来冲击人的自由意志。人工智能时代同时就是信息社会的时代,人们的日常行为都会以不同的方式留下数据的痕迹,即便雪泥鸿爪,只要累积到一定的数量,被搜集起来,并由足够强大的算法来分析。按照一般的观点,大数据有如下几个特点。(1)它指所有传统数据处理应用软件无法胜任处理的大而复杂的数据集;(2)它亦指来自各种来源的大量非结构化或结构化的数据。这就是说,它并非统计学的抽样,而只是观察和跟踪所发生的事件。(3)大数据技术具有相当高的预测的准确性,通过大数据技术的分析,人的行为的规律就会被揭示出来,并可相当准确地予以预测。巴拉巴西认为,每个人的行为“平均可预测程度都在93%左右”,而对一些熵值低的个人来说,他们行为的“可预测程度甚至接近100%”,尤其令人意外的是,在他们的研究中,并无预测程度低于80%的个人行为。
舍恩伯格就此指出:“无论大数据如何威胁到隐私保护,最让人们头疼的都是行为倾向问题。大数据预测的准确性越来越高,它能够预测行为的发生,在人们犯错之前,提前惩处。因为预测的结果几乎不可反驳,人们也就无法为自己开脱。”在这种情形之下,人们原本自主选择的行为,都仿佛成了按照固定套路或规则运转的机械行为,而人的生涯仿佛成为了透明的表演,在人工智能和大数据的技术之下,被那些掌握这些技术特权的人看得清清楚楚。更为严重的情况是,在大数据和人工智能算法方面拥有特权的机构就可以由此来操纵或控制人们的行为并据此谋取自身的利益。比如,有媒体曾经披露,一些旅行、网约车等公司根据注册客户的信息、消费水平和习惯、购票意愿等数据,通过计算,针对性地提高那些常客的订购价格。这是商业上的不当谋利。人们亦可由此而获得政治上的利益,比如人们的投票动机、行为和习惯等都可以通过各种类型大数据的分析而被掌握,从而其中的政治态度、关心事件、投票倾向、趋势、分布和人数等都可以被预测,政治家就可以据此来做针对性的宣传、演讲和其他活动,从而影响甚至操纵选举。
舍恩伯格对这种情况表明了自己的态度。比如,对想象中的基于预测而做出惩罚这种情形,在他看来“不仅违背自由意志的原则,同时也否定了人们会突然改变选择的可能性(无论可能性有多小)”。他认为,在这种事情上,人们“必须牢记人类意志的神圣不可侵犯性”。因为,“人类的未来必须保留部分空间,允许我们按照自己的愿望进行塑造。否则,大数据将会扭曲人类最本质的东西,即理性思维和自由选择”。舍恩伯格的这个说法大体是准确的,不过,他所担忧的凭借预测的罪行进行预先的惩罚的事情,发生的可能性比较小,而通过预测人们的行为而获得特权、不当得利、在政治上操纵甚至控制人们,则属于逐渐出现并且会愈演愈烈的现象。
我们看到,对这种情况的危急性舍恩伯格有着高度的警惕,因此,他几乎是竭尽全力强调自由意志对人类的重要性:“在一个预测的时代里,人类的自由意志神圣而不可侵犯,这一点不可轻视。我们不仅需要承认个人进行道德选择的能力,还要强调个人应为自我行为承担责任。”面对这种情况,人们除了高度的警觉之外,还必须全面地研究这种现象和局面,从而不仅仅求得解决之道,而且还要了解人类在这种状况中的处境、地位和优势。
小 结
行文至此,我要就前面的论述做一概观以结束本文。在本文,我着重分析了自由意志所遭受的各种冲击、挑战和问题,但是,它们并不能从根本上否定自由意志的存在。一方面,因为自由意志所从属的人的意识现象至今无法在现行的物理理论之中得到确切的解释,尽管哲学和心理学等其他理论也无法提供同样的确切的说明;另一方面,所有那些由人类自己造就的科学发现和技术发明反而都更加凸现人类意识暨自由意志的独立性。譬如,人工智能不仅是人工的,而且它发展到今天的水平,依然是人类的发现、发明、设计和控制的结果,而人的自由意志在这里发挥了枢纽的作用。依据这个基本判断,人类自然也必须重视所有对自由意志的冲击和挑战,否则人类社会就会在由人类自身肇始、推动和支配而日益发达的科学和技术面前,潜移默化地成为自己实践对象的对象。因此,以下若干想法或可视为初步而甄综的反思。
第一,前文所述自由意志受到冲击和挑战的几个方面,需要从综合的视野来考虑和应对。在今天,分别地考察并处理这些问题固然可能是有用的,然而,这些冲击和挑战几乎是同时出现的,它体现和指示了这个时代的宏观大趋势。因此,深入的思考和根本的应对措施在方法论上应当是整体观的。而颇值得人类深思的一点是:冲击和挑战人类自由意志的诸多科学和技术同时出现且互为奥援。
第二,基于前一思考,人们关于自由意志所遭遇的冲击和挑战的认识和思考要与这个时代人的性质所面临的变化这一现象结合在起来,事实上,前者属于后者的一个部分,尽管是最重要的部分。同时,这个问题还需与人类是否能制造出超越自身理智能力的人工自为者等问题结合起来考虑。有人以人是否在扮演上帝的角色为题目切入这个思考,但他们跳过了一个准备性的思考,即人类是否有能力扮演这样的角色,或换言之,人能否造就那完胜自身的人工自为者?这个质问无疑包含了深刻的理论的和逻辑的困难。不过,从另一个角度来考虑,诸如人工智能诊疗系统、无人驾驶汽车等智能系统表明,人的自由意志能够分离出来而在一定的范围即所谓专域内独立、远程、延时和重复地执行,那么人们关于它们在未来某一节点上会自行进化和发展的猜测或担忧也就有相当强的根据,波斯特洛姆和泰格马克等人就是由此而提出了有关人工自为者纪元的假想。
第三,再回到现实层面,人的自由意志所面临的冲击和挑战同时关涉人类尊严和命运,关涉正义、法律和道德等基本规范,因此更为全面的研究就要将自由意志问题纳入其中而予以综合的考察和讨论,这样,人们才能认识到这类问题的深度和广度。很显然,自由意志是与人的性质、人的同一性、人类安全和前景等一系列根本问题须臾不可分离的。
第四,综合的和整体的思考体现了方法论的要求,下文以对人工智能和大数据技术的思考和应对为例提出若干具体的分析。
如前文所述,人工智能和大数据确实对人的自由意志形成了冲击和挑战,然而,暂时没有任何证据表明,在可预期的未来,人的自由意志会被人工智能和大数据技术碾压,因为人工自为者并不如一些人所预言的那样即将到来,奇点尚在遥不可及处。但这个一般的断言并不解决前面所叙述和讨论的当下面临的事实。有效的且实际的方法是,在这样一个基本的前提下,具体地来分析各种可能性和应对的方法。
(1)人工智能和大数据技术及其应用正处于高速发展时期,研究文献层出不穷,而媒体亦多有报道,但是,从现在情形来看,一般民众对这种发展和进步却所知不多,而正是这一点埋下重大的隐患:民众对此越是缺乏认识,这些技术就越容易成为一种侵犯民众权利的特权。因此,这类技术的公开、透明和开放,或预测的透明化,应是对抗人工智能和大数据技术特权化的有效手段。只要相关的信息是公开、透明和可方便、普遍利用的,那么,个人就有能够享有这类技术带来的便利,以对抗它们造成的可能削弱和压制自由意志的手段、行为和其他力量。
(2)相应地,人工智能和大数据技术也使得每个人可以获得关于自己和他人的行为、习惯等更多的信息和认识,进而亦获得了改善、调整或合理化的条件;它们亦使个人与个人、社会和政府之间的关系和博弈更趋复杂,但是,这同时就为个人发挥自身的能动性开辟了更大的空间。人们对自己的认识越全面和深入,就会在行为选择、生涯目标、政治倾向乃至政策偏好等方面越有自主性。
(3)就现代政治和民主模式而言,如果大数据技术及其预测是公开和透明的,民众亦就可以根据获得的相关信息采取相应的对策。同时,人们亦可获得对社会更全面而深入的了解和认识,从而形成自己关于政治态度和社会方向的独特的见解,据此,人们也可以反省和调整自己的原则、选择、策略和计划。一般可以相信,在信息——包括大数据技术所产生的预测信息——获取上越平等和便利,民众就会越理性,因而更不容易被操纵。
(4)人工智能和大数据等技术的进展和普及,也必定会导致政治和民主形式的变化。我们不能设想,过去的政治和民主形式能够适应人工智能和大数据技术时代,它们更无法应对这两项技术高度发达的未来社会所要求的更高的正义和良序的要求。事实上,随着网络和相应的信息技术的普及和深入,社会生活的各个层面,包括政治和民主形式已经历了逐渐的变化,组织、动员、宣传、交流乃至募捐等形式都不同于以往。无疑,迄今为止的变化远不足够,它们还需要并且也会在许多方面发生更大的变革和进步。
如前所述,自由意志对人而言乃是一个核心,却也是一个极其艰难的学术问题,人们为此争论了两千多年而没有达成共识。在人工智能时代,自由意志的重要性一方面更其突出,另一方面相关的意见也更趋分歧。自由意志之所以然以及它之运作在相当大的程度上依然是不清楚的。一些人根据物理原理推断,它无非就是一种特殊的算法——这虽然算不上一种严格的论点,但至少并没有否定自由意志的存在及其独特性。不过,确实也有一些人利用这样的局面根本否认自由意志。他们的论述看起来很繁复,但实际上只是利用科学的个别的、有严格限制的实验和结论,而予以无限制的夸大,或仅仅突出人工智能和算法等功能,而抹杀人在至今为止的人工智能等技术上的最终支配地位,以虚张声势的方式否定自由意志。
《未来简史》就是这样一种做法的典型代表。赫拉利以极其跳荡的思路,把表面上看似有联系而实际上却无直接关联的事例和结论连接起来,从而做出夸张和草率的断定。比如,他说自然科学证明没有自由意志,但他并没有严肃地引证任何一个科学实验来支持自己的观点,因为任何实验,包括本文所分析的李贝特实验也没有得出如此一般而没有限制的结论。赫拉利夸张的风格主要还不是在于常用比喻,而是在于以科学的名义,却从来不顾及科学实验的结论的严格条件限定,当他试图用基因、激素、神经元的活动来取代和否定自由意志时,他没有想到,他能否证明:通过这些活动的特定发生直接得出特定的人的决定或欲望?显然,他无法做到这一点,而且连提都不提。另一个关键之点是,他以其东拉西扯的风格用所谓的超级设备、工具和制度来否定人的自由意志,却根本没有顾及,这些设备、工具和制度依然是由发明、设计、制造、控制和完善的。
总之,自由意志在今天确实面临巨大的冲击和挑战,而这些来自不同方面的冲击和挑战从总体上来看可归结为三个方面:第一,在无人驾驶汽车等人工智能系统中,自由意志的外在而分离地执行;第二,自由意志的物理基础逐渐发生变化,不再奠基于纯粹的生物体,而可奠基于生物体与非生物体的复合体,相应地,其知识条件在来源上也出现了性质的变化;第三,人的活动的所有踪迹经大数据等技术处理之后可让人的自主选择和决定显得仿佛是依照机械规则那样有可确实预测的规律。尽管这些冲击和挑战目前并无法否定自由意志,但它们却展开了自由意志在未来可能的多样前景,即可能的更为强大的非人类的自由意志,或因生物的和合成的技术而变得更为强大的人类自由意志,或人类的选择和决定及其外在行为因被全面认识和预测等而失去其独特性、自主性和随机性。对人类的自由意志的前景,我持一种审慎的乐观,其根据不仅在于人们从现在起就着手研究这些挑战并探讨应对的策略,而且还在于,从更宏观的视野来看,人类自现在开始的有意识的进化。