百岁基辛格驾鹤西去,留给世界的最后一本著作,是一本破圈之作《人工智能时代与人类未来》。它的扉页上印着献给“南希”——基辛格的妻子,内里却更像急于交付给全人类的读本,以便我们和南希一样可以看“透”人工智能,从而看见未来。
信使基辛格
写作本书之前,基辛格也从没有预想过自己会去写一本科技著作。写作本书,对他来说,是偶然的、计划之外的事。六年前,一位人工智能专家邀请基辛格出席一次人工智能讨论会,基辛格本能地觉得这是一场与他无关的技术讨论,拗不过邀请者的劝说,时年九十五岁的基辛格躬身入局。不久,又一位人工智能专家闻讯赶到,形成了一个稳定的讨论人工智能时代如何影响人类未来的“三人组”。这两位人工智能专家,一位是谷歌前CEO埃里克·施密特,另一位是麻省理工学院计算机学院院长丹尼尔·胡滕洛赫尔。我们现在看到的这本书,就是基辛格与他们的合著。
这两位人工智能领域的一流人物为什么要拉上基辛格这样的人工智能外行?一个合理的猜测与解释是,他们不仅相信基辛格能看到人工智能专家所看不到的问题,同时也希望借助基辛格的声望,完成传递有关AI 消息的信使的职责。
多年前, 王小波在《读书》杂志上发表过一篇名作《花剌子模信使问题》。花剌子模,是一个中亚古国的名字。据说,给国王送来好消息的信使会加官晋爵,给国王送来坏消息的信使会被直接喂老虎。套用当下的玩梗文化,我们或许可以说每个人心里都住着一个花剌子模国王,人类需要时时警醒不能让自己只听好消息。
尽管基辛格领衔的“三人组”没有将人工智能说成好消息,也没有说成坏消息,我们还是能从字里行间感受到“信使”的忧虑。彼时已经体验过GPT3.0 技术的基辛格们在书中写道:“这是一场革命,人类现有的哲学概念和社会制度让我们在面对这场革命时颇有些措手不及。”
其实,基辛格探讨人工智能与人类未来的书,早在二〇二一年就问世了。但是,该书在当时的美国并没有激起什么波澜,在中国更是知之者甚少。如果不是因为ChatGPT 横空出世震惊全世界,中国出版商也许不会如此急切、如此快捷地翻译引进这本“旧书”。
ChatGPT 正如一个友情加入“三人组”的巨兽,让无数的南希们都突然对信使们的忧虑感同身受,甚至开始慌张。那些在大机器时代尚有些沾沾自喜的脑力劳动者都开始相互打趣是不是哪天就会被人工智能取代,比如律师、教师以及医生。毕竟人类的理性计算能力,在人工智能面前显得不堪一击。
十多年前,少数科幻迷用来讨论人工智能毁灭人类的末日概率P,一夜间又流行起来。业内人士无论相识与否动辄问对方您的P是多少,就像问厕所在哪儿一样随意。研发出ChatGPT 的OpenAI公司首席科学家竟然公开表示,他的P 在5% 至50% 之间。
看不“透”的风险
人们的慌张,来源于看不“透”人工智能将会把我们带去何方。人工智能树立起高高的技术屏障,让不知情的南希们只能靠猜想为自己的未来担忧。
虽然严肃的人工智能科学家都认为,震惊世界的ChatGPT 没有越过“弱人工智能”的门槛,连通用人工智能都算不上,更别奢谈强人工智能了, 虽然各类提供人工智能技术服务的公司,包括OpenAI都声称人工智能技术的目的是给人类赋能,而并非盗取人类的饭碗,但这仍然无法说服普通人相信人工智能的权杖真的掌握在自己的手中。人类会毁灭,看起来还是个玩笑;但个体会被隔绝以及抛下,却是切肤的问题。即便是基辛格的两位专家伙伴,都坦言:“无论哪个领域的专家,都无法凭借一己之力理解一个机器能够自主学习和运用逻辑的未来。”看“透”人工智能,成为这个世纪刚开头的时候人们最急迫的任务之一。
二〇二三年春天,马斯克对自己参与孵化的ChatGPT 的问世不但没有表示任何喜悦之情,反而公开谴责ChatGPT 背离初心、“科技向钱”。这个初心,就是OpenAI 中的Open 一词,敞开的、能够让人看“透”的人工智能。OpenAI 这几年并没有完全兑现公开所有研究成果、增进全人类福祉的承诺,开源方面早在二〇一九年就不太open 了。如果不是被群嘲OpenAI 应该更名Closed-AI,本已决定不再开源的GPT-2 模型,就可能彻底对公众掩上了面纱。
“输入输出不由人类控制,算法是个黑匣子”的传说,在人工智能发展的初期不断传播。谷歌这样的巨头因此得以使用“商业秘密”这样的话语来为不透明的人工智能开发提供合法性。时至今日,透明性悖论,仍然是科技巨头们常常讨论的议题。比如,模型运行的重要细节可能被窃取,可能遭到外部实体的网络攻击等等。当然, 激烈竞争的市场下,这样的议程无可厚非。可是当我们明确感受到偏见、歧视、操纵、隐私泄露……我们便明白,更为重要的事是去揭开人类智能,而非人工智能为数据贴上的一个个小标签,继续追求透明,而非在透明悖论中打转。
没有透明,人类永远被动
基辛格生前叹息地表示过,人工智能是一场迥异于汽车取代马车的划时代变革。在这场变革中,我们并不知道我们要扮演何种角色,我们是被动的,不是积极主动地共襄盛举,而是身不由己地裹挟其中。诚如“计算机之父”图灵所言——“我们只能看到前方很短的距离”,我们模模糊糊地感觉到人工智能似乎造成了什么影响,但我们并不知道未来。
未来,就像一个盲盒,如果透明性原则不能得到企业和国家的彻底认同,人类打开的就可能是一个潘多拉魔盒。
对不透明的担忧,加速了美国、欧盟人工智能立法进程。有趣的是,真正引发欧美政治家警觉的,是ChatGPT 的横空出世,而非基辛格一厢情愿的呼吁。早在二〇二一年,欧盟就有出台人工智能监管法案的计划,但是喋喋不休推进缓慢。当ChatGPT 把舆论操纵之类的现实风险摆放到立法者面前时,欧洲人才发现监管立法已迫在眉睫,不能再拖了。二〇二三年即将结束的时候,欧盟各成员国和欧洲议会历时三天的唇枪舌剑,推出一个史无前例的突破性的吃螃蟹的人工智能监管法案。
欧洲人工智能监管法案中,透明性原则成了不容置疑的立法原则。法案矛头直指ChatGPT和谷歌等人工智能巨头, 要求ChatGPT 等基础模型在投放市场前必须履行透明度义务,以详细摘要的方式披露技术文件之类的细节。对于某些特定的人工智能系统,法案也要求其在使用聊天机器人或“ 深度伪造技术”时,履行最低限度的透明度义务,明白无误地提醒人类用户,和你聊天的是机器而不是人。
综观联合国教科文组织、部分欧美国家,以及我们中国的“软法”“硬法”,“透明性伦理原则”是压倒一切的伦理原则。虽然措辞不尽相同,观点并无二致,都希望人工智能成为可控、可靠、可用、可信的人类的工具。
透明,特别是算法透明,是人工智能其他伦理原则得以保障的必要先决条件。我国《互联网信息服务算法推荐管理规定》等规定强调算法备案,针对的也是人工智能技术开发和应用中可能存在的不透明问题。如果我们不能通过透明性原则增强人工智能的可审计性、可追溯性、可解释性和可依赖性,联合国教科文组织几年前发布的“人工智能十大伦理原则建议”中的其他九个伦理原则,都是镜花水月可望而不可即。试想,没有透明度,人们如何对微软、谷歌等科技巨头的人工智能技术是否有益于社会提出有效质疑?
作为一个有全球影响力的外交家,基辛格对透明性原则的关注, 在于国家, 而非企业巨头。基辛格的视角确实不同于一般科学家,他担忧的,不仅仅是“如果机器会思考,我们人类又是什么”这样的哲学家式的担忧,更有对国家之间人工智能竞赛的担忧。基辛格呼吁大国更加透明,让世界了解其在人工智能方面的目标与进展,以免其他国家迷茫恐惧,两败俱伤。
希望所有国家都能在人工智能领域保持透明的主张,或许有点儿乌托邦,但肯定是正确的。因为,没有任何一个国家可以凭一己之力独自控制人工智能带给人类的风险。作为人类命运共同体的一员,我们天然享有知晓潜在风险的权利、预先获得提醒的权利。然而,没有人工智能企业巨头的透明,没有人工智能研发大国的透明,我们的权利就只能停留在纸上,我们无从知晓潜在风险,也无法预先获得提醒。仅凭这一点,我们就还是向“中国人民的老朋友”基辛格致谢,感谢他未必正确的观点中流淌的“信使”之思。
(《人工智能时代与人类未来》,[ 美]亨利·基辛格、埃里克·施密特、丹尼尔·胡滕洛赫尔著,胡利平、风君译,中信出版社二〇二三年版)