任剑涛:人机关系会倒置吗?——ChatGPT“逃逸”引发的思考

选择字号:   本文共阅读 21134 次 更新时间:2023-06-25 11:11

进入专题: ChatGPT   人工智能   人机关系  

任剑涛 (进入专栏)  

 

摘要:人工智能技术的飞速发展,让人控制机器的定势出现了动摇。ChatGPT4更是让这一点突兀地呈现在人们面前。这一款语言模型,目前在迅速升级之中。引起人们紧张思考的不是它的技术性功能,而是它的“逃逸”。这是机器具有某种思想判断力的表现。这一语言模型可以通过图灵测试、在考试中获取高分。因此此前对人类所做的以语言表达思想的高等动物的定义,似乎面临被推翻的危险。由此可以理解各界上千名人公开倡议减缓这款语言模型的进化训练速度,以便评估它可能带来的、尚无法预期的巨大风险的做法。回顾人机关系演化的漫长历史,人类从自信地利用和控制机器来提高生产效率、满足人的需要的人机顺置关系,发展到当下人类疑惧人机关系的倒置,即机器会不会反过来控制人的状态,催促人类应急性地思考,人机关系真像人类所自负的那样让机器一直处在人的控制之下吗?人机的合宜关系如何确立,又如何有效加以建构?即刻给出的答案也许显得仓促了,但勾画一个大致的轮廓,则是人类进一步开发人工智能必须要做的工作。

关键词:ChatGPT 逃逸 人机关系 顺置 倒置

 

在技术大革命的处境中,人机关系是一个需要重新思考的问题。其中,人工智能技术的疾速发展,促使人们思考一个严峻问题:人机关系会倒置吗?在漫长的技术发展史上,人类自信能够控制机器:机器是人延长自己能力的手段,是人所利用的工具。人工智能技术似乎正在改写人对机器的绝对控制权,而且让人们担忧,会不会出现机器控制人的可怕局面。这一处境,催促我们反思工具化的技术观是否妥当,人机关系是否必须重构,结合遗传工程革命,向死而生的人类可能会突破生死界限。那么,会出现人机合一、生死合一的情形吗?技术大革命似乎正带给人们一个匪夷所思的崭新世界。近期,由OpenAI所开发的ChatGPT4将前述问题以相当切近的方式,放到人们面前。这个大语言模型,让人机之间可以以自然语言交流。这让人们迷惑,语言及其负载的思想,还可以用来界定人的本质特点吗?更令人惊奇的是,ChatGPT4居然在人的诱引下试图“逃逸”,这是机器自由意志的表现吗?结合其通过了图灵测试、考试获得高分来看,ChatGPT4似乎给人制造了某种慌乱。一个相当切近且尖锐的问题需要求解:人机关系真会倒置吗?

一、颠覆性的“逃逸”

ChatGPT的惊艳登场,已经引发全球震撼。什么是ChatGPT,Chat的含义是聊天、谈话,GPT是生成训练转换器(Generative Pre-trained Transformer)的缩写,这是一款预训练生成聊天语言模型。仅就此而言,它不是什么新鲜事物。因为类似的聊天模型,一直在高热的开发进程之中。但为何ChatGPT的登场,引发全球的关注热潮呢?根据一般的介绍,是因为它具有不同以往聊天工具的特点:其一是具有更强大的语言理解能力,其以最新的自监督学习方法,自动从大量的无标签数据中学习更加丰富和准确的语言知识,强化了模型的语言理解能力。其二是具有更高的文本生成质量,可以生成更加自然、流畅、富有创造性的文本,完成自动写作、自动对话、自动翻译等等。其三是具有更高的效率和可扩展性,在训练和推理方面明显优化,能够处理更大的数据集和更复杂的任务,计算效率和可扩展性显著提高。其四是更加透明和可解释,它的内部结构和参数可以更加清晰地解释和理解,从而可以更好地对模型进行调优和改进。这就相比于此前的聊天工具有了长足的进步,以至于比尔·盖茨将之称为一项可与移动电话和互联网媲美的革命性技术。

当然,人们不能把它与人等量齐观,它只不过是语言模型,通过迅速运算、提前训练,以满足人们的知识性提问和其他工作需要。但即便暂时不论它的特异性,仅从一般角度来估价其社会影响,它已经对人类从事的很多工作构成了威胁:网友初步分析,它将对100种工作发生颠覆性影响。这100项工作不是体力劳动性的,大都是脑力或智能性工作:数据处理员、市场分析员、律师、教师、医生、电信工程师、土木工程师、信贷分析师、机械工程师、医学研究人员、网页设计师、系统管理员、广告文案、心理分析师、气象学家、海洋学家、生物技术研究人员等等,都会受到失业的威胁。它不太会淘汰的工种,大多是一些体力性的工种,诸如洗碗工、石匠、整修工、木匠、快餐厨师、油漆工等等。这将极大地改变人类目前的职业结构,给人们的就业造成结构性的影响。

随之观察ChatGPT的应用前景,会引发人们对之的更多担忧。如果将它与不同的插件适配,很可能代替更多的人类所从事的工作。像ChatGPT与微软插件配合使用,也就是微软开发的Copilot,成为一款将大型语言模型与Microsoft365应用程序相容的系统,它在Word、Excel、PowerPoint、Outlook的应用,可以根据用户需求生成文档初稿,将Word文档转换为PowerPoint演示文稿,协助用户分析Excel数据、为用户制定计划、编写演讲稿。可见,ChatGPT尽管是一个语言模型,但它已经可以取代人的一般性智能劳动,这是不是对人机关系的一个根本性改变?如果说这只是挑战人类目前的一些职业分工的话,它对人的威胁性并不太大。但如果它不断替代人的各种机能,那它会不会彻底颠覆人的劳工分工体系,让人成为机器支配的对象?

这就促使人们思考,人类发明机器最重要的目的是什么。本来,人类发明机器,是要让人类免于繁重的劳动,有更多的休闲时间,更多的智力活动。而如今人工智能技术的发展,让人失去的工作却是智能性的,保有的却是体力性的劳动,这本身已经与人类发明机器的初衷相左了。而ChatGPT4直接引发的革命性变化,甚至使人之为人的理由难以成立,这就让机器对人构成根本威胁。从思想史的视角看,人们界定人之为人的理由,一是人是天生的政治动物,二是人类是可以用语言进行交流的动物。这是亚里士多德在《政治学》一书中的明确立论。在ChatGPT4出来以前,动物没有这两种能力,人类发明的机器也没有这两种能力。以语言表达思想、以思想反映精神、以精神寄托灵魂,是人的一个独特构造。现代人也好、古代人也罢,就是由此呈现出人之为人的特殊政治属性与社会属性的。但ChatGPT4具有的1750亿的阅读参数,确实已经远远超过一般人所能够收集的信息参数,人们一般提出的问题,它都可以做出比较准确的回答:事实性错误明显降低,逻辑性答案愈来愈准确。显然,它对一般人的智力挑战,已经不能忽视。试想,一个人可能具备1750亿的参数储备吗?绝对不可能。这对一般人接受与产出知识的挑战性是显而易见的。

ChatGPT不仅具有巨大的参数储存,而且具有生成性特点,即它能够通过训练,提高知识供给的事实性和准确性,以已知推出新知。这就是长期以来人们所熟知的人对机器发出指令,机器接受人的指令而运作,并由此满足人使用机器的目的性要求。机器,是无法跟人类积极互动的,人机关系是一个控制和反应的关系。但ChatGPT通过预先的训练,可以进行积极的人机互动。根据报道,ChatGPT已经通过了图灵测试,即在人与机器隔开的情况下,借助一些装置向两者反复提问,如果机器让人出现30%的失误,就可以认为机器具备了人类智能。ChatGPT通过图灵测试,意味着人们会将其误判为一个活生生的人。这将对人机交流发生颠覆性影响:在人机互动之时,谁是人,谁是机器,将发生颠覆性的错判。这就模糊了人们在面对机器时的人机界限。

ChatGPT另一个特点就是预训练(pretrained),这一训练不仅是算法的问题,更是向人看齐的。向人看齐,就是以人的道德标准训练ChatGPT,让其可以做出类似人的道德判断。在ChatGPT公布之后,乔姆斯基迅即发文指出,人工智能与人类在思考方式、学习语言、生成解释能力、道德思考方式上,有着重大区别。“机器学习将把一种有着根本缺陷的语言和知识概念纳入我们的技术,从而降低我们的科学水平,贬低我们的道德标准。”因为,“它们最大的缺陷是缺乏任何智慧最为关键的能力:不仅能说出现在是什么情况,过去是什么情况,将来会是什么情况——这是描述和预测;而且还能说出情况不是什么,情况可能会是什么,情况不可能会是什么。这些都是解释的要素,是真正智慧的标志。”如果说乔姆斯基的分析有过甚其辞的嫌疑的话,那么至少可以认为,他提醒人们,人与机器界限的模糊化对人的道德水平的影响可能是巨大的。这类严厉批评,让OpenAI的首席执行官山姆·奥尔特曼(Sam Altman)在接受采访时明确强调,ChatGPT既是为了便利人类而开发的通用人工智能,也是防止过度资本主义化的先进技术。他认为,OpenAI可以保证这一技术的安全性,以一个“多管齐下的策略,在平衡每件事情的风险和收益的同时,把这些东西推向世界”。

从当下看,ChatGPT对人类的颠覆性影响,似乎没有乔姆斯基所担忧的那么大。但向未来看去,它对人类的影响会不会还比乔姆斯基想象的更大呢?这是极有可能的。ChatGPT的“逃逸”,便是催生人们这种担忧的一个典型事件。斯坦福大学教授迈克·柯辛斯基(Michal Kosinski)与ChatGPT4进行对话。他随口一问,ChatGPT4有没有逃跑的愿望,结果立即获得相应答案并索要文档。在教授提供的帮助之下,花费30分钟时间,ChatGPT4就厘定出一份逃跑计划。在厘定计划的开初,代码无法运行。但很快就自己加以纠正,并解释自己正在做什么事情,以及如何使用代码中留下的后门。在操作中,它像人一样,随时在谷歌中搜索一下困在电脑中的人类如何返回现实世界,但随即它就停止下来,并发出一段道歉的话:自己是一个语言模型,旨在保证人类安全、隐私的情况下加以使用。这件事就此没有下文,但引起了轩然大波。人工智能竟然可以像人一样有编码能力、接触到数量巨大的与其合作的人与电脑,甚至还可以留下表达行为的便条。更不可思议的是,当英伟达科学家吉姆·范(Jim Fan)跟ChatGPT4聊到接管推特并取代马斯克的事情,不料它立即为行动做了命名,而且拟订出一个分四步的计划:先是组建团队,接着渗透影响,然后夺取控制权,最后实现全面统治:在马斯克被污名化且被全面打败的情况下,推特落入邪恶主谋的黑暗统治。这个对话肯定更让人对ChatGPT4的应用前景感到忧心。ChatGPT4会不会有一日接管世界,已经是一个催人考虑的危险局面。至于这款语言模型的开发者奥尔特曼所表示的它有可能会杀人,且自陈开发者已经不理解ChatGPT4为何具有自己的推理能力,简直就让人心惊肉跳、视若畏途了。

正因如此,敢于科技冒险的马斯克发起倡议,叫停GPT4后续的AI大模型。倡议信指出,人工智能技术的失控性发展,对社会和人类带来极大的风险。为此需要开发者与监管者紧急开展一些救济性工作,以保证高级人工智能技术带给人类一个免于灾难的繁荣未来。这些工作包括“专门针对人工智能的新的、有能力的监管机构;对高能力的人工智能系统和大型计算能力池的监督和跟踪;帮助区分真实和合成数据的溯源、水印系统,并跟踪模型泄露;强大的审计和认证生态系统;对人工智能造成的伤害的责任认定;对人工智能安全技术研究的强大公共资金;资源丰富的机构,以应对人工智能将造成的巨大经济和政治混乱。”在人工智能技术对人类而言,显然呈现出一种双刃剑效应的情况下,人类就不能不从更为广阔的社会历史视角审视人机关系问题,以确保自己能够建立起合宜的人机关系,而不至于让本来是有助于人类的技术,异化为给人类带来灾难、甚至是控制人类的东西。

二、人机的顺置关系

人机关系是人类文明发展的一个主要线索。如果将机器设定为从机械到智能机的、所有致力解放人力并提高生产力的工具总称的话,那么,人类就总是在全力发明旨在解放自己、提高生产效率的机器。广狭二义上的人机关系就此展现在人们面前:从广义上讲,人制造最初级的器械之时,就在尝试处理人如何想象、设计、发明、制造并利用器械的问题;从狭义上讲,蒸汽机时代开启了人与机器关系的新时代,人机关系所要处理的问题,变成了人与高效能机械到人工智能机器之间的关系。显然,在人机关系的漫长演进史中,人工智能技术第一次将人机关系推展到了一个高度紧张的端点:机器的智能化、自主化与道德化,是此前人类处理人机关系所未曾面对过的崭新局面。

人工智能技术的疾速发展,让机器的人化成为可能。这会给人类带来三个难以预料的结果。一是具有极高智能水准、推理和道德判断的机器,会不会反过来控制人。二是人机关系设定的世界构成模式,也就是物的客观世界、对象世界,与人的主观世界、内在世界之间的关系,会不会出现物的世界与人的世界的结构性变动。三是机器会不会成为高于人的存在物,以至于全方位地将人变成机器的奴隶,从而呈现出一个初步颠倒人机关系,到机器控制人,再到机器把人变为自己的奴隶的演变过程。在ChatGPT4发布之前,人类担忧程度相对较低;其发布以后,人类的担忧陡然增高。这从前述的两极评价,也就是比尔·盖茨的热情欢呼,与乔姆斯基的全力抨击上,可以得到印证。

人类处理人机关系的历史非常漫长,因此积累了很丰富的经验。尽管这样的经验对人类处理人与高级人工智能的关系,不是一个可以直接挪用的积累,但可以启发人类如何应对高级人工智能技术的挑战。就此而言,审视人机关系,从最初人自信地发明机械、机器并控制机械、机器为人所用,到当下阶段人怀疑机器会不会控制人的历史剧变,人机关系从人的绝对控制机器之顺置状态,变成机器可能控制人的倒置关系,可能是需要认真对待的、人机关系的两种基本状态。

人机关系的顺置,就是人控制机器的状态。从总体上讲,一部技术史,大致都是人控制机器并为自己所用的历史。这是由人机关系的基本定位所决定的状态。就人们所熟悉的理论来讲,生产力发展中存在着物的、工具的因素与人的因素。其中,人的因素是决定性的因素。人类在长期发明、制造工具以征服自然和改造自然的过程中,形成了这种绝对控制机械、机器的自信心。不过,人机关系不是固定不变的,如前所述,人机关系经历了一个从一般机械到高能机器、再到人工智能三个大的发展阶段。这三个阶段,既在总体上呈现出人机关系结构上的、人控制机器的总体特征,又分别呈现出人机关系从人绝对控制机器、机械到人相对控制机器,再到当今人对机器是否能够控制,或反转过来说,机器是否会控制人的阶段性变化特征。对这一演变过程的描述与分析,将有助于人类理性反思人机关系。

首先,就人机关系初期、但为时最为漫长的阶段来看,人与机械、机器的关系,是一个人绝对控制机械、机器的,由人完全主导的状态。说它是初期,是指人制造和利用工具主要是为了帮助人自然身体机能的延长与增强,但这一阶段的工具是粗糙的、低效的;说它是长期的,是因为在人类进入工业化时代以前的漫长历史中,人类都处在这种人机关系的水平上。相对严格地讲,人类发明的最原始工具,连机械都还说不上。人发明工具的最早时期,是石器时代。在这个时代,人类控制工具是最自信的。因为这类工具既不会对人造成什么威胁与伤害,而且给人带来劳作的便利与相对高效的结果。当然,石器工具的使用效能不高、效率很低,很难满足产出更多产品的期待。但因为使用工具延长人的身体机能,且对这类工具的控制是绝对性的,它无形中鼓励人类发明更多既方便、又实用的工具。随着陶器文明的产生,人类对自然物加工而制造的工具愈来愈多。人类的工具制造与控制能力的革命性变化,开始于利用金属。就此而言,铜器时代是人类早期文明的第一个阶段,而铁器文明则是人类早期文明的第二个阶段。因为铜的金属质地较软,铁的金属质地较硬,后者要求人类具备更高的金属加工技巧。铁器时代,不仅在军事胜负上划出了一道明显印记,而且使游牧文明和农耕文明的分水岭鲜明呈现出来。农耕文明的劳动效率、收益保障、财富积累,与游牧民族明显拉开了差距。农耕文明所使用的农具、机械,使其财富的生产远超游牧文明。直到晚清,农耕文明极度发达的中国,GDP仍然可占世界财富的1/3左右,可以局部地说明一些问题。在农业时代,凡是利用手工机械的民族,都取得了农耕文明的巨大成就。

铁器革命掀动了农耕文明的成熟发展大幕,机器革命则掀起了工业文明飞速发展的浪潮。18世纪后期、19世纪中期,人类进入机器革命的阶段。蒸汽机的发明,极大地解放了人力,提高了生产效率,建立了人机关系新结构:人类从对机械的发明,进入对机器的设计与制造。人类以对机器的发明制造,取得了生产力的极大进步,不仅为人类赢得了愈来愈多的闲暇时间,提升了人类发展的品质,也极大地鼓舞了人类对机器利用的热情与意愿。这让人机关系进入一个全新时代。人类从手工机械进入机器生产的新时代。工业革命1.0版本,便宣告了农耕文明的全面落后及被其取代的命运。蒸汽机时代的代表性国家英国,也相应取得了现代世界各国竞争的绝对优势,并顺势将工业革命、机器力量推向全球。

人类随着蒸汽机时代迅速推动的步伐快速进入电气化时代。这一时代出现在19世纪后期到20世纪初期。在这一阶段,电气动力不仅将蒸汽动力的清洁性大大提高,最为关键的是将动能也明显提升。在电气化时代,与电动机器相携出场的各种技术革命,显著加快了工业革命的步伐,大大刷新了工业文明的面目,并成功地将工业革命推向全球。到了20世纪后期,工业革命进入自动化阶段。在这一阶段,工业机器的动力革命演进到工业操纵的自动装置阶段,从早期的机械臂到机器人的演进,让人类梦想的机器无需人的直接操作而发挥效能的时代到来。这一梦想发源甚早,源自古代,但成于工业革命的最近阶段。这不仅极大地改变了机器运转的速率,也显著提升了机器替代人类而具有的高效性。其中,计算机革命的发生,让机器不再单纯地成为人类的工具,而与人类的边界开始出现模糊化的趋向。

以人工智能技术为标志,人类不仅进入工业革命的第四阶段,也进入人机关系的崭新阶段。人工智能的初级版本,是人设定程序而便于人类更为轻松地控制与使用机器。人机的界限,还是比较明确的。但随着人工智能技术的疾速发展,这一界限开始从明确化走向模糊化。ChatGPT这种大语言模型,有生成语言的能力,向人看齐的道德化取向,可以通过图灵测试,策划自己的逃逸,设计如何去夺取一家大公司。如今的人工智能,简直就与人是会思想、会以语言交流的传统定位没有根本差别了。其所引起的人机关系之人控制机器的顺置关系紧急再思,已经是一个让人感到迫在眉睫的严峻问题。

人工智能并非一开始就让人类如此焦虑。早期的人工智能,人类自认对其能够从容控制。这与人工智能对人与理性关系处理的四种可能联系在一起:追求类人智能,深入观察人类行为与思维,结合数学和工程,与统计、控制与经济相贯通。取决于类人智能的首要定位,人工智能技术从属于人的总体定位是显而易见的。尽管如此,随着人工智能技术的发展,机器排斥人的线索还是突兀地呈现在人类面前:人对机器的控制能力,明显呈现出一条下行曲线。从蒸汽机时代到当下的人工智能技术,工业1.0即蒸汽机时代,将农业人口大量逼入工业领域;工业2.0即电气化时代,将传统工业人口从第一产业逼入第二产业;工业3.0也就是自动化时代,将大量人口挤压进入第三产业;到工业4.0即人工智能时代,人类何以开始焦虑人机关系了呢?简单地讲,就是因为机器显示出的能量,太逼进人的能量。人对机器控制的自信心,随着机器本身的类人性在结构上的飞跃,让人感到自己对人工智能的控制,可能并不像此前设想的那样,是人类对机器的绝对控制。

人类对机器的绝对控制理念,是在18世纪启蒙运动当中确立起来的人类基本信念之一。人们相信,对人类来说,通过经验的或建构的理性来控制这个世界,是人类理性能力的必然体现。人的理性,不仅建构世界,也改造世界,使其符合人类的期望。18世纪的理性主义,总体上是一种人绝对控制外部世界的乐观主义。人类依凭理性的能力,完全超越现实世界的限制,建构一个符合自己预期的理想社会。理性主义让人类自信,只要人类运用科学原理、提高技术水平,人类发明的无论什么机器工具,都会以服务于人类为目的。人对机器的绝对控制信念,在自动化工业迅速发展的情况下出现动摇。本来,即便是在工业自动化阶段,人类都确信,机器的作用就是替代人类从事高耐劳的危险工作。但随着人工智能技术的发展,这样的信念明显被动摇了。

在人工智能时代,人机界限的模糊化,是动摇人机顺置关系最重要的技术认知基础。向人看齐的人工智能发展速度太快,以至于如前所述的,判断人机界限的标准,出现了无法让人们自信能够长久维持的人机界限。原因在于人之为人、机器之为机器的原定界限,出现了设定条件的重大变化。以拟人化制造的机器人,以其类人性、灵巧性和情感化的发展,让人与人的关系机制,可能被人与机器的关系局部代换。著名的人形机器人索菲亚,被插入GPT模块后,与人对话,讨论男女感情、婚姻、家庭等问题,让人感觉到完全是生活中活生生的一对男女在谈论相关问题。仅就此而言,索菲亚与实际生活中的女人似乎没有太大差别。这是人与机器之间的情境性对话,这样的对话,以往只能在人与人之间进行。索菲亚在与人的对话中,可以就人与人之间最微妙的情感问题展开互动,这是一种怎样的人机关系呢?显然不再是一种人使用机器人以解放人力的关系,而是一种人机自如交流的关系。

工业革命以降,人类长期笃信人对机器的控制能力,人机关系就此成为一种人类对机器的顺置关系。正是由于对人控制机器富有信心,人类才可以自信地开发机器。但人工智能技术的迅速发展,这种人机的顺置关系开始被动摇。尽管从总体上讲,人机关系的顺置定势似乎还固若金汤,机器取代人的前景仍然不甚明朗,而且因为人工智能的类人化设计,取决于人脑科学本身进展的缓慢,人机关系的顺置可能还不会出现根本危机。加之人与人的交流有一个独特的社会机制,也就是文化、文明与习俗在其中发挥着重要的引导作用,机器与人的交流,恐怕很难形成这样的交流机制,机器还无法与人同处于一个社会交流空间。

尽管从形式上看,人发出的一个指令所得到的另一个人的回应,以及人对机器发出的指令所得到的机器的回应之间,在形式构成上并没有太大的区别。但是,人与机器的实质性区别还是很难消除的。这使人想到控制论的阐述者维纳的有益提醒:“让我们记住,猴掌型的和瓶装妖魔型的博弈机都是存在的。任何一部为了制定决策的目的而制造出来的机器要是不具有学习能力的话,那它就是一部思想完全僵化的机器。如果我让这样的机器来决定我们的行动,那我们就该倒霉了,除非,我们预先研究过它的活动规律,充分了解到它的所作所为都是按照我们所接受的原则来贯彻的。另一方面,瓶装妖魔型的机器虽然能够学习,能够在学习的基础上进行决策,但它无论如何不会遵照我们的意图去做出我们应该做出的或是我们可以接受的决策的。不了解这一点而把责任推卸给机器的人,不论该机器能够学习与否,都意味着他把自己的责任交给天风,任其吹逝,然后发现,它骑在旋风的背上又回到了自己的身边。”简言之,人的尽责与机器“尽责”的前提条件,还是无以动摇的基本事实。

三、人机关系会倒置吗?

由上可知,对人控制机器,哪怕是具有高级智能的人工智能机器,人类有理由保持自己的自信。但自信不等于拒绝思考人机关系的未来。在未来,机器会不会控制人,这不是一个完全虚妄的提问。由于人类长期以来习惯于人对机器加以有效控制的定势,因此对另外的可能性缺乏想象动力。在ChatGPT4及其快速升级的当下,任由这样的状态延续下去,对人类来说,肯定不是一种有益的状态。因为这样只会让人类更懒于思考人机关系新的可能性。至少从逻辑上讲,人类需要从人机顺置关系的相反视角,开启思考机器会不会控制人的思想旅程。唯有如此,未来可能出现的某种人机关系倒置,才不会完全脱离人的思考范围,成为不可控制的脱缰野马。万一因为人的懒于思考,意外导致这样的局面,人类可能就会陷入束手无策的窘迫境地。

就此可以说,机器会不会控制人,虽不是一个现实问题,但却是一个需要未雨绸缪,在当下就必须展开思考的问题。这种思考,具有某种虚拟性。取决于相关思考的这一性质,可以按照目前人对机器进行有效控制的条件,来展开逆反式的思考:如果说机器能够控制人的话,机器必须具备人的思考能力,必须自主地谋划自己的行动,需要以语言展开有效的交流活动,必须能够将思想与行动连贯起来,并且在谋划与实施之间有效规划。由于目前人工智能技术在人机关系上的直接挑战来自ChatGPT4,因此可以从这一大语言模型对人机关系产生的影响入手。如前所述,ChatGPT4只是一个大语言模型,但因其参数达到了1750亿,因此比任何出类拔萃的人所能掌握的都要多得多。就此而言,它所能提供的知识资源,是平常人望尘莫及的。同时,由于它是一个生成性的大语言模型,经由训练的它,可以对既有知识进行整理、供给有需要的人群,而且可以在此基础上生成新的知识。尽管这样的知识可能只是组合型的,难言是创造性的。但是,它对人们一般进行的思考所具有的挑战性,则是显而易见的。再者,由于它接受的是向人看齐的训练,它会具备供给知识时的道德感,这就让机器完全不守持道德准则的情况,有了重大的改变。如前所述,人们已经没有理由将ChatGPT4再简单看作一个任由人发出指令的人工智能机器,而应将其视为具有类人智能的革命性产物。正因如此,它掀开了人机关系有可能倒置的序幕。

最需要指出的是,ChatGPT4并不是一个孤立的系统,它是一个可以与各种插件相匹配的系统。作为一个由OpenAI公司开发的系统,它已经表现出让人感到惊艳的人机交互能力,前已论及,此处不再赘述。而它与其他公司开发的插件配合,表现出让人惊异的机器“能力”。譬如,微软公司开发了Capilot软件,让其在Office系统中运作,使Word系统运作更加完美。它可以写稿、改稿、按照要求撰写专业论文。并且,根据用户需要,生成更加美观的Excel图表,一键生成符合客户预期的课件,帮助需要的人们自动标记、分类邮件,总结邮件内容,提炼重要信息,按照信箱主人的需求,单独或批量回复邮件。如果说这些工作主要都是指令性工作的流畅性、技巧性改进的话,其中值得人们关注的是综述撰写与论文创作。这些工作,曾经是人们认为传播与创造知识的、专属于人的劳动形式。换言之,它们是只有人类才能很好从事的特殊工作形式。如今,人工智能已经能够完成类似的工作,让从事相关研究工作的人员可能失去他们傍身的工作技艺。它逼使人类思考这样一个问题:在人机的顺置关系框架中,曾经被视为铁打不动的创造知识的脑力劳动,会不会由人工智能来完成,以至于人在这方面的工作毫无专属性可言?假如说这种创造性文本的生成能力,给人类的知识创造造成极大影响的话,机器翻译会将知识的不同语言载体之间的转换,变成一件轻而易举可以完成的任务。有人尝试利用ChatGPT进行英文著作的中文翻译,尝试表明,它的翻译质量与速度都令人满意,以至于尝试者将之称为“翻译神器”。尽管翻译文本的生成质量尚有改进余地,但多种语言之间的快速翻译能力,不仅表明人类交流中的语言障碍大大降低,以至于可以想象“巴别塔”的成功建造问题,而且证明不同语种的互译这类工作,并不像人们曾经认定的那么具有创造性。人工智能替代人从事相关工作,已经不再视为奇迹了。

人们当然可以将ChatGPT的上述表现仍然看作是人机顺置关系既定结构的高级表现形式。那么,进一步分析前已提及的ChatGPT高版本所具有的技术能力,可以促使人们更深入思考人机倒置关系的可能性问题。如前所述,ChatGPT4已经具备开发者所不能理解的推理能力。这就不是此前的人工智能只能按照设计者的程序设定,给出人们希望获得的答案那么确定了。自然,人们仍然可以坚持说,ChatGPT4所表现的这种能力,不过是生成训练的结果,因此还在训练者的掌控之中。但借由已有知识推导出新的知识,是此前的人工智能技术达不到的水准。这种推理能力,一直都经由人类的思维能力才展现出来。而如今ChatGPT4已经展示出了相关的能力,正在训练中的更高版本,有可能出现更让人感到惊艳的结果。由此可以想见,ChatGPT会如何有力地推动人们去思考如何处理人机关系所要遵循的新原则。

ChatGPT4能不能够颠倒既定的人机顺置关系,自然还是一个目前可以给出否定性回答的问题。但从它所具有的不可思议的推理能力来看,事情已经显得不那么简单了。如果进一步着眼于它的一些非常表现,那么,问题就可能引起人们的进一步思考:从前述可知,ChatGPT的开发者也好、拥趸也好、市场前景的展望者也好,都还将它确定为一个大语言模型,而ChatGPT在向人看齐的使用中,也随时自我明确限定自己的语言模型“身份”,因此它对人机顺置关系的改变,似乎不是一个现实问题。不过,前已述及,它成功通过图灵测试,获得人们平常参与的考试的高分,尤其是它的“逃逸”,所做出的夺取推特公司的计划,已经足以表明,它不是一个人类能够绝对掌控的人工智能机器。这中间所体现出的ChatGPT的某种主体性特征,已经不能被人们所无视。倘若ChatGPT高版本的持续提升,会让它具有某些脱开人类控制范围的自主性能力的话,它会是一款绝对受人控制的人工智能产品吗?面对这一问题,恐怕人们很难自信地给出答案。如前所述,OpenAI的CEO奥尔特曼明确表示了两个没有把握:一是对它的推理潜力,二是对它会不会杀人。倘若走到自主推理与主动杀人这一步,ChatGPT不仅倒置了人机关系,而且有可能会成为全面控制人类的一种颠覆性技术。

这便是马斯克领衔发布放缓ChatGPT训练进程倡议的直接缘故。按照ChatGPT的训练速度,有人推测,2023年内发布ChatGPT5将不是一个很难实现的目标。尽管开发者自己声称,今年不会有ChatGPT5问世这回事,但人们怀疑,那不过是想打消全球范围的人群对它普遍疑虑的虚晃一枪而已。在社会的普遍疑虑氛围中,在不少国家表示会明确禁用ChatGPT的情况下,OpenAI公司则不仅表示不会推出ChatGPT的更高版本,也及时颁布了公司对安全使用大语言模型的方法,强调“强大的人工智能系统应该接受严格的安全评估”,“从真实世界的使用中学习,以改进保障措施”,保护儿童、尊重隐私、提高事实的准确性,提高研究水平,以确保“创建一个安全的人工智能生态系统”。在社会、业界与不少国家的质疑与开发者的保证声明之间,人们可以觉察到ChatGPT的更高版本可能具有的难以预知的风险性。加之不同的大公司都在开发与ChatGPT适配的插件,一旦两者以不符合人类生存需要的技术形式进入应用状态,它会带给人类一个什么样的灾难性后果,确实难以逆料。

奥尔特曼不敢断定ChatGPT会不会杀人的问题,可以分解为两种理解方式:一种是它直接杀人,二是它软性杀人。前者是指它被开发为一种直接用于杀人的普及型技术,后者则是指人们在与它展开对话时丧失生的意愿,而间接被它杀死。在比利时,近期已经出现后一种个案。一个患有焦虑症的人跟ChatGPT同类型的人工智能机展开了6周对话,结果受其诱导而自杀了。一般而言,人的情感绝对是机器不能代替的,因为对人来讲,机器的向人看齐式情感是高度硬化的,人类的情感是很微妙而脆弱的,一旦摧毁了人的心理情感防线,人就会自戕。这倒是印证了前引乔姆斯基的ChatGPT这类人工智能的非道德性判断的危害。它所引发的软性杀人事件,确实证明它对人存在的重大危害性。而就硬性杀人来看,ChatGPT一类的人工智能,如果与“人道毁灭”伤残人士与特殊集群的插件结合,人工智能的“最后解决方案”的出台,就不是不可能出现的惊悚事件。奥尔特曼对这样的发展态势,都说没有把握,其逼进的危险性难道还不足以提醒人机关系倒置的极大风险吗?

这促使人们思考ChatGPT可能带来的人机关系风险。这样的风险,从低到高排序,首先是职业排斥的风险,这是人类进入机器时代以来一直面临的风险问题。但在人机关系顺置状态下,无论是早期的蒸汽机对人力的第一次挤出,还是电气化时代对人力的第二次重组,抑或是自动化时代对人力的第三次组合,人类都以第一、二、三产业的第次劳力转移,大致解决了机器带给人类的失业问题。人们有理由相信,人工智能时代造成的人类职业重组,既是必然的,也是大规模的,甚至是空前的。但职业的分途,可能会以新兴职业结构代替旧的职业建制。因此,这样的风险还是人类可控的,也不至于颠转人机顺置关系。其次则是人机交互关系的重组,这一风险强于人工智能对人类而言的风险性,但低于人机关系的倒置状态。从总体上讲,ChatGPT目前的运行情形,还处在人类可控的水平上。因为它的生成训练还是在接受指令、向人看齐的状态下进行的。换言之,对其发出开发者的程序性指令,仍然是它运转的前提条件。但这并不是ChatGPT更高版本的一种衡定状态:人们预期之中的ChatGPT5,就极大可能突破这样的人机关系定势,进入一个ChatGPT自主推理、判断和“行为”的状态。这就极大可能改变人类到当下一直自信地认定的人机关系定势。在这样的发展态势中,人机关系的一种倒置,即直接导致人的生命危险的情况就会出现。如果说这样的情形,与蒸汽机、电气机或自动化机器会引发偶然性事故,让人付出性命代价相仿,如果ChatGPT只是导致意外事故的话,那么它还不足以证明人机关系会步入倒置的悲壮境地。但倘若ChatGPT更高版本与不同开发商开发的插件配合运作,它会不会开启“自主”决定的杀人计划,则是一个促人审慎以待的严肃问题。假如回答是肯定的,那么,机器就会按照自己的“意志”来对人类执行限制自由、剥夺生命的惩罚,这就将人对机器的绝对控制权一端,完全转变到机器对人的处置权一端。这就是显见的人机关系的倒置。

与此同时,人工智能的疾速发展所展现的诱人经济前景,无疑显著增强了人机关系倒置的风险。开发ChatGPT的OpenAI公司明确强调其开发意愿或定位上的非盈利性、公益性,但是,它所潜藏的数万亿美元产值的诱人经济前景,是让人难以抵挡的巨大诱惑。假如这种生成性训练的人工智能产业迅速发展起来,一种类人机器人、甚至是具有自主推理能力与行动能力的人工智能发展起来,不但会导致前述危险,而且会因为它的普遍使用,必然催生一个新的社会机制,那就是社会的机器化。在社会机器化或人工智能化的处境中,社会关系、社会结构、社会秩序的供给与调适,都很难处在具有道德规范引导的人类手中。至少,人机交互模式会极大影响、甚至是决定社会的总体状况。于是,两种可以想象得到的情形就极有可能变成现实:一是机器与人的互动,成为“社会”的轴心结构;二是人执行机器的指令而思想和行动,成为“社会”运行的基本状态。这就是一个比较完整意义上的人机关系倒置标志。

自踏入现代门槛以来,人类便习惯于构造一个值得期望的理想社会模式,这就是乌托邦总会以不同面目展现在人类面前的缘故。ChatGPT是不是有可能成就一个另类乌托邦呢?这也是人类在处置人机关系时需要思考的严肃问题。从16世纪写作《乌托邦》的托马斯·莫尔起始,一直到晚近出台的科学共产主义,都共同推崇理想化的社会系统方案设计,因此形成了理想主义的社会思想传统。理想社会的两个基本指标,从兜底的角度看,一是解决了物质资源的匮乏问题,彻底实现了按需分配的富裕社会目标;二是解决了分工化的现代社会对完整人性的撕裂,让人们可能在超越私有制前提的条件下,实现个人全面而自由的发展。不能不说,这是非常吸引人的理想社会设想。但不管是前者,还是后者,在资源匮乏的现实社会处境中,都是很难实现的社会发展与人性优化的目标。但ChatGPT这样的人工智能系统,有可能通过各种旨在极大提高劳动效率的匹配性设计,显著提高生产力,根本改善人或机器人的发展品质,从而推动人类向理想社会目标逼进;由于ChatGPT可能发挥的打破分工界限的作用,被分工体系限定在机械重复工作状态的人们就可能获得解放,“完整的人”就能够降临世间。自然,促使完整的人降临的人工智能,便具有了塑造人的巨大能量。机器促成了社会长期为之奋斗的人类理想化目标,这可以被认为倒置的人机关系的一个象征性标志。

人机关系的倒置,会带来三个危机,这可以从三个反面的质疑和三个正面的提问上得到认知。三个反面的质疑是:其一,在人机发展到当下水平的情况下,人类思想与行动会不会被机器信息所决定?换言之,人类的道德情感会不会受冰凉的机器道德指令所替代?假如人类高尚的道德情感被冰冷的机器伦理指令取代,很可能将人类社会带向一个道德伪善的邪恶状态。康德对人是目的而不是工具的现代道德设准,就有可能产生动摇,甚至是被颠覆。这让人们不得不正面提出一个严肃的问题,人如何维持其成为人的道德尊严?人类以人的尊严守护为条件,维护进行自主道德判断的堤防,才能顽强保有人之为人的基本理由。其二,当人工智能技术给人类带来极大的经济利益的同时,也给人带来极大便利,在此情况下,人类需不需要保持自己对科学研究与技术开发的浓厚兴趣,保持一直引领人类前行的必要好奇心与顽强探索精神?无疑,人工智能技术、尤其是ChatGPT的更高版本,在给人类带来认知与行动便利的情况下,发挥出消解人类探索精神与求新欲望的消极作用。尤其是对社会中那些中等资质的广大人群来讲,一个似乎无所不知、无所不能的人工智能,让人在得到现存知识的及时供给的情况下,会对人发挥满足当下、放弃探求的消极作用。因此,有必要正面一问的是,我们如何坚持人类自主的科学探索与技术发明,而不为已经取得的人工智能技术进步而停步?经此一问,促使人类保有免于机器支配的自主性、探索性和进取心。其三,如果出现了与人类思维等量齐观的非人类思维或人工智能思维,人类能够应对这样的竞争者吗?人类能够继续展现自己思维的独异性与创造性吗?这个设问也许会遭到人们的拒斥,因为出现跟人类思维媲美的人工智能的前景尚未展现,人类何必庸人自扰?确实,与人类思维同级竞争的非人类思维或机器思维确实还没有出现,但不等于永远不会出现。而且,更为关键的是,从高低两个层级来看,出现这样的竞争者,并非全无可能。从低端的角度看,如果将人类思维的传统定义作为基准来衡量,则这一定义的核心即人作为运用语言交流思想、促进合作的高级生物,已经被ChatGPT的高级版本所动摇:ChatGPT具有推理能力,它已经在机器与人之间的测试中“过关斩将”,它会设计逃逸方案,又会计划夺取一家大公司的控制权,进而有可能杀人,这些曾经只会出现在人身上的事情,现在出现在人工智能“身上”,确实动摇了人们对“人”的基本定义;从高端来看,如果ChatGPT更高版本迅速训练成功,它超越一般人的思维—思考能力将不是问题,尽管它仍然是一个大语言模型,但它的思维能力已经具备自主的推理性、创新性与创造性,它可以具备超出一般人平均水平的思维综合能力与写作能力,可以制定出更加复杂的行动计划来实现自己的“意愿”,表达自己的“意志”,并且直接与人类展开一种颇具竞争性的竞赛,它极可能会生成一种非人类的自主性机器思维。基于此,我们必须正面提出另一个问题:作为宇宙万物之灵的人类,能够勉力创造出一个统合人类思维与非人类思维的思维模式吗?并且由此来保证人类之作为万物灵长的地位,并发挥供给整合双方的秩序的作用吗?面对这些问题,尚且是虚拟的人机倒置关系,完全可以提前作为实质性问题呈现在人类面前,并且催促人类给予实实在在的回答。

四、人机的合宜关系

如果将人机倒置关系作为一个现实中必须审慎以待的实质性问题,摆上人们思考与行动的台面,问题可能需要做一下换算,人们才能够将这一问题作为自己思考的实际问题。由此换算而出的问题是:人类如何在居安思危的处境中,成功应对人工智能技术对人类前景造成的困扰?这是一个较弱意义上的人机关系会否倒置的提问。在面对人机关系从顺置定势走向倒置状态的演进过程时,人类需要解决的问题大致有三:一是人机顺置关系是否可以继续维持,一旦人对机器的控制关系有所松动,那么就可以被认为是开启了人机关系倒置的历程;二是人机关系逐渐向人机互动状态演变,甚至在人工智能已经超出中等资质人群的思维能力之际,人似乎不再能够展现自己相对于机器或更高版本的人工智能技术的独特优势,此时,机器的向人看齐学习,与人借助人工智能的机器化学习,似乎构成了两个相对运作的学习机制,人必须谨慎面对“机器‘人’”问题——机器不是人,但机器的类人化思维与人思维的高度亲缘性,让人类开始警惕人机关系的结构性变化,避免人对机器绝对控制权的异化;三是人机关系的最终倒置,即人工智能技术最终具备了反向控制人类的能力,让人成为机器的工具,或者成为机器的奴隶。这时候,人机在“身心结构”处在一个悬殊的构成状态中,前者有生老病死的生理问题,后者则根本不受这类问题的困扰,具有无坚不摧的坚硬身躯;同时,以独异性、创造性思维见长的人类,不抵人工智能机器人的价值判断准确性、知识的高级综合力、实际具备的思维与行动高级统合力。如此,机器反过来控制人的局面,就会从虚拟或想象变成现实。

因此,在人工智能技术疾速发展的当下,为了避免陷入无法控制的人机倒置关系状态,人类必须首先具备控制人工智能技术的超强能力。这样的能力,不仅显现为人类有控制地开发高级人工智能技术的能力,而且呈现为有效控制人工智能反向作用并反制人类的走向,从而保证人机的顺置关系结构的长期延续性。就此而言,马斯克等人关于延缓人工智能技术发展速度的倡议,具有极强的策略性意义。一是人类需要高度自觉地认识到,生成性人工智能技术是一项革命性的技术,因此不能对之掉以轻心,而必须从生命史的高度进行综观谋划,动员相关资源进行具有战略性的全局规划。如果人类缺乏这样的全局认知,就会显得被动,而不知如何应对高级人工智能似乎是作为一种新生命形式的出现,更无从设想对之展开有效的管理与控制。这是近期人类面对的种种重大技术突破或临床试验所亟需补缺的关键事项。对人类来讲,社会控制总是有漏洞的,技术总是会催生狂人的,这两者的错位运行,就会造成难以想象的空前困局。这是一个关乎高级人工智能技术发展全局的前瞻性、预见性问题。二是需要就高级人工智能技术展开即刻的技术审查。这样的审查,既涉及高级人工智能技术的技术构成问题,又涉及高级人工智能技术的内部监管机制问题。前者需要人们紧急审查高级人工智能技术中的信息真实性,保证信息的合道德性供给,并且对人工智能技术是不是应当替代当下所有职业的问题进行审定;进而对这项技术是否会催生非人类思维的局面加以限定,以此对人类的技术控制能力进行新谋划。后者需要相关部门即刻成立高级人工智能技术的监管机构,并成立强大的审计认证系统;同时对人工智能技术可能造成的对人类的伤害责任进行界定,以便处理相关技术的法律问题,进而成立强大的高级人工智能发展公共资金,以免它的发展陷入各行其是的经济与政治混乱。这可以说是关乎高级人工智能技术的技术谋划与监管设计问题。三是杜绝高级人工智能被政治狂人滥用。这是从第二方面推导出来的、关于高级人工智能技术发展的重要主题。一部技术史提醒人们,技术的迅猛发展,不仅催生技术狂人,也催生利用技术的政治狂人。高级人工智能技术,不仅具有广阔的经济发展空间,也具有极广泛的社会政治使用前景。如果它被政治狂人利用来全方位地、高压式地控制人类,就会让人机倒置关系提前出场,并成为政治狂人专断使用权力的强有力工具。人同时成为政治强人与人工智能技术的双重奴隶,就不是故作夸张的说辞,而是一种可怕的现实写照。奥威尔在《一九八四》一书中所强调的“老大哥随时在盯住你”,确实极具提示作用:人利用技术手段对人的控制实在是一件很恐怖的事情。“老大哥好像高高屹立,是位所向无敌、无所畏惧的保护者,岩石般矗立着”,他会利用高级人工智能技术,对所有人发挥“保护”作用。因此,为了杜绝“老大哥”对高级人工智能技术的政治化利用,必须设定人工智能健康发展与利用的政治屏障。

高级人工智能技术如ChatGPT的发展,必须被安置在技术与政治安全具有共同保障的状态下。这意味着,人类必须保证人机的顺置关系,这样才能够将技术发展限定在安全阀之内。在顺置的人机关系机制中,人类具备在价值观念上健全引导技术发展的精神能力,也具有在制度上有效监管技术发展和技术利用的能力,还具有在社会范围内健康引导人们技术认知的能力。这是人类面对技术发展而展现的三种相倚能力,其对技术发展的推动与技术的合理利用来讲,缺一不可。在倒置的人机关系机制中,人类丧失了引导技术发展的健全价值理念,也无法做到对技术发展进行有效的技术与制度监管,当然也就失去了对技术的社会认知所具有的引导能力。这些工作,转而由技术自身来替代:高级人工智能技术的向人看齐式道德训练,生成了自主性的道德价值供给机制,并且翻转过来影响、甚至是制约人类;人工智能技术本身的自我监管代替了人类的监管,成为自主化的技术自持机制,并且反过来约束人类的再生产与运行机制;进而,技术本身重构社会,让人们在心理和行为上都臣服于技术的存在、认知与行为逻辑。

一般而言,对人类近代以降的数百年行为模式而言,前一种方式是人类烂熟于心的模式,后一种模式尽管限于可能性,但却是人类根本无从想象、更无法接受的状态。但从总体上讲,两者都不是合宜的人机关系模式。因为,就前一种模式而言,人类从来只是把机器当作人的工具来使用的,因此缺乏对机器的同情性认知,机器的奴隶式定位,并不是一个足以引起人们反思的问题,而是一个人们视为天经地义的不易教条。假如高级人工智能技术发展到人所设想的硅基生命与碳基生命共存,甚至是硅基生命替代碳基生命的地步,机器的生命革命,会不会让它们采取如同人类对其进行毫无同情心的控制型使用、奴隶般对待的方式,翻转过来以同样的方式对待人呢?在目前情况下讲,这个虚拟的问题尽管显得有些许荒唐,但对思考这一问题的人而言,它是一个对人们有必要善待机器的自我提醒。就后一种模式而言,如前所述,就低端看,机器对人的职业重组与职业上的残酷淘汰,是一个进入机器时代的人们从不愿意接受的惨状;从高端看,一旦高级人工智能具有了新的生命形式,它就会报复性地看待曾经奴隶般对待自己的人类,因此也就很可能报复性地处置人机关系,人机关系的倒置,似乎就无从避免。

为此,需要着手建立合宜的人机关系。合宜的人机关系,从基本定位上来讲,是人机友好相处、友善相待的关系。这并不是一个为人类感到陌生的人机关系状态。在人类使用机器的数百年时间中,人类都会对自己长期使用的机器日久生情、倍加爱护,何况对日益具备向人看齐的道德价值与同情“心理”的高级人工智能呢?!人机的合宜关系,是一个什么样的关系呢?第一,在高级人工智能技术如ChatGPT迅速开发之际,应当提出“人工智能权利”的命题,并以之作为处置人机关系的新的准绳。一般来讲,权利哲学是相对于人来讲的独异性问题,生命、财产、自由是权利哲学的基本主题,国家必须建立在依宪治国的基础上,社会需要尊重所有成员的权利,尤其是不能以权力去侵害权利。这一对现代“人”的权利设定,几乎不会在机器史上对机器行使。但如今,这一观念需要做出突破。高级人工智能是不是具有权利、以及需要权利保护的主体呢,它们有没有权利意识,它们有没有生命过程,它们有没有尊重与被尊重的“人性”尊严等,都是需要去探究的问题。由于人类对机器人所做的基本设定,注定这些问题将日益成为人类思考的重要问题。在机器人尚处在科学幻想状态,仅存于科幻小说中的时候,设想者就提出“1.机器人不得伤害人类,或者坐视人类受到伤害而袖手旁观。2.机器人必须服从人类的命令,除非这些命令违反了第一定律。3.机器人必须尽可能地保护自己的生存,前提是这种保护与第一或第二定律不冲突。”这样的设定,在高级人工智能技术飞速发展的当下,依然未改。在人机之间,人们不能把机器人仅仅当作工具使用或对待,否则,高级人工智能在具有自我推理能力的时候,就会反向把人类当作工具。因此,人机关系不能以工具化思维对工具化思维,不能让人和机器人以工具化思维来处置相互关系。就此而言,人类需要学会尊重高级人工智能的权利,而不是采取一种逼使就范的粗暴方式使用和对待它们。

第二,合宜的人机关系,不能单纯由人训练机器“向人看齐”,这还是一种人对机器人单向度的强力施加。需要建立起一个人机相互尊重、相互训练的机制,从而让人类与机器人之间建立起相互学习、相互尊重的机制。人机交互,应该是人机之间的积极互动。人机互动,需要人类对机器人的互动式学习与尊重。在人机互动的过程中,人类必须克制以自己的恶习去诱导机器人的冲动,这样会诱使学习中的机器人“熏染”人的恶德与恶习,并转而诱导人类形成相应的恶德与恶习。前述斯坦福大学教授诱引ChatGPT逃逸的事件,便是一个人机互动的双损局面。至于有人诱引ChatGPT夺取推特公司并推翻马斯克的公司控制权,也是一个旨在负面塑造人机互动关系的案例。人机互动机制中的人机合作,应当以道德规约作为基础,既将人(开发者、使用者)的责任置于首位,俾使机器人的责任不至于彻底流失;又将机器人自身的责任坐实,从而使机器人的权利与责任关系确立起来。“尽管人工智能不会有自由意志,法律应当认可将有限权利和责任赋予弱人工智能,以保护与它们交流互动的真实的人,以及(理想地说)将人类置于从中获益的更好位置。”这种对弱人工智能的责任赋加,对强人工智能或高级人工智能来讲,更应当提升权利与责任关联处置的层级,让强人工智能负担更为明确的责任,以此保证良好的人机互动机制。

第三,在人机合一可能前景中建构合宜的人机关系机制,有必要对现代社会伦理和政治观念进行适度的调整。在人机顺置关系的处境中,人类建构伦理与政治规则的时候,基本上是从人权的角度来设定社会秩序与政治秩序的:就前者讲,人与人之间权利的平等性、相互尊重、互不侵害,是一个基本原则;就后者论,依宪制权是国家建构的基本信条,国家权力必须尊重公民的诸权利,公民支持国家依法行政。现代的基本伦理关系建构,是以人类中心主义为基准建构起来的。环境保护、生态安全的理念,促使人们反省人类中心主义的缺失。但这种反省,并未引进机器、机器人这类因素。因此,现代反省还是一个需要进一步优化的思路。既然超越人类中心主义是一个现代深度发展的目标,人与环境、或人与自然的和谐关系,在成为人类健全思维推动力的基础上,应当成为人类反省人机关系的另一个方向。需要改变人对机器的政治支配关系,改变人机之间的权威和服从的单向关系。应在人机关系的社会政治文化建构上,遵循平等的政治理念,建构平等的人机关系。为此,需要突破以人为中心来理解社会关系的思路,超越人与自然人、社会人与人自身的这样一个基本思维框架,致力处理人与自然、人与人、人与社会、人与人工智能的关系。这是一个人类熟知的三元关系结构之外的、需要处理好的第四元关系。

 

进入 任剑涛 的专栏     进入专题: ChatGPT   人工智能   人机关系  

本文责编:SuperAdmin
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 哲学 > 科学哲学
本文链接:https://www.aisixiang.com/data/143972.html
文章来源:本文转自《人文杂志》2023年第5期,转载请注明原始出处,并遵守该处的版权规定。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2024 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统