提要:法学的使命不是赞赏科技发展带来辉煌的成就,而是要审视科技可能带来非理性的后果,以及如何通过法治降低科技发展可能带来的风险与非理性,如何通过宪法控制科技对人类文明、尊严与未来的威胁。在当代这样一个价值多元化、科技发展具有不确定性的世界面前,我们要更加珍惜人类文明的价值,更加重视宪法功能和宪法价值,更加强化宪法的价值共识——人类共同体的价值和人的尊严的价值,让宪法真正成为这个时代最具有价值共识的最高法、高级法。
一、演讲题目的思考
最近宪法学研究方面有很多热点问题,在国际社会也出现很多新的宪法问题。其中,如何用宪法价值约束科技的非理性是大家普遍关注的问题,特别是美国出现facebook泄露近8000多万用户信息的事情后,这种担心更加重了。
在全球范围内出现的重大宪法问题是,如何在科技发展的背景下保持人的尊严。我们看到经济发展,特别是科技技术发展、信息化和各个国家之间科技竞争越来越激烈,但人的价值在某种意义上不是越来越提升,而是越来越边缘化。人类所创造的文明在自己创造的科技面前、信息化面前反而使得主体的价值越来越贬低,越来越减损。
所以,我们需要共同思考这样一个问题,人生的意义在哪里?人类的未来在哪里?目前很多法学院、科研机构花很多力气研究人工智能、大数据、算法等,中央政府也放弃“科技中立”的立场,出台人工智能方面的政策,直接介入科技发展的进程中。司法机关纷纷推出智慧法院、智慧检察院等。我们要考虑,所谓AI是否需要我们花这样大气力研究?我们研究的目的是什么?过了十年、二十年后法学院还需不需要呢?如果人工智能可以代替律师的工作、法官的工作、检察官的工作,我们还需要培养法官、检察官吗?一般的法律服务市场里,AI确实可能替代我们一些重复性的劳动。当所谓的机器人来代替人类传统的生活方式时,包括部分法律服务市场的工作时,我们要想一下,那个时候人类会怎么样?学法律的人至少要考虑五十年以后的世界,法律并不仅仅是为了今天的生活而安排的,而是为了对明天的生活有合理期待,所以我们需要认真思考科技与法治、技术与人的尊严等基础性问题,包括法治的现代功能。过去我们过于依赖于事后追责为核心的救济机制,包括国家赔偿。但在信息化的时代,当人的尊严、人的价值处于边缘化,生命、健康的价值受损而无法“恢复”的时候,再有效的事后救济也无法挽回已经失去的生命,无法挽回受伤害的人的尊严和人的思想自由。在这种情况下,要思考怎么样把法治功能从事后的救济提前到事先的预防功能,强化立法性功能,预防对人的尊严、生命与健康的伤害。
美国政府最近对叙利亚进行打击,理由也很简单,说叙利亚政府使用了一个化学武器。这里暂且不谈这个理由是否成立,在国际社会有一个基本的共识,化学武器是任何情况下都不能使用的,但是核武器并不是绝对禁止。五个核大国,包括中国在内,我们是有核武器的,但我们的目的是通过核武器来维持和平衡世界的秩序,你有核武器,我也有核武器,你打我,我也打你,靠核武器的威慑建立平衡。所以,大国之间力量的所谓平衡,未必都是以和平为基础而建立,而是靠强大的核武器的威慑力。但是有些武器是绝对不能开发的,比如化武。自主的机器人绝对不能开发,自动的机器人是可以的。自主的机器人,如所谓的杀人机器人是不能开发的,因为它有独立的伤害人的决策能力;自动的武器,人类是可以控制的。
在人类历史上,我们正面临着一个最大的考验:是选择坚持人类控制技术的文明发展史,还是要改变人类文明史,让所谓的无机生命代替有机生命。人越来越工具化,人的尊严越来越边缘化,似乎我们愿意把很多事情交给机器人做,那就想一想五十年后、一百年后人类会怎么样。我们要重新写人类文明史,当无机生命主宰我们的未来时,我们的法学、医学、文学,我们的创造文明到底有什么意义?这个意义上,当我们谈到21世纪的宪法挑战时,首先要谈到的问题就是在科技面前如何保障人的尊严性。宪法上的尊严性虽然是德国的概念,但它也成为了世界的基本共识。宪法上的尊严就是指人具是主体性的、目的性的存在,绝对不能客体化。但在现实生活中,我们感到,有时人越来越感受到人越来越客体化,为了国家、为了某种目的可以牺牲我们的健康和生命,甚至有的时候在整个国家发展面前,人成为一种客体化的东西,日益远离宪法上的尊严价值。
最近我一直思考一个问题,在科技发展的背景下,我们当然要充分肯定科技发展给人类文明带来的积极作用,但法学的使命不是赞赏科技发展带来辉煌的成就。人类之所以需要法治,就是要思考科技可能带来什么样的非理性的后果,如何通过法治降低科技发展可能带来的风险与非理性,如何通过宪法控制科技对人类文明、尊严与未来的威胁。科技的非理性必然造成人的尊严的侵害,如何预防侵害,如何坚持人的尊严价值立场?要回答这个问题,文明需要回到宪法的基本共识。所以,今天的演讲重点谈一下科技对人的尊严的侵害与宪法控制手段,这也是讲座题目定为“科技发展的宪法界限”的原因。
二、对议题的研究进路
下面简单说一下我思考这一问题的总体思路。十多年来,我一直在思考宪法与科技的关系问题。我认为,宪法学的基本命题和核心的价值就是任何时候都不能把人性边缘化,以牺牲人性尊严为代价带来的任何发展,所谓的改革本质上是不符合现代宪法的基本价值,也就是远离了我们追求法治的理想,损害了人类的尊严,违背了人权发展的逻辑。任何时候,无论以任何理由,把人性边缘化而取得的任何一个辉煌、任何一个所谓的成果,都不符合我们所追求的法治理想,更不符合社会共识。
我的基本学术立场是:科技发展要基于人的尊严和宪法共识。任何时代科学技术都有双重性,既造福于人类,又损害人类。在座的各位同学,可能都有手机,我们的生活似乎离不开手机。我问一个问题,人类什么时候开始有了手机技术?五十年代、六十年代、七十年代、八十年代?目前世界上有多少人用手机?中国的手机用户到底有多少?不知道你们是否考虑过,当你决定用手机的时候,一天生活离不开手机的时候,你会失去隐私。大家都想一想,你用了手机后,对你的生活方式、思维方式、人际交往方式带来了哪些影响?也许负面的东西大于正面的东西,所以手机一方面确实给我们生活带来了一些便利,但是另一方面也给我们的尊严保护、隐私权的保护带来了风险与挑战,如果不加有效控制,将导致人的尊严的边缘化,人类会失去存在的意义与价值,人类就没必要存在了!而要控制科技的非理性,在发展科技技术的同时,能够保护人们应有的尊严,消除给人类带来的风险,或者把风险降到最低限度,我们必须要选择一个制度安排,而这个制度安排就是“宪法治理”。
在这一点上,现代科技技术发展历史和宪法发展历史是大体对应的。没有宪法不可能有科技技术,而没有科技技术推动的宪法,也会失去动力。将宪法价值与科技价值加以平衡的重要平台就是宪法,有了宪法共识才能让人类继续生活在自由、幸福、有尊严的环境中,确保人类永远主宰未来,不会由技术来主宰人类,让人类的生活更加安定,不再恐惧,不再焦虑,不要害怕未来怎么样。
也可能有同学会说,我们可以关心五十年、七十年以后的事,但为什么要关心一百年以后的事情。答案就是,如果不以宪法控制科技的非理性,一百年以后我们将面临无法想象的社会。去年微软公司已经宣布,他们将发明AI+基因改组技术,因为健康很大程度上要取决于基因,但是通过AI技术可以改组人们的基因,把不好的基因重新改组,这样人的寿命越来越长,也许能活到一百二十岁、一百五十岁。秦始皇当年想实现的长生不老的理想,在AI技术上完全可以实现。但是同学们想一想,如果大家都活到一百岁,一百二十岁,人类会怎么样呢?地球能够承载的人口数是有限的,大概是90亿,不能超过95亿。如果人类的老龄化到了社会无法承受的时候,人类的生存空间也会出现问题。我们是否需要靠技术无限制地延长人的寿命?在现代科技技术发展的背景下我们需要思考这些问题。
三、历史的视角:科技与宪法发展史
学法学的同学都知道,人类最早的人文社会科学知识并不是经济学、新闻学,而是神学、医学和法学。我们确实需要思考为什么法学、神学和医学在一起,神学、医学和法学的共通点在哪里。南师大是全国有名的法学院,你们肯定为选择法学而自豪,因为人类最早的大学博罗尼亚大学、雅典大学,就三个学科,其他学科是没有的。所以,只要人类存在,法学学科是会存在的,因为人类生活需要法学、医学和神学。一百年之后、五十年后,其他学科就不好说了。所以同学们选择法学是对的,你是为一百年后的生活做好了准备。三个学科共同的特点是:从人出发回到人。医学为什么存在?神学为什么存在?人类灵魂的安宁、身体的健康、社会疾病的治理靠人。其中法学是把神学、医学价值融合在一起的综合性学科,没有法治的保障,人类的灵魂是不得安宁的。关于医学,国家要保障每个人的生命、健康安全,社会中每个人的健康权、生命权得到保障,需要有好的医生治病。社会的病靠法学来治疗,所以法学不仅是三个古典的人文社会科学知识的组成部分,同时也是把三个知识融合在一起的哲学。所以,任何一个时代,只要人类存在,法学就是必不可少的,没有法学,其他知识也失去了价值基础、规范基础、知识基础。从启蒙时代开始,到第一次工业革命、第二次工业革命、第三次工业革命及正在经历的第四次工业革命,宪法一方面推动科技的发展,另一方面又尽可能降低科技发展所带来的非理性和对人的尊严的侵害。
(一)启蒙与前启蒙时代:科学、理性与宪法观念
十六世纪四十年代到十七世纪末的科技发展,特别是近代科技发展史与宪法学是如何对应的。如果没有宪法的理念和知识,为人们带来灵魂安宁跟保护,我们所说的以实验为基础的近代科学就不可能产生。
(二)第一次工业革命时代:科技发展与理性主导的宪法的响应
同学们高中时就学过了第一次工业革命,为什么发生了第一次工业革命?这个工业革命产生了什么影响?如何解决第一次工业革命所带来的大量非理性的社会问题?只能靠宪法,所以才有了1787年的美国宪法、1795年的法国宪法,开始对科技进行保护。当科技发展无法自我解决矛盾的时候,人类需要更高级的规范来加以约束,一方面把科技发展纳入学术自由,另一方面用宪法的力量来约束,学术自由不能滥用,学术自由也有界限。所有的科技只能用于造福于人类的幸福生活。
(三)第二次工业革命时代:列国竞争与国家主导
第二次工业革命后,电的发现、内燃机的出现,使得我们的信息、沟通越来越便利,包括自由主义、民主主义、社会主义的各种市场、各种价值观能够随着科技的发展、信息化的发展出现。这种时候如何融合社会主流的价值观,到底什么主义对人性的发展更有利?科技本身就提出这样一个课题,所以产生了今年在世界现代发展史的最大一个事件。
我不知道同学们是否了解1918年的苏俄宪法?人类历史上的第一部社会主义宪法就是1918年苏俄宪法,1917年的十月革命,催生了第一部社会主义国家宪法。今年正好是一百年。所以我们现在讲的近代的宪法发展史和科技的发展史主要是讲一百年以来的历史,一百年以来我们经历了两次世界大战。
当我们回顾社会主义宪法在人类文明史上做出的重大贡献的时候,我们应该感到很自豪,为什么呢?因为同学们知道“社会主义”这个词主要来自拉丁文的“社会”这个概念,而“社会”这个概念最核心的价值就是公正、公平、均等,社会主义所体现的是人类的正义的价值追求,它的理念建立在1918年的苏俄宪法。大家都熟悉的1919年的魏玛宪法,从近代宪法向现代宪法转型的魏玛宪法,体现了强烈的社会主义宪法的因素。今天我们看到的德国宪法,包括劳动者的保护、社会福利、社会公平概念、劳动者罢工权的规定,其实思想来源都来自于1918年的苏俄宪法。魏玛宪法制定过程中,受到苏俄宪法的影响,把大量的社会主义的正义、公平的因素引入到资本主义宪法体系,明年正好是威玛宪法的一百年,在回顾一百年的西方国家的宪法历史发展的时候,我们会看到社会主义的正义理念。
所以在宪法与科技发展互动中,我们看到了社会主义宪法的强大生命力,我们的理念符合人类文明,正义的理念、公正的理念、均等的理念,关键是我们如何实现这些理念的问题。所以大家看,第二次工业革命后技术发展所带来的很多难题是通过宪法解决的,包括1918年开始的一百年宪法。
(四)第三次工业革命(战后):人的尊严与宪法对科技发展的响应
第三次工业革命是大家最熟悉的,之后我们经历了世界大战,世界大战以后的世界开始进行深刻的反思,因为战争时用的所有武器都是科学家发明的,包括最后美国扔在日本的原子弹,虽然某种意义上有利于结束二战,但是给日本人民的生命带来了灾难,人类第一次看到原子弹多么厉害。原子弹是怎么发明的?是科学家发明的。科学家是怎么发明的?宪法给予了科学研究的自由,国家不是中立的立场,国家是支持科研的,战争时每个国家都希望有最先进的武器对付敌对国,用于战场,但是战场涉及到如何保护好平民,减少战争中的死亡人数的问题。所以无论战争有多大的正当性,人类的生命都是最宝贵的。第一次世界大战,战争中死亡的有一千多万人,由于贫困、饥荒死亡的有两千多万人。二战时失去了五千多万人,如果真有第三次世界大战或者第四次世界大战或者核武器战争,也可能一瞬间我们会失去几十万、几百万,甚至几个亿、几十亿人的生命,因为我们的武器(杀伤力)远远超过了二战时的武器,我们的武器是很先进的。我们开发武器,大规模地从事核武研发时追求的目的是什么?我们的科学家们是否反思过?当技术发明的人没有法治的理性,使用者也没有人类理性时,那么现今的武器会随意地剥夺(人的生命),或者说虽然他没有用所谓的武器,但这种武器给我们带来的很大的风险、安全的不确定性,也同样令人类恐惧。基于核武器本身的高度不安全性和不确定性,国际社会不得不有时候趋附于或者改变一些立场。所以未来会怎么样,是国际上很多宪法学者们都很担心的问题。我们建立了良好的宪法理论、宪法秩序,但在一个原子弹、一个核武器面前,宪法到底有没有控制核武的能力?在这个意义上,我们确实需要思考第四次工业革命是否是现在所说的这样一种所谓的恐惧。
(五)第四次工业革命是否真的到来?
这一次的革命跟第一次、第二次、第三次的工业革命不一样,它是完全以AI为核心的新的技术革命,它正在深刻地改变各国的政治、经济、社会、法律及所有的领域理念,我们就问它会颠覆人的主体性吗,它会破坏人们对未来生活的合理、稳定的预期吗?如何防范、规制和控制可能出现的风险?科学家们正在推动AI技术,希望无机生命有一天可以代替有机生命,要改写人类的历史,假设我们认为技术上是完全可能,但是如果这一天到来,人类的有机生命的结束,无机生命将会为人类文明带来什么?这些问题应该是我们需要思考的问题。
各国政府在第四次工业革命中放弃了过去的一种中立的立场,积极、主动地引导推动,组织这样一种科技的开发和研究,将大量科研的经费用在技术的时候,我们就在想人类会不会出现我们所担心的技术非中立化、尊严的边缘化、人类生活的工具化及科技政策的庸俗化。按照宪法的价值,在技术没有达到确定性以前,哪怕有百分之一的风险的时候,政府是不应该放弃中立立场的,应该适当中立地看待问题。因为还有一些风险,包括转基因,到底能不能吃转基因,它的风险有多大,这个时候如果政府放弃了中立立场,说转基因是安全的,大家可以选择,可以吃,没问题。假如二十年、三十年后,出现健康的损害时,由谁承担责任?网络信息公司、科技产业,所谓的以私人企业或者以科技为闻名的一些产业,表面上是企业,但它实际上绑架了公权力。学术界,包括一些民众,在科技面前仍然是很脆弱的,我们这个时代充满着对科技的恐慌,法院、检察院也都在建设智慧法院、智慧检察院。
那么,法学院的使命在哪里?未来法学院到底如何回应第四次工业革命,我们培养的学生未来在科技面前,有没有作用,未来律师是不是可以通过一般的AI技术、AI律师来代替?大概一个星期前,韩国第一次把AI律师投放到正式律师事务所,技术上我们看到一个统计数字,它大概是用一个小时能够解决过去大概七个人用三天时间完成的一般案件分类、案件归类的工作,其速度是非常快的。
总之,科技发展历史和宪法发展历史存在着某种对应关系。没有宪法不可能有科学技术的发展,而没有科学技术的宪法,它也将失去动力。只有借助宪法,凝聚宪法共识,才能够让人类继续生活在自由、幸福而有尊严的生活中,确保人类永远主宰未来,不会由技术来主宰人类,让人类的生活更加安定,不再恐惧,不再焦虑,不再害怕未来怎么样。而如何确保这种趋势,避免出现相反的发展,这是在现代科技技术发展的背景下我们必须要思考的问题。
四、科技发展对人的尊严构成了何种挑战
科技发展的正面积极作用我们要充分的肯定,四次工业革命客观上推动了人类的发展,是不可否认的,如果我们否认了三次工业革命包括正在进行的四次工业革命对人类发展的贡献,那我们是不客观的。但是另一方面,这种科技发展带来进步和人们生活的便利的同时,它也带来了对尊严的侵害和挑战,我们宪法学主要的功能是要看哪些挑战、哪些侵害。
(一)人工智能技术问题
人工智能是大家谈论最多的一个议题。它的最大的挑战就是人的主体性问题,人工智能会不会改变人的概念?人工智能会不会改变人的主体性?人的主体性在人工智能技术面前会什么样?是不是可以继续坚持?人的道德判断会不会被解构进而被否定?我们所坚持的自由、平等与民主等一系列基本价值在AI(人工智能)技术面前是不是会被削弱?我们这个时代充满着对科技的恐慌。很多法学院、学者都说人工智能、AI如何如何好。很多法院都说智慧法学院、智慧检察院,过了十年、二十年后法学院还需不需要呢?人工智能可以代替律师的工作、法官的工作、检察官的工作?在这样的潮流面前,法学院的存在意义在哪里?法学院的使命在哪里?未来法学院到底怎么样适应第四次工业革命?法学院的学生未来在AI技术发展面前还有没有作用?未来律师是不是可以通过一般的AI技术、AI律师来代替?
可以说,一般性的重复工作,AI律师都可以做到。有些律师事务所已经开始减少录用律师的需求。美国现在很多律师事务所,一方面使用所谓的AI律师来完成一般的文书分类、案例的整理等工作,另一方面在印度找印度律师事务所,委托他们完成一般的法律服务,因为录用美国法学院的毕业生太贵了,而印度律师所就比较便宜。那么,律师行业未来是不是肯定会被AI律师所代替?显然,这是不可能的。因为大家都知道AI是技术,技术不可能创造思想,只是对已有知识的模仿,对已有知识的整理。在这点上,人类的主体性是任何技术都代替不了的,这是一个基本的判断。有人认为,智慧法院的一般案件可以让机器法官来做。但这是不可能,因为法院的判决一般是靠情感。机器人能判离婚案吗?它没有结过婚。民事案件当中有些法官为什么受欢迎,因为他根据夫妻两个在法庭上的表情,一个表情就知道这两个人感情是否破裂,是否还有感情,机器人是不可能这么判断的。所以我们要相信,科技的发展尽管很迅猛,但是机器人代替不了人类,从我们现在的认知来看这是不可能发生的事情。
(二)隐私权问题
人类的幸福生活是建立在隐私的基础上,隐私的意义不仅仅是个人信息不愿意让别人知道,而是关乎人的尊严,是人的尊严中最核心的内容。因为每个人都是独特性的存在,不能找到另外一个跟你一样的主体,即使是双胞胎也不例外,所以,人类的个性具有唯一性。人工智能的“人”则不同,它可以造一百个、一千个;类似地,克隆人也可以造成一千个、一万个。但是,人类的每个人都是独特性的存在,任何人都不能代替他的独特性。因此,在科技技术面前必须保持独特性的隐私价值,人格的自由发展要获得全面的保护。在这方面,现在科技技术带来的挑战是巨大的。人类确实是享受一些科技技术带来的便利,但另一方面在网络面前人类遇到一个强大的对手,因为个人信息的收集和存储、加工等等都存放在第三平台。个人有信息的自主权,但是个人的自主权在第三平台,在多方的主体面前个人是很脆弱的,所以人们要么坚持隐私权的价值,保持自身的独特性,要么放弃个体的独特性,那么到底选择什么?要选择便利性或者便捷性,那就减少了隐私和减损了隐私的价值体系。
在前不久爆发的脸书(Facebook)泄密事件中,多达8000万脸书用户的个人信息在未经授权的情况下,被一家名为“剑桥分析公司”的数据分析企业用于设计软件,以预测并影响选民投票。英美媒体报道称,“剑桥分析公司”曾受雇于美国总统特朗普的竞选团队和英国“脱欧”全民公投的“脱欧”阵营。这是脸书创建以来最大的用户数据泄露事件之一,扎克伯格也因此在美国国会接受质询,将近八十多个议员用六个小时对扎克伯格进行了质问。“脸书”的安全性到底怎么样,为什么把信息给别人?剑桥分析公司做了一个改变选民的想法的软件设计,真的是改变一个国家选举的成果,用它来干预政治会带来什么样的问题?“脸书”事件让我们看到,人类选择技术的时候是充满风险的。假如最后的调查结果表明剑桥公司确实通过这样获得的信息改变了美国选民的政治倾向,使得本不应该当选的特朗普当选美国总统,那么,今后各国都会去认真考虑技术对于民主选举的影响。以往对于金钱的影响,各国有了比较成熟的规制手段。但是科技对选举的控制,还没有引起足够的重视。比如辽宁、衡阳贿选案的行贿人,如果掌握了这门技术,那么他们就不用再去行贿,完全可以通过技术去影响选举结果。这样的话,人类几百年来建立的政治民主、民主的基本价值都会在技术面前丢失。此时,我们靠什么来维护文明与法治秩序,这就是“脸书”事件给我们带来的最大思考。
扎克伯格的口才很好,他的解释得到了部分民众的支持。在他的逻辑里,技术本身有一定的安全度,而当你选择信息沟通的便利,愿意加入脸书,选择使用手机时,你是在行使自己的自我决定权,你就应做好泄漏隐私的准备。人们选择某一个技术时,已经自我减损或者自我限制了自己的隐私权。二十多亿用户的个人信息,不可能依靠一个公司来保障,当公司做好了信息安全的保护措施,但仍然出现了信息泄露的时候,不能简单认为是对用户个人隐私的侵犯。言外之意是,用手机技术时你已经做好了你的隐私不是很重要的准备,发微博的时候应该也做了这样一个准备,发邮件时你也做了一个准备。问题还是回到,要隐私的保护还是要技术的便捷?这是否是宪法上所讲的自我决定权?显然,这个意义上的自我决定权并不存在,就像我们说“自杀不是一项权利”一样。宪法所建构之人类命运共同体的前提是每个人的价值,而人的价值前提是有生命。自我决定权里是否包括了你对生命的自我处分权?对于这种问题,如果把自我决定权无限地放宽,那么共同体就不存在了,国家对生命的保护义务就不能履行。从理论上来说,像在违法或者合法之间,不存在非此即彼的关系,而是有一个中间空白地带。空白领域里面也是一种价值倾向性,不能定义你的自杀是违法的,也不能定义你的自杀是合法的,在空白领域里面的价值倾向是每个人要尊重你的生命,没有生命个体就不存在,个体不存在就是公共利益责任的问题。所以不要把宪法上的自由和宪法上的权利进行绝对化,包括信息的权利也不是个体的权利。我说我放弃所有的信息权利,自我决定权,我不受宪法权利的任何约束,这也不符合当代宪法的基本要求。
(三)转基因食品安全问题
转基因的问题在什么意义上是有益的?在民主科学和政治公共利益的博弈中,到底能不能让转基因食品安全的权利选择仅仅依靠个体决定?能不能说吃转基因食品你自己选择,我告诉你了,吃不吃是你的事?按照法律规定生产转基因食品的企业一定要在产品上标志本产品是转基因,国家的保护义务就结束了,这就是政府可能采取的一种方法。但在强调人的尊严、强调个人主体性的社会里,既然是国家、政府,就不能把转基因食品的决定权仅仅交给个人。明知转基因是有风险的,但是转基因的食品比较便宜,就放任公民食用、损害身体健康、影响子孙后代,那是不负责任的。目前政府对转基因的官方立场是,第一个是转基因的技术我们要积极研究,这是现代基础科技技术。第二个是转基因的技术、市场的投放要严格的规范。怎么规范?靠法律规定,生产转基因产品的企业必须要标注。第三,至于公民是否吃转基因食品完全是公民个人的权利,自行选择,国家管不了。能不能简单地把转基因的选择权都转给个体?公民的生命健康权,这种实体性的权利与食品权、参与权、知情权有着密切的关系。如何平衡科学与民主的价值,让个体在共同体面临风险时也保证生命的基本健康,不能由于个体的选择,使得风险在个体身上变成百分之百的风险。必须化解这种风险。
国家有义务保护每一个个体的生命健康时,国家的义务不仅仅是把权利交给个体。根据普通法的基本原则,公民和国家之间的关系不仅仅是个体和国家之间的关系,是融入在国家共同体之中,就像父母对子女不只是单纯的监护关系。曾经有一个案例,两个连体姐妹大概两岁左右,医生说如果不做分离手术,妹妹和姐姐就会同时死去,这个时候必须要做分离手术,分离手术的代价是妹妹肯定要死去,姐姐会活着,因为妹妹的很多器官是靠姐姐维持的。这个时候怎么办呢?因为子女的父母是信天主教的,他们绝对不允许做一个牺牲式的分离手术,牺牲一个,挽救一个生命。另外他们也提出来按照法治原则,不能说两个生命之间选择一个生命,因为姐姐和妹妹的生命价值是一样的,不能说姐姐对器官的依赖性大就挽救姐姐的生命,人为地牺牲妹妹的生命,既不符合法治原则又不符合宗教的原则。但是,医生基于专业的立场,坚持说只有分离手术才能挽救一个,要么两个都死去。后来到了法院,法官做了判断,说生命之间是没有可比性的,一个人的生命和一百人的生命都是一样的。但是在遇到两种生命价值冲突的时候,人类没有其他选择的时候,我们只能遵从医学的判断,做一个医学上的手术,来失去一个挽救一个。法官又加了一句话,孩子不仅是父母的,还是国家的。国家有义务在现有的技术范围内能挽救一个就挽救,明明看着可以挽救一个生命,就不能眼睁睁让两个生命都死去。任何时候国家一定要把生命作为最高价值,但是有冲突的时候不得不做一个选择。
在转基因食品问题上,也应该有这样一个基本的判断。比如说中小学的餐厅里面能不能使用转基因的油,或者转基因的食品。成人作为消费者可以自己选择,但是中小学是一个特殊保护的群体。有些企业为了经济的利益,希望能够把转基因的油推销给中小学,中国有很多中小学中午都在学校里吃饭。去年有个官司就是这样的:教育部规定,所有中小学禁止用转基因油。但后来农业部又发一个通知说:转基因是安全的,用不用转基因应该是各个学校来判断,教育部不能禁止、不能不尊重科学。然后,几百名家长就将农业部告到法院,认为农业部的通知违反了基本的科学精神,违反了法治。农业部的代理人反驳说,科学家说转基因安全,所以小孩也可以吃,但吃不吃可以选择。科学的判断我们要尊重,但政府机构不是科学院。中小学生不是一个成熟的消费者,不能自我选择,所以国家出于“儿童保护优先原则”和保护中小学生健康的特殊价值衡量,禁止转基因食品流入校园符合一般的原则,也符合儿童优先保护的原则。
(四)原子能问题
现在人类最大的担心就是核武器到底有多大的安全性?如果不能有效的控制,人类会面临什么问题?现在的世界秩序,不是按和平与发展的原则建立的,而是建立在核威慑基础上。这样的世界秩序是很脆弱的。不能保证说,俄罗斯也好美国也好,以及其他拥有核武器的国家都是民主法治的。假如特殊的情况出现了,比如出现了无法控制的非理性使用,世界上其他193个国家的安全如何保证?如何消除这种恐惧?在恐惧当中生活,有违我们宪法上相关的基本原则。人不能在恐惧和不安的焦虑当中生活,宪法的存在就是要消除每个人的恐惧、不安。那在核武面前,怎么办?而且我们现在核武器技术越来越发达,已经开发了比以前更为先进的核武器。在核武器面前,法学到底有没有用?我们怎么样建立一个能够制约核武器的和平的这样一个秩序。这个问题需要认真思考。
(五)克隆人技术问题
在国际上,宪法学界在科技技术的相关问题面前争论比较大的,相对比较成熟的理论就是克隆人的问题,一句话来说就是,人能不能克隆?技术上是完全可以的,无论在中国还是在美国、其他国家,但是国际社会基本的共识是,对人的克隆是违背人的尊严的,它会改变人的尊严。所以国际公约里面明确规定:不能克隆人。但是包括中国在内的一些国家,与欧洲和美国的立场不一样,把克隆变成了一个生殖性的克隆和治疗性的克隆,人是不能克隆,但是为了治病的需要,人的某些器官可以克隆,这个克隆叫治疗性克隆。目的是明确的,是为了治病,但是也有很大的风险,就是如何保证治疗性的克隆和生殖性的克隆之间的界限?如果你要绝对相信科学家的话,那是没问题,但是第一次世界大战、第二次世界大战让我们看到科学家有时候是不可靠的,科学家有时也是非理性的。我们只能切断生殖性和治疗性克隆链条,但是事实上又没法真正切割开。允许发展治疗性克隆,什么器官都可以克隆,组合在一起就变成人。所以基于这样的恐惧,国际社会基本上不认可克隆,无论是生殖性的还是治疗性的,但是中国基于科技技术发展的需要,还是坚持它,但是未来会怎么样也就不好讲了。我们要思考一个问题,真正的克隆人来到这个世界,人类会怎么样?你是否欢迎克隆人来到你身边?它违背了宪法和法治的什么样的一个原理?
有一份报告称,中国的克隆技术是很发达的。最难复制的藏獒,我们2014年在威海已经正式克隆出来了。如果把它投放到市场,这是很可观的商业利益,但是目前也面临着一种伦理法律的风险。藏獒的这种克隆技术,与造人的克隆技术在难度系数是一样的。既然可以造出来藏獒,也可以造出来人,这个技术如何控制就是个大问题。比如代孕,法律上不允许,但是现在已经存在很多代孕现象。
四年以前,有对小夫妻俩体外受精,在医院里面保存了胚胎。在两人遭遇不幸后,双方的父母经过两年的打官司讨要胚胎。最终,由于我国不能代孕,他们通过代孕公司在老挝找了一个代孕的母亲,等小孩生出来以后带回来,现在小孩快一岁了。但是带来了很多法律伦理问题,首先胚胎是生命也是物,能不能继承?中国不允许代孕,那在国外代孕回来的小孩有没有中国国籍,他到底是谁的孩子?四个老人和他之间是什么样的关系呢?我们到底怎么办?法院的判决,值得赞赏。在我国,胎儿是不是有生命还不明确,民法总则算是说了一些模棱两可的话,将胎儿视为具有民事权利能力。但为什么视为具有民事权利能力?按照宪法的规定,胎儿当然具有生命力。所以按照这样一个逻辑,胚胎它不是物,是生命的承载物,可以视为生命。这样才能够设计出后面的保护性措施,确定小孩的法律身份,包括一些伦理的问题。
五、宪法如何应对科技发展挑战?
无疑,科技技术给人的尊严带来了一种不确定性。我们所追求的宪法和社会发展之间,特别与技术发展之间存在着冲突,而这种冲突将带来日益严峻的整体性变革。最令人忧虑的是,科技系统和经济系统在相互结合以后,出于经济利益的追逐而使矛盾日益激化升级。一些公司,比如脸书,在实现自身利益最大化的过程中,未必充分考虑人的隐私和人的尊严的问题。在不断涌现的科技面前,或者新的科技技术面前,如何始终确保人类的主体性人格的自由的发展?面对这种风险,法治应该如何应对?这确实是值得研究的一个重要的宪法课题,必须要寻求一个宪法共识,用宪法的价值来约束一个国家科技的发展。
把科学和技术放在一起简称为科技,这是不准确的。科学是回答为什么的问题,它永远是对未知领域的探索,它是创造思想、创造知识的,而创造的知识怎么用才是个技术问题。所以用科学来约束技术,实际上是要明确创造技术的目的与正当性是什么,为什么要创造它。这个价值要约束到技术的具体运用中,所以技术是非理性的,科学则偏好理性,但有时候也有非理性之处。简单把科学技术放在一起的时候,必须倍加小心,可能过度地强调技术而丧失科学的理性约束。如果把技术(如人工智能科技)加以神化,目的崇拜,自我降低人的主体性,自愿成为一个客体化、工具化、边缘化的存在,那我们的令人自豪的、有尊严的、有机生命的人类文明史将宣告结束,我们将会到远处去,让无机生命来代替人类。这样的生活情形谁都不愿意看到。
所以技术永远是手段,人永远是主体,所以应该期待人类主宰技术的未来,不应该让技术主宰未来。为此,通过宪法所建构的共同体,必须有一个最低限度的价值共识,即人的尊严。没有这个价值共识的话,我们所有的文明成果都要边缘化——为了得到某个利益,我们可以失去任何利益。人作为法律上保护的主体,特别是受宪法保护的主体,其权利必须由国家来保护。如果没有这些保护,那么人就不能成为宪法的主体,就无法行使宪法上的基本权利,这是一个国家保护义务。如果个人自己放弃所有的权利,那只是个体的选择,但是作为公众而言,宪法应该履行维护共同价值的使命,这才是我们未来让宪法具有共识的一个趋势。对人的尊严的维护最根本的制度安排就是健全的宪法体制,我这里讲的是宪法共识的力量,也可能是我们未来应对科技发展的一个最重要的法律制度和价值的理念。
那么,宪法该如何控制科技发展的非理性?从理论上讲,科技发展的目标首先要符合宪法,宪法的基本价值要求人不能被边缘化、工具化、个体化。科学技术发展的目的是,为人类造福,让人成为一个主体,而不能说因为某项科技的巨大发展使人变成了一个客体,如果是这样的话,那只能放弃发展这项科技。比如化学武器、自主性武器是不能开发的。如果让机器人有杀害、侵害人类的决策权,让它自主决策,那么人类的生存将面临巨大的风险。
其次,要遵循一个基本的原则,即技术开发的类型化。什么领域的技术可以开发,国家要不要支持,要不要设立科研项目等等,要经过一个价值的衡量。有些技术绝对不能开发,有些技术可以开发,但是投放市场转化要受严格的约束,既使是市场上应用的科技成果也要严格地控制,这才能够减轻人类的基本的风险。
第三、任何一个国家的宪法,不仅仅局限于这个主权国家,在全球化的时代,世界越来越一体化。我们要建构一个良好、和平的国际秩序,每一个国家都通过宪法来建构和平权与发展权。只有通过宪法建构和平的秩序,才能够减少世界范围内正在承受的核武器的威胁。这种和平的宪法秩序,不是靠武力、靠核能、靠核武器威慑来建立起来的,它关系到人类的未来发展。
总之,在当代这样一个价值多元化,科技发展具有不确定性的世界面前,我们要更加珍惜人类文明的价值,更加重视宪法功能和宪法价值,更加强化宪法的价值共识——人类共同体的价值和人的尊严的价值,让宪法真正成为这个时代最具有价值共识的最高法、高级法。我们有理由相信,在新时代,中国社会的发展要依赖宪法发展,要通过宪法凝聚共识,全面实施宪法,使依宪治国、依宪执政真正落到实处。
附录:现场提问与答复
提问1:国务院刚刚印发了新一代人工智能发展规划的文件,它提出初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力。为此,教育部配合文件印发了《高等学校人工智能创新行动计划》,它提出要培养人工智能加法律横向复合型人才。今年政法大学今年上半年也成立了人工智能法学院,然后要在今年暑假,在重庆召开首届人工智能法学教育高端论坛。我想请教一下,现在国内目前研究人工智能和法学相结合的有哪些成果?国内有哪些学者处于这个研究领域的前沿?谢谢。
大家发现了没有,我讲这个题目的时候,我的学术立场是清楚的,在科技与宪法问题上,我始终站在一个相对保守的立场上,关注如何以预防性功能降低人工智能的非理性风险。这位同学讲的国务院文件是《国务院关于新一代人工智能发展规划的通知》(二零一七年七月),教育部也发布了类似的文件。根据国务院通知,政府要支持人工智能的研究与开发。国务院去年七月份发的《新一代人工智能发展规划》中体现的几个问题是可以思考的。
第一,人工智能会改变人类生活和改变世界,是国际竞争的新焦点,这是对人工智能在世界范围内做了一个判断。第二,人工智能的特点是深度学习、跨界融合、人际协调、跨媒体协调。但简单地说,人工智能是一个跨学科的产物。第三,这是国家未来的一个战略目标,要提升国家的竞争力,维护国家安全,我们必须要抢占人工智能这样一个领域,否则别的国家发展,会对国家安全带来威胁。同时这个通知中谈到了人工智能可能带来的一些问题,首先说就业,它会改变就业市场和就业结构,同时也会冲击法律和社会的伦理,也会造成一个个人隐私的侵犯问题,在国际范围内人工智能发展过于迅猛,也会影响国际关系的准则。我对这个问题的基本看法是:
1. 从科技发展历史上看,从十四世纪到十六世纪的文艺复兴,到思想解放,到第一次、第二次、第三次的科技革命,或者第四次的工业革命,我们可以看到一个现象,政府这个时候在哪里?政府基本的立场是应该禁止膨胀的技术,还是鼓励和支持科技技术?我个人的判断是,当科技技术具有风险,还没有成为一个完全成熟技术的时候,政府是拥有公权力的,对于某一个技术应该保持适度的保守立场或者中立的立场比较好。
2. 一些私人企业投资进行的科研项目,比如说转基因的技术,美国的孟山都实力雄厚,它也可以拿出钱,支持技术开发。不是国家的钱,不是国家的公共财政,但也得适当地约束,如果没有约束的话,私人企业为了经济目的,对于一些有风险的技术进行开发也会带来一些风险。所以政府不要轻易地表态。
3. 现代政府的义务是要保护好人民的生命健康安全,其他的权利有时可以适当地放宽,但是涉及到生命权事项以及涉及到健康权保护的是具有优先性的,所以必须要优先保护。没有生命,没有健康,其他的权利是没有意义的,因为在技术进步中,如果某一个技术盲目地开发,或者盲目地市场化,可能导致健康的损害。或者生命受损害的时候,政府,包括教育主管机关,对科技方面要适当地加以控制,减少技术的风险。你看美国的Facebook,这样一个新的技术,还有无人驾驶汽车也造成了法律纠纷等,我们如何解决?前段时间,无人驾驶汽车在美国撞死了一个行人,法律如何应对?到底谁的责任呢?无人驾驶汽车,承担民事责任、刑事责任还是什么责任?我们还发明了无人驾驶飞机,前两天报纸上说毒品贩很高兴,过去靠人力运输毒品有风险,现在他们买了好多无人飞机,利用无人驾驶的飞机运输毒品。我们拥有某一个技术,恐怖分子也用它,给我们的安全带来的风险越来越高。比如,我们在南亚国家好心修了铁路,花了很多钱,但是没想到,同时活跃了恐怖分子。所以技术的背后肯定有风险。所以我们在食品安全里面有一个原则说,任何技术,包括新的食品,我们首先要进行一个风险评估,风险交流,然后再确定要不要技术。对新的技术人工智能,我希望政府能做好风险评估。
宪法本身是一个相对保守的规范与价值体系,因为建构了宪法之后我们要维护它,新的社会变革面前,我们不能太激进,过于强调改革的意义,秩序是相对具有保守性的,宪法学的立场,宪法学的思考也要保持适度的保守性。在某种意义上,保守性是宪法制度、宪法秩序、宪法理论、包括宪法学者思考问题的基本方法,这样才能够使得我们已经建构的制度更加具有生命力。如果我们说盲目地调整秩序,那就使我们以宪法基础建构的国家制度、法律秩序,包括人们的期待,都会处在不确定当中,我们要给人民的未来生活给予一个确定性。
提问2:您刚才有说到关于个人信息,或者是个人隐私和科技发展、信息流通之间矛盾的问题。想请教您,您对于这个矛盾,他们之间的关系您是持怎样的立场?您认为我们在保护的时候是非此即彼地保护,还是说我们要在这两种利益之间做一个衡平?之所以提这个问题,是因为现在刑法当中也有非法侵犯公民个人信息罪。这样的话,按照您刚才说的保守立场,是不是说我现在收集并出售任何的公民个人信息都可以无罪?就是这两者要不要衡平,如果衡平的话,您认为一个基本的方案和基本的立场是什么?
今年的三月二十八日,李彦宏在参加会议时候,他讲了这样一句话,我在课堂上让学生进行了讨论。他说:“中国人很开放,对隐私问题没那么敏感,如果他们可以用隐私来交换便捷性,很多情况下他们是愿意的。”就是说中国人很开放的,为了便捷、便利要牺牲你自己的隐私,他说我们是愿意的,好像中国人文化里面不是很重视隐私,这句话是不严谨的。但是他提了一个问题,便捷性和隐私之间你要选哪个?一般情况下会平衡,但是不能平衡的时候,权利有冲突的时候选择哪个?按照宪法理论,只要与生命权相冲突的时候,其他权利都是可以牺牲的,因为是生命第一;然后是健康和其他权利相冲突,我们应该以健康为主,生命健康是所有权利的优先考虑。
从宪法上说,不应该为了便利牺牲你的隐私。但你不知道风险的时候,想平衡,但客观上造成了隐私侵犯,那是我们个人能力和判断之外的事情,所以信息的自我决定权和隐私之间,或者技术的发展之间只靠个体力量是很难平衡的。因为我们搞不懂技术背后有多大的风险,所以每个个体自己来判断隐私权和信息的决定权、科技技术的便利性之间价值是比较难的。但不可能两全其美的时候,你可以行使自我决定权。
记得去年有个案例,是美国法院受理的一个案件。当搜查一个犯罪嫌疑人住宅的时候,按照法律规定,必须有搜查证,警察有搜查证,进去以后发现有两个手机,手机里面发现了另外一个贩毒的线索,警察就很高兴,又找到一个犯罪线索,然后把手机中的信息作为依据,又查了另外一个案件,一起提供给法庭。在法庭辩论当中,法官明确讲这个属于非法证据,因为你搜查住宅的时候,虽然你有搜查证符合法律程序,但是你搜查手机时,并没有经过正当的法律程序,所以它是非法证据,不能采信。警察就问:“我们看犯罪嫌疑人手机的时候,还要有一个手机的搜查证吗?”法官说你还要申请一个住宅的搜查证,把手机视为住宅,这是两个案件,不是一个案件。我不知道如果把这个制度引到中国,会有什么结果。我们有相关制度与程序吗?(学生:没有。)无论是什么机关,不依法不能查看人家手机,那就是他的隐私权,是他的精神世界,也是他的住宅。人的隐私在手机里,要保护好手机中的隐私。从这个意义上,隐私权不是一个传统意义上的概念,我愿意把它作为一个生命,健康权之外第三个最重要的权利,其他权利有时可以让步,但不能轻易放弃隐私权。
提问3:您刚刚说人工智能,现在各国都是以人工智能这样一个技术,想要引领未来的一个社会。讲到宪法共识,如果每个国家都不愿意放弃这样一种技术手段,如何在国际范围内达到这样的宪法共识?
首先,国际范围内的宪法共识也是我们宪法学家从四十年代以来的理想,我们希望有一个世界的宪法,所以四十年代以芝加哥大学的法学家为中心,成立了一个世界宪法研究小组,一直在追求世界宪法。未来虽然主权国家各自保留了自己的宪法,但是人类的共识会越来越多,人类命运共同体真正实现的时候,类似于世界宪法这样一些文件也会出现的。
比如现任法国宪法委员会主席巴毕尤斯,代表法国政府提出来一个理念,制订一部世界环境公约,人民大学请他来开会的时候,他就提出来:第一,我们有两个人权公约,A公约和B公约,然后再加上一个环境公约,这就是一个完整的世界性宪法。第二,公权力限制主要靠主权国家,但是在世界范围内,比如说反腐败公约等,也起到了公权限制的功能。
所以,首先我认同人类会有一些类似于世界宪法的这样一个世界性的规范,但需要很长的时间。为了实现人类的宪法共识,国际社会实际上也做了很多的努力,比如说克隆人是不允许的,比如说化学武器是不能使用的、不能开发的、不能研发的,比如说自动武器、人工智能的武器是可以开发,但是自主武器是不能开发的,我前面已经讲了,用机器杀人技术上是可以做到的,但是不能让它诞生。这些都是国际社会的共识。
提问4:您刚刚谈到宪法共识,我想请问您,社会共识进入到宪法共识的前提和基础是什么?然后今年宪法修改将作为我们社会思想道德基础的社会主义核心价值观规定在我们的具体宪法规范层面,是否有必要,然后有什么价值体现?
这是一个很专业的问题,要通过宪法制定权把社会成员基本认可的价值纳入到宪法文本之中,价值共识进入宪法以前,社会上的一个基本共识,或对国家重大问题基本的判断,个体与团体都有不同的看法。但是宪法是一个平衡,宪法是一个妥协,它以最大的社会公约数写在文本上,使之成为一个国家共存的基础。尊重宪法,就是尊重了这样的社会共识,同时也尊重了国家的共识。所以为什么宪法法院做的判决,它都没有上诉程序,对判决结果不能挑战?为什么任何重大的宪法性的争议,最后都回到宪法上找答案?因为宪法承载着社会最大的公约数,所以用宪法的名义作出的判断,无论是普通法院的司法审查,还是宪法法院的,还是法国式的宪法委员会所作出的宪法判断,是不能挑战的。
至于社会核心价值观进入宪法,我的基本想法是这样的。社会主义核心价值观是否入宪,修宪前大家可以有不同的看法,但一旦进入规范,就成为宪法的一部分,具有效力,我们要尊重规范。我认为,核心价值观入宪是有意义的。
第一,它会丰富我们国家的价值观,我们国家需要一个主流价值观;第二,有助于增强国家凝聚力;第三,有助于改变我们社会缺乏共识的局面。爱国主义通过宪法规范能够得到具体的体现,没有对国家的认同,不可能有爱国主义情怀。在我们国家,国家的精神力量,就是以人权保障为基础的核心价值。宪法宣誓也是一个强化宪法爱国主义的具体举措。这里我说的爱国主义是基于宪法共识下的,基于民众内心信仰的国家认同与价值共识。