正如康德用“自由”去界定“正义”,刑法的目的在于追求正义,即充分实现个人主体自由的共存。当前,科学技术不断增强对人行为的介入,特别是人工智能技术在一定程度上挑战了人的主体地位,以传统人本道义为基础的刑法责任模式正面临异化风险。如何合理分配新技术带来的刑事风险责任,以及在刑法层面如何推动科技向善,是技术刑法观亟须探究的问题。
人的技术异化
当今社会,科学技术在日常生活中扮演着日益重要的角色。例如,人工智能技术基于算法对人进行深入的功能性模拟,以期实现对人类功能的延伸和超越。人的生存方式和活动方式正在被慢慢改变,这种改变并不像以前用锤子将钉子敲进木板那样,以技术为媒介加深个体对现实世界的感知,而是导致了人的技术异化,主要体现在两个方面。
一是人的主体地位被动摇。“劳动用机器代替了手工劳动,但是使一部分工人回到野蛮的劳动,并使另一部分工人变成机器。劳动生产了智慧,但是给工人生产了愚钝和痴呆。”这是马克思关于机器对人异化的深刻揭露。随着技术发展带来巨大红利,人文伦理对技术发展规制的日渐式微,技术开始脱离工具范畴,成为人的刚需依附,导致人不得不在技术划定的范围活动。此外,思维、劳动、制造工具一直以来被视为人的本质特征。但如今,科学技术已经基本实现或强化了上述人类功能,甚至还承担了一定社会角色,并与人形成特定社会关系。例如,日本青年与初音未来结婚、机器公民索菲亚诞生、第六届“与机器人的爱情与合体”国际大会召开等。可见,人的社会主体性正面临挑战。
二是人的自由行动被介入。当技术开始划定人类活动的范围,人类就已然成为了技术生物。法国学者拉图尔(Latour)曾指出:“在许多情况下,人类的行为是由他们使用的东西共同塑造的。行动不仅是个人意图和人类所处的社会结构的结果,也是人们物质环境的结果。”技术产品从生产时就规定了用户使用它们的行为方式,因此,当技术被使用时,会不可避免地影响到人现在或未来的行动自由。而且,并非所有的技术便利最终都有利于我们的生活。例如,利用技术工具实施犯罪活动给个体和公共利益带来更大风险,先进武器设备带来的便利实际上扩大了战场上的伤亡,等等。
总之,技术正为我们塑造新的实践和生活方式,特别是当各种智能决策技术被广泛运用于行政、医疗、交通、法律等各类事务中。然而,人固然会犯错,拥有超大算法、大幅超越人在特定领域所具备功能的技术产物就一定不会犯错吗?全球多起自动驾驶汽车制造的人员伤亡事故证明人工智能一样会犯错,即便它们学习能力更强、更加敏捷。由此引发的问题是,人工智能的自主决策造成损害后,损害结果的责任归属和分配该如何界定?这个问题尚无定论,正如“人工智能是否具有主体地位”的争论仍在继续。
刑事责任基础的技术偏移
智能技术逐渐代替人类决策,这是损害结果责任基础产生技术偏移的原因。目前,刑法主要规制的是利用技术实施传统犯罪的现实性领域,智能技术造成的损害结果还难以归于刑事范畴。但是,面对未来智能技术发展带来的风险,刑法至少要表明自己的态度。因此,我们有必要讨论技术介入下的传统刑事责任基础是如何被影响的。
责任是指对符合构成要件的违法行为的非难可能性。一般认为,人的意志自由问题是责任论的基础,由此最早产生了意志自由论和行为决定论之争。旧派主张意志自由论,如康德、黑格尔、贝卡里亚都把犯罪归结为自由意志的结果。他们认为人是具有自由意志的,行为人在能够实施合法行为的前提下,基于自由意思实施了犯罪行为就应当接受责任的非难。与此相对,新派主张行为决定论,认为人的所有意志决定与行为,都是遵从因果法则的结果,因而人是被决定的、没有自由意志的。基于社会防卫的目的,责任针对的是具有社会危险性格的人而不是行为。
如前所述,科学技术不断参与人的道德决策,人逐渐丧失了支配自身行为的自由意志。这包含三种情况:一是技术在某些风险领域替换了人,人完全丧失该领域的自由意志,这动摇了人作为责任主体的责任基础;二是技术辅助人做出的相应决策行为,技术在不同程度上影响人的自由意志;三是人在不知情或过失的情况下完成了技术促成的犯罪,如著作权犯罪需要传播达到一定的数量才能构成犯罪,当下各种算法自主推荐技术很明显促成了这一情节。因此,技术对人自由意志的“侵犯”,使得刑法的责任基础从意志自由论向行为决定论,甚至技术主体论转变。这警醒我们,人的某些可允许风险是否发展为犯罪正在由技术决定。基于行为决定论与技术主体论对人作为主体自由共存发展的全面限制,我们应辩证、慎重看待这一变化。
技术产物真的会具有像人一样的自主意识吗?当下来看,还没有达到人的水平,但人工智能技术的发展已经使机器具备了一定的思考和学习能力,能够自主做出决策并采取行动。有些学者在反驳人工智能的主体地位时,认为人工智能的程序都是人为预先设定的规则,进而否定人工智能具有自由意志。放眼未来,这一判断过于绝对了。此外,人工智能是否具有自由意志和是否被承认其主体地位,是不同阶段的问题。对于刑法而言,在人工智能具有一定自主意识的情况下,合理分配其带来的刑事责任才是最重要的。不能以人工智能主体地位有无为依据,来一刀切地解决技术带来的风险问题。
技术刑法观与风险应对
一般认为,刑法观是对刑法认识的基础,它决定了对刑法具体原则和制度的理解。技术刑法观则解决的是,刑法作为最后的规制手段,应以什么姿态应对技术发展带来的风险问题。为了推动个人自由共存的社会发展,刑法应对技术风险决不能以牺牲人和技术的创造性为代价。在人工智能自主化的趋势下,必须强调人是目的,科学技术的发展必须是能够为人所用。加强人文伦理对技术的规制,严守技术工具属性的底线,这是技术刑法观的基本立场。
具体而言,由于技术风险很难预测,以社会责任论对技术风险进行刑事归责较为合理。一方面,技术产品的投入使用要分别经过研发、生产、销售、使用四个环节,因此刑事归责主体可以从研发者、生产者、销售者和使用者四个主体考虑。在入罪方面,针对研发者、生产者、销售者可以适用相应的产品质量相关罪名或危害结果对应的其他罪名。在明确人作为主体的情况下,针对使用者是否具有法定监管义务,来决定是否适用危害结果对应的罪名。另一方面,针对前述三种科学技术介入人的自由决策的情况下,将技术主体责任强制分担到人作为主体的不同角色上,也能够在现阶段避免刑事责任基础的偏移。这也要求我们,在技术研发时就应当把相应责任界定清楚,并采取一定的证据固定手段。此外,为了保证人的创造性以及在人有效监督下人工智能的创造性不被刑法过度抑制,还应为承担技术风险刑事责任的研发、生产、销售组织设定相应的免责路径。
对于人直接以技术为工具实施犯罪行为引发的技术风险,本可以直接适用相应罪名规制,却存在定罪困难的现实困境。有学者认为,普通法律规范规制“信息技术”会产生法益保护范围上的漏洞及片面性。具体而言,传统刑事法律规范仅仅关注利用技术对人侵害结果的终端性,忽视行为背后技术特征对犯罪的促成。例如,掌纹、虹膜、声纹等生物技术很难被伪造、变造、买卖身份证件罪中的“身份证件”所涵盖。因此,应当重视相应技术规范对传统法律规范的塑造,摒弃概念式思维并采取类型化技术思维。要从刑事立法、司法以及刑法解释层面,明确前置技术规范的内容和参与方式,避免频繁式立法模式,解决技术被动参与犯罪行为引发的规制风险。这也是技术刑法观下,需要补充和更新的刑法基础理论和基本方法。
(作者系苏州大学王健法学院博士研究生)