内容提要:“电车难题”并非单纯的思想试验,而是确保机器决策符合人类伦理的重要实践,直接影响自动驾驶汽车的产品准入、责任承担等制度设计,对于自动驾驶汽车乃至人工智能的立法均有现实的规范意义。与传统“电车难题”相比,自动驾驶汽车“电车难题”在伦理对象、选择时机以及利益关联方面存在特殊性,大大增加了法律规制的难度。无论是拯救多数人、综合评分、车内人员优先、车外人员优先等积极应对路径,还是不干预、随机选择、制动停车等不作为应对路径,抑或交给人类驾驶员选择等转移应对路径,都难以完美应对自动驾驶汽车“电车难题”的伦理拷问。从提升全体交通参与者的出行安全与效率出发,未来制定《自动驾驶汽车法》或者《人工智能法》时应确立遵守交通法规优先法则、紧急避险例外法则以及不改变路线兜底法则等三大碰撞法则,同时通过风险管控、产品嵌入以及透明问责等配套规则予以落实。
1967年,英国哲学家菲利帕•福特(Philippa Foot)提出了著名的“电车难题”(Trolley Problem):一辆失控的有轨电车飞驰而来,直行会撞死轨道前方的五个人,转弯则会撞死在另一条轨道上的一个人,请问车内司机是否应当牺牲一个人而拯救五个人?随后,“电车难题”成为法律与伦理领域最为著名的思想实验(thought experiment)之一。随着自动驾驶汽车的发展,“电车难题”这一老问题迎来了新视角。如果我们将有轨电车换成自动驾驶汽车,那么自动驾驶算法又该如何选择?当有机会给自动驾驶算法编程时,我们该如何设计算法以便让碰撞结果尽可能更好?
自动驾驶汽车“电车难题”是人工智能遭遇伦理挑战的一个经典样本,如何通过立法进行规制意义重大。既然机器要取代人类驾驶员操控汽车的运行,那么机器就必须遵守人类的伦理准则,以确保符合人类福祉。然而,要实现这一目标并非易事。2024年,由中国政法大学等七家单位共同起草的《人工智能法》(学者建议稿)尝试回应这一问题,其第75条第2款规定:“自动驾驶汽车开发者、提供者应当确保车辆安全,在车辆发生危险时,不得对其他交通参与者进行不合理的差别对待。”那么,《人工智能法》(学者建议稿)的规定是否足以应对“电车难题”?如果不能,如何从法律层面为自动驾驶汽车设计一套符合人类伦理准则的碰撞法则?
一、自动驾驶汽车“电车难题”的命题辨析
“电车难题”由来已久,自提出以来就争议不断,至今没有定论。在此种背景下,讨论自动驾驶汽车“电车难题”究竟有没有实际价值?自动驾驶汽车“电车难题”与传统“电车难题”有何区别,是否是“新瓶装旧酒”式的老调重弹?
(一)自动驾驶汽车“电车难题”的真假之辨
1.对自动驾驶汽车“电车难题”的质疑。对该难题,反对者可能会提出如下三个方面的质疑。
第一,“电车难题”是一场思想实验,现实生活中不存在所谓的“电车难题”,或者说其发生概率极其微小。这种困境非常罕见,对大多数人而言只是一个纯粹的假设,不过是一个考验智力和道德的有趣问题,在实践中(几乎)永远不会发生。英国一位哲学家在接受采访时就明确表示:“对不起,我不做‘电车难题’。”从逻辑上看,“电车难题”假设车辆已经失控,事故无法避免,同时假设人们可以选择如何分配伤害,这本身就存在某种内在冲突。
第二,自动驾驶汽车发生“电车难题”的概率将进一步降低。“电车难题”即使在当前的交通条件下也非常少见,更何况自动驾驶汽车更加安全,最终这些小概率事件将会逐渐消失,不会成为一个在伦理上有争议的问题。有学者指出,对“电车难题”的执着关注忽视了自动驾驶汽车未来可能的运行方式,届时路政工人、交警、汽车、行人和骑手都会以电子信号的形式告知其他人自己的位置,从而降低事故发生的概率。因此,人们并不需要过多地担忧“电车难题”,最终这种问题在高度网络化和自动化的交通中将不再出现。
第三,讨论“电车难题”会极大地阻碍自动驾驶汽车产业的发展。自动驾驶汽车具有巨大的社会价值,能够解决交通事故、环境污染、交通拥堵、城市设计等一系列难题。当前,自动驾驶汽车正处于大规模商业化落地的关键阶段,面临许多迫在眉睫的问题。对此,我们应当将时间和精力用来解决诸如责任承担、产品准入、数据治理、失业等现实问题,而非浪费在“电车难题”这样的思想实验上。“电车难题”本身没有终极答案,苛求自动驾驶汽车解决这一问题不现实。如果人类自身都不能就“在一群人中杀死谁”的问题得出被普遍认可的答案,那么又如何能为自动驾驶汽车编写一个合理的碰撞算法呢?总之,尽管“电车难题”是一个有趣的、值得讨论的问题,但如果我们在这一问题上纠缠太久,就会因此推迟自动驾驶汽车的应用。
2.自动驾驶汽车“电车难题”的价值证成。本文认为,“电车难题”对于自动驾驶汽车具有现实的规范意义,会直接影响产品准入、责任分担等诸多法律制度的设计,绝非纯粹的智力游戏,关乎捍卫以人性和人类尊严为最高价值的法律秩序,具体体现在以下四个方面。
第一,“电车难题”是一个真实存在的问题。“电车难题”是从现实生活中提炼出来的命题,揭示了人们面对两个糟糕选择的困境,并非纯粹的思想实验。例如,在1820年美国的“埃塞克斯号捕鲸船案”中,捕鲸船被一条抹香鲸袭击并沉没,漂泊在公海的幸存者为了生存,需要通过抽签决定牺牲谁而让其他人活下来。再如,2014年在美国纽约北部的伊萨卡中心城区也发生过一起与“电车难题”无异的悲剧。一辆卡车从陡峭的山坡滑向伊萨卡中心城区,司机发现踩刹车并不能让车辆停下来。此时,司机面临两难抉择,即这辆重达两吨的失控卡车究竟是直行还是转弯。最终司机避开了一群建筑工人,选择将卡车撞向附近的咖啡厅,一位27岁的年轻妈妈当场死亡。
第二,自动驾驶汽车遭遇“电车难题”的概率是客观存在的。首先,作为一种新技术,自动驾驶汽车不可能保证绝对安全,只能实现相对安全。即使是一个功能完善的算法系统也无法避免每一次碰撞,企图将事故发生的概率完全抹去是不可能的。其次,自动驾驶技术的成熟需要一个漫长的过程,在可预见的若干年内,传统汽车还不能彻底被自动驾驶汽车全面替代,“电车难题”在短期内无法被忽略。最后,“电车难题”的出现有些是基于自动驾驶汽车的原因,如刹车失灵或者系统故障,有些则是基于其他交通参与者的原因,如突然闯入路口的行人、骑手等,有些则是基于纯粹的意外事件,如恶劣路况和天气等。故此,自动驾驶汽车的安全性并不足以完全排除“电车难题”的出现。只要存在自动驾驶汽车必须作出道德决定的情形,哪怕发生的概率并不高,也需要考虑算法的伦理选择。
第三,“电车难题”对于自动驾驶汽车具有特殊的意义,是确保机器决策符合人类伦理的重要实践。早在20世纪40年代,科幻作家阿西莫夫就提出了机器人三法则,即不伤害法则、服从法则和保护法则。其中,不伤害法则是首要法则。这意味着不伤害人类是机器伦理的最高准则,违反这一法则的机器人是邪恶的。在域外,《欧洲机器人技术民事法律规则》的附件《机器人技术工程师伦理行为准则》指出:“机器人研发者应当遵守伦理准则,遵守‘不伤害’是首要的信条,机器人不得伤害人类。”在国内,无论是中国社会科学院牵头起草的《人工智能示范法2.0》(专家建议稿),还是《人工智能法》(学者建议稿),均强调人工智能以人为本,符合科技伦理原则。面对“电车难题”,自动驾驶汽车必须有所行动,没有回避的余地。特别是对高度自动驾驶和完全自动驾驶汽车而言,人类驾驶员的身份可能不复存在,算法系统需要独自面对这一难题。如果自动驾驶汽车无法处理好“电车难题”就会违背伦理法则,那么其存在的合法性将会遭遇质疑。
第四,“电车难题”会影响自动驾驶汽车相关法律制度的设计。面对“电车难题”,自动驾驶汽车必然会造成一方损害,由此引发生产者、使用者、保险公司等相关主体的责任分担难题。而生产者是否设计了可妥当应对“电车难题”的算法系统,还会影响自动驾驶汽车的产品准入。在德国,2017年发布的《自动和网联车辆交通伦理准则》专门针对自动驾驶汽车“电车难题”提出了多项准则,2021年出台的《自动驾驶法案》正式将这些准则入法,其第1e条第2款第2项规定自动驾驶系统须遵守交通法规,配备事故避免系统。该系统“在损害无法避免时,需要权衡冲突的法益性质,优先保护人的生命利益”,同时“在生命利益的侵害无法避免时,不得根据个人特征预先设置选择的权重”。在国内,2022年《上海市浦东新区促进无驾驶人智能网联汽车创新应用规定》第32条规定,如果自动驾驶汽车“对国家安全、公共安全造成危害,或者程序设计违反伦理要求、存在重大安全风险的”,应当终止相关创新应用活动。此外,《人工智能法》(学者建议稿)更是直接回应了这一问题。因此,讨论“电车难题”具有现实意义,会影响自动驾驶汽车乃至人工智能的法律制度设计。
(二)自动驾驶汽车“电车难题”的新旧之别
“电车难题”的讨论已经持续数十年,专家学者、社会公众、立法者等都表达了各自的意见。本文认为,相较于传统交通工具,自动驾驶汽车“电车难题”主要存在以下三个方面的差异。
1.人的伦理与机器伦理。对传统交通工具而言,“电车难题”考验的是车内司机的选择,本质上是人的伦理问题。与此不同的是,自动驾驶汽车强调机器驾驶取代手动驾驶,应对“电车难题”的选择权从人类驾驶员手中转移至算法系统,从而让机器伦理的问题凸显出来。相较于人的伦理,机器伦理问题更加复杂,具体体现在以下三个方面。
首先,机器伦理同时涉及机器与人。自主机器的选择常常是假象,真正作出决定的仍然是事先编程的人,机器伦理的问题需要回归其背后的人的伦理。对此,《人工智能法》(学者建议稿)第3条第2款明确规定“人工智能开发者、提供者、使用者应当依法预防和控制人工智能可能存在的伦理风险”,凸显了机器背后的人。同时,自动驾驶汽车并非普通的机器,其本身具有自主性与自我学习能力。随着自动驾驶汽车的使用以及与人类的交互,算法系统可能会改变最初设定的行为模式,为自己建立新的行为规则。这意味着机器可能会偏离人为设置的程序框架,由此增加对其规制的难度。
其次,对传统交通工具而言,人类面对“电车难题”的伦理性更加纯粹,具有强烈的自然性、个体性与差异性特征,是一种从内到外的伦理选择。而机器伦理问题涉及法律、工程、社会等诸多非伦理因素,具有明显的人工化、组织化及程式化特征,是一种从外到内的伦理设计。
最后,人机之间存在“莫拉维克悖论”(Moravec’s paradox)。对人类来说非常容易的事情,对机器而言可能十分困难。例如,人类司机通常依靠直觉决定如何谨慎行驶,但这种直觉很难转化为自动驾驶汽车的算法规则。反过来,机器又具备人所没有的能力,能够依靠复杂的算法软件和传感器,快速、精准地计算出最佳碰撞方式,作出更加合理的碰撞选择。此外,自动驾驶汽车不具有人那样的生存本能,从而使其在平衡各方在事故中幸存的概率以及作出碰撞选择时更加理性和客观。
2.即时应对与事先编程。对传统交通工具而言,人类驾驶员究竟如何应对“电车难题”具有即时性。无论他们作出的是何种“选择”,在很多时候不过是基于本能的恐慌反应罢了,对情势的评估在机械和物理上难以保证是合理的。与此同时,自动驾驶汽车的决策源于事先编程的算法,这给了机器决策充分的设计空间,在应对“电车难题”时更加从容。这也意味着自动驾驶汽车根本无法逃避“电车难题”的伦理之问,即使算法系统在面对“电车难题”时完全不作为,也会被视为生产者事先确定的一种选择。在此基础上,对自动驾驶汽车而言,生产者在进行算法编程时就已经决定了在所预见的冲突状况中应当牺牲哪个人或者哪些人;相反,传统交通工具中的人类驾驶员需要根据当时发生的具体情形作出自己的选择。
这种区分会直接影响法律对行为后果的评价。对人类驾驶员而言,在面对“电车难题”的即时选择时通常可以阻却法律责任。即使最终造成了严重的后果,我们往往也会原谅对方,因为他们在电光石火的一瞬间作出了本能反应,但人们未必会原谅计算机作出的错误决定。生产者在进行算法编程时并无直面“电车难题”所带来的生命博弈的现实压力,而且有足够的时间、智力、资源等设计一套更加合理的碰撞算法。但当一个人没有直接面临危险,也非基于自我保护或者保护其近亲属而采取行动时,紧急避险规则能否适用就存在争议。反之,如果生产者明知自己设计的算法程序会剥夺他人的生命或者完全可以设计其他更加合理的算法程序,但为了追求更大的经济利益而违背基本的伦理,那么需要为此承担责任。
3.利益中立与利益相关。对有轨电车而言,直接冲突的是车外两方的生命利益,人类驾驶员无论如何选择,都是为了拯救其他人的生命,具有天然的道德优势地位。当传统汽车遭遇“电车难题”时,情况会变得有所不同,车内人员成为利益冲突的一方,人类驾驶员的选择难以完全中立。而从传统汽车换成自动驾驶汽车场景后,情况将再一次发生变化,选择的权利由人类驾驶员转移至自动驾驶汽车的生产者手中。生产者并不直接面临“电车难题”,这种不在场性似乎可以让其更加理性、中立地进行算法设计。但遗憾的是,虽然生产者没有直接的生命利益冲突,但有巨大的经济利益牵绊,因为企业的利益与消费者的利益常常是绑定在一起的,这很可能会导致对车外人员安全利益的歧视性锁定。
具言之,对传统交通工具而言,人类驾驶员在面对“电车难题”时作出的选择不过是出于生理本能的瞬时反应,具有极大的偶然性、开放性。有的人会选择保护自己的生命利益而牺牲他人的生命利益,甚至以他人的生命利益为代价保护自身的健康利益或者财产利益,但也会出现牺牲自己的生命、健康、财产利益来保护他人的善举。然而,对自动驾驶汽车而言,生产者需要生产让消费者满意的产品,否则会丧失市场占有率。如此一来,“电车难题”的性质将发生根本改变,即从传统的拯救多数人还是少数人的问题转变为要不要拯救乘客的问题。出于经济利益的考量,生产者很可能会在预先编程的算法程序中一刀切地坚持车内人员安全至上,将车外人员的安全利益置于不利地位,哪怕“电车难题”是由自动驾驶汽车本身的原因引起的。正是基于此,法律需要进行干预,避免碰撞算法的设计权力被生产者垄断,而将社会公众的安全利益置于不利地位。
二、自动驾驶汽车“电车难题”的伦理困境
面对自动驾驶汽车“电车难题”,现有的方案可以归纳为积极应对、消极应对以及转移应对三种路径,但每种方案都存在特定的伦理困境。
(一)积极应对方案及其评析
1.拯救多数人。既然“电车难题”无法回避,那么最好的办法就是直面困境,主动设计碰撞算法。一种可能的方案是选择拯救多数人一方的生命,即采取基于生命数量的功利主义思维。按照这种方案,扳动道岔牺牲一个人而拯救五个人的选择是值得提倡的,因为行为的后果是拯救了更多的生命,符合“最大多数人之最大幸福”的行为准则。同样,面对不可避免的碰撞,自动驾驶汽车也应尽可能减少伤害,从而使社会效益最大化。
然而,这种简单地依据生命数量进行选择的功利主义做法存在许多争议。例如,德国法的主流学说认为不应该允许对生命进行比较与衡量,为了拯救五个人而牺牲一个人缺乏正当性,不构成刑法上的紧急避险。而日本法在这一点上相对缓和,甚至可以说容许进行生命衡量的见解属于有力说。与此同时,很难判断牺牲一个人是否比牺牲五个人更有利于社会。例如,一方是一名高收入的年轻人,需要抚养三名小孩、赡养两位老人,另一方则是没有收入来源的五名流浪汉,需要靠领取政府救济金生活。此时,牺牲一个年轻人而拯救五个流浪汉的行为反而不符合功利主义的评价标准。此外,这种依据生命数量进行选择的方法存在天然的局限,即无法摆脱冲突双方人数相同时的困境。
2.综合评分。既然简单地数人头的解决方案不合适,那么另一种可能的解决思路是综合评分,即全面评价发生利益冲突的各方,找出最值得被拯救的一方。为此,自动驾驶汽车需要计算在特定情况下可能采取的每个潜在行动的风险、回报和成本,并基于这些计算结果执行“效用”最大化的决策。为此,算法系统需要借助各种衡量指标,包括性别、年龄、种族、宗教、健康、收入、参与交通的时间、车辆的价值与性能、安全防护程度等各种因素。对发生利益冲突各方的数据掌握得越多,综合评分就越精准,算法设计也就更加合理。
然而,综合评分的做法可能会遭到如下两个方面的质疑。其一,涉嫌歧视。禁止歧视是各国法普遍认可的伦理准则。例如,德国《自动和网联车辆交通伦理准则》第9条就禁止将人群属性作为评判标准。2024年,联合国首个人工智能全球决议《抓住安全、可靠和值得信赖的人工智能系统带来的机遇,促进可持续发展》也提出:“帮助保护个人免受一切形式的歧视、偏见、滥用或其他伤害,并避免在人工智能系统的整个生命周期内强化或固化具有歧视或偏见的应用程序和结果。”而在国内,无论是《新一代人工智能伦理规范》《全球人工智能治理倡议》,还是人工智能法的两部立法建议稿,都明确反对歧视。其二,缺乏可操作性。人的生命是无价的,很难对生命的价值进行量化评分。即使是性别、年龄、健康、参与交通的时间等相对客观的评判指标,算法系统也很难在一瞬间对冲突的各方进行量化评分,除非提前收集所有交通参与者的各项数据。这无疑是十分困难的,会面临个人信息保护、数据安全、人格尊严以及成本巨大等诸多问题。
3.优先保护车内人员。这种方案强调以车内人员的安全保护为最高准则。有学者认为,自动驾驶汽车的乘客应当优先得到保护,因为自我保护的理念既是道德中立的,也是社会公认的。同时,根据现行法律,人们没有为拯救他人而牺牲自己的积极义务。此外,优先保护乘客有利于自动驾驶汽车行业的发展,最终有助于实现一个更大的社会福祉。想要购买或者使用自动驾驶汽车者都希望生产者能够坚定地站在他们一边,而不是将他们与车外人员同等对待。
然而,这种做法可能会遭到如下质疑。其一,偏爱车内人员缺乏法律依据,直接违反《人工智能法》(学者建议稿)第75条第2款,系对车外人员进行不合理的区别对待。其二,自动驾驶汽车属于新生事物,优先保护车内人员的设定不一定有利于自动驾驶汽车的普及,很可能会遭到其他交通参与者的抵制。其三,自动驾驶汽车应当有助于提升全体交通参与者的安全,而非仅仅是车内人员的安全。优先保护车内人员的做法违背了技术发展的初衷,会让算法系统作出不合理的决策,妨碍自动驾驶汽车造福全社会目标的实现。其四,“电车难题”可能因自动驾驶汽车而造成,一刀切地让车外人员承担不利后果不公平。其五,优先保护车内人员会产生许多意料之外的恶性竞争,人们会竞相选择更大、更重的交通工具,以避免自己成为自动驾驶汽车碰撞的对象。
4.优先保护车外人员。这种做法主张自动驾驶汽车应当优先保护车外人员的安全,主要有三个方面的理由。其一,车内人员选择牺牲自己来拯救车外人员是一种高尚的行为,具有伦理上的优越性。其二,使用自动驾驶汽车的行为为社会制造了风险,同时车内人员享受了科技带来的好处,理当承担紧急情况下的不利后果,而不应利用技术优势以牺牲车外人员的生命为代价保全自己的生命。其三,相较于车外人员,车内人员通常有更好的安全保障措施。车外人员在自动驾驶汽车面前一般属于弱势群体,理当予以优先保护。对此,谷歌公司表示已经为自动驾驶汽车设计了一份行车关注对象名单,首先会试图保护行人、骑手等最脆弱的交通参与者,然后保护其他交通参与者。
然而,优先保护车外人员的做法存在诸多现实难题。其一,这样的自动驾驶汽车可能会遭到市场的排斥,谁会购买一辆在关键时刻牺牲车内人员生命的汽车?2015年,三位科学家通过互联网招募志愿者,分六次对1928名美国居民就自动驾驶汽车“电车难题”进行线上调查,并将调查结果发表在《科学》杂志上。研究表明,虽然大多数受访者都认为公平地减少整体伤亡的汽车更符合道德规范,但他们表示不会购买这样的汽车,而会选择优先保护自己的自动驾驶汽车。其二,优先保护车外人员并不具有所谓的伦理优势,本质上是反向歧视车内人员。其三,制造交通风险的并非只有自动驾驶汽车,行人、骑手等其他交通参与者也在制造风险。即使自动驾驶汽车制造了风险,真正的责任主体也应该是生产者,而非消费者。其四,自动驾驶技术让全社会都受益,提升了整个交通系统的安全效率,使用自动驾驶汽车的行为应当得到鼓励,而非受到抵制或者歧视。
(二)消极应对方案及其评析
1.不干预。既然“电车难题”如此棘手,那么沉默或者不干预就成为一种选择。面对“电车难题”,无论选择牺牲谁都难以让人满意,与其勉强选择,不如不做选择,不干预事故的发生。来自罗马的研究人员阿德里亚诺•亚历山德里尼认为,当要求一辆自动驾驶汽车作出选择时,就一定会陷入道德困境。为此,他提出了一个可以绕过“电车难题”伦理拷问的解决方案,即将自动驾驶汽车设计为只能按照预先设定好的路线从一个地方到另一个地方,然后再返回,中间不能改变路线。
不干预方案可能会得到一部分人的支持。相较于主动介入导致某人死亡,选择不干预事故的发生似乎更能让人在心理上接受。面对“电车难题”,虽然扳动道岔可以拯救五个人,但代价是牺牲一个人。无论扳动道岔出于什么样的动机,扳动道岔的人都可能会面临承担法律责任的风险。即使免于法律责任的承担,其也会背负额外的伦理压力。这种压力既可能来自持不同意见的公众,也可能来自受害人的家属,还可能来自自己的内心。相较之下,不干预似乎是一种简单而有效的方式。然而,所谓的不干预做法本质上属于逃避行为,很可能会造成更加糟糕的结果。此外,自动驾驶汽车“电车难题”具有事先编程的特点,不干预其实也是一种选择,是否正当需要进一步的论证。
2.随机选择。这种方案主张任意或者随机地选择一个方案,也被称为掷色子方案。有学者指出,破解这些令人烦恼的伦理困境的一个优雅的解决方案是拒绝做一个深思熟虑的选择,即通过算法系统随机生成的方案作出碰撞决定。这种做法看似有一定合理性。其一,可以做到绝对公平,不会对发生生命利益冲突的各方有任何歧视,一切取决于运气。其二,可以打破“电车难题”的伦理诘难,让选择更加简单。其三,符合人类的日常经验,对于掷色子产生的结果,人们更容易接受。其四,在传统汽车遭遇“电车难题”时,人类驾驶员的选择往往也是本能反应,与随机选择没有什么不同。
然而,完全随机的做法存在诸多弊端。其一,面对人命关天的两难困境,将选择权拱手让给所谓的概率或者命运,这本身就是对生命的不负责和不尊重,是逃避责任的懒惰行为。其二,这种不经过深思熟虑的随机选择会导致更加严重的事故后果。其三,随机选择可能存在“算法黑箱”问题,产生的结果难以被公众接受,属于“刑不可知,则威不可测”的一种倒退。其四,随机选择无法发挥激励作用,这种看似形式公平的做法可能会产生“劣币驱逐良币”的消极后果。例如,一方是遵守交通法规的行人,另一方是逆行的骑手,随机选择让守法者与违法者处于同一境地是对守法者的不公。
3.制动停车。这种方案强调在遭遇“电车难题”时,自动驾驶汽车唯一要做的事情就是控制刹车将汽车停住,至于造成何种伤亡完全是车辆物理运动的结果,而非伦理道德的选择。这种做法似乎有一定的吸引力。有观点就指出,尽管不完美,但制动确实可以应对自动驾驶汽车遭遇的大多数紧急情形,其好处远远超过产生的风险。
实际上,制动停车并不能很好地解决“电车难题”。一方面,从安全角度出发,无论是人类驾驶的汽车,还是自动驾驶汽车,在许多情况下制动都不是最好、最安全的方式,盲目制动可能会引发更加严重的后果。另一方面,“电车难题”中的损害发生是不可避免的,指望通过制动阻止碰撞并不现实,除非自动驾驶汽车的时速总是维持在20英里左右,否则没有车辆可以做到立即停车,并且车辆的速度越快,所需要的制动距离就越长。相关研究表明,当汽车以每小时60英里的速度行驶时,制动停车所需的距离为172英尺;如果时速达到80英里,则制动停车所需的距离长达305英尺,相当于美式足球场的长度。如果道路环境糟糕,例如道路上有水,那么制动停车需要的距离会更长。
(三)转移应对方案及其评析
1.事先转移。有学者提出,自动驾驶汽车的生产者应当为用户提供“伦理按钮”(Ethical Knob),具体包括三种设置:一是利他模式,优先保护车外人员;二是公平模式,车内人员和车外人员同等保护;三是利己模式,优先保护车内人员。对此,用户可以根据不同的伦理立场选择定制自动驾驶汽车,生产者负责将用户定制的设置实现,以便保障用户的选择。这种做法可以尽可能地满足消费者的个性化需求,更好地推动自动驾驶汽车的普及,也让消费者更愿意承担责任。在一项调查中,44%的受访者表示更喜欢个性化的道德设置,只有12%的受访者认为生产者应该预先确定道德偏好。此外,由于碰撞模式是由消费者事先设置的,生产者承担法律责任的概率将会降低。
当然,这种做法也存在问题。首先,由于损害结果与消费者的利益息息相关,个体在道德上的自私性将暴露无遗。消费者很可能会要求算法系统在任何情况下都要优先保护自己,哪怕牺牲行人的生命利益。如果不存在这种选项,那么消费者很可能不会购买自动驾驶汽车或者拒绝事先选择。其次,这种事先转移模式给了消费者充分的思考时间,消费者在反复思考中会不断剔除感性因素,最终会倾向于选择更有利于自己的理性方案,将车外人员锁定在被牺牲对象中。换言之,这种方案无法保障一般的道德底线,可能会导致社会伦理空间的崩溃和倒退,动摇和冲击基本的法律公正。最后,允许每辆自动驾驶汽车根据消费者的喜爱设置碰撞模式,会产生一定程度的不可预测性,降低自动驾驶汽车带来的安全与效率优势。
2.即时转移。除事先转移外,还有一种应对方案,即在自动驾驶汽车遭遇“电车难题”时,将选择权转移给人类驾驶员。相较于事先转移,即时转移方案没有留给人类驾驶员太多的时间进行理性决策,保留了感性行事的可能,对车外人员更加友好。同时,即时转移方案最大程度地向传统“电车难题”靠拢,将一切选择交由人类驾驶员依靠本能作出,可以减少伦理上的责难。
然而,即时转移的做法可能不太现实。在机器驾驶取代手动驾驶后,人类驾驶员的角色会逐渐乘客化,原本从事驾驶的时间会被用来休息、玩手机、吃东西等,根本无暇顾及自动驾驶汽车究竟处于何种运行状态。而“电车难题”往往发生在电光石火之间,自动驾驶汽车只怕来不及将选择权交由人类驾驶员。即使算法系统发出警示,提醒人类驾驶员回应,人类驾驶员也没有时间去思考,强行转移选择反而会引发更加危险的后果。相关研究表明,从乘客状态恢复至驾驶员状态不是即时或无成本的,平均至少需要27秒的时间。这意味着期待人类驾驶员作出理性的选择并不现实,不过是将皮球从生产者踢给用户而已,很可能成为生产者逃避法律责任的遮羞布。
三、自动驾驶汽车“电车难题”的立法因应
通过考察可知,自动驾驶汽车“电车难题”并不存在一种理想的无痛解决方案。本文认为,应当破除“电车难题”的道德“诘难”,从法律规制的角度寻找自动驾驶汽车碰撞算法设计的方向。
(一)自动驾驶汽车碰撞法则的法律表达
从法律的视角,解决自动驾驶汽车的“电车难题”就是要为算法设计一套合法的碰撞法则。对此,《人工智能法》(学者建议稿)第75条第2款要求自动驾驶汽车在发生危险时,“不得对其他交通参与者进行不合理的差别对待”,为算法的设计指明了方向,但仍然需要构建具体的碰撞法则,为自动驾驶汽车的生产者提供行之有效的指导规则。本文认为,从提升全体交通参与者出行安全与效率的角度出发,未来立法应当为自动驾驶汽车确立碰撞三法则,即遵守交通法规优先法则、紧急避险例外法则以及不改变路线兜底法则。
1.遵守交通法规优先法则。汽车的使用具有风险属性,正是由于交通法规的存在,才使得出行风险可控。从这个角度看,交通法规的存在提升了整个交通系统的安全与效率,所有的交通参与者都应当遵守交通法规。面对“电车难题”,自动驾驶汽车理应优先保护遵守交通法规一方的安全,以便提供一种守法行为的激励机制。如果“电车难题”是由一方违反交通法规引起的,那么理当由其承担不利后果。例如,对于自动驾驶汽车在行驶中遭遇骑手逆行引起的“电车难题”,此时应当由违反交通法规的骑手一方承担不利后果。这一规则能够成为相对广泛的共识。与此同时,鼓励遵守交通法规的理念应当彻底贯彻,即使“电车难题”的场景变得更加复杂,如逆行的不是一个骑手,而是五个骑手。此时,自动驾驶汽车也不应改变选择。易言之,违反交通法规一方人数的多寡并不能改变其违法的事实,仍然需要承担不利后果。
遵守交通法规优先法则具有正当性。其一,维护出行秩序。交通法规是为了维护整个出行秩序而制定的,是所有交通参与者就出行达成的一种社会契约。遵守交通法规就是保护最大多数人的安全,履行对所有交通参与者的注意义务。其二,符合风险原理。面对日益复杂的风险社会,基于风险的治理成为一种重要的规制方法,其核心是根据风险的大小、性质、级别等调整或确定规制活动的优先次序,以实现最优的资源分配和效果。自动驾驶汽车等人工智能科技带来了全新的风险挑战,应当贯彻基于风险的治理理念,采取预防性、前瞻性、主动性的态度和措施,以减少或避免不利后果的发生。就自动驾驶汽车“电车难题”而言,违反交通法规的行为制造了额外的风险,当交通事故的发生无法避免时,理当优先保护遵守交通法规一方的安全利益,由制造风险的一方承担不利后果。唯有如此,才能给所有交通参与者一个明确的预期,鼓励大家遵守交通法规,以最大程度地减少事故的发生。其三,符合公平原则。通常而言,依据个人或者群体的主体身份属性予以区别对待是法律所禁止的,如基于性别、残障、种族、传染病病原携带等。然而,法律并不禁止对行为进行评价,违反交通法规的一方本身就要受到法律的责难,相较于遵守交通法规的一方,由前者承担“电车难题”的不利后果是公平的。
2.紧急避险例外法则。遵守交通法规优先法则的适用前提是碰撞各方的行为评价存在区别,无法适用于双方都遵守交通法规或者都违反交通法规的情形。此时,应通过利益衡量确立紧急避险例外法则。具言之,生命利益高于健康利益,健康利益高于财产利益,这是法律的基本共识。当生命利益与财产利益发生冲突时,自动驾驶汽车应当优先保护前者,哪怕具有生命利益的一方违反交通法规,而具有财产利益的一方遵守交通法规。这种优先保护生命利益的考量是无条件的,不因碰撞各方的社会属性或者行为评价而改变,也不因财产价值的高低而动摇。对此,德国《自动和网联车辆交通伦理准则》第7条规定,在采取所有手段都无法避免事故时,对生命利益的保护高于一切。这就是法律上的紧急避险规则,即通过牺牲一个较小的利益保护一个较大的利益。
紧急避险是法律明确规定的一项利益衡量规则,作为自动驾驶汽车的碰撞法则具有合法性与正当性,可以为自动驾驶算法的选择提供免责保护。根据紧急避险规则,为了拯救生命利益、健康利益,牺牲财产利益是可以接受的。但是,以牺牲健康利益来保护生命利益是否超过紧急避险的必要限度?本文认为,生命利益作为高位阶的权益,并不绝对优于健康利益,需要结合具体的场景作出判断。如果为了维护某人的生命利益却会导致其他一人或者数人的健康利益遭受重大损害,那么这种选择是否可取值得商榷。因为健康利益的代价过于巨大,与生命利益几乎没有差别,在道德层面难以一较高下。此时,自动驾驶汽车不应当然地选择牺牲一方的重大健康利益来拯救另一方的生命利益。在实践中,算法系统一般以概率方式预估碰撞各方的损害程度,但对健康利益受损情况的计算未必准确。基于此,除非算法系统能够确定一方的健康利益不会遭受重大侵害,否则不宜为了生命利益而牺牲健康利益。这也是为何遵守交通法规属于优先法则、第一法则,而紧急避险属于例外法则、第二法则的重要原因,因为对碰撞各方行为的评判通常较为明确,而对人身权益损害程度的评判则存在较大的不确定性。
3.不改变路线兜底法则。遵守交通法规优先法则以及紧急避险例外法则可以解决大部分的碰撞问题,但仍然存在适用盲区,即碰撞各方在行为评价、法益位阶方面都相同的情形。此时,就需要适用第三法则,即不改变路线兜底法则。例如,一辆自动驾驶汽车在行驶中遭遇“电车难题”,继续直行会撞死甲,左转会撞死乙,右转会导致车内人员丙死亡。假设甲、乙两人都违反了交通法规,自动驾驶汽车属于遵守交通法规的一方,那么按照遵守交通法规优先法则,自动驾驶汽车应当优先保护丙,碰撞损害在甲、乙之间进行分配。由于甲、乙两人都违反交通法规,同时冲突的利益都属于生命利益,无法适用紧急避险例外法则。此时,不改变路线兜底法则将发挥作用。
不改变路线法则不等于不作为,而是“有所为,有所不为”,是有意而为之的选择,是一种“兜底法则”。确立这一法则主要有如下三个方面的理由。其一,公平原则。当碰撞各方的行为评价、冲突法益都相同时,依据其他因素予以区别对待都会面临伦理拷问。此时,不改变路线兜底法则让各方都处于同一位置,自动驾驶汽车选择直行或者转向都是在继续自己原有的路线,不幸的一方只是因为意外去世,并非因算法歧视而被牺牲,受害人家属以及公众更能接受。其二,免责保护。自动驾驶汽车如何应对“电车难题”,一个重要的因素是责任承担。在遵守交通法规优先法则、紧急避险例外法则都无法适用时,自动驾驶汽车没有改变路线的法律依据。此时,自动驾驶汽车贸然改变路线导致一方受损的,可能会承担法律责任,因为改变路线的积极行为缺乏正当性。反之,虽然不改变路线也会导致一方受损,但损害的发生仅仅是自动驾驶汽车先前行为的自然结果,不改变路线的消极行为本身并不会受到苛责。对比而言,不改变路线兜底法则可以为自动驾驶汽车的选择提供更强的免责保护。其三,出行秩序。“电车难题”往往发生在电光石火之间,自动驾驶汽车盲目改变方向可能会引发其他交通参与者的连锁反应,从而导致更加严重的后果。对此,不改变路线兜底法则具有更强的可预见性,有利于维护出行秩序。
(二)自动驾驶汽车碰撞法则的立法路径
在提出自动驾驶汽车碰撞法则的基础上,需要解决其立法路径问题。对此,本文认为,未来可以通过制定《自动驾驶汽车法》或者《人工智能法》的方式予以明确。
1.自动驾驶汽车立法路径。当前,自动驾驶汽车正处于大规模商业化落地的关键阶段。为此,许多国家都出台了各种法律政策。自2016年以来,美国交通部国家公路交通安全管理局连续发布了《联邦自动驾驶政策:加速道路安全变革》《自动驾驶系统2.0:安全愿景》《为未来交通做准备:自动驾驶汽车3.0》以及《确保美国自动驾驶汽车技术的领导地位:自动驾驶汽车4.0》等四版政策,凸显了对自动驾驶汽车的重视。韩国于2019年通过了《自动驾驶汽车法案》,包括《促进和支持自动驾驶汽车商业化法》《促进和支持自动驾驶汽车商业化法施行规则》《促进和支持自动驾驶汽车商业化法施行令》等系列法案,旨在加速自动驾驶汽车的商业应用。德国先后通过了《道路交通法第八修正案》《自动驾驶法案》,直接以法律形式明确了自动驾驶汽车应对“电车难题”的基本规则。英国2017年发布《自动化与电动化汽车法案》,为自动驾驶汽车交通事故配套了升级版的保险责任规则, 2024年正式通过《自动驾驶汽车法案》,引入全新的监管规则。
与此同时,我国也高度重视自动驾驶汽车产业的发展,出台了《智能网联汽车道路测试与示范应用管理规范(试行)》《汽车数据安全管理若干规定(试行)》《关于开展智能网联汽车准入和上路通行试点工作的通知》《深圳经济特区智能网联汽车管理条例》《上海市浦东新区促进无驾驶人智能网联汽车创新应用规定》等系列法律政策。在此背景下,通过制定一部《自动驾驶汽车法》回应自动驾驶汽车的“电车难题”是最为合适的。一方面,与欧盟、美国等域外立法相比,我国有关自动驾驶汽车的立法整体上效力层级比较低,大多是部门规章、地方性法规、部门规范性文件、部门工作文件,还没有出台一部法律或者行政法规。此时,制定一部《自动驾驶汽车法》可以改变分散式、地方式立法的现状,实现自动驾驶汽车法律规则的统一性、确定性,推动自动驾驶汽车早日大规模商业化应用。另一方面,“电车难题”影响自动驾驶汽车立法的诸多规范设计,如产品准入、责任承担、数据安全、交通法规等,具有牵一发动全身的体系效应。通过制定一部《自动驾驶汽车法》可以相对集中地解决自动驾驶汽车所面临的诸多法律障碍,最大程度地实现治理的体系化。
2.人工智能立法路径。2023年6月,《国务院2023年度立法工作计划》提出“预备提请全国人大常委会审议人工智能法草案”,《国务院2024年度立法工作计划》再次予以明确。这意味着我国迎来了制定一部统一的、综合的《人工智能法》的宝贵契机。本文认为,在《自动驾驶汽车法》的制定尚不明朗的背景下,通过《人工智能法》解决自动驾驶汽车的“电车难题”也是一条务实、合理的路径。
一方面,人工智能立法需要关注应用场景的规制。人工智能是一项赋能型技术,可以广泛应用于各个领域。欧盟《人工智能法》指出:“人工智能是一个快速发展的技术族,能够为各行各业和社会活动带来广泛的经济、环境和社会效益。”考虑到不同应用场景中的人工智能各有特点,其法律风险、表征以及回应机制各不相同,因此人工智能立法需要关注智能应用层面的问题。与此同时,自动驾驶汽车是人工智能最典型的应用场景之一。2022年8月,科技部发布《关于支持建设新一代人工智能示范应用场景的通知》,提出首批支持建设的十个示范应用场景,其中就有自动驾驶。基于此,《人工智能法》(学者建议稿)第六章专门设置一章“特殊应用场景”,对自动驾驶汽车、司法人工智能、生物识别、社交机器人、医疗人工智能等人工智能典型应用场景作出规定。从立法技术上看,在《人工智能法》中规定各类人工智能典型应用场景,类似于在合同立法中规定典型合同的做法,有助于实现人工智能法律治理一般化与场景化的统一。
另一方面,“电车难题”并非专属于自动驾驶汽车的特殊问题,而是人工智能面临诸多伦理、法律挑战的集中体现,对人工智能立法具有一般性价值。例如,自动驾驶汽车的“电车难题”涉及科技伦理,算法系统的选择本质上是机器如何遵守人类伦理的问题,关乎个体人身自由与人格尊严的保护以及公共利益与人类福祉的维护,是人工智能所面临伦理挑战的具体体现,需要通过《人工智能法》确立以人为本、公平、公开等原则来明确人机相处的基本规则。再如,“电车难题”涉及自动驾驶汽车产品的安全问题,人车之间如何在紧急情况下各司其职至关重要,需要《人工智能法》明确开发者、提供者、使用者的义务,确保人工智能产品的安全、可信。此外,自动驾驶汽车“电车难题”还涉及许可备案、责任承担、风险管理等诸多问题,皆为《人工智能法》的重要内容。基于此,借由《人工智能法》回应自动驾驶汽车的“电车难题”具有正当性和必要性。
(三)自动驾驶汽车碰撞法则的保障机制
从确保自动驾驶汽车遵守碰撞法则的角度出发,未来立法需要设置风险管控、产品嵌入和透明问责等配套规则。
1.风险管控。碰撞算法的设计应当遵守安全原则,进行科技伦理审查和安全风险管理。
第一,科技伦理审查。科技伦理审查是确保人工智能符合人类伦理的重要方式,属于在科技创新上游阶段执行伦理原则的重要程序节点。对此,《人工智能示范法2.0》(专家建议稿)第42条第1款规定:“从事人工智能研发、提供活动,涉及国家人工智能主管机关确定的敏感领域的,应设立人工智能伦理审查委员会,并按照国家有关规定开展人工智能伦理审查。”根据《科技伦理审查办法(试行)》第2条,对于“不直接涉及人或实验动物,但可能在生命健康、生态环境、公共秩序、可持续发展等方面带来伦理风险挑战的科技活动”,应当进行科技伦理审查。碰撞算法的设计解决的是碰撞各方生命健康利益的选择问题,属于应当开展科技伦理审查的科技活动。因此,自动驾驶汽车开发者应当设立科技伦理审查委员会,重点审查训练数据以及碰撞算法的设计是否遵守公平、公正、透明、可靠、可控等原则。
第二,安全风险管理。科技风险无法被完全消除,只能通过采取管理措施将风险控制在可接受范围内,基于风险的人工智能治理理念已逐渐成为一种共识。无论是欧盟《人工智能法》,还是我国人工智能法的两部立法建议稿,都强调人工智能的安全风险管理。对自动驾驶汽车“电车难题”而言,安全风险管理包括两个要点。其一,管理主体。如果说科技伦理审查主要针对开发者,那么安全风险管理则同时针对开发者和提供者。因为自动驾驶汽车的安全与碰撞算法的运行高度依赖提供者的后续服务,包括升级更新、地图导航、人工接管等。即使在自动驾驶汽车投入市场或者使用后,提供者仍然需要承担安全风险管理义务。其二,管理内容。一是识别和分析碰撞算法在预期运行过程中产生的风险,如碰撞算法的可靠性、准确性、稳定性,是否存在因为自我学习偏离碰撞法则的情况。二是评估碰撞算法在可预见的范围内被滥用的风险,例如碰撞算法是否可能被规避、关闭或者更改。三是采取适当的、有针对性的风险应对措施。
2.产品嵌入。碰撞算法是自动驾驶汽车产品的重要组成部分,需要通过产品嵌入确保碰撞法则的落实。
第一,产品准入。伦理安全是自动驾驶汽车安全的重要组成部分,碰撞算法的设计理应作为产品准入的必要事项。对此,德国《自动驾驶法案》明确要求自动驾驶汽车必须具备事故避免系统,确保伦理安全得到贯彻。美国《联邦自动驾驶政策:加速道路安全变革》(AV 1.0)将伦理问题作为自动驾驶汽车产品准入安全评估的15个因素之一。与此同时,我国工信部等四部门《关于开展智能网联汽车准入和上路通行试点工作的通知》规定:“在激活状态下,自动驾驶系统应避免导致交通事故。当碰撞事故不可避免时,自动驾驶系统应采取合理策略,尽量降低事故伤害或损失。”这意味着自动驾驶汽车应当设计合理的碰撞算法,否则产品存在安全风险,无法获得准入上市的资格。唯有如此,才能从源头上确保自动驾驶汽车的安全性和伦理性。对此,自动驾驶汽车首先应当遵守交通法规,确保车内人员不会成为违反交通法规的一方,进而承担“电车难题”的不利后果。在此基础上,自动驾驶汽车还需要具备识别碰撞各方是否遵守交通法规以及法益冲突情况的能力,以便落实碰撞法则。
第二,设计嵌入。为了落实碰撞法则,生产者应当通过设计将碰撞法则嵌入自动驾驶算法之中。例如,英国《2024年人工智能(监管)法案》第2条规定,人工智能及其应用应当遵守与平等有关的法律,通过设计实现包容性,确保不会在个人之间出现非法歧视。在实践中,自动驾驶算法存在两种不同的设计路径。一种是自下而上的设计方法(bottom-up design approach),强调由算法系统自主学习,在海量数据中探求某种行为模式,从而不断增长智能。这种模式的好处是允许算法自主发挥,但算法作出的选择通常缺乏可解释性。另一种是自上而下的设计方法(top-down design approach),类似于一种审慎的、有意识的决策过程,强调直接给算法某种行为模式,不允许算法在规则之外自由发挥。当前人工智能的主流设计思路是自下而上式的,通过机器学习、神经网络、大模型来实现算法的智能升级。对此,本文认为,自动驾驶汽车碰撞算法的设计更适合采取自上而下的设计思路。一方面,“电车难题”需要自动驾驶汽车遵守法律明确规定的碰撞法则,不应交由算法系统自主学习来归纳、提炼。另一方面,自下而上的设计思路缺乏可追溯性,考虑到“电车难题”本身就充满争议,碰撞算法的不透明性只会引发公众更多的质疑,进而妨碍自动驾驶汽车产业的发展。
3.透明问责。碰撞算法的设计涉及公共利益,应当遵守透明问责原则。
第一,公开透明。自动驾驶汽车碰撞算法的设计和落实涉及监管者、企业、消费者和社会公众各方利益,应当贯彻公开、透明的要求。一方面,考虑到碰撞算法的重要性,开发者、提供者应当进行算法备案,提高算法的透明度、可解释性,满足风险可控、确保安全等目标。另一方面,消费者是受碰撞算法影响最大者,提供者应当向消费者充分披露碰撞算法的相关信息,帮助消费者更好地选择自动驾驶汽车产品。对此,欧盟《人工智能法》以及我国人工智能法的两部立法建议稿都规定了提供者的告知义务。具体而言,提供者需要以简洁、清晰、易于理解的方式,向消费者告知自动驾驶汽车碰撞算法的基本情况,包括适用情形、运行规则、功能局限、潜在风险以及对消费者权益可能的影响。考虑到提供者对碰撞算法的认知可能存在局限,开发者应当配合提供者履行告知义务。
第二,问责机制。面对“电车难题”,如果生产者已经遵守法律规定,将碰撞法则嵌入算法之中,并履行了科技伦理审查、安全风险管理、算法备案等合规义务,那么法律应当允许其豁免刑事或者行政责任。对此,我国人工智能法的两部立法建议稿都规定了合规免责条款,帮助企业卸下责任包袱,激励其主动建立及落实完善的合规体系。与此同时,就民事责任而言,一旦生产者植入碰撞法则,并且履行了充分的告知义务,那么自动驾驶汽车在“电车难题”中的选择不应视为产品缺陷,而是属于人机协作为追求正义而付出的必要代价。对此,生产者无需就此种算法设计承担产品责任。如果“电车难题”是由行人、消费者等引起的,如行人逆行、消费者错误使用自动驾驶功能,那么应当按照一般侵权责任规则,由引起险情的过错一方承担赔偿责任。如果是由自然原因引起的,碰撞各方都没有过错,那么应当按照公平责任原则,由受益一方对承受碰撞不利后果的一方承担适当的补偿责任。此时,自动驾驶汽车的碰撞选择不被视为侵权,而是一种攻击性紧急避险,受害人享有牺牲补偿请求权。
四、结语
当前,全球自动驾驶汽车处于从测试应用迈向商业落地的关键阶段,如何推动自动驾驶汽车更好、更快地上市、上路是各国监管者都面临的难题。自动驾驶汽车大规模商业化应用的前提是足够安全,这离不开伦理安全的保障。对自动驾驶汽车而言,“电车难题”绝非可有可无的思想实验,而是具有现实规范意义的重要命题,不仅直接关涉自动驾驶汽车的产品设计者、生产者以及消费者的权利、义务和责任,而且影响整个出行秩序的维护以及人机关系的伦理实践。对此,德国《自动驾驶法案》率先将“电车难题”入法,从产品准入的角度为自动驾驶汽车碰撞算法的设计提供指引。在我国,《关于开展智能网联汽车准入和上路通行试点工作的通知》《上海市浦东新区促进无驾驶人智能网联汽车创新应用规定》等也重视自动驾驶汽车碰撞算法设计的重要性,《人工智能法》(学者建议稿)更是对自动驾驶汽车如何应对“电车难题”作出初步探索。基于此,本文在考察现有各种应对方案的基础上,主张未来通过制定一部《自动驾驶汽车法》或者《人工智能法》,确立遵守交通法规优先法则、紧急避险例外法则以及不改变路线兜底法则,为自动驾驶汽车碰撞算法的设计提供明确的指南,加速我国自动驾驶汽车的商业化进程。