人工智能治理是其技术和运用发展到一定阶段的必然结果,更是对其研究、开发、生产和运用过程中出现的公共安全、道德伦理等问题加以规范和治理的过程。对此要从三方面加以思考:
一是要注意平衡一对关系,一方面,人工智能通过科技产业的发展带来经济效益,即社会福利、企业的营利活动还有知识产权应用法案的提出;另一方面,为了防止企业面对过重的责任负荷,应适当地考虑企业的责任有限化等问题,以避免对人工智能管理过严。过分强调法治会对人工智能产业的发展、人工智能技术的探索造成一定限制,所以我们需要辩证地看待这个问题。和产业、经济利益相对的是现在比较缺乏的人工智能治理,为解决现实问题应特别强调个人权利、信息安全、隐私等,在我们评价维度中表现为公平正义及对政府行为的法律制约。人工智能治理中,应注意这样一对关系,在发展产业的同时保障权利、实现公平,不应顾此失彼。
二是从国际规则博弈角度来说,需要注意几个问题,如数据安全、面部识别技术的应用等。个人隐私保护与产业发展的对立统一关系是我们需要考虑的范畴。如何准确传达加强数据治理、防治人工智能风险的意图,如何切实完善制度设计非常重要。此外,算法黑箱也是一个重要且难以解决的问题,人工智能的预测能力越强、功能越强,越容易导致算法黑箱问题。我们希望算法可以解释、说明及透明化,但实际上这很难完全做到。如果不能恰当地做到,就会产生连锁反应,使人工智能治理机制瓦解。要从法律的角度来认识人工智能治理,如果人工智能“黑箱化”,将会导致问责艰难,甚至会导致失去原有的人工智能治理效力。
三是在考虑人工智能治理中强调法治,往往会涉及法律、政策、规则对人工智能技术的开发和人工智能产业的发展的过分严苛限制。解决这个问题,我们应该注意人工智能治理中“软法”与“硬法”相结合。在评选案例时,更应注重软硬结合。其中,软法主要是指道德,如从现有案例可以看到,当前美国的企业已经从道德入手,制定企业内部规则或是技术操作规则。
【作者为上海交通大学文科资深教授、中国法与社会研究院院长,教育部“长江学者”特聘教授。本文根据作者在2021年1月14日“2020全球十大人工智能治理事件专家内部研讨会”上的发言整理】