石颖:算法歧视的发生逻辑与法律规制

选择字号:   本文共阅读 2383 次 更新时间:2022-08-11 09:35

进入专题: 算法歧视   数据信息   算法黑箱  

石颖  

〔摘要〕算法歧视是新兴技术风险的典型代表,主要是由于算法内部演算和数据分析所导致的对特定群体或个人的不公正对待。算法歧视是一种不合理的区别对待,是智能机器自动化决策的产物,以“隐蔽性”和“不可逆性”为表征。相较于一般歧视来说,算法歧视所带来的是一种更深层次的歧视和不平等,并引发了伦理问题。算法歧视是人类社会歧视在算法领域的转化,体现为归纳式的算法思维逻辑、算法黑箱与非中立性等算法技术设计所导致的算法歧视,更体现为算法运行中的决策性歧视,即由于“冗余编码”和“信息茧房”等数据动态交互所产生的算法歧视,以及因数据评估的导向性而引发的算法歧视。对此,应通过伦理审计与公平性约束、数据信息的区别保护与算法解释,以及建立算法的监管制度来实现对算法歧视的法律规制,同时还要在特定重大领域慎用算法决策系统,以此来塑造算法时代的法律秩序,确保数字社会中人类的安全和发展。


〔关键词〕算法歧视,数据信息,算法黑箱,冗余编码,算法解释


〔作者简介〕石 颖(1994- ),女,陕西西安人,西北政法大学法治学院2019级博士生、中共陕西省委党校(陕西行政学院)法学与社会治理教研部讲师,主要研究方向为法学理论。


随着数字技术的快速发展,人们已经能够利用算法来帮助处理社会生活各领域的复杂问题,如利用算法决策系统作出信用评价、用人管理、政府治理、产品定价等。这极大地提高了决策效率,给人们生活带来了诸多便利。但与此同时,我们还发现,算法對人们生活领域的渗透还带来了新的问题,如在不同的手机端预定机票、酒店或打车时会得到不同的报价;亚马逊公司使用的简历分析系统,自动将女性求职者的排名置于男性之后……这表明,歧视已经随着时代发展而呈现出新的表现形式。算法与大数据的应用不仅无法解决公正和平等问题,反而让本应是“呈现观念”的算法场景产生了“创造观念”的歧视效果,进一步加重了不公正和不平等,并引发新的伦理问题。数字科技带给人们的这些最直观的挑战和问题,势必需要法律作出回应。因此,本文关注的问题是,算法歧视的发生逻辑是什么?以及如何对算法歧视进行法律规制?既有理论研究,大多关注的是算法的宏观规制问题,所提出的规制对策并非专门针对算法歧视,因此缺少针对性。而少部分专门针对算法歧视的研究尚不够系统深入,有待于从“人”的层面、“技术”层面以及“运行”层面对其发生逻辑和法律规制进行深入剖析。对此,本文将从“先行存在的歧视”“技术本身的歧视”和“算法运行中的决策性歧视”这三个方面来系统论证算法歧视的发生逻辑,并提出与之相对应的法律规制措施,以期重塑数字社会的公正与平等,推动算法技术的良性发展。


一、算法歧视的核心要义


歧视在人类思维意识中从未缺席过,并且会随着时代变迁而不断演化出新的歧视类型。算法歧视即是随着人工智能、大数据、算法等新兴技术的发展和应用而产生的新的社会歧视类型。数字社会与人类社会实际上是一种镜像关系,即人类社会无法避免的歧视问题,在数字社会也同样无法避免,甚至在数字空间中愈演愈烈。算法歧视对人类社会制度与经济、政治、文化发展的影响越来越深远,不仅限于传统的种族、性别等因素,而且还投射到数字社会中人类的日常生活和社会事务当中〔1〕。对算法歧视的发生逻辑与法律规制的研究,首先是要明晰算法歧视的核心要义。具体而言,算法歧视的核心要义体现在以下几个方面:


(一)算法歧视是一种不合理的区别对待


如果将歧视比作风险和灾难,那么算法技术的发展让歧视这一风险也随之获得了新的载体和表现形式,呈现出歧视风险的高科技性,这种高科技性可能会让更多、更普遍的人遭受歧视。歧视是“一切对公民群体或个人所实施的,其目的或效果在于不合理的区分、限制、排斥、优待或侵害人尊严的行为或制度安排”〔2〕。简言之,歧视是一种不合理的区别对待。算法歧视虽然是一种新型的歧视类型,但它并没有创造歧视本身,也没有改变歧视的本质,而只是改变了歧视的产生方式和存在方式,使得歧视有了更广阔的外延,是歧视在数字社会中的一种特殊表现形式。因此,算法歧视也具有歧视的一般性要义,同样是一种不合理的区别对待。


(二)算法歧视是智能机器自动化决策的产物


算法的建构与运行极具复杂性。算法是在计算机程序中由包含百万级的数据点与代码建立起来的决策模型,是通过对海量数据进行排序、分类并予以标签化,继而建立若干数据集才得以运行的。它会不断地在动态数据的统计学习中作出决策选择,具有“输出预测”的功能。算法歧视正是由于算法内部演算和数据分析所导致的对特定群体或个人的不公正对待。人们在算法技术的开发与应用中,难免会将人类社会固有的偏见与歧视通过数据传递到同构属性的算法上,当在数据分析中按照不合理的类别化区分标准进行内部演算,继而对不同的人作出系统性的、可重复的不平等对待时,就会形成算法歧视。也即,算法歧视主要是嵌入了人类的认知与价值观后,由智能机器自动化决策后的产物,是一种自动化歧视(Automated Discrimination)〔3〕。


(三)算法歧视以“隐蔽性”和“不可逆性”为表征


虽然算法歧视归属于歧视,但又不完全等同于一般意义上的歧视,具有着“隐蔽性”与“不可逆性”,会产生更为严重、更为普遍的歧视性后果。(1)隐蔽性。算法的运行过程是一个深度学习的过程,会在掌握数据属性、人类偏好等的基础上作出算法预测。在这一过程中,一方面,由于高度的专业性使得算法设计人员与普通用户之间形成巨大的“数字鸿沟”。普通用户根本无法从专业的程序代码层面理解算法决策的过程、依据以及决策结构。另一方面,算法黑箱也使得算法决策过程处于不公开不透明的状态,普通用户往往只能得到最终的决策结果,并被动地接受结果,而无法发现算法歧视。(2)不可逆性。算法歧视的不可逆性,体现在算法决策的过程与结果的双重不可逆性上。整个算法运行程序其实就是从“输入”到“输出”的过程。当自动化决策的算法“输出”歧视性结果或产生歧视性的危害后果时,是根本无法逆转的。而这一歧视性结果的输出还将会进一步分别反馈给算法的内部循环系统与外部流通系统,造成进一步的歧视循环与流通。


二、算法歧视的发生逻辑


算法歧视作为算法技术的衍生品,使得算法的预测功能发生偏离,损害了人们平等和非歧视的基本权利。根据算法歧视的核心要义和呈现形式可以发现,算法歧视有“先行存在的歧视——人类社会歧视的算法转化”“技术本身的歧视——算法设计所导致的歧视”和“决策性歧视——算法运行所产生的歧视”三种发生逻辑。


(一)先行存在的歧视——人类社会歧视的算法转化


歧视在人类社会中是普遍存在并不断发展的,算法决策又是对人类决策的深度学习,因此,算法歧视在很大程度上源于对人类社会歧视的算法转化,是在对现有文化中存在的歧视进行归纳或“同构”后,形成的数字社会中的文化禁锢或社会禁锢。种族歧视、性别歧视等传统的社会歧视类型,就随着算法技术的广泛应用而进一步转化为算法歧视。如2015年Google Photos就曾被曝出将黑人程序员Jacky Alcine标记为“大猩猩”,此即是算法根据人类社会现实中存在的歧视所进行的学习、演化与展示的典型样本之一。数据源于社会现实,社会现实本就是存在群体差异的,因此,基于历史和现实的事实数据生成的算法模型,必然会反映出群体差异,并进一步形成歧视。算法歧视反映的正是一种社会权力关系中深层次的不平等。算法技术根本无法避免歧视的发生,反而是将社会歧视进行了算法转化,并进一步加重了歧视,尤其是使间接歧视在算法技术的作用下获得了新的发展契机,以更加隐蔽或是合法化的方式而存在着。如银行通过大数据挖掘出与种族相关的属性特征,并单纯依据这些属性特征来作出信贷时的征信评估,从而对并无征信问题的黑人等有色人种施加歧视性待遇。


(二)技术本身的歧视——算法设计所导致的歧视


1.归纳式的算法思维逻辑导致算法歧视


算法作为人类思维的外化物,在学习方法的本质上是类似于人的,即算法运用的也是一种在特定条件、特定范围下的因果推论,是通过归纳法(即在既有知识的基础上总结经验、得出结论)建立并运行起来,继而发挥相应的预测功能的(即从经验和结论出发而对更多现象予以分析、进行预测)。“人性中自然而正常的本能使他们易于做出泛化、概念和分类,这些都是对经验世界的过度简化。”〔4〕30这种类型化的、归纳式的人类认知,极易产生对某群体或事物的刻板印象,继而形成歧视。


经过人的训练和改进,算法实际亦遵循着该种思维逻辑和运行机理,通过对海量数据的整合、排序、分类、训练,将问题分解为同类子问题,建立若干数据集,予以标签化,再利用机器自身的深度学习能力,实现对新数据的归类与“预测”。因此,当含有歧视性的标签被设置出来,或是算法自动将某标签关联至歧视性的结果时,都会导致算法对该标签项下的群体作出系统性的歧视。简而言之,算法的底层逻辑是从现有的样例特征中提取、归纳、总结出可普遍适用的规则来指导实践〔5〕360。但这种概率性的预测并不完全是准确的,很容易因不完全归纳而导致歧视。如在就业招聘中,算法平台对应聘者所进行的学历、种族、年龄、户籍等的信息筛选与统计区分,便是一种根据群体特征而对个体进行的归类与预测,这样的招聘方式虽然是在信息不对称状态下进行的理性筛选,但其仅根据概率性的群体身份特征来判断个体能力的做法极易引起就业歧视。


2.算法黑箱与算法的非中立性引发算法歧视


整体来看,人们并不能充分了解算法内部的决策规则,数据和编程的内幕也无法做到公开透明,有关算法的运行机制、决策原则和决策依据也只有相关的程序设计人员才知晓,由此形成的“算法黑箱”便成为算法技术最大的不可控因素。算法在“GIGO定律(Garbage In,Garbage Out)”,即“偏见进,则偏见出(Bias In,Bias Out)”的作用下发生异化,产生算法歧视。并且这种非法目的与歧视性结果还得以掩盖在算法技术的合法外衣下而持续存在。


人们普遍认为,通过自然科学模式推算出来的机器算法決策是处于技术中立的,不存在价值判断,不需要面对诸如“电车困境”〔6〕等人类现实社会中的伦理难题,因此能够作出既符合效益又切合情理的判断与决策,可以无条件信任算法。但实际上,算法有着与人类社会同构的特质,它并非是完全中立的,算法决策也并非完全可靠。这是因为:(1)数据的偏差性会导致算法歧视。算法决策是在数据分析的基础上建立起来的,因此,若数据存在错误,或数据本身即具有歧视性,又或是数据参数或属性不够全面,就会使算法模型产生对特定群体的特定预测,从而造成不合理的区别对待,形成歧视性的算法结果。(2)算法设计人员的有限理性会产生算法歧视。不论是算法的总体设计目的、数据运用,还是最后的结果呈现,其实都在以价值判断的形式体现着算法设计人员的认知层级与认知水准。作为一种理性主义的产物,算法通过建构结构化的知识体系,尽最大可能地避免不确定性,实现对未来的预测。但正如法律会由于立法者的有限理性而产生立法空白、漏洞一样,算法虽然能够在一定程度上掌控现实世界的变量,但也难免会由于算法设计人员的有限理性或认知盲区而产生算法歧视等问题。也就是说,算法这种理性其实和法律一样,是属于有限的理性,不能对其加以神化。(3)算法设计人员的歧视性价值渗透形成算法歧视。算法的编辑和数据的收集、训练都是在人的操作下进行的,因此难免会携带设计人员的某种“偏见”。而实际上,算法技术的研发和应用需要大量的包括资金和人力等的资本投入,在这样的境况下,少数的网络服务提供者或运营商以及算法技术开发企业会逐步形成垄断,拥有影响、左右甚至规训人们选择的能力。继而可以将某些具有利益倾向或其他歧视性倾向的价值观念通过技术中立的外衣而渗透进算法中,赋予算法进行区别对待与区别影响的权力。


(三)决策性歧视——算法运行所产生的歧视


算法是一种基于统计学而建立起的具有描述性、学习性、动态性的随机性控制。在算法的实际运行交互中,会因为在不同的数据条件或运行环境下发生变动,产生不同的决策结果。算法歧视其实也是算法运行中的策略选择,它虽然生成了歧视性结果,但也符合一定的技术秩序,是在算法运行环境中所产生的“决策性歧视”。它包括但不限于在数据动态交互中,由于“冗余编码”和“信息茧房”而产生的算法歧视,以及因数据评估的导向性而引发的算法歧视。


1.数据动态交互中产生的算法歧视


第一,“冗余编码”导致的算法歧视。数字社会中,公民的姓名、性别、民族、种族、住址等涉及隐私的个人信息已经越过国家机关而被商业算法平台收集、存储,并进行开发与应用。算法按照设定的标准,通过利用公民的数据信息来重新分配公民身份,识别公民的社会关系。算法决策之所以会产生歧视,一个重要原因即在于算法运行中的“冗余编码”,就是将本应受到保护的敏感性数据,与其他可合法获得的数据进行编码与关联性应用〔7〕。如用人单位拒绝录用通勤时间过长的员工,原因是其认为通勤时间过长会增大员工每日上班成本,并消耗员工每日工作精力,然而这对于居住在远郊的较低收入群体来说构成了歧视。在此,住址与通勤时间等数据信息都是用人单位合法收集获取的,但当这些合法获取的数据信息与特定群体的行为建立起某种属性的关联时,便会对该群体带来意料之外的歧视性决策结果。


我们可以对此作出更深入的解读。实际上,在算法运行中所产生的对某类特定群体的区别对待,其实并非完全是依据人类所认为的区分属性或特征(如籍贯、性别等)来作出区别对待或决策的,而只是在算法运行时挖掘出了数据中的标志性特征,并进行匹配性判断,从而对某类特定群体进行区别对待或决策。如浙江省温州市是皮革业的聚集地,算法即认定一名温州人应该有从事皮革行业人士的待遇,从而在与该人的户籍进行关联的基础上,进一步发掘了该人从事皮革业的特征。此外,美国曾在司法领域引入风险评估系统COMPAS和PSA来预测罪犯的再犯概率,并作为法官辅助量刑的依据,然而,2016年根据一家总部设在美国纽约市曼哈顿区的非盈利性的、主要为公众利益进行调查报道的新闻编辑部ProPublica的调查显示,COMPAS系统在对罪犯进行再犯评估时,被标注为高概率会再犯的群体(但实际未再犯)中,黑人比例高达45%,而白人比例只有23%,也即COMPAS系统对黑人所做的再犯评估率是白人的两倍,增加了黑人被处以严厉刑罚的可能性〔8〕。这些原本基于事实数据训练出来的结果却使黑人遭受了不合理的区别对待。事实上,算法并非明确知悉罪犯种族,而是通过训练数据集的其他属性数据(如居住地、职业等)推测并提取出了种族的特征值。而且考虑到现实中黑人的再犯罪率确实会更高的情况,算法在分析具有黑人属性特征的罪犯时,也难免会将其纳入“高概率再犯”的范畴,将黑人属性的特征值与“再犯概率”进行了关联,从而产生算法歧视。


第二,“信息茧房”导致的算法歧视。“信息茧房”是凯斯·桑斯坦首先提出的,主要是指人们关注的信息领域会习惯性地被自己的兴趣所引导,从而将自己的生活桎梏于像蚕茧一般的“茧房”中的现象〔9〕7-8。运用数据交互所实现的算法个性化推荐,原本是为了给不同用户提供个性化和差异化服务,以获得更好、更符合需要的用户体验。如在浏览器、客户端等終端上,算法在掌握用户使用习惯的基础上,分析和解读其喜好,并为其推送相关信息,指引用户选择。然而在这样的商业营销下,“信息茧房”编织的速度变得越来越快,人们也被不自觉地困在茧房之中,从而在获取信息时被算法所引导和左右。如2016年“魏则西事件”,由于搜索平台的竞价排名而导致魏则西误信了算法所推荐的医疗机构,最终贻误了病情,酿成悲剧。


在现代法治理念中,基于个人或群体的固定特征,如种族、性别、肤色、宗教信仰等作出区别性对待的公共决策与私人决策都会有歧视的嫌疑。而在算法中,算法决策反倒可以规避反歧视的约束,肆意对基于个人或群体的固定特征进行自动化的分类。那种通过干预算法所实现的个性化推荐实际上是赋予了算法决策系统区别对待的权力,而这种区别对待在算法运行中,形成了以差异化的不平等和特权为表现形式的算法歧视,严重侵犯了个人权益。在日常交易中,人们的正义感会附着在“允诺”和“对应允诺”“履行”与“对应履行”之间的平等与公平上。因此,一旦其中的交易一方在讨价还价能力方面存在实质性的不平等时,便会对交易公平产生严重的威胁。如果算法掌控者存在“看人下菜碟”的故意,那么就不可避免地会出现算法歧视。实际上,在算法的运作下,线下的价格歧视已经扩展到线上,并且危害性与影响程度都会比线下要更大、更深。表现为“大数据杀熟”的算法歧视在更深层次的机理上即是一种由“交换不对等”所引起的不平等。企业利用特殊的算法来掌握消费者的消费记录、上网记录等,进而对消费者的偏好、习惯、支付能力等进行画像的绘制,“通过个性化定价的尝试和验证,获取消费者的最大支付意愿信息,从而使得对不同消费者收取不同的价格成为可能”〔10〕。在这样的交易模式下,买卖双方的信息是极为不对称的,买方(消费者)实际是处于一种讨价还价能力上的实质不平等。买方(消费者)基本丧失了对区别定价知情的权利,并常常在不知情但完全信任交易平台的情境下,接受着这种差异化定价的算法歧视。由此可见,算法在商事经营中乃是一种商家为最大限度地获得商业利润的技术手段,而巨大的商业利益也在推动着信息“茧化”的速度与程度,用户无法自主决定自己所接收到的信息,而是被算法“精准预测”并“精准推送”,在这一过程中也不自觉地形成了算法歧视。事实上,当算法掌控者根据各种数据变量进行对象分组而产生算法画像时,歧视便产生了,因为这种依据算法画像来分配资源的方式,本身具有歧视性。


2.数据评估的导向性引发算法歧视


数据评估在自然科学领域是很常见的,如工程师会用一千座桥梁的数据来评估接下来可能会塌方的桥。然而这种数据评估方法运用在社会科学领域却产生了诸多问题。如我们所知,自动化系统中的信用评估,即是通过交易记录的批量分析来预测用户的违约概率。所不同的是,工程师的数据评估不会对被评估对象(桥梁)产生任何影响,而为测试违约概率的信用评估却会影响相应的测评对象(人),因为“信用评分系统一旦将某人定为高风险用户并随即提高贷款利率,那么就会增加这个客户的违约概率”〔11〕60。这种非公开、不可测、保密化的分析程序很难得到相应的监督,因此,歧视问题便很容易隐藏其中,再加上人们对于机器算法决策的滥用与盲目自信,使得算法歧视持续性生成并进一步放大。


三、算法歧视的法律规制


在数字社会中,数字平台搭建、数据利用、算法设计等都需要依靠技术规则和契约规则来加以保障。我国《关于加强互联网信息服务算法综合治理的指导意见》(国信办发文〔2021〕7号,2021年9月17日发布)明确指出,要“以算法安全可信、高质量、创新性发展为导向,建立健全算法安全治理机制,构建完善算法安全监管体系,推进算法自主创新,促进算法健康、有序、繁荣发展,为建设网络强国提供有力支撑。”为有效应对算法歧视,需要将法律的知识体系、价值体系与算法的技术体系相弥合,搭建起各利益相关者之间的对话和商谈场域,以实现对算法歧视的法律规制和互联网信息服务算法的安全治理,让算法技术能够在平等和非歧视的状态下为人类社会服务。建立起由科技理性(技术良序)和法律理性(法律良序)共同支撑的、人与人之间相互协作配合的,以追求社会成员的共同利益为社会主要目标的算法时代的“良序社会”〔12〕359。针对“先行存在的歧视”“技术本身的歧视”以及“决策性歧视”,可通过以下措施来实现相应的法律规制。


(一)通过伦理审计与公平性约束,规制“先行存在的歧视”


“先行存在的歧视”这种人类社会歧视的算法转化,归根结底还是“人”的问题。因此,要想实现对该种歧视的规制,就要从算法平台或算法设计人员入手。(1)算法平台或算法设计人员要经过严格的伦理审计。在算法的设计应用中,要始终树立“以人为中心”的技术发展理念,严格按照行业技术伦理规范或算法伦理法则进行算法设计,督促算法平台或算法设计人员遵循内心的道德律,强化算法伦理建设,提高职业和道德的基本素养,在追求技术带来的便捷与利益的同时,兼顾社会公平正义,获取合理合法的算法利益,不唯资本或利益论。(2)在具体的算法模型设计中,要执行严格的公平性约束规则。秉持平等、非歧视的行业技术标准或规则体系,将算法技术限定在平等、公正、安全又守秩序的数字人权界限内,从权利视角来规制算法技术利用上的不平等,推动实现算法决策的公平公正、安全可控,防止算法平台或算法设计人员为了商业利益而利用算法权力对个人数据进行用户画像,实施恶意歧视。尤其是对于主观数据较为集中的算法模型,要注意比较算法预测的结果是否符合理性认知下的公平正义的标准,以保障算法模型设计始终处于公平性约束之下。并根据外部环境的流动变化及时调整和更新算法运行规则,以尽可能地规避算法歧视。


(二)通过数据信息的区别保护与算法解释,规制“技术本身的歧视”


对于算法设计所导致的技术本身的歧视,可通过以下两方面进行法律规制:


第一,通过数据信息的区别保护,规制“归纳式的算法思维逻辑导致的算法歧视”。在现有技术条件下,无法使得算法在穷尽所有的数据信息并经过伦理价值判断后作出完全精准的归纳和预测,因此只能从建构数据信息的区别保护机制入手,来尽可能地保证数据输入时的平等和非歧视,从而确保算法归纳预测的客观公正。我国《民法典》即以法律的形式确立了数据信息的权利属性;《国家人权行动计划(2021—2025年)》也将个人信息权益作为互联网时代的基本人权。以强制性规定的方式来保障公民个人数据信息安全、规制算法歧视是大势所趋也是必经之路。对此,(1)要以平等保护和“无害化”作为数据信息处理的基本原则。“无害化”是欧盟《统一数据保护条例》(GDPR)所确立的大数据处理与自动决策算法的基本原则。2019年6月,我国新一代人工智能治理专业委员会印发了《新一代人工智能治理原则》,确立了公平公正、尊重隐私、安全可控的人工智能发展原则。对算法技术的规制,首先要保障其“无害化”,将其对人的影响控制在合理的范围内,在安全无害和平等保护的基础上,作出客观公正的归纳预测。(2)对数据信息进行反歧视筛选与过滤,对“敏感数据信息”与“一般数据信息”进行区分和区别保护。如按照是否具有普遍流动性的标准,将生物识别数据、遗传数据、个人犯罪记录等数据信息认定为“敏感数据信息”,从而将这些可能产生歧视性后果的敏感数据信息进行预先排除,并对关联属性的数据严格审查,以实现对数据信息的反歧视筛选与过滤,确保大数据所收集记录的数据信息都是“负责任的”“非歧视的”,尽可能地降低因概率性的归纳预测而导致的算法歧视。(3)对个人信息的收集使用设置限制性条件,以维护和保障用户个人权利。我国《网络安全法》第41条即要求网络运营者在收集、使用个人信息时,应当遵循合法、正当、必要的原则,不得收集与其所提供的服务无关的用户信息,不得违反法律法规的相关规定和双方的约定来收集、使用个人信息。《个人信息保护法》第28条第2款和第29条专门对敏感个人信息的处理规则作出规定,即对于敏感个人信息的处理,必须基于特定的目的和充分的必要性,采取严格保护措施,并应当取得个人的单独同意。《在线旅游经营服务管理暂行规定》第15条还对禁止滥用大数据分析作出规定:“在线旅游经营者不得滥用大数据分析等技术手段,基于旅游者消费记录、旅游偏好等设置不公平的交易条件,侵犯旅游者合法权益”,从而起到对平台收集和使用公民个人信息的限制作用。


第二,通过课以算法设计人员“解释”的义务,规制“算法黑箱与算法非中立性引發的算法歧视”,保障算法的合法性与合伦理道德性。算法解释既是一种权利,也是一种义务。对于用户而言,算法解释是一种权利,而对于算法设计人员而言则是一种义务。对于不同领域、不同主体还会有不同的解释义务:(1)在公共决策领域要尽可能地向公众公开算法决策的参考权重,并作出合理解释,防止其利用算法辅助决策系统对特定公民造成侵害。(2)对于商业机构来说,则需要在保障科技创新发展和竞争性商业机密的前提下,对算法设计过程及算法决策进行有针对性地解释。以此来实现对数据参数、算法模型以及算法设计人员的审查和追溯,保障大众知情同意的数据权利,避免因算法黑箱或算法非中立性而引发算法歧视。此外,还要允许一些可以利用算法黑箱达到社会扶助目的的不公开情形。如为保护高校贫困生的自尊而利用算法黑箱进行的扶贫助学,即是通过算法黑箱起到了规避歧视的作用。它通过后台算法来监测学生每月在食堂的消费频次、每顿在食堂的消费金额来判定是否贫困,从而为其饭卡内打入生活补助,避免传统的公开评定与资助所带给贫困生的心理伤害和歧视。


(三)通过建立算法的监管制度,规制“决策性歧视”


对于因“数据动态交互”和“数据评估的导向性”所引发的算法歧视的法律规制,需要在充分明晰算法的应用范畴与算法规则的基础上,建立起对算法的监管制度,加强对算法技术的法律规制,以法律价值来影响算法,以强制性的法律规范来确保技术规范的正确实施。重塑算法时代人与人、人与社会之间的和谐关系,让算法技术的开发和利用更好地为社会服务、为人类服务,使每位公民都能够在以算法为主导的智能社会法律秩序中享有充分的平等、自由、尊重和不受歧视的权利,从而在承认人的价值、保障人的自由、尊严及利益的基础上,保障公民权利的价值性质量〔13〕。


对此可以针对不同的情形采取不同的监管措施:对于因“冗余编码”“信息茧房”等数据动态交互中所产生的算法歧视,可从以下三方面进行规制:(1)建立算法歧视风险监测预警和周期复查制度。在严格准确记录算法所收集的必要的数据信息、算法应用过程、算法策略等基础上,进行算法歧视风险监测和预警,并建立相应的周期复查机制,对算法开展周期性的安全测试审查或安全评估,防止算法在运行中将本应受到保护的敏感性数据,与其他可合法获得的数据进行编码与关联性应用,形成“冗余编码”,进而产生算法歧视。(2)建立算法的分级分类管理制度。我国《互联网信息服务算法推荐管理规定》第23条提出了建立算法分级分类安全管理制度,即“根据算法推荐服务的舆论属性或者社会动员能力、内容类别、用户规模、算法推荐技术处理的数据重要程度、对用户行为的干预程度等对算法推荐服务提供者实施分级分类管理”,从而强化对算法推荐的监管,规制“信息茧房”导致的算法歧视,同时也为后续的归责奠定基础。(3)建立健全问责机制,通过追究算法平台或算法设计人员等有关主体的法律责任,规制“数据评估的导向性所引发的算法歧视”。问责机制是算法歧视的事后监管方案。从算法歧视的损害结果出发,通过考察某行为是否直接或间接地侵害了特定群体的合法权益,是否产生了歧视的不利后果(差异性影响),进而按照“谁设计谁负责”“谁主管谁负责”的标准,向算法平台、算法设计人员等有关主体问责〔14〕。我国《互联网信息服务算法推荐管理规定》第31-33条,即分别对算法推荐服务提供者的法律责任作出了规定,包括警告、通报批评、责令限期改正、责令暂停信息更新、罚款、给予治安管理处罚,以及追究刑事责任等。


综上所述,歧视在人类思维意识中从未缺席过,并且会随着文化的发展与时代的变迁而演化出新的歧视类型。作为数字社会的新歧视类型,算法歧视的发生有其内在的必然性,其中既有人的因素,也有技术本身的因素,更有算法运行决策的因素。算法歧视在实践中通常是以隐蔽的形式取得合法的外衣,并使得受歧视群体难以获得有效救济,引发算法时代更深层次的歧视和不平等。正因为如此,我们迫切需要从伦理审计与公平性约束、数据信息的区别保护与算法解释、建立算法的监管制度这三方面入手,对算法进行技术性纠偏和法律性规制,同时还要做到不滥用机器算法决策,在特定重大领域慎用算法决策系统,以此来维护算法时代的社会良序底线。总的来说,对算法歧视的法律规制,能够通过规则和价值的塑造来影响算法技术,平衡各类价值与权利,从而进一步打破歧视的恶性循环,塑造算法时代的法律秩序,确保数字社会中人类的安全和发展。


参考文献:


〔1〕徐 琳.人工智能推算技术中的平等权问题之探讨〔J〕.法学评论,2019(03):152-161.


〔2〕石 颖.歧视的法律判断标准〔J〕.河南大学学报(社会科学版),2022(01):42-46+153.


〔3〕Laura Carmichael,Sophie Stalla,Steffen Staab.Data Mining and Automated Discrimination:A Mixed Legal/Technical Perspective〔J〕.IEEE Intelligent Systems,2016(06):51-55.


〔4〕戈登·奥尔波特.偏见的本质〔M〕.凌晨,译.北京:九州出版社,2020.


〔5〕Paul R.Cohen,Edward A.Feigenbaum eds.The Handbook of Artificial Intelligence,Volume III〔M〕.Stanford,California:HeurisTech Press;Los Altos,California:William Kaufmann,Inc.,1982.


〔6〕Philippa Foot.The Problem of Abortion and the Doctrine of the Double Effect〔J〕.Oxford Review,1967(05):5-15.


〔7〕郑智航,徐昭曦.大数据时代算法歧视的法律规制与司法审查——以美国法律实践为例〔J〕.比较法研究,2019(04):111-122.


〔8〕Sam Corbett-Davies,Emma Pierson,Avi Feller and Sharad Goel.A computer program used for bail and sentencing decisions was labeled biased against blacks.It’s actually not that clear〔EB/OL〕.https://www.washingtonpost.com/news/monkey-cage/wp/2016/10/17/can-an-algorithm-be-racist-ouranalysis-is-more-cautious-than-propublicas/.


〔9〕凱斯·桑斯坦.信息乌托邦:众人如何生产知识〔M〕.毕竞悦,译.北京:法律出版社,2008.


〔10〕杨成越,罗先觉.算法歧视的综合治理初探〔J〕.科学与社会,2018(04):1-12+64.


〔11〕弗兰克·帕斯奎尔.黑箱社会:控制金钱和信息的数据法则〔M〕.赵亚男,译.北京:中信出版社,2015.


〔12〕约翰·罗尔斯.正义论〔M〕.何怀宏,何包钢,廖申白,译.北京:中国社会科学出版社,2009.


〔13〕任瑞兴.公民权利质量的意义之维〔J〕.河南大学学报(社会科学版),2019(02):68-76.


〔14〕莫勇波.以人工智能破解政策执行难题的几点思索〔J〕.理论探索,2021(06):58-67.


    进入专题: 算法歧视   数据信息   算法黑箱  

本文责编:陈冬冬
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 法学 > 理论法学
本文链接:https://www.aisixiang.com/data/135913.html
文章来源:本文转自理论探索 2022年3期,转载请注明原始出处,并遵守该处的版权规定。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2024 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统