王晓敏 刘婵娟:人工智能赋能的伦理省思

选择字号:   本文共阅读 10488 次 更新时间:2023-10-07 23:47

进入专题: 人工智能  

王晓敏   刘婵娟  

以深度学习为代表的人工智能技术在迅速发展的同时,也被广泛应用于各领域。具有自动写作功能的语言优化模型ChatGPT惊艳出场,联结了现实空间与虚拟空间的“元宇宙”数字生活空间横空出世,成长于数字化环境中的数字土著成为新一代的教育主体。面对这样的现实,人们不得不重新审视教育与技术之间的关系。在实践中,人工智能在教育领域的应用越来越广泛,包括各教育利益相关者及教育管理部门对教育大数据的收集和使用,智能技术在学生的自主学习、教师的线上授课以及智慧课堂的行为识别中起到的辅助作用,等等。从理论上来说,人工智能赋能教育,其本质就是提倡利用网络技术、信息技术以及智能技术等改善现有教育中技术利用不足的问题。学者们逐渐重视“教育中的人工智能”的研究。这一研究领域,主要是指人工智能与教育科学融合所形成的专项领域,其研究目的在于利用人工智能技术揭示学习发生机制、促发高效学习以及促进教育改革发展。这一应用及其过程,被通俗地简称为人工智能技术赋能教育。在人工智能技术赋能教育的过程中,由于教育教学方式技术化的变革创新,师生关系与教育环境也一定会发生潜移默化的改变,并带来人工智能技术环境下新的教育伦理问题。那么,人工智能赋能教育将可能产生哪些伦理风险呢?本文旨在通过探讨这一问题构建智慧教育伦理治理新范式,以做到未雨绸缪,防患于未然。

教育领域的技术赋能或将对教育决策、教学应用及教育环境等方面产生影响,从而催生教育变革。人工智能技术在解构现有教育教学生态的同时,也在建构人工智能教育教学技术化的新生态。在技术化的教育新生态中,由于人工智能扮演类人的角色,所以它不仅改变了传统教育生态中的人际关系,而且也促使教育伦理中关于道德行为的价值判断标准发生变化。然而,即使作为技术伦理和教育伦理的结合体,人工智能教育伦理仍然应该以“人”为研究的出发点,规约人在人工智能应用过程中的行为,这是因为教育的对象仍然是活生生的人,而不是“技术”,更不能为了运用技术而改变“人之为人”的本性。由此,以“教育是培养人之为人的教育活动”作为考察和运思的标准及出发点,人工智能赋能教育将可能在教育技术、师生关系以及教育生态等方面产生伦理风险。

人工智能时代最让人焦虑的技术问题,就是算法黑箱问题和数据安全问题。先就算法黑箱问题对教育伦理的影响加以考察。众所周知,现实世界为大量数据所重建,界面、数据、模型是智能算法黑箱的三大形成要素,而对于交互界面内部数据的运作逻辑——算法,人们却无从知晓,这种算法的不公开不透明就是所谓的黑箱问题。在教育领域中,算法黑箱可能会引发各种算法伦理风险,主要体现在:(1)算法不公开引致教育主体对智能技术缺乏信任。当教育者和学习者对智能教学系统的分数计算规则、评价理由和预测的依据未知时,他们会质疑智能教学系统的可信度与有效性,这种信任缺失会妨碍教育者、学习者与智能教学系统之间的交互。(2)算法歧视遮蔽教育的公平性。算法的设计会不可避免地受到算法程序员的主观影响,其背后是程序开发商等诸多教育利益相关者的观点制衡,因此受主观意识左右的算法设计存在“算法歧视”的风险,遮蔽了教育的公平性。(3)算法设计过滤教育中富含人文价值的因素。算法的设计一般遵循固有的公式,因此在算法运行过程中,很多教育中富含人文价值的因素是无法被精准计算衡量的,这也在一定程度上造成了算法的偏差和偏见,引发新的教育不公平问题。

人工智能赋能教育的技术伦理风险还体现在数据伦理风险方面。数据智能本是智能教学系统得以顺利运行的基础。然而旨在优化教学的智能辅助数据技术却变成了教学管理者对教育主体的监控工具,其结果是教学世界变得冰冷,失去了教学生活的真实感。智能教学系统所记录的有关教育者和学习者的各种数据信息,大部分是隐私信息,但是此类数据信息一旦保存或者运用不当,就可能产生以下伦理问题:(1)教育数据安全危机四伏。智能系统的使用者很容易遭遇数据泄露、数据篡改等各种数据安全问题,但是由于作为数据主体的师生对于自身数据的收集和使用缺乏知情权,一旦数据被泄露或未经授权而被修改,就会对数据主体即师生产生不可预测的伤害。(2)数据管理人员的数据伦理意识薄弱。即使数据管理人员具备基本的数据伦理意识,但是我们并不能排除他们为了牟利而跨越伦理红线并泄露数据主体个人信息的可能。(3)智能技术对教学行为的过度量化。如果人工智能技术过度侵蚀教育的人性化生态,那么师生的一切教学行为和学习工作状态都将会被量化,其导致的结果必然是教育的人性与灵性的丧失。

上述两个方面技术伦理风险的存在,导致人工智能时代教育领域中伦理追责的困境,主要体现在:一是人工智能的道德主体界定的不确定性。目前,学界对于因模仿人的思维和行为而问世的人工智能在教育活动中是否应该承担道德主体责任看法不一。在现实教育教学实践中,当智能教育应用出现问题的时候,教育利益相关者会推诿责任,真正可追责的责任主体却是模糊不清的。二是由智能教育学习系统创建成员构成的复杂性而导致伦理责任不清晰。一般而言,智能教育学习系统创建者包括程序设计员和系统设计师等,但有关各成员伦理责任并没有得到明晰的界定。因系统开发过程中每一个环节都存在着各种利害抉择,而这些选择都不可避免地会受到系统开发商商业理念的影响,所以一旦智能教育学习系统出了问题,具体的责任应该由谁承担就很难界定。三是除了智能产品的开发环节,其系统评估者、使用者和监督者的伦理责任也是不明确的。

人工智能赋能改变了教育生态,给未来人才培养模式和教学方法变革带来新的生机,将使大规模个性化教学成为现实,但同时也可能会造成复杂且棘手的教育伦理新困境。过度依赖智能技术的教育往往会导致工具理性对价值理性的僭越,忽视对学生人格的完善,师生间话语沟通、情感沟通以及道德熏陶的伦理空间受到挤压和限制,教育极易偏离其育人的本质从而引发一系列伦理问题。然而,我们需要客观地看待并处理这一由技术发展而引致的教育伦理问题。一方面,我们需要明确,教育新生态中的智能技术发展和运用是一个必然的趋势,不能回避。另一方面,人工智能技术被运用于教育教学实践活动中的时候,它只有遵循教育的价值和规律,才能有效促进教育的长远发展。在智能算法的黑箱问题上,要求相关人员改进技术使智能系统内部运作机制公开透明,这样才能提升教育主体对智能教育系统的信任度;在教育数据安全问题上,只有依赖智能技术相关伦理规范与法律法规的出台,以及各数据主体德性伦理的培育,才能建设以人为本、以法为界的教育伦理治理新环境;在师生关系的伦理问题上,需要以根植于中华传统文化的“和合”伦理取向为指引,倡导构建智能时代仁爱型的师生伦理关系,让智能教育变得更有温度。

人类必须立场鲜明地坚信智能教育新生态中的道德主体和责任主体始终是人类教师,教育工作者需将学生的人格养成和生命成长视为教育的首要任务,用仁爱之心坚守教育育人的本真价值,实现智能技术和教育教学的融合共生。为此,我们要平衡好技术的工具理性和教育的价值理性之间的关系,明确并强化教师在人工智能教育伦理中的道德主体地位,通过师生人工智能素养的提升化解智能技术的反向驯化现象,并消除对人工智能技术的非教育性疏离感,进而促使智能技术有效地服务于教育教学实践活动。

    进入专题: 人工智能  

本文责编:chendongdong
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 哲学 > 科学哲学
本文链接:https://www.aisixiang.com/data/146486.html
文章来源:本文转自《中国社会科学文摘》2023年第9期,转载请注明原始出处,并遵守该处的版权规定。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2024 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统