刘爱玲:马克思主义视域下智能技术异化及其应对

选择字号:   本文共阅读 6103 次 更新时间:2024-04-03 21:25

进入专题: 马克思主义   智能技术   异化  

刘爱玲  

 

人与技术的交互作用是一个双向互动的过程。人工智能技术的广泛使用重塑了各行各业的发展生态,也在不断颠覆人们对于世界的固有认知。智能技术在给人们的生活带来便利与福利的同时,也派生出了许多问题与挑战,倘若无法对其进行有效地引导与调控,其潜在成为异己力量的风险便会增大。马克思从技术伦理的视角透析、审视和反思了技术异化的问题,这对应对智能技术异化的风险与挑战具有重要指导价值。

一、马克思对技术异化的多维阐释

异化这一概念源自于拉丁文“Alienatio”和“Alienare”,在马克思的著作中表示为德文“Entfremdung”,含有转让、疏远、脱离、差异之意。技术异化,是指原本服务于人类劳动实践的创造物——技术,在人类利用技术改造自然以满足自己需要的过程中超出人类的控制,成为外在力量反过来奴役、控制、支配主体本身,对主体产生了负影响,主体活动的结果转变成了与主体相异化的力量,并开始反过来控制和压抑主体本身。马克思的技术异化理论是围绕“劳动异化”展开的,从工人的角度对资本主义制度下的劳动过程进行了考察,马克思认为在资本主义生产条件下,生产资料由资本家私人占有,机器化大生产进一步加剧了资产阶级与工人阶级的贫富分化,最终导致了劳动异化的出现。人类创造出机器本来是为了使人的生产和生活变得更美好,但异化使得机器成为了异己的力量,人类被机器控制,受机器约束。

(一)技术异化的表征与特点

从生产实践看,技术异化使人成为机器的简单附属品。现代工业发展进程中,生产方式的改变导致机器与工人成为直接竞争者,许多工人被生产效率高的机器所排挤,失去工作。随着机器的应用推广,劳动对体力要求降低,反而对手指灵活程度和看管机器细心程度的要求提升,成年男工的劳动也就愈发受女工劳动和童工劳动的排挤,“对工人阶级来说,性别和年龄的差别再没有什么社会意义了”[1]39。此外,分工程度的增加使工人的劳动毫无内容。机器的使用简化了作坊内部工人的职能,生产过程中的智力同体力相分离,工人在生产过程中所承担的只是一些极其简单、单调和重复的操作,工人可以从一种机器调到另一种机器上去,人的作用变得越来越有限,无法发挥自己的体力和智力作用。随着产业革命的不断推进,工人之间的分工愈来愈细,各种不同的劳动逐渐趋于一致,每个工人的活动变成一种简单老套、机械的操作,工人几乎完全变成了简单的机器,“终生变成局部机器的一部分”[2]321。此外,“把未成年人变成单纯制造剩余价值的机器,就人为地造成了智力的荒废”[3],人的视觉范围越来越单向度,到最后完全把智力闲置起来,从而使工人完全依附于机器生存。

(二)技术异化的影响与冲击

从社会影响看,技术异化使人的社会关系受到冲击。一是个体的家庭关系被破坏。由于机器工作的特点,成年男工被女人和小孩替代。妇女成为社会生产的积极参与者并不是一件坏事,但是在资本主义生产条件下整个工人家庭是被监禁在工厂中的,为资本家进行强制劳动,机器把工人家庭成员都抛到劳动市场上,不仅是儿童游戏的时间被剥夺、所要接受的应有教育变得可有可无,而且家庭本身通常所需要的、在家庭范围内从事的自由劳动的时间也被占有,“孕妇一直要工作到分娩,妇女不会料理家务,家庭和孩子无人照管,不关心甚至讨厌家庭生活,道德败坏”[4]486。技术和机器系统越是发达,在家庭劳动中越是暴露出机器和技术的对抗性。二是技术异化使人失去自主性,造成了人的片面发展。在《1844年经济学哲学手稿》中马克思指出劳动作为人的类本质是自由自觉的活动,但是随着技术的发展,机器不断进步,工人操作机器付出的劳动变得愈发被动,他们展现出对机器的适应性和从属性,在劳动中无法确证自己而是否定自己。在工厂的整个生产过程中,工人只参与了其中的一小部分,结果是他既不能把握与整个生产过程的一致性,也不能与最后的产品发生同一关系,劳动对工人来说变成了外在的东西,劳动不属于他的本质存在,在其中工人丧失了自由的发言权和行动权,无法获得肯定也失去了任何享受,“工人对自己劳动的最后的自我满足消失了,在这里,由于这种劳动本身乏味而使人十分淡漠”[5],不幸代替了幸福,这时的劳动不再为实现人类的真正需要,而只是满足于外在于他自己的某种需要的手段。三是技术异化诱发经济危机。在资本增殖的逻辑下,除了工人阶级被机器工具所奴役,资产者也被其所占有的资本和利润追求所奴役。资产阶级为满足增殖的欲望,不断残酷剥削劳动者,然而被雇佣的工人出卖劳动力之所得,并不能满足自身基本支付能力的需求,资本增殖受到了消费能力的限制,但生产并没有停止,且生产的规模越来越大,这样便导致无论资本主义怎样扩大它的领地,也不能为这些商品找到相应的市场销路,从而使得资本主义的生产与消费之间产生了严重的脱节和矛盾,陷入生产过剩的社会瘟疫,最终导致周期性的经济危机。

(三)技术异化产生的根源

马克思透过机器的应用、技术的发展,揭示物对人的奴役,揭露人对人的统治,批判为技术异化提供服务的资本主义制度本身。“我们的一切发现和进步,似乎结果是使物质力量具有理智生命,而人的生命则化为愚钝的物质力量”[6]。马克思认为,机器技术本是中立的,其造成的善或恶的结果取决于人们如何应用,“一个毫无疑问的事实是:机器本身对于工人从生活资料中‘游离’出来是没有责任的”[7]508。

现代社会中技术和资本在逻辑关系上存在着共契与互构。在资本主义生产条件下,技术成为资本推动资本增殖的“助推器”,成为掠夺工人剩余价值的工具。资本对剩余劳动的需求是无止境的,而技术的更新发展,即机器的应用使劳动成本大幅降低、劳动生产率大幅提高,机器成了社会生产的支配原则,“一切资本主义生产既然不仅是劳动过程,而且同时是资本的增殖过程,就有一个共同点,即不是工人使用劳动条件,相反地,而是劳动条件使用工人,不过这种颠倒只是随着机器的采用才取得了在技术上很明显的现实性”[7]487。工人甚至拿着相同的工资,但完成了之前一倍的工作量,在生产过程中被悄无声息地掠夺。纵观工厂手工业到机器大工业的发展进程,正是借助机器及机器系统的发展与应用,资本的扩大再生产大大加快。工业革命机器工厂的生产方式极大地解放了生产力,生产速度得到提升,生产的规模也在不断扩大。随着资本主义的发展,生产和贸易成为世界性的,世界市场迅速扩大,社会分工逐渐加深,经济联系日益密切,生产的社会性就随之增强,这就客观上要求社会占有生产资料,依据社会的需求调节生产。但是在资本主义生产条件下,资产阶级的剥削统治使得大量的劳动者失去生产资料,依靠生产资料的私有垄断而压迫劳动者,并在生产中不断追求剩余价值,生产经营也由资本家所决定,位于社会底层的工人阶级并没有随着社会中物质财富的增长而富裕,而是一无所有,为了生存只剩下劳动力可以出卖,使劳动在现实中走向异化。此外,在资本主义体系内部,所有提高社会劳动生产力的方法都是靠牺牲工人个人来实现的,工人在生产过程中变成局部的人,受劳动折磨,工人的生活时间被压榨为劳动时间。其家庭情感也在资本膨胀的过程中变得不堪一击,“资产阶级撕下了罩在家庭关系上的温情脉脉的面纱,把这种关系变成了纯粹的金钱关系”[1]34,其他情感关系更为如此,资本成为现代社会情感的黏合剂。“社会是由于构成社会物质基础的劳动群众得不到发展而发展的,也就是在对立中发展的”[8],资本在这一过程中利用技术剥夺人自由发展的时间和空间,使人的生理心理畸形发展,反过来却用工人劳动所创造的巨大物质财富和价值推动整个社会的进步与发展。

(四)消解技术异化的路径

马克思强调:“一方面,机器成了资本家阶级用来实行专制和进行勒索的最有力的工具,另一方面,机器生产的发展为用真正社会的生产制度代替雇佣劳动制度创造必要的物质条件。”[2]357资本主义的生产方式是以雇佣劳动为基础,生产资料与劳动者是相分离的,使得劳动者出卖劳动力,但无法得到劳动的产品,只能获得劳动的少量工资,资本主义私有制从根本上无法适应社会化大生产的需要,资产阶级的关系狭窄到无法容纳其本身创造的财富,无法容纳它所呼唤出的强大的生产力,自身无法解决其对抗性的矛盾,也就是说,生产力的迅速发展已经发展到私有制不能驾驭的程度,使得资产阶级的所有制失去了存在的基础。对于资本主义的内部矛盾即生产的社会化与生产资料私人占有之间的矛盾,就是要变革其生产关系,取代资产阶级的私有制。只有实行公有制,劳动者共同占有生产资料,使原料、机器、工具等生产资料不再被垄断起来作为统治和掠夺工人的工具,才能令自愿自觉进行的联合劳动取代受压迫的劳动,从而使劳动者获得解放。所以真正要保障劳动者的个人权益,就必须实行公有制、集体所有制,保证劳动者共同享有集体劳动成果的权益,避免多数人的劳动变为少数人的财富,从而确保劳动成果为劳动者所有,消灭资产阶级特权,让所有的人都在同一起跑线上,真正实现自由联合的劳动解放,“劳动一解放,每个人都变成工人,于是生产劳动就不再是一种阶级属性了”[9]。

二、智能技术异化的风险挑战

当前,智能技术异化具有马克思所论述的技术异化的一般特征,同时也呈现出了诸多新形态,带来了新的风险挑战。

(一)个人:成本与效率的压迫阻碍自我实现

1.智能技术对人的劳动挤占,加剧社会分工的对抗性,迫使人成为劳动的附属品。

首先,人工智能技术的应用强化了社会分工体系,机器排挤工人呈现新样态。人工智能面对庞杂的信息库,其处理效率是人类个体难以企及的,其学习输出的速度也是难以想象的,将其应用于生产领域可以实现部分生产自动化,从而大大节省人力和时间成本,却进一步降低了生产对于劳动者数量及其技能的依赖程度,强化了分工体系。马克思和恩格斯在《德意志意识形态》中指出:“只要分工还不是出于自愿,而是自然形成的,那么人本身的活动对人来说就成为一种异己的、同他对立的力量,这种力量压迫着人,而不是人驾驭着这种力量。”[10]165智能技术广泛运用于社会生产、社会生活,极大缩短了社会横向分工。人工智能对劳动者的替代性越来越强,劳动力在生产要素中的竞争力下降,普通劳动者的生存状态并不会得到很大的改善,这是马克思技术异化理论中机器排挤工人在智能社会中的新表现。其次,智能技术的异化加重了对核心技术的垄断,纵向分工作差异扩大。高水平的复合型人才处于智能技术的最前沿,占据产业链价值量的较大比例,他们对尖端技术的垄断使得纵向分工出现断裂且差距不断拉大。“每个人或一切人都应不受阻碍地发展”,但在这样的分工体系中,只有少部分的行业领军者或尖端企业能够受益,社会中产阶级被固定于狭窄的行业领域,底层劳动者面对被排挤出社会分工体系的生存风险,人的行业主体性被破坏。这也正如马克思所言:“一些人靠另一些人来满足自己的需要,因而一些人(少数)得到了发展的垄断权;而另一些人(多数)经常地为满足最迫切的需要而进行斗争,因而暂时(即在新的革命的生产力产生以前)失去了任何发展的可能性。”[11]其中这大多数人只能麻木地以简单的形式互动,适配人工智能的运行体系以加快资本生产效率,与马克思在《哲学的贫困》中所揭示的一样“现代工厂主的最大目标,就是通过科学和资本的结合,将工人的作用降低到仅仅使用他们的注意力和灵敏性”[10]248。

2.智能技术对人的劳动压迫,模糊劳动与休闲的界限,刺激人产生焦虑感。

人工智能等数字技术加速数字化生产,加剧资本与技术对人的双重压迫。数字技术的革新让人们对于高速、精确、完美的追求程度愈发苛刻,但这对效率与成果的强制追求正在摧毁那些富有生产力的人类存在与共在空间,工作和休闲时间不再有明确的界限,劳动强度和劳动时间不减反增,人们进行创造的丰富可能性变得单一、扁平。人们在有限的时间内为了获取更大竞争优势,会将本该用于休闲的时间用以生产劳动,在这个过程中,始终处于匆忙状态下的劳动者衍生了对时间把握的失控感和匮乏感,从而陷入紧张与焦虑之中,产生自我怀疑与自我否定,劳动的幸福感与成就感被冲淡,人们无法在劳动中肯定自身的价值。

(二)社会:偏见与私欲的裹挟弱化公平治理

1.智能技术鸿沟延展了区域间的横向发展差距,为国家治理带来新挑战。

人工智能的应用加强了世界之间的联系,但由于信息化发展水平不同,不同国家、不同主体对于人工智能等数字技术的拥有、掌握与运用并非都是自如全面的,即并非所有人都能接触并享受到技术发展带来的福利,由此产生了大量的“数字贫困地区”和“数字穷人”,这也就是数字鸿沟所带来的技术制约。数字弱势者被动地适应着智能技术的发展趋势,再加上处于数字边缘化的群体的生活状况、现实诉求、观点想法又很难通过现代技术进入到决策者及管理者的视野,这也就导致出现了新的治理盲区,“从资本逻辑的视角出发,弱势群体不能创造价值,或者说信息技术适用这部分人群所带来的利润空间较小,因此,科技企业及资本集团在普及信息技术的过程中,刻意回避了一部分弱势人群”[12],这就更难实现合理的资源配置。同时,在智能社会的发展前期,人工智能的核心算法、数据等都掌握在少数人手中,正是由于这种技术隔阂,他们不仅具有技术先发、市场先占的优势,还形成技术与市场垄断,通过数字技术的应用开拓更为广阔的社会关系网络,将数字化的社会资本转化为新的经济资源、社会资源,形成强者愈强、弱者愈弱的效应。当技术和资本被别有用心的人所利用,转化为社会治理的工具,如果研发成果是恶意的、自动的、并能够通过经验学习成长的人工智能,它便会变得不可战胜、无法阻止,引发社会治理问题。

2.智能技术偏见、技术的遮蔽导致社会治理中的公正缺失和责任主体的模糊。

技术偏见是技术异化的又一呈现形式。“偏见是人们在社会认知过程中形成的偏向于某一方面的、阻碍人们对社会心理信息进行正确表征和加工的一种负向态度”[13]261。这些偏见事先形成了人们对一事物的基本认知,从而影响着人类的决策与判断。现代人工智能技术这一看起来彰显着公平与正义的技术常被人们用来参与甚至代替决策,但其实这些数据算法中不可避免地包含了主观偏见:一是包含在输入的数字系统中的人类长久存在的自身偏见;二是编程人员的初始价值观偏见。当这些带有偏见或不完善的智能技术投入到广泛生产和应用中时,便会造成不公正的结果,带来矛盾与冲突。相比于个体化的个人偏见,人工智能中所隐藏的偏见影响是系统化、长远化的,因为在人类过去和当下的生活世界中,这样或那样的偏见一直在场。人工智能正是通过收集学习人类实践的经验,产生新的结果。当人工智能不断“深入学习”及被用以预测未来时,带有歧视或偏见的结果也会不断强化,算法依据过去的数据与模型进行计算,其固有局限与偏见歧视会进行交互作用,形成一个“自我实现的歧视性反馈循环”[13]262,算法会进一步延续和固化这些偏见和歧视,呈现出乘积式的“放大效应”[14]。

技术的遮蔽导致人工智能在社会治理中责任主体模糊。在行动哲学中,如果行为主体需要为行动后果承担伦理责任,需要满足可控性的原则。其一,能动性,因为行动是行动主体有意识的能动性活动,行为主体应该为某种行为后果承担相应的伦理责任;其二,因果性,行动者的行为和结果具有因果关联性。如果技术研发者的意愿及行动与最终的实践结果在很大程度上无法保证一致,甚至有可能出现相悖的情况。也就是说,技术的复杂性及开发与应用中产生的不可控因素并不能满足可控原则的要求,无法对主体的伦理责任进行追溯与定位。目前,关于人工智能的相关法律法规仍存在较大的空白。人工智能是一种计算形式,主要是分析处理大数据来进行学习、推理、判断或决策等,被应用于多个生产生活领域,但是在这一过程中也伴生了泄露用户个人隐私、危害公共安全等多种风险问题。比如人工智能代替人类行动后所引发的交通事故、医疗事故,以及生成式人工智能通过模仿他人知识成果融合生成的文化作品侵权问题等等,形成了技术伦理难题,即因为技术的不完善性与缺陷性所造成的不良后果该由谁来负责及如何负责。智能技术的核心算法被少数人掌控,倘若设计开发与应用者有其他不正当的企图,技术门槛使得非专业领域的人很难发现或对其责任进行评判或划定。

(三)国家:资本与技术的合谋威胁意识形态安全

智能技术的异化超越传统技术异化的空间范畴、时间范畴,渗透进入意识形态领域,对个人价值观的形成和社会主流价值体系的建构产生影响。

1.智能技术被资本操纵形成异化,威胁国家意识形态安全。

人工智能时代,资本依赖技术的发展“发生了全球化和虚拟化的双重转向,其中,空间生产的虚拟化进一步深化和提升了空间生产全球化的结构和水平”[15],技术也借助资本的力量追求更高的效益,资本的逐利性、扩张性与技术的高效率和精确化在很大程度上可以契合发展,正如马克思所指出的:“科学获得的使命是:成为生产财富的手段,成为致富的手段。”[16]但是,当技术异化超越了技术的范畴进入意识形态领域,资本对意识形态的控制转化为了资本控制下的技术对意识形态的牵引和控制。网络空间便是资本空间生产的新形式和新产物。网络空间作为一个相对开放的场域,纷繁错综的思想与价值在此碰撞交锋,但是资本的增殖性驱使着某些信息资源与生产要素选择性地向能产生高额利润的方向流动,一定程度上左右着网络空间的话语权力和舆论资源分配。同时,资本的全球化各领域扩张使得网络文化发展的价值导向出现偏差。资本在国家、社会和个体意识领域中呈现出更加强大的控制力,严重威胁着国家的意识形态安全。

2.智能技术异化解构主流价值体系的社会引领力和价值塑造力。

一是技术被意识形态渗透,呈现技术异化的新形态。“实际上,机器就是机器,在批判中,机器却有意志:机器不休息,工人也不能休息,所以工人是受外来意志支配的”[4]14。技术本身不具有意识形态属性,技术的意识形态取向于使用技术的人。当技术被注入意识形态属性,甚至成为意识形态传播的工具,这就意味着技术的功能被异化,将其转化为意识形态斗争的工具。技术的广泛使用和迅猛传播使得技术的功能异化被更广泛地扩大,技术成为了意识形态攻击、渗透的重要手段和方式。技术功能被异化导致多元意识形态渗透能力增强,而主流意识形态的引导力与凝聚力将受到巨大冲击,例如运用技术异化对马克思主义进行曲解,对中国特色社会主义道路进行攻击、对中国特色社会主义政治制度进行质疑,对中国特色社会主义伟大建设成就进行抹黑,对中国特色社会主义外交政策进行棒杀,各种“反马”的错误思潮充斥技术空间,使得马克思主义在意识形态领域的指导地位面临挑战。二是经济结构的转型带来价值观念的世俗化。“市场经济不仅是一种物质力量,也是一种强大的精神力量,它不断渗透到人们的精神生活中,不断改变整个时代的精神风貌和思想肖像”[17]。在消费主义和市场双向作用下,互联网巨头凭借数据资源与关键技术的加持,设置符合资本逻辑的算法规则与价值判断,有针对性地推送用户偏好的内容与商品,网络个体深陷其中而不自知,这使得享乐主义、拜金主义、消费主义在网络空间蔓延,极大消解了社会公众对主流意识形态的价值认同。

三、智能技术异化的应对策略

技术的发展使人类逐渐从繁重的体力劳动中解放出来,改善了人类的生活环境和生活质量,重新塑造了人们的生活与思维方式。但是,实践中,技术往往超越设计者的意图、挑战人的道德底线、价值观念和社会伦理。智能社会,要充分发挥人的主观能动性,积极预防化解技术异化带来的挑战和冲击,对现代技术的应用作出相应的引导与规范。

(一)立足本我,构筑智能创新发展战略和监督管理机制

1.立足本我、自主创新,全面实施人工智能创新发展战略。

技术是有意识形态属性的,它的意识形态属性取决于研发技术的人、使用技术的人的意识形态取向。削弱西方智能技术内容设定和意识形态渗透的需要,我们必须立足自我,加强自主创新进程,把核心技术掌握在自己手中,从而掌握竞争和发展的主动权,从根本上保障国家网络安全、意识形态安全和其他安全。一是启动实施《人工智能驱动创新发展战略》,做好我国人工智能发展的长远规划和战略布局,明确人工智能发展的路线图、时间表、发展路径。二是政府统筹,发挥政府统筹协调作用,抓好人工智能前瞻性、源头性技术方面的布局规划和人才积累。以《人工智能驱动创新发展战略》为抓手,发挥社会主义制度集中力量办大事的政治优势,大力开展人工智能技术协同创新,集中全国优势科研力量,抓制约人工智能发展的卡脖子问题、抓人智能创新发展的尖端问题、抓计算机算法、基站等基础研究和基础设施建设,形成推进人工智能自主创新的强大合力。三是加强数学、物理、计算机算法等基础性学科建设、增强原始性专业基础理论突破,加强机器人、语言识别、图像识别、自然语言处理等相关专业建设,加强人工智能科学基础研究的深化,保证基础性、系统性、前沿性技术研究和技术研发持续推进,强化人工智能自主创新成果的源头供给。四是国家支持建设一批重大的人工智能科研基础和协同创新平台。政府牵头汇聚优势企业、科研院所、高校等创新力量,协同推动人工智能基础理论、模型方法、基础软硬件研究,建设若干服务和支撑人工智能前沿基础理论和关键技术创新发展的协同创新平台。

2.筑牢技术应用中的监管安全防线,确立明确周密的法律规范与问责机制。

当人工智能等技术嵌入产品和服务中时,会给用户带来不同于传统产品责任风险的新的安全风险。这些风险可能由智能技术本身的设计缺陷造成,或与数据可用性和数据质量有关,也可能与研发者主观意向引发的问题有关。一是形成严格的行业规范。在我国已先后颁布了《网络安全法》《网络信息内容生态治理规定》《互联网信息服务算法推荐管理规定》等法律法规,针对人工智能技术和算法技术滥用规定了详细的法定义务和监管体系,但仍要加强研究如何对人工智能的安全风险进行准确分类,构造具有对应性的分类体系,并制定好相应的应急管理机制,以此强化企业行业规范,对于技术滥用等行为加大处罚力度,形成切实可行的监管措施。针对数据泄露等问题,要加强数据隐私保护、数据安全保障及规范的数据共享与使用机制。其中,由于技术的复杂性与专业性,普通用户难以实现对数据泄露、算法偏见等技术应用中的问题准确察觉及有效监督,这就要求科研单位或其他非营利性的组织机构进行第三方的审核,强化行业内的规范引导。二是强化问责性原则。目前法学界主流观点认为,因人工智能的被动性及价值中立性,尚不具备法律主体地位,人作为责任主体,要对人工智能技术误用或滥用后果担责。因此,要设置完善有效的问责机制以及风险溯源的可追溯机制,在人工智能产品投入市场之前进行安全风险评估,在运行过程中及时监控,这一监测审查过程是动态持续的,要贯穿人工智能的“全生命周期”,以确保风险可控。在人工智能运行或产出时出现偏向与风险时,要及时启动应急管理以尽可能降低影响,严控技术风险,保障安全底线。

(二)贯彻以人为本的价值理念,推进自我调适与自我实现的智能导向

1.推动技术赋能,强化个人智能技术应用能力。

面对日益复杂、日趋强大的人工智能等技术,要始终坚持人在社会实践中的主体地位,要培养公众的信息素养,客观判断、科学分析技术的价值、作用和功能,强化技术赋能人的全面发展、 服务人的全面发展的功能,跳出技术驾驭人、凌驾于人的技术发展误区,修正技术异化的现实境况。同时,强化人的技术素养,在现代教育中强化人工智能、大数据等技术普及教育,提高社会公众的数字能力素养,注重对劳动者的数字劳动技能培训和教育,推动技术资源实现跨层级与跨行业的流动与共享。一是完善智能技术迅速发展下的人才培养机制。人工智能愈发强大的信息检索、数据分析、推理判断等技术发展对现代教育提出新的要求,对人才培养能力提出新的目标,要加大有针对性的教育内容与教育形式,扩大智能教育的受众群体,提高其自身竞争力,使人民群众在面对不同的岗位、职业时有更丰富的机会与选择。加强统筹协调,加快人工智能同社会发展深度融合的战略布局,凝聚人才、科研、产业与资本的优势力量,形成“学研产用”的创新链条。同时,面对失业率增加的风险,人力资源和社会保障部门要建设信息服务平台,督促企业定期组织劳动者的技能培训,为劳动者提供更多的技能学习机会,对于“数字弱势群体”给予税收减免、财政补贴等相应的政策帮扶。二是推进人工智能技术运用的普惠化教育。面对不同的家庭背景、学历背景及不同工作岗位的各类群体,要有针对性地开展更广泛的人工智能等技术科普公益活动,以及利用新媒体平台进行教育宣传,提升全民受教育的程度,推进数字素养培育融入到社会教育中,将进入智能社会的焦虑及面对未知风险的恐惧转化为提升公民理性批判思维的能力及信息素养的动力,提高人们面对先进技术的主体能动性和创造性,更好地享受智能社会所带来的发展成果。

2.以人为本,形成公平的智能资源分配架构。

技术的发展进一步促进了人类交往共同体的壮大发展,个体所做的行为决定不能被单独割裂地看作私人的选择,而要在分配和实现公共利益的“公域”中加以考量。对于创新性技术的开发与应用应基于全面的社会调查,广泛听取社会声音,客观衡量利弊,预先进行风险评估,构建具有前瞻性的安全监测体系,并规定人工智能风险治理责任的落实。坚持群体智慧优先于个体智慧的原则,加强技术研究工作者与社会各主体的协商,减少“数字失声”等情况。在设计研发过程中难免会出现分歧,“最好的办法莫过于普遍参与,在自我表达与多方倾听中理智权衡利弊,最终达成普遍接受和认可的共识并且认真地实践这一共识,共同维护公共利益”[18]。其中,要积极推进智能技术资源及权益的公平分配。通过多元主体平等地协商与合作,对技术与社会发展可能冲突的各方面因素进行权衡,坚持公平正义原则,周密审慎地分析,加强自我约束,在“共善”目标下寻求公共利益,推进智能技术资源及权益的公平分配。

(三)聚焦技术创新的发展路径,强化阵地建设与话语传播的智能支撑

1.加快智能技术自主创新,加强主流舆论阵地建设和管理。

现代信息技术的运用使人与人之间形成了一个全球式、开放式的交往体系,对信息的获取突破了时空限制。面对资本逐利驱使下的错误价值观渗透等挑战,从根本上讲要牢牢把握核心技术的主动权和所有权,提升技术创新的硬实力,争取在信息技术领域的话语权,谨防错误价值观的渗透。同时加快基础研究及创新成果向现实生产力转化,突破并扭转核心技术受制于人的被动局面。在此基础上强化阵地建设,这样面对内外意识形态领域的风险挑战时才能措置裕如。一是强化技术支撑风险预警机制。通过大数据收集、网络智能分析等途径实时监测意识形态领域的热点信息,及时发现异常状态并进行准确的分析和研判,确定其安全风险的等级及动向,及时将信息反馈于相关部门,从而能迅速采取有效措施,避免风险持续升级。同时,要在人工智能等深度学习中及时引入可理解的技术审核规则,使其能够对网络信息平台中的内容进行初步审核与筛选。二是突出技术完善在资本规制中的作用。对于网络空间中资本对流量的无底线追捧,不仅需要制度政策加以规范,也需要技术支撑进行控制。目前,解决互联网中恶意炒作、网络水军等煽动不良舆论的难题,法制监管因难以取证追责而开展受阻,可以利用技术溯源查证等对不法行为进行打击治理。

2.搭建立体式、融合式的传播矩阵,聚焦主流价值体系内容生产和传输。

强化主流价值体系的社会引领力和价值塑造力,需要培养和建设社会公众的正确认识与价值认同,要求加快传统媒体与新兴媒体的深度融合,满足社会公众的精神生活需要,“充分运用新技术新应用创新媒体传播方式,占领信息传播制高点”,扩大主流意识形态影响力。一是坚持以围绕“中国主体”为内核的意识形态话语生产。把握网络意识形态的主导权,需要充分凝聚社会共识,这一过程中始终要坚持以马克思主义为指导,以社会主义核心价值观为引领。更为重要的是,要立足“中国实践”丰富话语内涵,面对网络中暗流涌动的各种西方错误价值观及各类社会思潮,要用坚实的事实基础结合理论阐释,揭露其虚假的本质,并善于将现实中的“中国问题”同人民大众的“个人需求”相结合设置话语主题,增强话语、理论的现实力、吸引力,使马克思主义意识形态在解决问题中深入人心、增进认同。二是坚持以讲好“中国故事”为主线的意识形态话语传播。讲好中国故事,前提在于讲清,这就需要加快构建自主知识体系作为学理支撑,理顺其中的逻辑道理,将中国思想、中国理念概念化、体系化、系统化,再进行创新性话语表达,主流媒体与商业媒体有机配合,打破信息圈层隔阂,形成国内领域全覆盖的主流意识形态话语传输平台。同时,拓展海外传播平台,积极营造有利的国际舆论环境,化被动为主动,打造更多代表中国立场、中国声音的外宣媒体,提升中国在国际事务中的议题设置能力,扩大中国的影响力和号召力,以中国理念回答世界之问,从而提升社会主义意识形态的吸引力。

(四)遵循智能向善的伦理原则,推进全球人工智能治理

2022年11月,中国外交部向联合国提交《中国关于加强人工智能伦理治理的立场文件》,其中强调要“鼓励国际合作,在充分尊重各国人工智能治理原则和实践的前提下,推动形成具有广泛共识的国际人工智能治理框架和标准规范”。2023年10月18日,我国发布《全球人工智能治理倡议》,其中核心内容也包括“坚持相互尊重、平等互利,反对以意识形态划线或构建排他性集团,恶意阻挠他国人工智能发展”,因为技术的发展不平衡以及技术强国对技术弱国的垄断,各国亟需通过在人工智能领域开展跨国家、跨领域、跨文化的技术及法律等不同层面的交流与协作,坚持各国权利平等、机会平等、规则平等,增强发展中国家在人工智能全球问题中的发言权,就人工智能等技术发展带来的国际问题展开广泛讨论,制定更加包容的数字发展战略,确保各国共享人工智能技术惠益,并开展面向发展中国家的国际合作与援助,围绕“共商、共建、共享”原则,实现互联互通,破除技术强权带来的不平等以及安全威胁,减少区域间的横向发展差距,不断弥合数字鸿沟和治理能力差距,推动各国共同参与国际人工智能伦理重大议题探讨和规则制定,以达成全球普遍共识,致力于平衡共赢的经济全球化。

 

(作者简介:刘爱玲,法学博士,中国社会科学院马克思主义研究院副研究员、思想政治教育研究室主任)

(基金:国家社科基金项目“马克思关于人的精神世界理论及其当代价值研究”(23BKS015)的阶段性成果)

来源:《贵州师范大学学报(社会科学版)》2024年第2期

    进入专题: 马克思主义   智能技术   异化  

本文责编:SuperAdmin
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 哲学 > 科学哲学
本文链接:https://www.aisixiang.com/data/150367.html

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2024 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统