APP下载

人工智能发展对社会不平等的影响
——基于文献争论的分析

2023-01-02陶双宾宫新爵

辽宁广播电视大学学报 2022年2期
关键词:学者岗位人工智能

陶双宾 宫新爵

(1.沈阳师范大学,辽宁沈阳 110034;2.中国社会科学院大学,北京市房山区 102488)

前言

人类社会正以人工智能等新技术为核心进行着第四次科技革命。当下,我国正处于人工智能高速发展时代。人工智能为社会做出重大贡献的同时,也引发了一些社会问题,其中人工智能发展对就业、收入、权力体系等的影响,受到学者广泛关注。实际上,这些研究都容纳在社会不平等这一宏大主题下,人工智能的发展从多个维度影响着社会不平等。那么,人工智能究竟以怎样的方式、朝何种方向影响社会不平等,我们应以怎样的视角去看待,用哪些措施去应对?探究这一话题,有助于对人工智能的发展进行调节,并出台配套措施保证社会平等,进而改善人工智能时代的社会分层结构,为维护社会稳定、促进共同富裕做出贡献。

一、文献综述

(一)人工智能与就业:整体思路

在有关人工智能与社会不平等的研究中,人工智能对就业的影响受到学者最广泛的关注,人工智能对就业结构的冲击也深刻影响着收入分配结构。

从整体来看,关于人工智能对就业的影响,过往学者的文章和观点数不胜数,但归结起来,主要有两种基本分析思路:一种观点认为,人工智能会导致“技术的替代效应”,它将顶替一部分底层工人的工作并导致这些工人失业,从而使得普通民众失业率提高,社会收入差距加大[1]。另一种观点则认为,新技术的产生会创造更多的新产业链,从而出现更多的就业岗位,因此人工智能的发展会降低民众失业率,并提高这部分群体的就业质量[2]。

其他观点多是基于这两种观点进行权衡,认为这两种观点代表的是两种力量,最终力量大的一方将会影响未来的就业情况。还有学者从历时性角度提出,在人工智能发展初期会以技术替代为主,导致部分工人失业;但在发展成熟之后,会基于创新性不断衍生出新产业,且这一带动效应会超过替代效应,最终促进就业[3]。与此相对,亦有学者认为,市场需求终将饱和,技术目前带来的劳动力需求增加并不能预知未来,人工智能所引发的带动效应可能在超过替代效应前就已停止增长[4]。

此外,人工智能对就业的影响绝不能仅从整体状况来探讨,还要深入不同群体内部去分析。英国PwC(普华永道)对不同行业的风险进行了评估。研究结果表明,金融服务(短期而言)、交通运输(长期而言)等行业的岗位为人工智能所顶替的风险高,教育、医疗等行业的风险则较低[5]。学者奥托将不同劳动进行分类,认为“手工劳动”和“简单脑力劳动”在未来更容易交由人工智能来做,并就此点明,社交技能将成为劳动力市场中越来越重要的能力,它可以在某种程度上降低所涉岗位被智能化的风险,如幼儿教师等岗位,就因需要较高的社交技能而不易被人工智能替代[6]。亦有学者根据工作对知识的要求不同,提出人工智能时代非常规知识密集型工作要比常规知识工作更稳定[7]。此外,还有不少学者对此进行了探讨,虽然分类方式有所差异,但得到的结论基本相似——对知识和创新要求高的岗位,相对更不容易被替代。

(二)人工智能与资本分配

学者布莱恩指出,人工智能可以进行自我复制,因此普通劳动力和普通资本都无法与之相比,财富等资本会向创新性强的新服务、新商业群体倾斜[8]。还有学者从经济学角度指出,人工智能的发展会因为市场对劳动力需求减少而使得劳动力回报率降低,而由于人工智能是一种资本密集型技术,其普及又将使资本回报率大幅提高,这一过程会导致两种回报率差距加大,使更多资本流入更少数人手中,从而引发高低层次群体收入更加剧烈的不平等[9]。

更为极端的情况是,一些研究表明,人工智能可以通过改变市场力量间接地影响收入分配结构。当市场并不属于经济学的“完全竞争”时,处在市场交易中的企业就可以得到经济利润,其利润高低主要受该企业的市场力量影响。近年来,世界各国市场结构都呈现出集中趋势,出现了许多“超级明星企业”,它们能够持有很高的市场份额,并依托强大的市场力量得到巨额利润。它们得以出现和发展的重要背景,就是以人工智能为首的各种新技术的盛行,人工智能的发展会进一步助长这一趋势[10]。

由此可见,虽然人工智能本身会在以往生产资料的基础上创造出更多财富,但很难控制经济发展的平衡与稳定。正如学者黄旭等人最新的理论模型所示,倘若政府不对人工智能的发展加以引导和约束,经济增长将最终陷入停滞[11]。其应对措施是,加大力度调整税收和社会福利,利用合理的再分配实现经济发展速度和质量双丰收。

(三)人工智能与权力

美国社会学家卡斯特指出,大多数资本主义社会的人与全球资本体系的逻辑毫无干系,这比被剥削更糟[12]。资本主义社会的一些“数字穷人”,因为被人工智能取代而失去了被剥削的价值,他们的生存需要很可能使其成为社会中的反抗力量。而在我国,虽不存在剥削的问题,但部分劳动者被人工智能取代的问题也值得关注。学者黄少华指出,生产智能化将导致许多岗位被机器取代,这可能会使得在这些岗位上的劳动者发生持续性失业[13]。政府有关部门应做好宏观调控,以防止人工智能的取代行为完全由市场决定。

有学者对人工智能时代的权力形式变化进行了分析,认为未来有两类“群体”将会因人工智能的普及而掌握巨大的权力。第一类群体是持有数据、掌握算法的人类主体,在人工智能社会中数据和算法具有核心竞争力,拥有了它们就拥有了主动控制的权力;第二类“群体”是高度发展的人工智能主体,非生物的人工智能利用智能算法来对人类的互动进行反馈,可以影响或引导人类个体的行为、情感乃至思想[13]。

至于这种非人格化的权力能否进入社会分层结构并控制设计出它们的人类,不同学者看法不一。计算社会学家拉泽尔认为,算法与社会的互动可以用韦伯的权力分析框架来探讨,算法程序会了解我们的期待并提供个性化体验,并可能以此掌控我们。著名学者邱泽奇对此表示反对,认为我们不应把算法所提供的建议视为强制,从而认为算法掌握着社会权力。但不论如何,人工智能“人格化”肆意发展对人类个体性与能动性的瓦解,非常值得重视。

二、对文献争论的阐释与深入分析

(一)对就业冲击的剖析

针对人工智能对就业的影响,一些持创造效应观点的学者经定量分析后认为,近年来欧洲地区产品需求增加进而导致劳动力需求增加;有的学者通过逻辑推理认为,人工智能会创造出一批相关的技术人员;或认为人工智能可以在教育、医疗等领域促进人机合作。但问题在于,产品需求增加可能是社会各领域发展本身引起的,而人工智能有着大幅提高生产效率的功效,其功效力量若大于产品需求的增长力,则并不会导致劳动力需求的实质增长;而且,即便是由人工智能发展本身所促进的需求增加,其增加的岗位往往需要劳动力掌握人工智能的操作、管理、运营等技术,而那些劳动力本身尚不具备这些能力,也便无法迅速填补到人工智能创造出的更多岗位上去。至于人机合作,如果在教师、医生等保持不变的情况下让其借助人工智能完成一些更高级的教学和医疗工作,确实可以提高效率且不冲击就业岗位,甚至还能增加相关机器设备的管理、维护岗位。但需要注意的是,这会对教育、医疗人才提出新的要求,加大行业竞争力度,从而可能需要一些宏观力量来干预。此外,仅在少数领域起到创造效应,也难以推论到全部领域。

况且,人工智能在特定岗位上产生的替代效应使得一部分劳动者失业时,虽然另一些领域中出现了新岗位,但这些岗位并非就由被替代的这部分人填入。人工智能创造出的较低层次的、容易入门的新岗位,确实可以由被其他传统岗位抛弃的劳动力经培训后胜任,但在这个间隙中,首批加入这些新岗位的是提前做好准备的那些人。这些人掌握着广泛的市场信息,预判人工智能在未来会大有发展,提前在这一领域做好知识和技能储备。这些人获得技术红利的重要原因是他们掌握着信息,处于社会上层的群体更容易掌握这些信息,就可能加重新技术引发的阶层固化。人工智能提高了工作岗位智力要求,失业者转换职业难度增加。在这个技术引发高速变化的时代,当那些没有掌握最新信息的人们还在上一次热潮中冲浪时,那些刚刚产生的新兴岗位已经和他们悄悄告别。因此,仅仅比较两种效应力量的大小是不恰当的,我们应更多地关注每种效应所造福和损害的群体以及平衡这些问题的办法。

(二)对社会不平等趋势的分析

1.人类社会的传统不平等。根据文献综述,从市场的角度来看,人工智能会导致两个方向的剥削:一方面,少数精英掌握更加核心的技术,导致其对下层压迫力增加,收入差距加大;另一方面,人工智能本身具有趋近人的特性,导致一部分人直接被排除在市场需求范围之外。前者是每一次技术革命都曾产生过的问题,而后者是人工智能带来的特殊效应。正如马克思所述,技术的“资本主义应用”才是导致失业的真正原因,人工智能发展本身并不会带来这些负面效果,但放到并不匹配的制度环境中,就会造成不良影响。

学者汤姆森指出,“随着技术变得更加复杂,一个新的组织进入一个领域变得更加困难……随着一项技术的延伸,任何特定的组织对整个技术过程的控制都会减少”。也有人提到,人工智能的出现导致一些行业变成只需要操作机器的简单工种。这两种观点共同认证了社会不平等加剧的事实:对于上层,高技术领域的研究越来越深奥,进入这一领域的人很难进行水平流动,只能在这一领域继续攻坚,拔尖技术与核心算法越来越集中到少数人手中,且很难受到有效监督;对于下层,中低等级的工作越来越简单化,可能如前文所述降档为低收入职业。如此一来,收入和地位的分化会渐趋严重,须从国家层面加强宏观调控与管制,严防掌握核心技术的企业实施垄断,并立法指导社会形成良性竞争模式。

2.技术权力导致的控制与不平等。以上是对人类及其组织所涉市场权力的分析,下面我们对以人工智能为主体的权力进行探讨。人工智能并非完全客观,这种不客观与人工智能本身的“思考方式”并无关系。人工智能的学习编码是人为设置的,研发团队中存在的不平等观念渗透给了人工智能。据统计,科技、工程等领域工作者有着比其他行业更大的性别差距,这些差距和人种差异、健康差异等共同使构建算法时缺乏群体多样性,导致相关技术可能会对妇女、有色人种、残疾人等群体持有“算法偏见”。所以,人工智能导致的不平等问题,不能仅通过优化算法来解决,还要借助社会科学的力量来设法改善行业制度、优化社会结构。

借此,我们来呼应学者拉泽尔和邱泽奇关于人工智能个性化推荐的争论。其实,两位学者的表述可以共生于这样一个事实:以电子产品中的软件为例,人工智能的许多算法被软件公司用来收集用户的喜好,并以此计算怎样增加用户浏览意愿、诱导用户分享和付费等。实际上,这种经过计算后的推送确实能够影响人们的思考与选择,但最终的选择权也确实是在用户手中。问题在于,用户真的能百分之百地摆脱算法展示的诱导吗?算法在这方面使用的基本原理是收集“注意力”,在心理学上属于人的知觉范畴。人的知觉有其固有的属性,当同样的事物按照不同的、特定的方式展示时,人们会知觉到不同的内容。这其实是基于人类本性的基本特质,就像我们不能因为吸毒者可以自己决定是否继续吸毒,就把毒品危害缩小一样。虽然从理论上来说,最终做出选择的还是人们自己,但由人工智能对人的心理分析所导致的人们对开发者意愿的趋向,还是无法避免的。因此,加强对人工智能算法的全程管理与监督,是非常必要的。

猜你喜欢

学者岗位人工智能
青春,在为国奋斗的岗位上闪光
学者介绍
学者简介
学者介绍
中队岗位该如何设置
2019:人工智能
人工智能与就业
数读人工智能
走进“90后”岗位能手
学者介绍