人工智能的意识形态危机及其治理探究
2021-01-27王茹俊张宁宁
王茹俊 张宁宁
人工智能(Artificial Intelligence,简称AI),1956 年由美国学者约翰·麦卡锡率先提出。人工智能是一门研究和开发用于模拟和拓展人类智能的理论方法和技术手段的新兴科学技术,它是计算机科学的一个分支。它通过对人类意识、思维的信息过程的模拟,产生出新的能以人类智能相似方式做出反应的智能机器①。从诞生至今,人工智能获得了革命性的发展,尤其21 世纪以来,人工智能技术日臻成熟,逐渐应用于人类生活生产的各个领域。习近平总书记指出:“人工智能是引领新一轮科技革命和产业变革的重要驱动力,正深刻改变着人们的生产、生活、学习方式,推动人类社会迎来人机协同、跨界融合、共创分享的智能时代。”②人工智能的快速发展不但全面改变着人类的生产生活方式,而且深度影响着人们的交往思维方式,可以说人工智能正在明显而深刻地影响着时代局势和社会现实。与此同时,由于人工智能在全社会各领域的渗入融合,意识形态领域迎来新的危机。鉴于此,在人工智能时代,为进一步提高应对和引领人工智能发展的水平和能力,有必要对人工智能的意识形态危机进行梳理和分析,辩证把握应对危机的处理原则,并从多个维度探求人工智能意识形态危机治理的新路径。
一、人工智能的意识形态危机
如马克思所言:“在我们这个时代,每一种事物好像都包含有自己的反面。”③任何技术革新往往都带有两面性,人工智能亦是如此。人工智能在推动社会变革、促进时代进步的同时,意识形态领域也暗藏危机。伦理困境、传播危局、信息茧房、数字鸿沟等暗流涌动,在很大程度上会对国家意识形态方面的安全造成严重影响。
(一) 伦理困境:人工智能危及隐私安全和主体界定
数据是人工智能的核心要素。人工智能时代,数据的运用在带来效率提升和生活便捷的同时,也造成严重的伦理失范问题。首先,数据失范危及隐私安全。人工智能时代,每一个人的生活都被记录着,各种信息收集器、数据采集器、应用软件等智能平台使人们的信息暴露无遗,隐私遗失往往就在转瞬之间。与此同时,随着云计算、大数据等技术的深入应用,使得现实中那些看似毫无关系、杂乱无章的信息结合起来,实现数据联通与整合,在此基础上进一步实现对人的生活习惯、行为方式、日常轨迹以及兴趣爱好等信息的呈现,这样就能轻而易举地读出个人的“秘密”。因此,维护个人隐私、保障隐私泄露引起的权益问题就成为人工智能运用过程中的重要伦理问题。此外,数据往往容易和资本挂钩,许多现实例子很好地证明了坐拥数据便赢得资本。当数据被赋予价值之后,数据盗窃、数据交易以及数据控制等行为就会层出不穷,直接加大个人隐私泄露的风险。美国学者丹·席勒曾认为,日常生活都会留下信息,“我们需要对此进行公开讨论,共同探讨决定我们的哪些信息可以被收集、被谁收集、作为何用”④。人工智能时代,个人隐私面临重大挑战,数据失范问题值得警惕。其次,数据镜像和智能机器人致使主体界定困难。在数据世界里,人被数据化,人的概念成为一串数据信息,进而在镜像世界中造就一个数据的“人”。基于人工智能算法,人的年龄、身高、性别、职业、单位等固定性信息被加以数据描述,并且算法通过数据信息对人的喜好、兴趣甚至深层想法进行数据整合与构建,试图塑造出这个完整的数据“人”。然而,由于算法具有一定的现实框架,加之得到的数据信息并非具体完备,这就致使这个数据“人”和现实的人出现异质。进一步思考,我们就要考虑数据“人”的主体性问题,这个数据“人”是何种身份?他是否具有人的权利?以及数据“人”和现实人具有何种关系?此外,数据和算法下的主体界定问题还涉及智能机器人。与镜像中的数据“人”相比,智能机器人是具有实体的,因而主体界定就更加复杂。智能机器人是否是拥有法律、道德意识与行为能力的主体?智能机器人引发违法犯罪后果由谁承担?对以上这些人工智能发展带来的难题,人们至今尚未达成统一共识。
(二) 传播危局:传播革新引发社群区隔和意识危机
人工智能时代,信息传播方式和逻辑发生巨大变革,社会每一个体逐渐从主体变为客体、由主动转为被动。数据整合与算法推荐的大规模应用,导致人们的社会关系智能化的同时也逐渐虚拟化,进而引发社群隔绝和意识偏向。首先,信息定向传播,引发社群区隔。大数据通过信息挖掘获得个体的偏好信息,利用算法推荐定向给用户推送与之相关的内容,很好地解决了信息量超载的问题。与此同时,这一模式的应用,在用户之间筑起了隐形的“隔离墙”,不同偏好的群体被隔离在无形的自身兴趣“空间”中,每个群体或个体所能接触到的往往是自身期望或是感兴趣的内容。简言之,由于人工智能对偏好的隔离,不同兴趣爱好人群间的沟通交流变得愈发困难。此外,伴随着移动智能设备的普及更新,社群区隔表现更为普遍,影响也更加严重。以智能手机为代表的移动智能设备进一步丰富了信息传播形式,同时移动智能设备作为信息传播的载体,以有形的形式分隔开不同人群,“低头族”的兴起就是典型例子。每个人都沉浸在移动智能设备背后的信息世界里,获取自己偏好的内容,并与同偏好的其他人进行勾联,生活在共同的兴趣世界;反之,同现实世界的人缺乏联系,形成现实的自我封闭,个体现实交往能力以及社群意识逐渐丧失,“社交恐惧症”的出现就是现实表征。其次,海量数据充斥,造成意识形态困境。大数据和网络信息技术的融合应用,催生网络信息平台的智能化。网络信息平台具有多元性和开放性的特征,它作为信息数据集中站,大量汇聚了来自不同国家地域、民族种族、阶级立场等的声音。在这个充斥海量信息的平台上,人工智能固然能够进行信息筛选与甄别,但对于信息内容真实性、可靠性的把握则往往无能为力,这就致使境外势力疯狂叫嚣以及网络水军大肆造势,严重影响主流意识形态建设。此外,许多以西方个人主义、享乐主义、自由主义等价值观为核心的网络言行,通过网络信息平台对人民群众进行影响,甚至渗透,也对主流意识形态地位和安全造成了重大威胁。正如习近平总书记所言:“网络安全威胁和风险日益突出,并日益向政治、经济、文化、社会、生态、国防等领域传导渗透。”⑤
(三) 信息茧房:算法推荐固化受众个体偏好和意识
美国学者桑斯坦最早提出“信息茧房”这一概念,认为在信息传播过程中,“公众只注意自己选择的东西和使自己愉悦的东西。久而久之,会将自身束缚于像蚕茧一般的‘茧房’中”⑥。大数据技术的广泛运用,使得人们的数据被收集、整合和分析。大数据对每个人的信息数据进行分析,形成个人“画像”,这个“画像”就是个体偏好的数据呈现。人工智能通过参考不同个体的“画像”,利用算法推荐针对性推送信息资讯,使用户只能接受自己兴趣偏好内的内容;与此同时,用户对自己偏好的内容也喜闻乐见,长此以往就固化了自身的价值偏向。而这种彼此的“迎合”就潜移默化地影响着主流意识形态安全。首先,“信息茧房”固化个体偏好,阻隔信息互动。算法推荐实现信息传播由“普遍撒网”向“定点捕捞”转变,信息内容由全盘信息变为兴趣内容。在这种情况下,用户失去了原来的信息挑选步骤,所有内容都是自己希望看到的、都是自己喜欢的,信息传播就变成了定向传播。当每个人都沉浸在自我偏好的信息内容里时,一堵无形的高墙便悄然筑起,无关偏好的信息被高墙阻隔,打破了信息的彼此流动,每个人都沉迷在自我的兴趣“茧房”之中。就意识形态而言,不管是何人,一旦陷入“信息茧房”的危局,接收到的信息往往是偏向性甚至是极端性的。鉴于个人对主流意识形态内容缺乏偏向,算法推荐时往往自动进行过滤和筛除,尽可能剔除这类用户“不感冒”的内容。长此以往,用户对主流意识形态信息的接收量就会愈来愈少,社会个体就越来越疏离主流意识形态内容。其次,“信息茧房”削弱个体“独奏”,脱离主流意识空间。德国学者诺伊曼认为优势意见占明显的主导地位,则其他的意见就会从公共图景中完全消失⑦。在“信息茧房”中,每一个体不断接收着自我偏好的信息内容,进而缺乏不同信息的交换流动,久而久之自己的思想就可能逐渐与接收的思想靠拢,自我的思考往往被偏好信息“牵着鼻子走”,最终失去独立思考的意识与能力。同时,偏好信息在受众眼里处于绝对强势地位,受众往往容易产生“思想共鸣”,导致与之不符的内容就会被忽略和抛弃。如果主流意识形态内容在算法推荐中处于弱势一方,自然而然就在受众面前陷入“沉默”,最终个体自身就会滑向社会主流边缘,脱离主流意识空间。
(四) 数字鸿沟:技术优势影响意识话语和民主政治
传统意义上,“数字鸿沟”描述了“信息通信技术在普及和使用中的不平衡现象,这种不平衡既体现在不同国家之间,也体现在同一个国家内部的不同区域、不同人群中”⑧。人工智能时代,智能技术的发展和应用导致了不同主体之间出现技术差距,同时引发实体智能设备的使用差异,“数字鸿沟”由此产生。“数字鸿沟”的出现,技术水平和使用能力出现差距,严重影响意识形态话语权构建和民主政治的发展。首先,算法技术控制舆论,主导意识形态话语权。算法作为一种技术,并非是一种完全中立的存在,它能够依据设计者的意识对某些权重进行调整,进而改变信息推送内容,影响舆论效果、改变舆论风向。“数字鸿沟”下,技术优势方通过控制媒体平台,将符合自身利益或计划向公众传递的内容进行算法推荐,传递自身的思想观念,进而控制意识形态话语权。如2016 年英国脱欧公投中,资本优势集团通过控制媒体资源,实现了掌控民意和煽动民愤的目的。此外,由于以美国为首的西方国家掌握核心数据技术,长期控制网络根服务器,致使舆论大旗一直握在西方阵营手中。西方阵营通过数据技术优势不断获取和分析来自世界各地的各种数据资料,进而通过算法推荐宣扬其政治理念与文化思想,致使西方意识形态在全球广泛传播,对其他国家的意识形态建设造成严重影响。其次,技术优势影响政治,阻碍民主政治发展。“数字鸿沟”在民主政治上的影响主要体现为组织分化和权力集中。人工智能技术的应用,使民众能够通过网络平台、移动智能设备等新型载体参与政治生活。然而,民众的融入程度往往受到现实条件的制约,相比技术使用弱势群体而言,技术使用优势群体就可以优先获取信息、及时参与表达,进而将弱势群体排除在主流意识之外,变成“沉默一族”、丧失政治话语权,致使技术使用弱势群体逐渐边缘化。此外,由于人工智能的成本问题,大型利益集团往往占据政治权力中心。利益集团通过数据平台对民众信息进行抓取,整合民众偏向和把握个体心理。而控制了数据与算法就能占据绝对主导权,就能将不具有此类智能技术的其他集团排除在政治参与之外。因此,这样操纵人工智能进而占据政治参与优势的现象,严重危害民主政治建设。
二、人工智能意识形态危机的治理原则
如上所述,人工智能在为人类社会带来便捷的同时,也对意识形态建设造成巨大冲击。尽管当前尚处于“弱人工智能”阶段,但是对人工智能的意识形态危机必须加以治理,否则后患无穷。人工智能意识形态危机治理,必须要坚持预防性、整体性、针对性和时代性原则。
(一) 预防性原则:做好道德“嵌入”和危机预测
危机治理,更多的是事后分析、补救和解决,但同时也要考虑前期的预防预测,这就要求体现预防性治理原则的重要性。预防性原则,主要就是做好人工智能意识形态危机的前期预防和危机估测,做到防范于未然。首先,实现技术预设,具体方式就是人工智能的道德“嵌入”。道德“嵌入”指在技术设计时将特定的道德原则“嵌入”到人工制品的结构或功能中,引导和规范使用者的行为和决策⑨。道德“嵌入”主要体现在人工智能技术的开发时期,即在技术设计中预先将道德原则植入技术内部,使之在后续成品中呈现出来,实现对人工智能及其产品的规制。道德“嵌入”放在人工智能意识形态危机治理上,主要就是意识形态的预先“嵌入”。一方面是技术设计者的主流意识形态灌输。通过对设计者进行意识形态教育,培育意识形态自觉、树立正确道德意识,事先在源头“打好预防针”。做好技术设计者的意识形态“嵌入”,有助于确保设计出的技术及其产品摆脱意识形态危机。另一方面做好意识形态的技术内容“嵌入”,实现主流意识形态内容与算法程序、数据库等技术的有机融合,保证人工智能产品符合主流道德思潮、遵从主流意识形态。其次,开展危机预测,具体措施就是开展人工智能危机评估。在人工智能发展的同时,对人工智能在不同领域的应用进行排查评估,做好风险预测评估,提前形成危机治理预案。尤其对人工智能在传播行业的应用更应该加大风险预测力度。媒体是意识形态传播的最佳载体,人工智能的运用促使信息传播发生重大变革,对意识形态建设的挑战不言而喻。做好意识形态危机预测,提前防范人工智能风险,是危机治理的重要原则。
(二) 整体性原则:全面掌控大局和系统采取措施
人工智能的意识形态危机治理,作为一项重大的系统工程,涉及的问题必然驳杂繁复。就此而言,在治理过程中就要坚持整体性的治理原则,以整体性和全局性的战略眼光看待问题,确保治理过程成为一个全面系统的整体。首先,全面掌控治理大局,把握各领域危机。如习近平总书记所言,“意识形态工作是党的一项极端重要的工作”⑩,失去意识形态话语权,将丧失意识形态高地,严重危及国家安全和社会稳定。因此,面对人工智能的意识形态危机,不能片面简单应对,而是要全面把握危机全貌,将危机作为一个整体进行治理。人工智能影响领域复杂、涉及范围广泛,从新闻传播行业到设备制造行业,无处不见其身影,在治理过程中必须将每一领域都纳入考虑范畴,防止“漏网之鱼”出现。同时,还要准确把握人工智能的发展规律和基本特点,深入掌握人工智能的技术逻辑、操作逻辑,为科学治理危机做好技术准备。其次,系统采取治理措施,确保策略全面覆盖。鉴于人工智能意识形态危机覆盖广,与之对应的治理措施应当系统全面。一方面从政治、经济、文化、科技和社会等方面制定治理方案,深入考虑每一领域的总体情况,确保各领域都纳入管理。另一方面以行业为整体实施治理策略,全面考虑新闻传播、科学研究、产业制造、金融服务以及教育文化等行业,保障治理方案涉及全局。此外,还要考虑人工智能产业的整体情况,把握好人工智能领域与其他领域的关系,更好地为制定治理策略和实施治理方案提供指导。
(三) 针对性原则:治理重点领域和针对具体细节
人工智能通过跨越学科界限,进而实现多学科的高度交叉性,并且在深度学习与计算中实现数据处理的专业性,实现与不同行业与产业的深度融合,最终对整个经济社会发展进行渗透⑪。加之,当前科学技术日新月异的变革,人工智能早已融入各行各业。因此,人工智能的意识形态危机范围之广早已毋庸讳言。鉴于此,在实现整体性把握的前提下,人工智能意识形态危机治理还要注意针对性施策,做到具体问题具体分析,确保具体行业、重点领域的危机化解。首先,关注重点领域,着重治理危急行业。尽管危机治理需要全面系统,但鉴于涉及行业的危急程度不同、影响力度不一,在危机治理过程中就要讲求轻重缓急,将危急领域纳入重点治理和优先治理范围,着重解决此类行业的意识形态危机。如新闻传播领域,作为意识形态传播的重要领域,在与人工智能融合应用的过程中必然导致众多意识形态问题;并且由于行业的特殊性,这些问题带来的后果和危害往往不可估量。因此,加大重点领域危机治理,是实现整体把控、全局治理的关键。其次,针对具体细节,处理好现实性问题。俗话说:细节决定成败,危机治理亦要遵守这个原则。人工智能的意识形态危机,绝大部分都是细节性甚至是隐性问题,这些问题看似无足轻重,实则影响重大。针对具体危机细节实施有力治理措施,才能实现治理大局的稳固坚实。如在处理智能机器人的伦理问题时,就要重视一系列细节问题,无论是机器人的主体问题,还是机器人犯罪问题,都要纳入具体考虑。只有考虑到每一个具体细节,危机化解才能全面彻底。
(四) 时代性原则:治理过程和效用顺应时代发展
马克思说过:“随着新生产力的获得,人们改变自己的生产方式,随着生产方式即谋生的方式的改变,人们也就会改变自己的一切社会关系。”⑫不同的历史条件、时代状况,往往对应着不同的生产方式。进一步而言,面对不同的时代问题,我们应该采取不同的应对手段。人工智能时代是一个科技快速发展的时代,社会各方面发生了翻天覆地的变化,社会生产力得到显著提高,社会生产关系发生重要变革。治理人工智能的意识形态危机,就要顺应时代特征,以符合时代发展的方式开展治理工作。俗语说:“解铃还须系铃人。”治理人工智能的意识形态危机,最主要还是回归时代本身,遵守新时代下人工智能发展逻辑。简言之,人工智能的意识形态危机治理应当遵循时代性原则,应该顺应时代特征、符合时代潮流。首先,顺应时代发展变化,紧跟时代步伐。人工智能时代是一个科技与政治、经济、文化、社会以及生态等融合发展的时代,各行业、各领域发生重要革新,社会结构出现变革。与此同时,智能移动设备和移动互联网的迅猛发展和全面普及,人民群众的网络参与度大大提升,人工智能意识形态危机的影响更为广泛和深远。因此,危机治理就要充分考虑这些时代特点,针对时代特征采取应对方案,确保治理过程符合时代状况、治理手段遵守时代逻辑、治理标准顺应时代要求。其次,实现治理效果推进时代发展。人工智能的意识形态危机治理是当前人类面临的时代课题,完成这个课题就是完成时代答卷,就是为时代发展扫清障碍。因此,在危机治理中,要切实做好危机治理效果评估,通过对经济、社会、环境和人的影响进行分析,充分综合考虑近期效果与远期利益,推动危机治理效果对时代发展的正向助力。危机治理,就是为人工智能时代下人类社会发展解除制约和危局,使时代进步摆脱意识形态困境,助力技术逻辑和人类价值的融合统一。
三、人工智能意识形态危机的治理路径
人工智能作为新时代的新兴产物,对主流意识形态安全构成了威胁;加之人工智能所带来的挑战,不是任何单一方式就能应对的。因此,必须采取科学有效的措施,从多个维度上进行协同治理,发挥好人工智能的积极作用,化解意识形态危机。
(一) 技术改进:完善人工智能技术,化解意识形态危机
技术治理是人工智能意识形态危机治理的起点。算法、数据等是人工智能的技术基础,围绕这些基础性技术建立和完善相应的治理体系和治理机制,是当前危机治理的应有之义。首先,完善算法技术,摆脱信息桎梏。如上文所述,算法推荐模式的运用形成了“信息茧房”,严重阻隔信息流动,致使用户偏向受到固化而发生社群区隔。面对算法技术带来的危机,有必要对算法进行内部技术矫正,从源头消除危机与隐患。例如,在算法中植入矫正信息、提升推进精度,以及通过反向纠错实现信息多元合理,进而减少偏好固化。同时,从技术层面提升用户的主体性,让用户在获取信息时能够进行自我调控和分析,真正知道自己的兴趣偏好,确保自身不被算法推荐引入歧途。例如,通过技术实现用户偏好测试系统的构建,使用户能够真实把握自己的兴趣爱好,能够主动对算法推荐的信息进行自我匹配和甄别,实现信息与人的真正契合。其次,改进数据技术,防止伦理失范。人工智能是建立在大数据基础上的,危机治理需要重点围绕大数据开展,做到充分考虑数据供应者隐私、数据使用和数据价值分配等问题。数据供应者隐私问题,是意识形态危机最为明显的现实表现,也是社会最为关注的伦理问题。因此,数据技术治理的关键就是要消除用户隐私危机,让用户有自己的“秘密”。例如,规范数据抓取技术标准,完善数据保密技术,设置用户数据保护底线等。同时数据技术治理还要处理数据使用和数据分配问题,规范数据使用范围、确保数据价值分配主体的平衡,保障技术层面的公正平等。总而言之,摆脱人工智能的意识形态危机,首先应完善人工智能技术,从内部技术矫正出发降低不良影响。
(二) 人文弥补:加强人类把关作用,弥补人工智能缺陷
“技术进化也是一个不断被选择、被发展、被强化的过程,起决定作用、掌握进化方向的还是人。”⑬同理,人工智能作为一种新技术,其意识形态危机治理虽然有赖于技术本身的内部矫正,但是技术在实践运用中的问题更为复杂,单单依靠技术本身往往是不充分、不完整的,某些实践中的问题还需要人类的外部把关才能解决。据此,人类的合理介入是有必要的,通过发挥人类的把关作用,充分弥补人工智能的不足。首先,发挥好人类的把关作用,引导人工智能良性发展。众所周知,当前的人工智能还处于“弱人工智能”阶段,算法处理能力、数据甄别水平以及智能机器处理能力尚有限,尚未达到实现价值判断的高层次。因此,内容把关、信息管理和数据整理还不能完全交由人工智能,必须将人类把关贯穿人工智能应用全程,以实现人文价值对工具理性的弥补和完善。例如,在新闻传播领域,媒体人必须切实负起把关职责,对智能机器写作进行校正、对算法推荐新闻做出筛查,实现人机良性合作,以保证新闻质优和信息精准。其次,重视技术设计者的意识形态教育,提升人文价值引领。研究技术,还要关注技术背后渗透的人类价值观。人工智能技术设计者的意识可能会有意无意地融入到技术之中,进而成为意识形态隐患。鉴于此,必须加强技术设计者的主流意识形态教育,确保技术外部因素符合主流伦理价值,化解外部意识形态危机,提升主流价值观对技术的引领。同时,还要注意人文精神在技术中的彰显,确保人类价值与技术逻辑深度融合,不断弥补技术带来的价值阻隔,预防技术下的伦理失范问题。
(三) 政治规制:健全相关政策制度,引领意识形态话语
“有预见的政府做两件根本性的事情。它们使用少量钱预防,而不是花大量钱治疗;它们在做出决定时,尽一切可能考虑到未来。”⑭由此可见,一个有预见、高效的政府机构能够对危机实施强有力的、预见性的政策措施。在人工智能意识形态危机治理过程中,政府的政治规制作用至关重要,一套科学有效的政策和管理机制,往往关乎意识形态建设成败。首先,完善相关政策制度,加强人工智能平台监管。技术研发平台是人工智能的初始平台,应该加强对该平台的政治监管,在源头进行意识形态把控,使得技术研发遵循国家政策制度,清除意识形态隐患。此外,网络信息平台作为意识形态传播的重要阵地,也应该重点实施政治监管。智能网络技术的不断革新和移动设备的快速普及,使得每个人都成为“网络发声器”,每个人的声音都能产生一定效果,这就造成网络平台上信息繁杂、内容混乱。只有强化政治管控,实施严格规范的政策制度,才能很好地化解网络意识形态危机,营造风清气正的舆论环境,维护主流意识形态话语权。此外,还要加强人工智能产品的政策规约,确保相关产品符合国家制度,符合政策导向。其次,提升政府运用能力,强化政府管控力度。人工智能时代的到来,为政党发展迎来前所未有的良好机遇,既为提升政党能力提供了重要途径,又为主流意识形态宣扬准备了全新平台。如习近平总书记所言:“各级领导干部要努力学习前沿知识,把握人工智能发展规律和特点,加强统筹协调,加大政策支持,形成工作合力。”⑮政府机关要不断加强人工智能相关知识的学习运用,通过“人工智能+党建”、“人工智能+政务”等新模式,提升政府部门的治理能力。同时,政府部门应不断实现技术管理优化,提升“智能监管”能力,主动运用人工智能平台进行主流意识形态宣传。
(四) 法治约束:推进法治制约规范,加强违法惩治力度
面对人工智能导致的意识形态问题,应在政府主导下建立与之对应的法律法规。纵览全球,许多发达国家已经率先实现人工智能的立法定规。例如,美国提出了“算法问责”法案,对机器学习系统、敏感数据等进行规范;英、法、澳等国则通过立法等相关形式,规定科技企业应该对算法负责。我国针对人工智能也制定了一些相关规定,对人工智能相关领域进行规范。如2017 年国务院印发的《新一代人工智能发展规划》,明确要求重视人工智能带来的风险,加强风险预测、前瞻预防和约束引导。然而,不得不说的是目前我国人工智能的专门性法律法规还处于空白状态,缺乏一套完整的人工智能专门性法律规范。同时,现有规划属于总体性文件,尚未具体涉及人工智能相关领域的细节性问题,如人工智能市场准入规制、监管制度等的缺失与不足。鉴于此,推进法律法规不断完善和进步,加强违法惩治力度势在必行。首先,完善法律法规,实现人工智能的法律全覆盖。当前,法律空白和法律粗糙是主要问题,严重导致不法分子有机可乘、危机隐患趁虚而入。立法部门应该充分研究人工智能各个方面,细化相关细节领域,针对具体技术进行立法,填补小微领域和隐蔽空间的法律空缺,实现法律法规对人工智能的全局性规范。同时,针对已有法律条款,结合技术发展态势和现状,完善相关法律的具体内容,祛除不切实际、不合时宜的相关条文,推进法律精细化、规范化和实践化。其次,加强违法惩治,推进人工智能应用规范合法。一是法律惩治要严,通过加强对违法平台和不良信息的惩处力度,在全社会形成示范作用和震慑效果,树立法律权威。二是法律惩治要广,坚持违法主体全覆盖,不论大小强弱,一律严格处理,全面监管所有人工智能的应用主体,防止“漏网之鱼”出现。法律的严格惩治是促进形成良好风尚的必要手段,只有通过法律权威形成震慑,才能使不良内容、违法行为得到遏制,为主流意识形态建设扫清障碍。
(五) 社会监督:强化公众认知水平,培养社会监督意识
人工智能的意识形态危机,作为一个全社会面临的重要问题,实施有效治理还有赖于全社会的共同力量。社会力量主要表现为公众监督。“对人工智能的监督并不是限制人工智能发展,而是保障其健康可持续发展,更好地为人类服务。”⑯当前,培养公众的社会意识,发挥公众社会监督作用,对于人工智能的意识形态危机治理大有裨益。首先,强化公众认知水平,提升人工智能的知识素养。对一个事物是否了解,决定了人们是否会去关注它的具体情况。人工智能作为新兴事物,社会公众对其认知必然是有一定局限的,绝大多数人对算法、大数据、智能机器人、移动互联网等等都是云里雾里、一知半解;进而往往对人工智能带来的问题和危机缺少辨识和防护能力。所以说,只有增强公众对人工智能的系统认知,了解其基本原理、技术构成以及应用场景等知识,才能很好地提高公众对人工智能的关注度和兴趣点,也才能为形成监督作用奠定基础。其次,培育社会监督意识,发挥公众监督作用。在信息传播中,公众既是信息的接收者,更是信息的传播者;在智能产品使用中,公众既是技术的受益者,又是危机的潜在影响者。可以说,公众贯穿于人工智能应用的各个场景。鉴于此,培养社会公众的监督意识、发挥好社会公众对人工智能应用的现实监督,对于人工智能的意识形态危机治理尤为重要。现实生活中,相关单位可以利用网络宣传扩大人工智能的公众认知,通过教育培训增强人工智能的大众理解,进而增强社会公众对人工智能的敏感度,以很好地发挥好社会公众的监督作用。总而言之,必须通过实现社会公众对人工智能的全面监督,将社会价值融合进入技术逻辑之中,促进社会价值与技术逻辑的双向整合,进而实现意识形态危机的化解。
注释:
① 参见陈晋: 《人工智能技术发展的伦理困境研究》,吉林大学2016 年硕士学位论文。
②《习近平向国际人工智能与教育大会致贺信》,《中国卫生信息管理杂志》2019 年第3 期。
③⑫ 《马克思恩格斯选集》 第1 卷,人民出版社1995 年版,第 775、142 页。
④ 王建峰: 《告别信息崇拜 解构数字资本主义——访美国伊利诺伊大学厄巴纳—香槟分校教授丹·席勒》,《中国社会科学报》2017 年1 月19 日。
⑤ 习近平:《在网络安全和信息化工作座谈会上的讲话》,《人民日报》2016 年4 月26 日。
⑥[美]凯斯·桑斯坦:《网络共和国》,黄维明译,上海人民出版社2003 年版,第6—10 页。
⑦ 参见[德] 诺埃勒·诺依曼: 《沉默的螺旋:舆论——我们社会的皮肤》,董璐译,北京大学出版2013 年版,第5 页。
⑧ 胡鞍钢,周绍杰:《新的全球贫富差距:日益扩大的“数字鸿沟”》,《中国社会科学》2002 年第3 期。
⑨ 参见程海东:《人工智能的不确定性及其治理探究》,《自然辩证法研究》2020 第2 期。
⑩ 习近平:《习近平谈治国理政》,外文出版2014年版,第153 页。
⑪ 参见张风帆:《人工智能时代的前景研究》,《云南社会科学》2020 第1 期。
⑬ 陈昌凤、霍婕:《权力迁移与人本精神:算法式新闻分发的技术伦理》,《新闻与写作》2018 年第1 期。
⑭ [美] 戴维·奥斯本、特德·盖布勒: 《改革政府——企业精神如何改革公营部门》,周敦仁等译,上海译文出版社1996 年版,第205 页。
⑮ 习近平:《加强领导做好规划明确任务夯实基础推动我国新一代人工智能健康发展》,《人民日报》2018年 11 月 1 日。
⑯ 王军: 《人工智能的伦理问题:挑战与应对》,《伦理学研究》2018 年第4 期。