人机融合智能的伦理风险及其适应性治理
2022-12-26谭九生
谭九生,李 猛
(湘潭大学 公共管理学院,湖南 湘潭 411105)
“人机融合智能注重人、机、环境系统三者的交互作用,它既不同于人类智能也不同于机器智能,而是联系物理系统和生物系统的新一代智能科学体系。”[1]人机融合智能充分发挥人类智慧与机器智能各自的优势,并在两者之间寻找一种平衡状态,让无序的人与有序的机器结合起来,达到安全、高效、敏捷的智能融合结果。人机融合智能带来生活的便利和享受,也带来了行为模式、生活理念的深刻影响和改变,但科技越是高歌猛进,越应思考伦理风险问题。学界对人机融合智能伦理风险的研究分为宏观和微观两个层次。有些学者从宏观层面上认为伦理风险是未来人机融合研究的重点[2],从设计层面防范人机融合伦理风险[3]。有的学者从微观视角剖析人机融合中认知不一致和责任归属问题[4]、人机融合人工智能会分享人的主体地位[5]、人机融合后人类会严重依赖机器[6]。从已有研究来看,有关人机融合智能伦理风险的研究不断拓展,为治理人机融合伦理风险奠定了基础,但仍有值得商榷之处:一是现有对人机融合智能伦理风险的研究仍然遵循以往人工智能伦理风险的传统路径,并未针对人机融合智能的特殊性进行阐释;二是人机融合智能伦理风险的治理措施缺乏弹性,未根据人—机—环境三者关系提出建议,适应性治理缺位。本文聚焦于人机融合智能伦理风险样态,追溯伦理风险生成的机理,以适应性治理为理论基础,探索人机融合智能伦理风险治理的实践路径。
一、人机融合智能伦理风险的凸显表征
人机融合智能充分利用人的智慧和机器智能,为当前的治理难点、痛点、堵点问题提供了创新的解决方案。然而,人机融合智能非但没有得到道德伦理的拥护,反而其自身的合理性和合法性遭到了公众的质疑和批评。人机融合智能得不到公众信任的原因主要在于其蕴含着巨大的伦理风险。
(一)安全风险
安全是指没有危险、不受威胁、不出事故。安全和风险是对立统一的关系,风险是可能的危害,安全是可以接受的危险,可见安全一词具有相对性。根据人机融合智能的影响面,可以将安全风险划分为个体安全风险和国家安全风险。人机融合智能应用危害人的生理系统,这是最直接和最现实的问题。作为人机融合智能应用的典范——无人驾驶汽车,其设计的初衷是让人类从烦闷的驾驶中解脱出来,将更多的精力转向休闲娱乐活动,但近年来无人驾驶汽车交通事故频发,严重损害人的身体健康。例如,2021年特斯拉女车主车顶维权事件,此次交通事故造成车主父亲轻微脑震荡,母亲身上出现多处软组织损伤。脑机接口技术是人机融合智能的关键技术,它是“通过植入电极、利用脑电、脑磁等技术,采集人类进行认知活动时脑电信号,利用这种信号来指导外部设备工作。”[7]脑机接口技术能够帮助有交流障碍的人,收集脑电信号完成语言的输入,与其他人进行交流。但使用脑机接口技术,人体可能会产生排异反应,对大脑组织造成局部创伤。当人的安全问题无法在现有的社会框架下妥善解决,人的安全风险便会升级为国家安全风险。在评估一国综合国力中科学技术发展水平是重要组成部分,技术本该是维护国家安全的重要工具,但技术的深入嵌入也会催生一种国家安全悖论,即人机融合智能不仅对国家安全具有极强的“破壁效应”,而且技术的应用可能超出预期的设想。国家传统安全讨论的首要议题是军事安全和战略平衡,人机融合智能在军事上的应用将会打破国家间力量的对比,加剧国家间军事竞争。军事领域中引入人机融合智能具有不确定性,智能技术嵌入军事战场,超出传统军事行动的范围,非常规的军事行动使战争与冲突的界限模糊。现有的全球军事协议并未将人机融合智能包括在内,各方也未对这一议题形成共识,全球规制的缺失导致人机融合智能军事应用的无序竞争[8]。
(二)隐私风险
隐私一般指个人免于被打扰和干预的权利。人机融合智能对数据的收集和使用涉及大量的隐私问题,其全面而详细的记录隐私,存在隐私泄露的风险。当隐私暴露在他人面前时,个体性及其权利就可能受到威胁。
1.人机融合技术本身带来隐私风险。得益于深度学习等多项前沿技术的突破,自然语言处理取得了快速发展,机器已经可以判别句子中存在的情感。人机交流中原始语言通过模型转化为机器能够理解的通用语言,文本的特征在传输过程中容易被人获取,或者缓存在云端,服务方通过分析文本特征以窃取用户的隐私信息[9]。人类无法掌握自己的隐私,自己的私人信息甚至被实时监控,个人隐私可能会陷入“圆形监狱”的困境,每个人都成为“透明人”。
2.应用带来的隐私风险。人工智能的研发和应用中,服务方根据用户协议获取消费者的浏览记录和位置信息,通过数据挖掘技术从繁杂和模糊的数据中,分析用户的消费偏好,个性化推送商品,诱导用户购物,增加消费的额外需求。例如,智能广告的出现潜移默化地改变了人的主观选择,智能算法依据深度学习提取有用的数据,对用户进行“精准画像”,定向推送信息,甚至比用户更加了解他们自己。不法分子通过非正当手段获取用户数据,利用深度伪造技术实现对图像、视频的修改,达到虚假信息的“以假乱真”,对用户进行精准诈骗。机器凭借它的高效和价值中取得人们的信任,倘若智能技术不再安全,人们便不再信任它,人机间关系将逐渐恶化。
(三)公平风险
公平意味着人们享有平等的发展权利。人机融合智能的应用可能产生强权异化效应,严重影响社会发展的均衡性和公平性。智能机器高效地提供公共服务,却不能公平分配服务。一方面加剧了劳动的分化。智能机器可以替代简单劳动的从业者,造成一定规模的失业,产生一批“无用阶层”。复杂劳动的工作也正逐渐地被机器取代,甚至需具备创造性思维的工作也将被机器所代替。人机融合中与机器合作的人须是经过专业训练的人,于是形成了就业的技术性壁垒。智能技术将社会财富聚集到少数技术精英手中,导致收入分配的不均衡,教育程度低的人在收入分配资源中处于劣势地位。因使用成本和机会不均等,导致“数字鸿沟”和“发展鸿沟”扩大,构成了新的就业不平等,引发激烈的社会矛盾。另一方面引发社会阶层的分化。随着脑机接口技术的成熟,个体的认知能力随着技术的应用而显示出明著的变化,所带来的不公平问题凸显。脑机接口技术由于种种限制,只有少数人能够使用,造成人的认知能力不平等,影响个人收入和社会地位,在个人权利方面显示出明显的差异。这些不平等还会传递到下一代身上,影响孩子的身体素质以及认知水平,贫富阶层间形成一道隐形的鸿沟。算法显示出创造者和使用者的价值偏好,机器会逐渐习得人类决策在年龄和性别上的偏见。例如,2015年,芝加哥法院使用的一个犯罪风险评估算法COMPAS,被证明对黑人造成了系统性歧视。算法歧视对于社会弱势群体产生严重负面后果,对于人的不公平,进而加剧社会阶层的分化,破坏社会的公平正义。
(四)责任风险
责任意味着对自己行为承担后果。人与机器之间的合作是社会治理智慧化的表现,其中责任归属问题十分重要,但集体行为的特性使得责任很难区分[10]。人类在与机器的接驳中逐步替代了传统的人际关系,机器的自主性导致责任主体不明,冲击现有的责任体系。
1.人机融合智能技术设计中的责任失当。在传统的责任伦理中,设计者是清晰的责任伦理主体,现代机器复杂的内部结构且算法设计的系统性特征,设计者之间产生利益的纠缠,使得责任边界难以确定。传统责任伦理偏好事后的规范,当决策失误时,决策者权利—责任关系十分明晰。在人与机器共生的关系中,决策者与机器的责任限度成为难题。当人与机器面临决策伦理困境时,是机器提供的数据和信息影响了人的判断,还是作为决策者主观选择性机器所提供的资料而导致的最终结果,责任限度如何才能准确厘清?
2.人机融合智能应用中的责任归属困难。无人驾驶有别于传统的人车关系,打破传统责任伦理规则,导致责任认定和划分的难度大增。交通规则的违背是传统交通事故责任评判的关键标准,当无人驾驶汽车发生交通事故时,人和汽车是谁违反了交通规则,传统评判标准不适用于无人驾驶。军事智能在战场上逐渐应用,无人作战成为军事热点。机器作战存在失控的潜在风险,战争正义问题受到怀疑,军事智能责任边界如何确定?战争机器犯下罪行,机器和军人各承担怎样的责任,军人如何展现自身的价值和存在感?“军事智能一定程度上造成责任的规避与转嫁,削弱军人职业的社会认可和道德价值。”[11]
二、人机融合智能伦理风险的成因透析
人机融合智能发展到今,产生了各种负面影响,其消极面引起了学界的关注,同时普罗大众面对威胁产生了恐慌。正视人机融合智能带来的伦理风险并且究其根源,才能促使其良性发展,推进治理能力和治理体系的现代化。
(一) “机器”的因素:技术内在的不确定性
智能机器的决策依赖于数据和算法,数据决定决策所能抵达的深度,算法决定计算得到的最优解。在机器自主学习技术架构下,大数据与算法的不确定性容易产生伦理风险。
1.数据的不确定性。数据是人工智能的血液,智能机器从繁杂的数据中寻找规律,从而进行科学的决策。数据本质上是价值观的缩影和映射,容易产生社会偏见。数据本身的代表性对机器决策的科学化具有保障作用,现实中有意选择数据,简化数据关系,增加了机器决策的不确定性。机器数据的设计开始于训练数据的选择,这是产生不公平的第一个环节。智能机器利用数据不断进行学习训练,选择的数据不同,智能系统的偏好也会不同。如果不能确保数据的“代表性”,种族主义和性别歧视可能会偷偷溜进机器决策之中。智能系统从繁杂的数据中寻找相关关系,替代了传统的因果关系。相关关系替代因果关系是对问题的简单化,相关关系强调的是一种概率预测,这样得出的研究成果和决策活动与社会事实很难精准吻合。
2.算法的不确定性。算法是“上帝之眼”,算法自身的不确定性易形成“算法黑箱”和“算法歧视”,威胁公民人身自由和生命财产安全。算法就像一个“黑箱”,输入的数据和输出的结果,存在公众难以解释的“隐层”,用户甚至开发者难以洞悉其因果关系。“黑箱的不透明性及难以解释,极易引发社会公众对决策合理性的担忧,从而引发政府的信任危机。”[12]以对社会弱势群体的歧视为例,低收入家庭申请住房贷款时,可能被智能算法认定存在较高的违约概率,拒绝向贫困家庭提供贷款。弱势群体本应受到政府更多的关怀,但算法“算计”社会弱势群体,不能得到政府救助,威胁国家政治的民主。
(二)“人”的因素:技术参与主体责任伦理意识淡薄
人机融合智能的发展尚处于初级阶段,人与智能机器是主客体关系,智能机器尚未具有自觉性,不能成为独立的主体。“人”在伦理失范现象中属于主要因素,剖析伦理风险中“人”的因素需要从创新主体和使用主体入手。一方面责任伦理失范。现代社会科技文明高度发达,人对工具理性的过度崇拜使在某种程度上使人丧失了自身的主体地位。
1.技术创新主体责任伦理失范。责任伦理是是个人、集体对其行为负责进而采取行动的规则。技术创新主体容易受到政治的影响,为了迎合政治和经济利益,做出不正确决策,违背责任伦理的规范,将会产生灾难性后果。伦理风险的产生不仅要归咎于技术设计者,技术的使用者也有着不可推卸的责任。人工智能因其自身的不确定性,嵌入到政府治理中来会产生歧视现象,使用主体若绝对信任智能机器,完全依赖机器做出的决策,将逐渐被智能技术奴役,最终丧失人的主体性地位。
2.责任角色失准。人机融合智能本身的专业性、系统性特征决定了不可能像过去那样由一个或几个独立的人完成,相反需要更多的人团队分工合作来创新,个体的行为活动与整体科技活动的现代化交织在一起,每个人都是人机融合智能活动链条的某个环节。于是每个人都应该对结果负责,但每个人又不需要负责。责任被分摊到多个主体,使得责任归属愈加复杂,责任伦理主体难以定位。社会历史条件的有限性,人类获得的知识受到所属时代条件的限制。智能机器一方的高速发展,人类一方在特定阶段认知能力有限,人类无法感知伦理风险及预测风险发生的概率。与此同时,伦理风险具有隐蔽性和未来性等特点,导致伦理风险的扩散超出人类认知范围,风险主体披上了“隐性斗篷”,人类无法确定直接的责任主体。
(三)社会环境因素:伦理风险防范制度缺位
科学技术猛烈冲击着人类社会,科学理应使得世界的可预测性增强,但却带来了新的不确定性,社会中伦理关系失衡现象涌现,风险社会悄然来临。人机融合智能伦理风险生成在风险社会的环境中,传统伦理规范与现代伦理风险之间的张力,致使伦理风险在全球扩展。
1.“昨天”的风俗规范失效。古老的风俗有着悠久的历史,风俗形成之后便拥有相对的稳定性。传统伦理规范面对高速发展的人机融合智能,显示出明显的滞后性。人机融合智能的工具理性与风俗的价值理性两者摩擦强烈,风俗的价值调节作用在人机融合的技术权威面前处于劣势,传统伦理规范技术威胁无能为力,处处退让。价值本身不会改变,传统风俗并没有消失,只是对现代社会失去了规范作用,它们有属于自己的时代。
2.“明天”的伦理规范尚未建立。传统伦理规范失效,新的伦理规范尚未建立,导致伦理风险频发。人机融合技术具有内在的不确定性,衍生出的伦理风险具有高度隐蔽性、不可预测性、极端危害性等错综复杂的特征。从时间范围上看,不仅影响当代人的发展,而且也会对未来子孙后代产生危害。从空间范围来看,人机融合引发的伦理风险跨越了国界,以隐私泄露为例,日本、中国、美国、英国均爆发出用户隐私泄露的事件。现代伦理风险的规范是全球性问题,必须以全人类这个整体来构建伦理规范,伦理责任归因而应具有前瞻性,呈现超个体性特征。实际上,传统伦理规范以个体为中心,认为个体才能承担伦理责任,伦理责任归因呈现个体特征,缺乏整体性的伦理规范。
三、适应性治理:人机融合智能伦理风险的实践路径
人机融合智能伦理风险的治理并没有一劳永逸的方案,只能折衷权衡。折衷权衡本质是适应性治理,治理风险的理想形态无法预想,只能根据治理情境的变化不断调整。适应性治理是在适应性管理和适应性共管基础上的理论升华,其首先应用于复杂社会—生态系统的管理。2003年迪茨(Dietz)等学者在《科学》期刊上首次提出适应性治理一词[13]。经过奥斯特罗姆(Ostrom)和福尔柯(Folke)等学者的发展,起初应用于环境管理领域的理论被引入到公共事务治理领域,原因是公共事务和社会—生态系统在很多方面高度相似。
适应性治理的核心要义包括情境特征制约着治理主体行为的选择。行动受到情境的影响,要求行动与情境的“恰当性”匹配[14];制度是弹性治理再生产的结构性条件;弹性是事物运动但不变的本质[15];制度是行动的结果也是运行的中介[16],弹性治理离不开制度的作用。适应性治理的关键是“干中学(Learning by Doing)”。干中学是在实践中学习,它是一种集成式的差异化知识系统(Synthesis of Different Knowledge Systems)。适应性治理强调地方知识和各类专业知识的汲取,这样外部的知识就可以快速进入治理系统,推动因地制宜的实现[17]和自组织的多中心治理。奥斯特罗姆在“公共池塘资源管理”研究中提出“自组织(Self-organizations)”,是在市场化和政府管理之外的第三途径[18]。自组织要求各利益相关者共同参与公共资源管理,强调多元利益主体和以其作为中心节点的互动关系。
(一)人机融合智能伦理风险适应性治理的现实逻辑
1.情境治理满足技术的持续创新。智能机器发展到一定阶段,机器逐渐具有自主性,伦理风险治理需要针对“机器”和“人”两大主体展开。随着技术创新“具身性”被改变。人机融合伦理风险的治理不仅包括“肉体”还包括“机体”,增加了治理的难度。适应性治理要求治理行动与情境相匹配,治理主体根据技术发展阶段,依据技术环境的特征,因地制宜地采取行动。适应性治理显现出应对不确定性的能力,使得治理制度与伦理风险的治理情境和治理目标之间保持足够的灵活性,有效预防和应对人机融合智能创新导致的伦理风险变化。
2.学习型治理应对伦理风险的复杂性。技术伦理风险呈现高度隐蔽性、不可预测性、极端危害性等错综复杂的特征。在空间上,现代社会是全球化的社会,风险自由地在世界各地畅通无阻,隐藏在我们生活的每个角落。在时间上,伦理风险具有代际特征,当代人和未来子孙后代均受伦理风险的影响。适应性治理在深入观察和识别的基础上,主张通过动态调节和适应性学习,增强治理效能。治理主体在变化的环境中,不断总结实践经验,通过科学的管理程序,实现政府治理的持续创新,持续提升治理水平。
3.协同治理调节参与主体的广泛性。人机融合智能的广泛应用,政府不再独享决策权威,技术开始赋能社团、公众、企业,他们发挥各自优势自发组成决策联盟,影响政府决策。多元利益相关者呈现显著的利益差异,他们互相博弈,导致矛盾突出。从治理系统的角度看,需要改变以往单一的模式,转而发挥服务、组织和引导的功能,“形成一种弹性、分层和尊重地方知识的适应性治理模式。”[19]适应性治理注重政府、市场和社会等利益相关者的多元互动,从而趋向高效、公平、合理的多元协同治理。
4.弹性治理适应风险社会的来临。风险社会的明显特征是未来决定现在,需要考虑今天对明天的影响。现代社会的系统性功能,孕育了伦理风险的系统性。适应性治理的“弹性”是指社会需求和伦理风险的动态演变中,反复不断地弹性调整,赋予治理制度足够的弹性空间和弹性功能,有效应对治理中各种复杂和突发状况。弹性化的治理要求具有“恰当性”的制度,管理体制要具有足够的韧性和灵活性,以解决“公地的悲剧”的难题,以制度弹性契合风险社会治理体系的内在要求。
(二)情境式治理:强化负责任的人机融合智能
2003年,德国学者Tomas Hallstr首次提出“负责任创新(Responsible Research and Innovation, RRI)”概念,他认为应在更宽泛、更普遍的技术发展背景下建立“负责任创新”的一般框架,对系统创新进行技术和管理的风险评估[20]。负责任创新要求在科技创新活动中加入社会伦理因素的影响,它为新兴科技的发展提供了具有实践效力的伦理框架。人机融合智能需要持续创新,但要以负责任的态度保障技术安全,消除机器自身的不确定性,规范人机融合智能的发展。
1.加快人机融合智能技术的突围。政府应强调人机融合智能的战略性发展,加快人机融合智能关键技术上的突围,加大互联网、大数据、硬件装备等基础设施的投入,巩固人机融合智能的发展基础。社会各界应加大人机融合智能领域引才和人才培养力度,警惕可能带来的就业风险,并且关注人机融合智能关键安全领域的发展。例如,增强算法的透明性、注重数据的代表性、促进人机相互理解等。最后打破技术精英垄断,推进政府数据、企业数据开放共享、避免数据泄露、保护个人隐私。
2.人机融合智能的情境治理。人机融合智能的持续创新增加了技术的复杂性,给公共管理者的治理带来了难题。情景性治理人机融合智能伦理风险,意味着政府在可预见的技术发展的后果下,政府有意采取必要措施预防科技的负作用。从战略的高度审视人机融合智能的发展,在遵循客观规律的基础上,考虑技术的未来状况,更好地规范智能技术的发展。情境性治理要求政府立足于实践,“超越一般哲学停留于科学认识论、抽象人性论的局限,表现出深入到资本统治与技术控制的历史深度的批判性优势。”[21]政府既要采取一般性的伦理规范,又要通过对人机融合智能风险的防备,要建立一种面向未来又约束现代、以人为本的,可持续发展的伦理观。
在保持总体的位置形状不变[10]情况下,开运算能够去除孤立的小点、小桥和毛刺,可以利用开运算的作用来避免眼睛与睫毛或眼角阴影粘连,使表征人眼瞳孔的连通域能够更好地独立出来。处理效果如图7所示。
3.完善人机融合智能的风险评估机制。政府对短期显现的“利益攸关”风险关注较多,长期潜在风险的关注处于薄弱环节,完善风险评估的机制迫在眉睫。一方面,对产品的研发到使用做到全流程监管。在技术设计阶段中,应明确技术研发的边界,对于不确定性的技术应全面禁止,预测各项技术错误发生的概率。例如,算法程序上做出合乎道德伦理的设计,并且反复试验。在技术应用阶段中,重视公众的风险感知,重点考虑使用主体的心理、感知和需求,理解使用者对人机融合智能风险的认知。另一方面,创新风险评估模式。坚持技术专家、社会专家、人民群众“三结合”的评估主体,强调定性和定量相结合的评估方法,评估内容上注重以人为本并结合实际,以风险信息的双向流动为基础,形成专家与公众认知统一的评估过程[22],最终形成以“预警安全”为核心的风险防控模型,建立风险识别、监测、预警、决策和反馈的风险防控机制,达到能够识别风险,判断风险多大,通过什么手段防控的目的。
(二)学习型治理:提高参与主体的伦理素养
人机融合智能的伦理风险的产生,既有自身不确定性和复杂性的客观因素,同时也有活动主体心理上对技术负效应的预测和判断。参与主体的主观判断影响技术活动和伦理风险的道德选择,也关系到对伦理风险的应对,提高参与主体责任意识和风险感知能力是规避伦理风险的关键因素。
1.提升设计主体的责任意识。技术的设计者在技术发展过程中处于核心地位,即使道德责任难以追究,他们仍然要承担责任。设计主体的自我良知使他们对从事的科技活动的善恶性质有明确的意识,能够分辨出什么能做,什么不能做,从而划定技术研发的边界。当研发人员在个人利益与国家利益发生冲突时,如何选择是困难的事情,在矛盾冲突中法律的规制作用滞后,自觉的责任意识监管显示前瞻性。技术设计主体在道德认知、道德自律、责任意识及道德实践等方面的自我完善和自我提升对于伦理风险的规避有着重大的现实意义[23]。设计主体需要本着负责任的原则去研究人机融合智能,内化为自身的道德自律,严谨对待研究对象的选择与研究方法的使用,公开研究的全过程,随时接受监督。
2.提升公众对风险的感知能力。公众对人机融合技术产生恐慌,原因在于公众对伦理风险认知较少甚至存在盲区。因此,必须提升公众对风险的感知能力,形成对风险的正确观念。在思想上,加强公民伦理风险的教育。通过向公众普及人机融合智能的知识,充分了解技术的积极和消极影响,形成对技术冷静和客观的态度。帮助公众了解科技伦理和道德标准,提高公众的伦理素养,增强伦理观念。在行动上,促使科学技术面向公众开放。打破技术“黑箱”赋予专家的特权,保障公民的知情权。一方面,扩大公众决策的参与,另一方面,加快政府和企业信息共享。在舆论上,引导公民多样化的价值判断。媒体等舆论方应通过对技术的全方位多维度宣传,引导公众对其形成多样性价值评判,形成人们对于技术采取多样性选择[24]。
3.推进伦理风险治理的国际交流学习。全球正在进入不确定性的“风险社会”时代,风险成为现代社会的主要特征,伦理风险的治理呼吁世界各国共同参与。首先,积极参与全球风险治理。在全球化浪潮中,中国始终是一个负责任大国的形象,深深融入到全球治理体系中,成为全球风险治理的重要参与者。中国要充分发挥自身制度优势,在风险治理的价值理念、治理目标、治理路径和治理机制上形成中国方案,为国际社会借鉴和参考。从风险治理的实践中,充分认识伦理风险,提高风险治理能力。其次,注重国际交流学习。人机融合智能技术在中国起步较晚,其科技伦理风险防控上处于薄弱环节,应合理吸收欧美政府风险治理的实践经验。例如,英国的渐进整体型风险治理、加拿大的综合风险治理、美国的国家安全型风险治理等。积极参加人机融合智能研讨会,讨论技术的发展前景,推进技术伦理规制和立法。
(三)协同式治理:构建新型人机融合伦理关系
伦理风险的协同治理,要发挥政府在治理中的主导作用,注重协同组织的培育,规范协同治理范式,进行伦理关系的协同调适,构建新型人机融合伦理关系。
1.建立多元协同组织。在现代社会中,政府不是唯一的治理权威,需要与企业、社会团体、公民等其他治理权威合作,携手应对技术伦理风险的挑战。一方面,鼓励多元主体参与。政府在风险治理中处于领导核心作用,其他参与主体同样起着重要作用,要充分发挥它们各自的治理优势,鼓励多元主体的广泛参与。通过社会参与机制的拓宽,促进共同参与,加强对话协商,寻找伦理风险的合理解决方案;积极引导公众、企业参与伦理规则的制定;研究机构倡导负责任的技术创新,使其成为第三方监管组织。另一方面,建立“国际人机融合智能伦理委员会。”各国政府、跨国企业、社会组织、学者要共建人机融合智能道德委员会,委员会的建立要以客观中立为基础。道德委员会积极组织人机融合智能设计的道德对话,并将其制度化,赋予委员会相对独立性,使其活动不受干扰。
2.规范协同治理范式。协同治理范式的规范是伦理风险治理的制度保证,“自组织的行为关键靠制度,必须根据多方信任且默契的某种规则,各司其责,而又协调统一,自动地形成有序结构。”[25]一是组织间基于透明的信息网络,进行信息资源的共享,克服有限理性的不足,共同参与公共政策的制定。透明的参与机制是合作的前提,信任机制是协同治理的关键。政府与其他参与主体在尊重各自利益的基础上采取行动。通过多次博弈与积极对话,形成共同的价值取向,基于信任的伙伴关系,摆脱集体行动的困境。二是当多元主体之间发生矛盾,导致无法共同治理伦理风险时,便需要协调和制裁机制的保障。每个组织都有自身追求的利益,自身利益受到侵犯,便会产生冲突,甚至威胁协同组织的生存。应建立协调组织间关系的委员会,其中政府在其中发挥着重要作用;制定详细的惩罚机制,当某一组织侵犯其他主体利益时,按照相关要求实施仲裁。
3.构建人类命运共同体的伦理关系。人机融合技术不仅影响着资本市场,而且影响到人类的共同利益,伦理风险更是将人机融合和人类命运联系起来。首先,建立整体性的伦理观。伦理风险的治理需要超越文化、制度、价值等因素的要求,超越伦理风险治理中的工具理性,“在人类的心理结构上构建世界意识和共同价值观”[26],实现伦理风险治理中的价值理性。需要提倡一种远距离的伦理、面向未来的伦理,即关注自然、关注未来、关注生命、关注人类将来的生存的可能性、关注人对自然所承担的责任。其次,建立以人为本的伦理观。当前人机融合智能伦理风险的责任主体是人,随着技术向更高阶段发展,机器也可以成为责任的承担者,建立怎样的伦理关系成为难题。人机融合伦理关系要注重人的主导作用,强调机器的辅助角色。在设计层面上要严格防范智能机器对人类的威胁,引导技术向着人类积极的方面发展,达到“善智”的最终效果。
(四)弹性化治理:完善“恰当性”的政府治理机制
伦理风险的复杂性使得官僚制组织引以为豪的技术性优势式微,原因在于传统治理模式的固定化、线性化的治理机制无法应对复杂多变,非线性的风险情境。公共部门需要建立“恰当性”的政府治理机制,构建人机融合智能相适应的治理结构,增加制度的包容性、灵活性和弹性要素,有效防范伦理风险的冲击。
1.建立可塑性的政府治理架构。政府要达到伦理风险的适应性治理目标,韧性的组织架构必不可少。传统条块分割的治理模式,无法应对伦理风险治理的复杂性,迫切需要优化政府组织架构,增强组织的可塑性,契合人机融合智能技术。一是优化政府决策模式。决策在政府治理中居于首要地位,伦理风险治理对政府决策提出了更高的要求,必须抛弃以往经验型的决策方式。公务人员要跳出部门中心主义的狭隘观念,推进跨政府部门信息资源共享,打破“数据烟囱”,建立跨层级和跨部门的政府决策模式;同时吸引多元利益相关者的广泛参与,集合集体智慧,增强决策的科学性和民主性。二是重塑政府组织架构。伦理风险的治理需要突破单风险治理视角,多维度识别和综合治理风险成为应有之义。在明确各职能边界的基础上,集中权力和资源对技术场景和伦理情境分门别类灵活准入,实现部门间、层级间、府际间参与的规制和协调,加强政府与科技企业和社会力量的沟通合作。
2.创新政府治理制度。基于伦理风险治理的复杂性,政府应建立新的治理路径,形成新的规则、机制和制度,用硬性的制度约束行为失当,规范人机融合智能技术以及参与主体。首先,完善责任追究制度。科斯定理规定只要产权明晰,并且交易成本为零,无论将财产权赋予谁,市场均衡的最终结果都是有效率的。这一理论同样适用于伦理风险的治理,只要明晰风险的所有权,并且保证信息的公开透明,便能有效治理伦理风险。确定风险的所有权是风险责任分担的前提,要明确组织和个人承担的责任,追溯风险责任主体。增加技术的透性,“使用大多数人均能理解的语言向公众解读技术,破解算法黑箱的责任模糊。”[27]其次,建立智能技术监管体系。人机融合智能能否成为法律主体?这是一直困扰着学者的难题。政府应顺应时代的要求,探索智能机器的“法律人”内涵,明确相关权利与义务归属,改进人机融合的问责机制。协同组织对技术进行阶段性评估,及时发现问题,建立智能技术的监管体系,以技术“对付”技术。例如,利用区块链的共识机制保障数据的真实性,实现问责方式由事后问责向事前评估的转变。
3.完善保障机制。面对科技的负面效应,政府作为负责任的主体,必须承担起保护公民免受技术冲击的责任,平衡好技术创新与风险规避的关系。一是保障人的安全。智能机器仅是历史开拓的工具,即使发展到具有意识,可以独立决策,也必须遵守“机器人三定律”,奉行“不伤害”原则。政府要完善人机融合智能的法律政策体系,制定人机融合的技术标准来规避伦理风险,明确智能机器的责任机制、伦理原则以及监管原则,提供原则性和方向性的指引,保证规制的稳定性和权威性[28]。二是构建技术冲击的社会保障制度。智能机器的创新与人类安全的渴望存在一种紧张的关系,社会保障制度可以缓解紧张关系,促使技术发展不会因风险而被剥夺。政府需要制定社会政策,将技术冲击的社会救济和再分配政策列入政府工作议程;鼓励针对新兴技术的社会保险体制建立,从而更好地规避风险,使人们从保险中获得安全感。