APP下载

风险情景下人工智能技术信任机制建构与解析

2022-02-17孙丽文李少帅

中国科技论坛 2022年1期
关键词:伦理信任人工智能

孙丽文,李少帅

(河北工业大学经济管理学院,天津 300401)

0 引言

在移动互联网、云计算等新兴理论和技术共同驱动下,人工智能跨越应用红线,与实体经济深度融合,对社会经济发展和产业转型升级产生深刻影响[1]。但是人工智能的数据依赖性、算法黑箱性、自主决策性及高度开放性技术特征使其在为人类社会带来好处和便利、推动社会经济持续发展同时,也引发了数据安全、隐私保护、算法歧视等风险问题[2],给社会、企业和个人层面均带来严重风险挑战。这些风险问题多与技术信任密切相关、相互交织,在很大程度上可归结为技术信任挑战,如由于算法运行存在 “黑箱”,可能连设计者也难以完全理解其具体过程,更无从知晓算法运行最终结果以及潜在风险性,导致对人工智能技术置信链条断裂,迫切需要通过技术信任修复和重构置信链条。

当前学界对人工智能风险及技术信任探讨可归结为两个方面:①以风险为分析重点,讨论人工智能如何引发技术风险、社会风险、道德风险及法律风险等[3-4]。②以技术信任为分析重点,探讨人工智能对信任的冲击。如Marcus等[5]认为随着越来越多决策权力逐渐向不可靠的机器转移,人类无法充分相信狭义的AI系统。孟筱筱[6]从风险理论出发,认为人工智能信任问题与它所蕴含的技术风险、社会风险、道德风险和法律风险密切相关,因此需要加强人工智能风险治理和信用体系建设。整体看,现有研究依然呈现碎片化并缺乏深度性,且鲜有将技术信任置于风险情景下的详细探讨。人工智能作为最具变革性的新兴技术,其独特的技术信任机制尚未形成。关于人工智能技术信任机制该如何建构?应涵盖哪些具体内容?又该如何解析该技术信任机制及运行规律?以上问题都亟待深入研究。

可见,无论是实践运用还是理论研究,人工智能风险都与技术信任共生依存,鉴于其强烈的系统破坏性和长期影响性,探索风险情景下人工智能技术信任机制显得更加紧迫和必要。基于此,本文对人工智能技术信任这个极具前沿性和重要研究价值的问题进行探讨,尝试建构人工智能技术信任机制,并进一步对该技术信任机制深度解析,以回应上述问题。

1 文献研究与述评

1.1 技术信任内涵

技术信任文献研究表明其内涵要视技术创新发展和实际应用情景而定。一方面,以McKnight等[7]为代表的学者认为技术信任指对技术本身或者技术功能的信赖。Paul[8]认为技术信任具有多维结构,包括机密性、身份认证性等7个维度。袁勇等[9]进一步将技术信任从技术本身拓展至技术功能,认为技术信任体现为技术创新发展使人们对特定领域或者事物所形成的更高程度信赖,如区块链技术能够为保障信息不被删除和篡改提供解决方案。

另一方面,不同情景下的技术信任都有具体含义。Markus等[10]认为共享经济情境下,技术信任是消费者对共享平台的技术设施与控制机制在支撑沟通、交易和协作中重要意义的高度认可。技术信任源于消费者与技术的交互过程,本质上属于依赖关系。而在电子商务情景下,技术信任与控制信任类似,都属于非双方信任形式,但与控制信任以提供治理结构为根本保证不同,技术信任主要提供情景规范和促进条件,更加关注技术沟通平台的安全性。严中华等[11]认为技术信任是主体相信能够通过技术设施安全和控制机制实现交易的信念。风险情景下,技术信任既是化解特定风险的战略导向和具体方法,也是对风险外部因素的内心估量。实际上技术信任不仅体现为与风险紧密相连性,且更体现为技术安全可控和科技向善性。基于以上分析,本文将风险情景下技术信任界定为 “技术透明度较高、可解释性较强,技术风险责任明确,符合人类伦理道德,及由此获得的社会公众对技术的肯定和认同。”

1.2 技术信任影响因素

探索技术信任影响因素是建构技术信任机制的前提和基础。本文通过对相关研究成果梳理和核心观点提炼,发现技术信任主要受技术进步和环境规制两大因素影响。①虽然人工智能风险愈演愈烈,但同时风险治理技术手段也在不断突破创新。作为精准高效的治理工具,技术的嵌入使风险治理更加安全透明[12],同时在该过程中正向反馈不断积累,置信链条得以重构, “需求-基础-效果”的正向循环持续强化[13]。此外,人工智能本身也是重塑技术信任的利器,领先企业开始通过数据筛选、算法设计及模型优化等方式着力解决隐私泄露、算法偏见等问题,以切实发展可信任人工智能。可见,技术作为相对稳定的 “着力点”,能够匹配技术信任内在需求,成为影响技术信任的重要因素;②伦理道德、行业共识和法律规范等成为环境规制体系的有机构成,将技术信任深深烙印于人工智能,持续调试和矫正人工智能技术演进方向[6],同时环境规制体系还明确了风险治理失效后的责任主体及惩处措施,以确保相关主体为其行为承担责任,从而进一步强化社会公众的心理认同。

对技术信任影响因素的相关探讨为人工智能技术信任机制构建与解析提供了思路,即技术信任建立不仅需要设定明确的性能指标,努力提升技术安全性、透明性等,且需要外部环境的有效监管。当然仅从现有文献出发难以获得技术信任的完整理论解释,还要进一步结合人工智能的技术属性和实际发展情况予以具体考虑。

2 人工智能技术信任机制建构

纵观现有技术信任研究并考虑人工智能风险深刻而长远的影响,本文认为人工智能技术信任机制构建属于复杂的系统性工程,既需要明确主导范式、厘清重要参与者,又要落实提升技术性能的目标,同时也要建立切实有效的规制体系。但已有研究尚不能全面深刻地诠释人工智能技术信任机制的本质,对于技术信任范式如何选择?技术信任参与主体如何构成?技术信任目标是什么?技术信任环境体系如何建立等问题缺乏研究。因此,本文围绕以上问题,在梳理和凝练既有技术信任相关文献基础上,拟从主导范式、能动主体、核心愿景和规制体系4个维度构建人工智能技术信任机制模型。

2.1 确立技术信任的主导范式

技术信任主导范式主要回应 “根据什么实施技术信任”的问题。人工智能技术在与社会生态系统交互过程中引发了严峻的风险挑战,加剧了双方的矛盾。传统创新更多聚焦于技术先进性、可行性,以及由技术商业化带来的巨额收益和效率提高,市场成功被视为重要评价标准,但由于对创新过程中的人身危害、伦理道德冲突等风险的忽视,无法满足创新可持续发展和社会公共价值实现。不同于传统创新范式将技术创新驱动经济发展的正向推演逻辑为基本假定,责任式创新认为在创新初期就应引入有关风险及其危害的批判性探讨,并在深入推进技术商业化过程中实现风险治理和对技术的信任[14]。因此,风险情景下人工智能技术信任迫切需要以责任式创新为 “罗盘”,让技术接受价值引导。

责任式创新首次在国家层面提出源于对纳米科学领域的风险管控和信任需求[15],并由欧盟委员会在 “地平线2020框架计划”中将其确定为 “责任式创新”[15]。针对新兴技术引发的风险,责任式创新以科技创新活动双重性、结果不确定性为基本假定[16],在关注技术先进性、可行性和经济效益基础上,更加重视对新兴技术的风险防范,同时承认创新主体能力局限并主张更广泛利益相关者的共同参与[17]。责任式创新作为构建人工智能技术信任机制的起点,为应对化解风险,加快实现人类对人工智能的技术信任提供了方向性指引。

2.2 明确技术信任的能动主体

技术信任能动主体主要回应 “人工智能技术信任机制的参与主体是谁”的问题。首先,技术信任机制需要顶层制度框架搭建。国家和政府具有最强权威和公信力,不仅从国家层面统领人工智能技术研发与治理框架搭建,而且通过设立专业管理机构,政策发布和法律规制等进行防控[2],在人工智能技术信任机制构建过程中具有领导和监管作用;其次,技术信任机制需要行业组织的推动和协调。行业组织能够参与到多方服务、促进沟通、关系协调等诸多环节,发挥桥梁作用;再次,技术信任机制需要行业相关企业自律。企业以联盟、行业规范等方式履行行业自律,综合实力强大的科技型企业更以强烈使命感投身信任机制构建,成为人工智能技术信任机制建立的中坚力量;第四,技术信任机制需要学界的支持。作为教育者和反思者,学界在在承担知识生产和传播同时,积极倡导 “责任式创新”,更加关注广泛情景下的新兴技术风险治理[17],为人工智能技术信任提供智力支持;最后,技术信任建立还需要社会公众的广泛参与。通过多种正式和非正式渠道对人工智能技术信任具体内容进行监督、讨论和反馈。

2.3 聚焦技术信任的核心愿景

技术信任核心愿景主要回应 “技术信任目标是什么”的问题。人工智能技术信任核心愿景直接决定了技术能力提升的施力方向。基于技术信任对技术能力从低级到高级的需求逻辑,即技术蕴含的经济价值得到充分释放[18],技术具备较强鲁棒性,即使在异常和危险情况下,依然能够安全平稳运行[19],技术及运行原理能够被认知和理解[20],人类能够在较大程度上掌控技术创新与应用发展趋势[21],人类有能力明确技术责任主体并予以督促和监管[22]。本文提出人工智能技术信任的5个核心愿景,即技术可用性、技术可靠性、技术可知性、技术可控性和技术可追责。

(1)技术可用。人工智能首要目的是增加人类社会福祉。因此,一方面,技术可用性意味着人工智能技术发展及应用要体现人类根本利益至上的原则,其研发和应用应维护人类尊严、保障人类权利及自由,促进技术红利得到合理分配,缩小数字鸿沟,同时也要降低技术风险和对社会的负向影响,以及提倡和平使用人工智能,避免致命性智能武器的军备竞赛[23];另一方面,技术可用性意味着人工智能与人类应是和谐共生关系,人工智能应以保障和改善民生为根本出发点,创造出更大数字福祉,使人类更加健康、快乐和幸福。此外,技术可用性还意味着包容性和公平正义性。即需要赋能予人,让弱势群体也能共享人工智能技术带来的巨大红利。

(2)技术可靠性。人工智能技术可靠性体现为在模拟和实际应用情景都能够抵御恶意网络攻击等突发因素,实现运行的安全与稳定。模拟测试情景下,需要足够多的硬件系统测试和算法风险测试,尤其针对医疗等可能造成人身伤害的行业领域,不仅必须通过极端的器械可靠性测试,而且要通过对可能的算法特征引起风险的针对性测试;实际应用情景下,不仅要考虑正常算法和数据输入情形,也要考虑异常情形下人工智能是否具有较强的容错能力,确保数字网络安全、生命财产安全及社会秩序稳定。

美国国际互联网安全系统公司在20世纪曾经提出了P2DR (Policy Protection Detection Response)、P2DR2 (P2DR + Restore)等安全模型,把信息系统安全解释为在安全策略引导下,打造以防护、检测、响应及恢复为一体的动态循环。这些模型能够为技术可靠性提供很好的思路借鉴,本文将P2DR模型引入人工智能技术可靠性分析,结合人工智能特点对各要素内涵进行了重新界定并构建适用于人工智能的技术可靠性模型,如图1所示。①安全策略是人工智能技术可靠性的核心,是所有防护、检测和响应实施的根本依据。安全策略的最终目的在于实现自主性决策和风险治理的平衡,找到两者的最优动态解。②安全检测是人工智能技术系统动态响应和增强防护的依据,能够洞察技术危险和漏洞并通过循环反馈进行响应。③安全防护通过定期检查、访问控制、监视等手段发现人工智能技术存在的系统脆弱性等潜在风险,常用手段包括数据加密、VPN、安全扫描等。④安全响应,即当人工智能算法决策超出人类理解范围甚至可能产生失控时,需要人类及时且有效地介入和接管,当风险程度极高甚至有可能导致不可逆后果时必须设置 “切断开关”,以迅速终止人工智能算法。

(3)技术可知性。人们对技术的信任在很大程度上源于对技术本身的理解。然而新一代人工智能属于多层神经网络,不同变量之间关系千丝万缕,算法呈现涌现性和自主性的复杂特征,有时连研发人员都无法理解其运行方式,导致 “黑箱”现象。 《Science》杂志也认为算法 “黑箱”可能会导致严重的系统性风险并将破解 “黑箱”视为人工智能领域的重大难题[24]。

提升技术可知性需要兼顾不同主体对于认知性的需求差异。其中研发人员对人工智能技术原理有着最为深层和强烈的认知需求,需要深耕可理解、可解释的算法模型并借助技术手段将 “机器理解层次”降维至 “人类理解层次”,使人工智能重回 “人类尺度”,从技术层面部分解决 “黑箱”问题。其他主体对技术可知性需求集中体现为对人工智能技术关键环节的理解,为此需要政府、学界及领先企业共同探索制定技术操作和解释标准,同时也应为社会公众参与创造机会,确保社会公众切实成为提升技术可知性的积极参与者。此外,提升技术可知性也需要对可能产生较大风险的环节提供必要且适当的说明或解释 (包括背后的逻辑和数据),但同时应避免因过渡透明化或片面强调技术的完全可知性,影响甚至阻碍人工智能技术创新和社会进步,即遵循适度的公开透明性原则。

(4)技术可控性。技术可控意味着人工智能创新及规模化应用应置于人类合理控制之下,能够根据技术及其对社会经济发展的影响衡量或评估风险性,并及时采取技术管控措施,防止因人工智能对社会经济结构的深度嵌入而无法被有效治理,即出现 “科林格里奇”困境[25]。在技术层面,技术可控性要求勇闯科技前沿的 “无人区”、攻克由人工智能高度开放性、自主决策性等形成的 “卡脖子”技术难关,构建技术风险评估框架,把风险指标化、定量化,为技术风险测度及方案制定提供借鉴。同时,要通过技术手段对高风险人工智能技术实施最高等级管控,如在人工智能技术系统中嵌入具有可中断性能力的程序命令或技术模块等。在实践层面,技术可控性要求提前制定完备的技术应对方案和响应策略,在最短时间内精准锁定风险的技术根源,将风险损失降至最低。虽然,目前还无法预测强人工智能能否实现以及如何实现,但依然不能掉以轻心,应谨慎对待和预防,因此技术可控还意味着建立风险警示体系,超前布局对未来可能形成的强人工智能风险的防范。

(5)技术可追责。技术追责不仅作为风险治理失败时的惩罚机制,更重要意义在于通过技术追责追溯隐患原因并明确责任,尤其当风险侵害导致伦理与法律产生较大冲突时,能通过技术对相关责任主体实施问责并且建立赔偿体系,促进风险治理的公平合理性并完善技术信任机制。 《人工智能白皮书-通往卓越与信任的欧洲之路》中明确指出 “技术追责是高风险人工智能监管的重要措施,同时也是构建可信任生态系统的必要环节”[26]。实际中需要政府秉持 “权责一致性”的原则,塑造 “成果共享、责权同担”的责权体系[27]。这意味着权利覆盖范围即是风险责任范畴,如设计者需要对开发阶段的风险隐患担责,使用者需要对使用阶段的风险隐患负责,同时也意味着即使无法解释人工智能产生的结果,使用该人工智能技术的主体同样需要对此负责。此外,欧盟 《人工智能白皮书》和国家人工智能标准化总体组 《人工智能伦理风险分析报告》都要求责任主体在合理期限内留存人工智能设计和使用的算法、数据等信息,以利于在形成侵害时审查和明确责任归属[28]。

2.4 完善技术信任的规制体系

技术信任规制体系主要回应技术信任的外部环境如何监管的问题。监管方式囊括社会习俗、伦理道德、行业共识、法律规范 (公司法、刑法等)及国际公约等。根据作用性质差异可分为柔性规则和刚性规则两种约束体系,伦理和法律分别成为柔性规则和刚性规则的核心内容。 “柔性的伦理”和 “刚性的法律”共同构成人工智能技术信任规制体系两大支柱。同时,因法律和伦理均存在缺陷,因此需要持续完善和畅通现有规制体系,切实发挥其风险防范和管控的应有作用。

(1)以法律为保障的风险防控体系。法律以国家强制力划定底线,在大力破除人工智能发展现实障碍同时,进一步聚焦对人工智能风险的化解,推动发展负责任的人工智能。以法律为保障的风险防控体系需要充分考虑国际竞争、社会经济价值等因素,保证技术红利最大化释放,以形成较强的人工智能产业竞争力,避免因偶发性的负面问题而采取激进监管。由于法律以风险为导向,其监管力度与风险危害等级相匹配,同时将人工智能在具体领域 (自动驾驶、医疗等)的风险特征视为技术溯源依据和法律制定之根本。因此,采取 “分级分类”和 “场景规制”相结合的监管思路成为实施法律约束、推动技术信任的最佳拍档。

数据和算法既是推动人工智能技术蓬勃发展的关键 “燃料”,也是引发风险的 “导火索”,因此数据和算法成为立法监管重点对象,而算力的纯技术性使其较少受到法律关注。数据立法与监管方面,新兴技术的运用使数据富含价值越来越大,但同时海量数据的收集、深度分析及应用触动了人类隐私权、知情权等根本利益,为此欧盟于2018年颁布 《通用数据保护条例》,不仅直接推动人工智能数据风险治理的立法进程,而且成为美国、印度等国家制定数据保护法律的重要范本。同时,鉴于生物数据的特殊性及战略意义,包括中国、美国等在内的许多国家尤其重视针对生物数据的监管和风险防范,中国信息安全标准化技术委员会颁布 《信息安全技术 指纹识别系统技术要求》[29]和 《信息安全技术 虹膜识别系统技术要求》[30]。算法立法与监管方面,透明和责任成为关键内容,美国、法国和加拿大分别制定法律对算法透明性和问责性等内容予以规范。

本文根据中国信息通信研究院与中国人工智能产业发展联盟发布的 《人工智能治理白皮书》[31],从监管维度、法律条文和监管内容3个方面归纳人工智能法律监管框架,见表1。由于人工智能风险法律风险防控体系初步形成,存在法律条例冲突、违法行为难认定、量刑分歧及整体立法进程缓慢等问题,需持续修订与改进。

表1 人工智能的法律监管框架

(2)以伦理为导向的社会规范体系。由于人工智能具有数据依赖性、算法黑箱性及自主决策性等特征[31],加之法律滞后性、 “一刀切”的极端性、作用范围有限等局限,使技术信任规制体系建立不能仅依靠法律规范,而需要法律和伦理的同心戮力。人工智能本身虽没有伦理道德品质,但技术研发者可通过算法设计、数据选择、模型优化等方式赋予其伦理价值,因此人工智能技术并非中立,其中饱含人类对于现在和未来的思考及决定,非常有必要通过充分发挥伦理道德作用使其接受价值引导,使技术从诞生便承载一定价值倾向,让伦理道德内化于人工智能技术结构之中,释放向善潜力。

目前,人工智能数据安全、算法歧视等风险已成为国际社会的焦点问题,引发对风险治理和技术信任的伦理反思和讨论[32]。国际组织、国家机构及领先企业纷纷提出伦理原则或框架,以促进知识共享和可信AI构建。在国际层面,为确保欧盟具有与人工智能发展相适应的伦理框架,起草了人工智能伦理指南 (AI Ethics Guidelines)[33];在国家层面,英国已经成立数据伦理和创新中心 (CDEI),视伦理为人工智能创新管理的核心之一并考虑制定普适的伦理体系。中国顶层设计政策也要求制定促进人工智能发展的伦理规范,并于2019年6月份颁布 《新一代人工智能治理原则》,发展负责任的人工智能[34];在企业层面,Google、腾讯等领先企业针对人工智能负外部性影响,纷纷提出各自的AI价值观,并通过设立内部监管机构、履行伦理使命,竭尽全力赢得社会公众对人工智能和企业的信任。本文同样在 《人工智能治理白皮书》基础上,从伦理发布层次、发布者、伦理原则名称及核心内容4个方面归纳人工智能伦理规范体系,见表2。与风险防控体系相比,社会规范体系更加灵活,但仍需在打通多层面的伦理认知、强化伦理共识、注重伦理实际效能等方面付出努力。

表2 人工智能多层次伦理规范体系

人工智能技术信任机制需要以 “责任式创新”为主导范式,以国家政府、行业组织、企业、学界及社会公众为能动主体,将可用、可靠、可知、可控和可追责作为人工智能技术信任的核心愿景,同时充分发挥法律规范和伦理约束的功能。本文归纳构建了人工智能技术信任机制模型,如图2所示。

图2 人工智能技术信任机制——1P3W模型

3 人工智能技术信任机制解析

以贝克[35]和吉登斯[36]为代表的风险社会理论认为风险和信任相互交织,技术信任的实现得益于主体、技术、环境3个要素的共同发力,但人工智能引致的风险破坏了人与机器之间的置信链条,现有主体、技术和环境的 “三重奏”既不能为风险情景下人工智能技术信任重建提供明确且合适的范式依据,亦不能满足技术信任机制研究的细化与深化,而必须从宏观层面的要素构成深入微观层面的内在交互。为此,需要以责任式创新为首要导向,充分激活能动主体、核心愿景和规制体系的内在交互属性,释放科技向善潜能。责任式创新范式渗透于能动主体、核心愿景和规制体系,促进能动主体通过协同克服自身局限,并引导愿景目标的相互联结和规则体系融合。

3.1 通过多元主体协同,塑造值得信赖的治理群落

风险情景下人工智能技术信任要在治理过程中实现,但由于人工智能属于综合性和交叉性极强的复合型前沿学科,涉及领域极为广泛,需要计算机科学、神经科学、社会科学等多学科的深度融合[37]。同时,技术信任也更加依赖于多元化主体的相互协同。责任式创新范式为探索多元主体参与的协同共治提供了关键性行为准则:基于主体功能局限性和治理需求 (专业化、多元化、敏捷化)的多元主体密切合作。

尽管目前许多国家都设立了相应的政府监管机构,但这些监管机构本质上属于政治实体,难以全面和深刻理解人工智能风险及治理的复杂性,因此国家政府需要与具备专业知识的共同体形成有效联动,打造专业治理团队,以促进技术信任和提升公信力。同样地,行业组织、企业、学界以及社会公众由于知识储备、思维方式等方面的局限,也难以凭借一己之力力挽狂澜,而唯有通过相互协同,在风险治理过程中深化交流与合作,进一步巩固和拓展既有知识体系,才能克服自身局限性并满足人工智能专业化、多元化和敏捷化的风险治理需求,从而形成可信赖的治理群落,通过信任于人增强技术信任。

3.2 通过实施目标联结,形成安全负责的人工智能技术体系

从纯技术创新和技术功能升级而言,由于人工智能技术创新和功能升级的内在联系性,各愿景目标并不是孤立存在,而是本质上相联结。风险情景下更需要将责任式创新范式作为实施愿景目标联结的方向,以明晰其内在逻辑关系,形成安全负责的人工智能技术体系。①可用性是其他目标实现的首要前提,唯有可用才能创造价值,即责任式创新范式所强调的技术领先可行和经济效益增加[17]。技术特征、应用领域和实施路径都对可靠性、可知性、可控性及追责产生深刻影响;②可靠性是其他目标实现的安全屏障。一方面从技术层面防范恶意网络攻击等风险,确保人工智能在可用性的基础上更加安全稳定[38];另一方面可靠性往往需要通过足够多的、严格的、多情景的软硬件测试以建立相应安全模型,同时其实施过程也为可知性和可控性奠定了操作基础;③可知性是其他目标实现的关键环节。可知性和其他愿景目标均存在联系,对技术信任具有全局性影响,很大程度决定了人类对AI的整体信任;④可控性是其他目标实现的应有之意。与可知性更多聚焦技术层面的论述不同,可控性不仅体现在对人工智能的技术控制能力,而且体现在对其风险具有较强的防范治理能力[21]。提升可控性有助于优化技术安全模型、增加可靠性,同时可控性属于高级认知性,该过程也必然伴随认知能力的显著提升;⑤可追责是其他目标实现的补充和完善。追责机制能够在风险治理失败时明确责任和赔偿,迫使各利益相关者重新审视自身责任与使命[22],反思如何更好实现可用、可靠、可知和可控,从而持续完善技术信任机制。

3.3 通过规则体系融合,提供刚柔并济的环境保障

风险情景下,以法律为保障的风险防控体系和以伦理为导向的社会规范体系作为技术信任规制体系的架海金梁,本质上代表着以法律为中心的 “刚性规则”和以伦理为中心的 “柔性规则”。责任式创新认为新兴技术的治理和信任获取需要法律规范的约束与道德伦理的认同[39]。在此基础上,本文进一步认为这两种规则都有各自的适用范围和独特的作用方式,并在推动技术信任形成的过程中互相配合、促进和补充。

一方面,在人工智能技术发展的关键要素 (数据和算法)和发展较充分、风险相对确定的领域 (如自动驾驶和医疗)形成了以法律为主导的融合路径。法律通过将某些伦理道德法律化,并使之规范化、制度化,并以国家强制力为背书,运用国家强制力来保障规则体系融合的内容能够顺利实施。如欧盟 《通用数据保护条例》第35条就明确要求数据使用者在应用人工智能进行自动化决策处理时,必须评估数据可能带来的风险影响;另一方面,在人工智能技术尚不充分、风险错综复杂的领域形成了以伦理为主导的融合路径。伦理将遵守法律作为伦理道德要求来倡导,对违法乱纪的行为加以谴责,如包括欧盟委员会高级专家组发布的 《可信人工智能伦理指南》、IEEE发布的 《人工智能设计伦理准则》及 《G20人工智能原则》等许多现行AI伦理都明确指出法律对伦理作用的充分发挥有极强的催化效应。此外,脱离法律局限性的伦理更易引发能动主体对风险情景下技术信任的共鸣与深刻探讨,不仅有助于形成发展负责任人工智能的伦理环境,而且为实验性规范立法的起草积攒经验[40]。

4 结论与贡献

(1)从主导范式、能动主体、核心愿景和规制体系4个维度构建人工智能技术信任机制模型,为风险情景下深入开展人工智能技术信任研究提供分析框架。由于人工智能技术信任涉及范围较广且高度复杂,现有研究难以全面深刻反映其边界和关键构成,本文所建立的1P3W模型以责任式创新为主导范式,在充分借鉴现有责任式创新研究成果基础上[15-17],进一步把技术引发的风险治理纳入分析范畴。以国家政府、企业等为能动主体,在明确各自职能的同时,更注重能动主体的共同参与及整体效能;以对技术能力从低级到高级的需求逻辑为依据,将技术信任的核心愿景归结为可用性、可靠性、可知性、可控性和可追责;以环境监管的作用性质为依据,将技术信任规制体系分为以法律为保障的风险防控体系和以伦理为导向的社会规范体系。本文所构建的技术信任模型从多个维度厘清技术信任边界,突出技术信任关键构成,为人工智能技术信任提供评估准则和分析框架,有效弥补现有研究的不足,为实现人工智能技术信任提供方向性指引。

(2)解析人工智能技术信任机制的运行过程,揭示技术信任内在交互规律,对于丰富和细化人工智能技术信任的现有研究成果,促进人工智能技术信任的深入研究具有重要意义。虽然现有研究已经涉足人工智能技术信任的主体、技术和环境要素[2,16,32],但是尚未深入探索各维度的内在交互性,同时也缺乏将各要素纳入整体分析范畴的相关研究。本文将责任式创新范式引入人工智能技术信任研究,并详细探讨各维度如何通过内部互动推动人工智能技术信任实现,研究发现:责任式创新范式贯穿整个技术信任机制运行过程,渗透于能动主体、核心愿景和规制体系,可充分激活主体、愿景和规制体系内在交互属性,释放科技向善潜能。多元主体之间通过相互协同,共同塑造值得信赖的风险治理群落;五大核心愿景通过相互联结,形成安全负责的技术体系;以法律为核心的 “刚性规则”和以伦理为核心的 “柔性规则”相互配合、促进和补充,通过规则体系融合为人工智能技术信任提供刚柔并济的环境保障。

猜你喜欢

伦理信任人工智能
《心之死》的趣味与伦理焦虑
灵长类生物医学前沿探索中的伦理思考
护生眼中的伦理修养
2019:人工智能
人工智能与就业
伦理批评与文学伦理学
数读人工智能
嘤嘤嘤,人与人的信任在哪里……
下一幕,人工智能!
信任