人工智能技术产业化创新生态系统风险归因及治理体系研究
2021-09-08孙丽文李少帅
孙丽文,李少帅
(河北工业大学 经济管理学院,天津 300401)
0 引言
大数据、云计算等信息技术的迅猛发展催动了庞大规模数据的诞生,同时随着GPU芯片的普及以及FGGA、ASIC芯片的快速发展,计算机运算能力获得极大提升并迈向新的发展阶段,越来越多高级算法被应用到智能推荐、计算机视觉等不同领域。随着近些年互联网产业整体进入洗牌期,资本市场对人工智能的投资也愈发理性,技术成熟且具有较强落地能力的项目受到持续关注,推动人工智能从广泛强调技术优势的早期阶段,向更加重视产品、服务、解决方案等产业化能力发展阶段过渡,政策持续加码也加速了产业化实现。在上述因素共同作用下,人工智能经历技术突破和技术标准化时期,迈进产业化发展时期[1]。同时,人工智能技术产业化过程中也引发了数据安全、隐私保护等风险,而以科层制为代表的现有治理体系由于治理逻辑不匹配、治理结构僵化以及范围狭隘等弊端,难以应对人工智能风险的严峻挑战[2]。
当前,创新范式逐渐从线性、机械的创新体系迈向非线性、生态化的创新生态系统[3]。作为新的创新范式,创新生态系统同样为人工智能风险治理提供了新的思路和方向。为此,本文基于创新生态系统理论,聚焦人工智能技术产业化创新生态系统风险治理议题,探索风险治理主体、原则及路径等具体问题,无疑具有重要现实意义。
赫利森接着观察了免疫细胞是如何通过导血管从颅骨移动到脑膜的,在小鼠体内和体外都是如此。“在体内观察非常具有挑战性,”她说,“血液从硬脑膜(脑膜的一层)外流向颅骨,而细胞则向相反的方向流动。可以看到细胞在逆流而上爬行。”
1 文献综述
创新生态系统可追溯到Moore[4-5]的相关论述,其率先把企业生态系统界定为基于组织互动的经济联合体,并进一步认为企业生态系统是由具有利益关系的组织或群体组成的动态结构系统。此后,Adner[6]明确提出创新生态系统概念,认为创新生态系统本质上是协同机制,能够将个体与整体紧密联系起来,并进一步通过创新协作和链式整合快速提供面向用户的系统解决方案。对创新生态系统的理解可以从价值创造和风险治理两种情景维度进行。
从价值创造情景维度看,创新生态系统主要由经济行为主体构成,经济行为主体之间通过相互协同,提升综合竞争能力,产生独自无法企及的巨大经济价值,并且在此过程中与所处创新生态系统共生演化[7]。系统运行目的在于实现经济行为主体的价值创造,价值创造实现途径包括为单一企业创新过程提供便捷和为创新群落创造价值溢出[8]。随着经济行为主体逐渐意识到知识网络、选择性互补和资源整合的重要意义,价值共创逐渐成为价值创造的新趋势[9]。
从风险治理情景维度看,创新生态系统强调防范和化解技术产业化过程中的重大风险,实现技术可用、可靠、可知、可控,同时实施负责任的研究,促进科技向善,助力经济社会健康可持续发展。学者从不同视角对不同类型创新生态系统风险及其治理进行了探讨,如Das&Teng[10]从联盟网络视角出发,认为创新生态系统存在关系风险和运行风险,其中关系风险是战略联盟网络的核心风险[11];朱瑞博[12]从产业集群视角出发,认为可根据创新生态系统风险诱发属性,将其划分为内生性风险和外生性风险,前者是由集群内部力量积累的风险,包括僵化、创新惰性等,是系统衰退的根本性风险,后者则是环境动荡等冲击形成的风险,包括结构性、周期性等,是导致系统衰退的诱发性因素;张运生(2009)认为,创新生态系统具有复杂性、合作共赢、技术标准化等特点,会引发依赖性风险、结构性风险和专用性资产投资风险;梅强等[13]针对战略性新兴产业创新生态系统面临的技术风险、整合风险、合作风险和依赖性风险,认为风险治理复杂且难以量化其有效性,需要通过健全技术风险管理机制、技术标准化、完善合作机制进行综合治理;吴绍波[14]考虑战略性新兴产业创新生态系统的技术专用性、非对称性以及技术学习能力差异性等因素,构建多主体治理模式,以健全创新生态系统风险治理体系;武建龙和刘家洋[15]详细分析新能源汽车创新生态系统内涵与演进过程,发现其存在系统脆弱性风险、盲目扩张风险和匹配依赖风险,需围绕创新驱动、需求创造和环境利用实施风险治理。
(2)反腐倡廉建设是一个动态的过程。习近平指出:“党风廉政建设和反腐败斗争是一项长期的、复杂的、艰巨的任务,不可能毕其功于一役。反腐倡廉必须常抓不懈,拒腐防变必须警钟长鸣,关键就在‘常’、‘长’二字,一个是要经常抓,一个是要长期抓。”[1]70“经常抓”,就要保持当前反对、惩治腐败的高压态势,做到有腐必反、有贪必肃,遏制腐败现象蔓延的势头;“长期抓”,就要坚持不懈、长期作战,既要有惩治腐败的决心、信心,也要有长期作战的恒心、耐心。另外,反腐倡廉建设不是抽象的,而是具体的、历史的,其建设的内容、方式等要随着时代的发展而不断变化。
此外,为提升风险治理的有效性,促进创新生态系统健康发展,需要测度其风险程度。然而,由于风险评估的复杂性和主观性等原因,评估结果精度有待提升,因此风险评估的真正意义不在于精确测度,而是把握风险治理重点方向,形成科学研判。如李晓娣和张小燕[16]认为,创新生态系统内部异质性主体的风险感知不直接影响风险评估,但直接作用于治理投入,并且通过治理意愿间接影响风险治理过程。
既有研究鲜有关于人工智能技术产业化创新生态系统的直接论述,仅有耿喆等[17]结合产业生态理论和人工智能产业发展特征,分析人工智能产业创新生态系统的生物成分和非生物成分各组成要素,并构建一般模型;杨伟等[18]以人工智能领域的数字创新生态系统为研究对象,发现生物群落多样性有助于核心企业绩效提升。更多学者从技术创新[19]、政策规制[20]和伦理道德[21]视角高度重视人工智能引发的数据安全、隐私保护、算法歧视等风险问题,密切关注人工智能技术产业化过程中的风险特征、治理工具与方法等问题,并认为加强人工智能风险治理已成为不可回避的时代责任。
以上有关创新生态系统的内涵、价值创造、风险治理等研究成果,为深入探讨人工智能技术产业化创新生态系统风险提供了重要理论依据和实践经验。然而,仍存在两点不足:首先,现有研究对风险的分析更多聚焦于风险形成机理、性质分析和风险影响等讨论,而对创新生态系统如何实施风险治理却缺乏系统性分析,如治理主体、原则及路径等关键问题。其次,既有研究虽然形成了人工智能技术产业化风险治理及治理方式的共识,但研究深度有待提升,研究视野也较为狭隘,没有上升到创新生态系统高度,更没有形成人工智能技术产业化创新生态系统风险治理的完备体系和系统性解释。鉴于此,本文尝试识别人工智能技术产业化创新生态系统风险属性,明晰治理主体、治理原则并探索具体治理路径,以期弥补对该问题研究的不足。
2 人工智能技术产业化创新生态系统内涵及风险识别
2.1 人工智能技术产业化创新生态系统内涵
与内生性风险不同,外生性风险是创新生态系统运行过程中,由于人的主观性、偏见性以及其它环境等因素导致的风险,会使算法应用偏离正常轨道,集中体现为算法歧视风险和算法滥用风险。
2.2 人工智能技术产业化创新生态系统风险归因
本文借鉴朱瑞博[12]的研究思路,将人工智能技术产业化创新生态系统风险归结为内生性风险和外生性风险并赋予全新内涵。其中,前者是指人工智能技术特性和运行过程携带的先天风险基因,包括数据风险和算法风险,是导致系统衰败的根源;后者是指产业化过程中人为因素、环境因素等形成的风险,包括算法滥用和算法歧视,可能导致系统运行异化,背离正常演进方向。人工智能技术产业化创新生态系统风险可看作是两种风险共同作用的结果。
2.2.1 内生性风险
从创新生态系统演进过程看,不同阶段的风险也不尽相同,内生性风险从技术突破时期到技术标准化时期,再到技术产业化时期始终存在,并成为技术突破时期和技术标准化时期的主要风险,而外生性风险只有当创新生态系统进入技术产业化时期才逐渐凸显(见图1)。
根据亨廷顿的观点,政治衰败源于新兴社会行动者对政治参与的渴望,政治参与程度的减弱有利益政治的稳定,亚当·普沃斯基则对此提出了批评,认为对于稳定的民主政治真正的合法化危机不是来源于社会动员导致的政治参与扩大,而是来自政治参与的不足。[6]就互联网背景而言,两者的理论都需要修正,互联网下的社会动员会导致公民重拾参与政治的热情,但是也诱发了基于互联网的不当的社会动员问题。
(2)算法维度风险。算法发展推动计算机视觉、自然语言处理等关键技术识别精度持续攀升,能够在更广泛的场景下解决实际痛点,驱动人工智能技术产业化进程。同时,算法运行的“黑箱”性和自主决策性使创新生态系统面临算法安全风险、算法可解释性风险和算法决策风险[19]。首先是算法安全风险,在实际应用中,若算法模型及具体参数发生泄漏,那么第三方极有可能“克隆”该算法。同时,由于人工智能算法在原理上主要用于处理过程不明确、输入不受限的场景,并容许一定错误率存在,而且算法训练数据也不能覆盖所有应用场景,因此若算法参数存在被非法篡改的可能,那么算法性能下降或错误率升高将难以被觉察,人工智能算法从设计、训练到运用都将面临可信赖性的问题。此外,部分场景要求算法随时可用,算法漏洞造成的人身权益难以挽回以及一系列法律追责困境等,都使创新生态系统处于极大风险之中。其次是算法可解释性风险,根据2017年美国加州大学伯克利分校发布的《对人工智能系统挑战的伯克利观点》,将算法可解释性理解为,解释人工智能算法输入某些特性引起某个特定输出结果的原因。由于人工智能算法往往是多层神经网络,属于非线性数学,不同变量之间关系纠缠不清,呈现涌现性和自主性特征并因此形成“黑箱”,其算法的复杂性和专业性更提高了信息不对称程度,从而极大降低人类对算法的信赖和认同[19]。最后是算法决策风险,计算力跃升使人工智能具备计算超高数量级可能性的超强能力,其选择范围远超人类,能够尝试人类以前未曾考虑的方案,从而导致算法结果的不可预见性风险。
在价值创造情景下,创新生态系统内部形成以技术创新群落、商业引领群落、控制调节群落和量子参与群落为主的价值创造群落结构。在风险治理情景下,创新生态系统内部群落逐步从价值创造者向风险治理者的身份和使命转变。具体而言,技术创新型企业、AI初创新锐、AI巨头、AI独角兽等企业主体从技术创新群落和价值创造群落转变为企业治理群落,政府、学术界和社会组织由控制调节群落分别转变为政府治理群落、学界治理群落和社会组织治理群落,用户、互联网群体等微观个体集合则由量子参与群落转变为社会公众治理群落(见表1)。
2.2.2 外生性风险
人工智能技术产业化逐渐形成了由多种主体参与的独特创新生态系统。本文借鉴自然生态系统中的群落概念[17-18],并按照功能差异,将系统主体划分为技术创新群落、商业引领群落、控制调节群落和量子参与群落。其中,技术创新群落(高校、科研机构和技术创新型企业)投入大量创新资源,使人工智能技术领先可行;价值创造群落(AI初创新锐、AI巨头和AI独角兽)以实现经济效益和社会期望满足为目标,提供相应智能产品和服务;控制调节群落(政府机构、学术界和社会组织)对人工智能技术产业化进行控制和调节;量子参与群落(用户、互联网群体等微观个体集合)广泛参与到人工智能技术创新和产业化各方面。通过各群落间相互协作和价值共创,形成人工智能技术成果向生产力转移的创新体系[8-9]。
(1)算法歧视风险。算法歧视风险是指在看似没有恶意的程序设计中,由于算法设计者/开发人员对事物认知存在某种偏见,或算法执行时使用带有偏见的数据集等原因,造成算法产生带有歧视性的结果,并由此形成3种类型的算法歧视,即人为因素歧视、数据驱动因素歧视和机器自我学习因素歧视。算法设计者、用户都可能引发算法歧视风险,其中算法设计者可造成算法对用户的价格歧视和结果偏袒,而由用户引发的算法歧视主要源于用户与算法的非理性交互。数据驱动的歧视则更多源于数据偏见,即偏见性数据引致算法结果的非客观性。此外,随着算法复杂程度日益提高,通过机器学习过程形成的隐性歧视也越来越难以被察觉[23],但这些可能无法被理解的技术却已广泛试用于信用授予、企业筹款、企业招聘等领域,这无疑成为创新生态系统稳健发展的潜在隐患。
(2)算法滥用风险。算法滥用风险是指在运用算法进行分析、决策过程中,因使用方式、目的和适用范围等出现偏差导致的风险。企业出于自身利益考虑,可能会利用算法对用户进行不良诱导,同时过度依赖算法和盲目扩大算法应用范围也都会使算法缺陷被放大并影响系统有效性,甚至可能危害人类生命和人类社会发展,必须予以重点关注和妥善处理[23]。
(1)数据维度风险。数据是人工智能技术快速发展并迈进产业化的重要驱动力[22]。随着大数据、机器学习等广泛运用,数据本身富含的价值越来越大,同时数据泄露等风险亦急剧增加并引发数据风险(数据安全和数据偏见)。首先是数据安全风险,因数据挖掘深度和广度提高,个人数据隐私被以更多方式、更低成本获取,导致近年来数据安全事件频发,甚至形成了完整的数据灰色产业链,不仅推高企业数据存储与维护成本,而且极大降低了社会公众对人工智能产品、服务和相关企业的信任程度,给创新生态系统发展带来严重困扰。其次是数据偏见风险,根据形成原因,数据偏见可分为客观性数据偏见和主观性数据偏见,其中客观性数据偏见是由数据本身的非公平、非理性所致,数据主观性偏见则是由研发人员的主观选择和数据处理等因素引起。数据偏见从底层影响人工智能的客观性和公正性,甚至可能引发风险的多米诺骨牌效应。
图1 人工智能技术产业化创新生态系统演进过程中风险分布特征
3 人工智能技术产业化创新生态系统风险治理体系
针对人工智能技术产业化创新生态系统面临的内生性风险和外生性风险,需要围绕风险治理主体、根本原则和治理路径3个方面形成风险治理体系。
3.1 风险治理主体及群落结构
2.2 近期疗效 术后6周,观察组患者临床总有效率为79.2%,对照组为62.5%,两组比较,差异无统计学意义(P>0.05)。见表2。
表1 不同情景下人工智能技术产业化创新生态系统群落构成
(1)政府治理群落。作为创新生态系统风险治理的推动者和监管者,政府治理群落需要深刻认识到人工智能风险的长期性和复杂性,把握风险治理动向并提供强力支持。为鼓励不同风险治理群落共同应对和化解创新生态系统风险,同时防止经济行为主体利用市场契约不完全和信息不对称牟利,避免“搭便车”等机会主义风险,政府需要对其它治理群落实施激励和约束,以提升风险治理效率,促进系统良性发展。
以学生为主导的小组合作式课堂教学模式,是指在上课的过程中,教师设定教学的方向,分配任务到小组,学生在课下查阅和讨论相关知识,课堂上汇报,其他学生提问,汇报小组作答,教师最后总结,讲解重点知识、解答有误问题。这种教学模式,不仅能提高学生团结协作能力和自主学习能力,还能提高其学习热情,从而更好地掌握所学的知识,达到教学目的,在现代教学中发挥着重大意义[6]。尤其在研究生教育阶段,学生以自主学习为导向,导师做好引导与扶持,对激发学生的创新意识具有积极作用[7]。
(2)企业治理群落。由于企业本身具有追逐利益和风险规避的天性,会通过衡量不同情境下能获得的利益,选择实施或不实施风险治理。因此,企业治理群落的最终形成源于对治理成本和收益的权衡。当前,由人工智能技术产业化引发的风险日益增加,既具有超强传染性又难以完全追踪。同时,由于人工智能深度嵌入社会经济结构中,当出现系统性风险危机时,极有可能陷入“科林格里奇”困境从而酿成灾难性后果[24]。这迫使企业尤其是综合实力强大的核心企业,以高度危机感和使命感投入到风险治理浪潮中。
(3)学界治理群落。作为人工智能风险治理的教育者和反思者,学界在承担知识生产与传播任务的同时,积极倡导责任式创新(responsible innovation),更加关注广泛情景下的新兴技术治理[25],强调利益相关者共同参与[26],对人工智能等新兴技术创新与实践进行超前布局、预测治理和响应式治理[27-28]。
(4)社会组织与社会公众治理群落。社会组织作为风险治理的助推者和监管者,积极参与从技术研发到实际应用的多阶段风险治理以及行业监督、监管;社会公众是风险治理的广泛参与者和监督者。社会组织与社会公众治理群落通过舆论宣传和舆论监督实施“软治理”,以推动技术信任,引导科技向善。
创新生态系统风险治理需要以治理原则为基础并形成规则体系保障。虽然目前鲜有针对风险治理的专门性政策出台,但已有人工智能治理原则能够为风险治理提供很好的思路借鉴,如在伦理领域达成两个极具影响力的共识:阿西洛马人工智能原则(Asilomar AI Principles)和IEEE倡导的伦理标准。其中,阿西洛马人工智能原则倡导安全、失败透明、审判透明、负责、与人类价值观一致性等;IEEE则发布多份文件倡导对伦理标准的重视,并且都得到广泛传播和认同。2017年3月,IEEE在《机器人与自动化》上发表旨在推进人工智能和自治系统伦理设计的IEEE全球倡议书,倡议建立人工智能伦理设计原则和标准,并提出人权(human rights)、福祉(well-being)、问责(accountability)、透明(transparent)和慎用(use with caution)五原则。我国新一代人工智能治理原则也于2019年6月发布,包括和谐友好、公平公正、包容共享等8项原则,突出了发展负责任的人工智能这一主题。
风险治理群落的多属性和多中心性使其形成多层次结构,包括外围层、中间层和核心层。其中,外围层以政府治理群落和学界治理群落为风险治理中坚力量,对人工智能技术产业化创新生态系统风险治理进行长远考虑,做好顶层设计和统筹规划,并积极倡导发展负责任的人工智能,采取分类分级、分阶段的灵活监管方式;中间层以社会组织群落和社会公众治理群落为主体,通过营造和规范发展负责任研究的价值导向和舆论环境,使具有可用(available)、可靠(reliable)、可知(comprehensible)、可控(controllable)性的人工智能实现更高效率的技术转移、获取更丰厚的经济效益和积极的用户反馈,形成良性增值循环;核心层以企业治理群落为关键支撑,包括核心企业、上游供应商和下游互补方等利益相关者,通过行业自律、行业协同治理等方式应对和化解风险。外围层、中间层和核心层构成创新生态系统风险治理的多层次结构体系(见图2)。
(2)运用所学生物学知识和技能改进教材实验,设计开发“酸雨对生物影响的模拟探究实验”。从微观方面(细胞结构层面)和宏观方面(生态系统模拟和动物的行为)呈现酸雨对生物的影响,创造性解决学习中遇到的新问题。
图2 创新生态系统风险治理多层次群落结构
3.2 风险治理根本原则
正如虚宁寺管委会的李副主任所说:“对于我们而言,构建和谐社会的大目标,就要从人与人之间互相关怀的点滴开始做起。”
既有治理原则既反映出对人工智能的包容与共享,又体现其治理需要打破传统治理边界、行动的及时性以及治理方法的灵活多样,强调发展负责任的人工智能。本文借鉴既有人工智能治理价值导向和核心思想,认为人工智能技术产业化创新生态系统风险治理是治理原则在风险防控领域的具体体现。首先,创造经济价值、引领广泛产业变革是人工智能价值体现和实施风险治理的首要前提[8-9],需要在人工智能价值创造和变革过程中包容其引发的非重大系统性风险,同时将滥用风险降至最低。因此,包容审慎(tolerance and prudence)成为治理原则的必选项。其次,由于人工智能与社会经济以超乎寻常的速度整合和相互建构,其超高的技术密集性和复杂性,使创新生态系统任何单一治理群落都无法精准判断和应对风险挑战,需要企业、政府、社会组织、社会公众和学界共同参与,真正形成全链条、多视角、多层次的风险治理体系。因此,需遵循开放协同(open collaboration)的治理原则。再次,为增强创新生态系统内部治理群落的责任使命感,牢固树立群防群控风险意识,需要通过建立风险追责机制等,使其更好地履行各自职责,共同建立风险治理的安全屏障。因此,责任共担(shared responsibility)成为重要保障。最后,人工智能产业发展和风险治理均处于探索和发展时期,需避免严格、细致的法律要求对人工智能产业产生阻碍,而应采取事后监管或通过出台标准、行业公约、伦理框架、最佳实践等,调整人工智能技术创新及发展应用,同时大力支持行业自律。因此,要秉持敏捷灵活(agile and flexible)的治理原则。
3.3 风险治理路径解析
3.3.1 内生性风险治理
羊群感染布鲁氏杆菌病后症状不明显,因此,极易与其他传染病混淆,养殖户也未对其给予足够的重视和关注。母羊感染此类传染性疾病后容易出现流产现象,通常流产时间为妊娠后3个月或4个月,在流产前并没有明显的症状,即使诱发病症,多数情况也是患有关节炎或者乳房炎。公羊感染此类疾病后会与公牛一样引发附睾炎或者睾丸炎。
图3 人工智能技术产业化创新生态系统数据安全风险治理路径
(2)数据偏见风险治理路径。数据偏见风险隐蔽性极强,而且带有偏见的数据还会通过算法产生偏见结果,并作为此后算法的数据输入,由此偏见数据和偏见结果在迭代中得以持续和增强,引发人工智能技术研发、测试及产业化过程中风险的“蝴蝶效应”,成为创新生态系统安全运行的“定时炸弹”[22]。同时,鉴于数据偏见风险形成的主客观因素,其治理路径也主要从这两方面入手。一方面,对于客观性偏见,需高度重视数据检验,以政府治理群落为主导,多方积极参与,共同商讨建立具有客观性、合理性的数据检测体系,对数据多样性、分布规律等指标设立相应阈值,同时也需要对不同数据源进行相互印证,以增加其信效度。只有通过检验成为完整、客观的数据,才能作为算法训练的数据来源。另一方面,对于主观性偏见,需要企业治理群落谨慎使用数据,同时优化数据处理方法,最大程度保持数据公平公正性。数据偏见风险治理具体路径如图4所示。
图4 人工智能技术产业化创新生态系统数据偏见风险治理路径
(3)算法安全风险治理路径。算法安全风险主要源于算法漏洞、低可靠性以及在特定领域可能造成的人身伤害,鉴于算法安全风险更多源于技术性因素和特殊应用场景,因此应采取兼具技术防护和异常应急的联合治理策略。对于技术防护策略,企业治理群落要增强算法保密性,如采取加密等措施提升算法安全等级,通过优化算法设计原理、加强安全防护,防范算法参数被非法修改,提升算法安全性。异常应急策略即建立算法输入异常和算法运行异常的应急管理体系,尤其要加强特殊应用场景(如医疗领域)的风险防范。企业、政府和学界需共同发力,通过实施多情景、多频次模拟,建立算法异常风险预警和应急系统,通过增加对特殊应用场景的针对性测试,提升算法可靠性并降低人身伤害的可能性。同时,对由算法引起的人身伤害典型事件,在追责的同时,更要吸取教训,从而持续完善算法安全风险治理路径。算法安全风险治理具体路径如图5所示。
(1)数据安全风险治理路径。数据安全风险的强大破坏性和极难挽回性引起各个治理群落高度关注,如何通过多方参与更有效地管控数据资源的使用,使创新生态系统更加安全,成为研究与实践的紧要议题[29-30]。为此,政府、社会组织和企业治理群落需要从法律规制、伦理引导和预测预防角度,为数据安全风险治理提供有效措施。首先是法律规制。政府治理群落可通过制定数据保护条例、建立数据安全规范等措施强化数据保护权益,并对个人和商业敏感信息予以更高保护[20],其次是伦理引导,社会组织治理群落可通过建立行业数据使用标准和伦理规范,引导和规范数据采集、分析和运用等环节[21]。最后是预测预防,企业治理群落可采用技术、理性洞察等途径识别未来可能的隐私数据,并提前布局新兴数据的隐私保护机制。同时,还应探索数据侵害的追责机制,以督促各风险治理群落打破治理界限,共同应对数据安全风险挑战。数据安全风险治理具体路径如图3所示。
图5 人工智能技术产业化创新生态系统算法安全风险治理路径
(4)算法可解释性风险治理路径。人工智能算法可解释性风险主要来源于算法的复杂性特质——涌现性和自主性,并由此导致理性推导失效,最终形成未知的潜在风险。算法可解释性风险治理路径可从技术降维和标准制定两方面考虑。在技术降维方面,企业治理群落从技术角度切入,通过技术手段,将人工智能算法由机器理解层面降维至人类理解层面[19]。在标准制定方面,需要学界和政府积极制定算法模型标准、算法操作标准和算法解释标准,加快形成算法可解释性规范体系,在降低创新生态系统算法可解释性风险的同时,进一步支撑和引领人工智能技术产业化蓬勃发展。算法可解释性风险治理具体路径如图6所示。
由图2可知,湿式诱捕器在前3周诱捕效果最好,但3种诱捕器均随着时间的变化诱捕效果呈降低趋势,第3和第4周效果甚微,由此可以判断诱捕器诱芯的效果在20 d以内,每隔15~20 d需换一次诱芯。
图6 人工智能技术产业化创新生态系统算法可解释性风险治理路径
(5)算法决策风险治理路径。人工智能技术发展与应用的内在逻辑是基于机器学习形成自主性决策[2],在解放人类脑力劳动的同时,其难以理解的过程和行为,使创新生态系统处于算法决策不可预见的风险中。为应对和化解算法决策风险,需要从增强可解释性和算法终结两方面考虑。一方面,可通过技术加持、算法简化等方法,增强算法可解释性并降低算法决策风险;另一方面,引入算法终结机制,即参考生命体中的衰老机制,将算法终结机制引入算法决策风险治理中,使算法决策遇到无法判断未来结果时立即终止。2016年,Google旗下的DeepMind就曾提议给人工智能技术系统安设“切断开关”(kill switch),以防范人工智能对关键决策的恶意干预,避免重大严重后果。对人工智能技术产业化创新生态系统而言,当既有风险治理措施失效时,能够立即触发算法自我终结机制,形成安全可中断性能力,防止算法对创新生态系统中企业创新战略、商业模式等关键决策的过度干涉,从而将算法决策风险破坏降至最低。算法可解释性风险治理具体路径如图7所示。
图7 人工智能技术产业化创新生态系统算法决策风险治理路径
3.3.2 外生性风险治理
(1)算法滥用风险治理路径。算法滥用风险治理可从明确算法使用边界、降低算法依赖和伦理引导方面考虑。首先,明确算法使用边界。人工智能算法需要技术(算法模型、参数等)、数据和场景特征彼此契合,才能提供专业解决方案等服务。从该意义上讲,算法都具有一定专属性质,若其它带有目的倾向的算法依然能够使用相同数据源,那么极有可能使得使用人工智能产品和服务的用户身处险境,从而造成创新生态系统核心企业与用户关系紧张,甚至逐步演变为系统性风险。因此,必须严格规范算法的商业化领域和用途,限制算法外延。其次,降低对算法的依赖。必须坚持人类主体地位,降低人工智能落地实践中对算法的过度依赖和盲目依赖,提倡人与算法的有机结合。尤其是创新生态系统核心企业更需要从负责任的角度,提供有利于社会公众实现数字福祉的智能产品和个性化服务[15,28],而不是对“流量”趋之若鹜,沦为算法的附庸。最后,对算法进行伦理引导。社会组织与社会公众治理群落要倡议算法伦理规范,以引导其伦理取向,使算法回归合理的应用轨道并释放“向善”潜力[21,23]。算法滥用风险治理具体路径如图8所示。
今天,寻访团一行来到杭州始版桥,印刷专业的学生朝拜行业始祖——毕 ,今年是他在杭州发明活字印刷970年。烈日炎炎,寻寻觅觅,见人就问,无人知晓。最后,在一片住宅废墟上,有人告之这可能就是遗址。不禁唏嘘中国印刷之父毕 的发明地竟然如此境遇,但愿是我们搞错了。我们一直在反省自四大发明之后,中国于世界现代科技文明的定位到底是什么。
图8 人工智能技术产业化创新生态系统算法滥用风险治理路径
(2)算法歧视风险治理路径。算法歧视是人工智能技术产业化引发的系统性风险,体现为形成原因的多样性和风险危害的广泛性,数据偏见、算法设计者、机器自我学习和人机互动都会导致算法歧视,而算法歧视风险的危害从个人层面的价格歧视[31]、结果偏袒等,蔓延到创新生态系统的群落关系、运行和演进。鉴于此,本文认为需要以风险治理根本原则为导向,充分发挥创新生态系统风险治理群落的多层次结构优势,从多层面、多视角对算法歧视风险实施治理。首先,从伦理嵌入视角出发,政府、社会组织等治理群落要致力于提升算法设计者、用户的科学素养和伦理道德水平,使算法设计者更加客观、公平,用户与人工智能互动更加理性,从而减少算法歧视风险中的人为因素,同时将伦理嵌入到技术研发、技术测试等产业化各阶段,使算法设计更具正义性[21]。其次,从数据驱动视角出发,企业治理群落可通过探索数据去噪、数据填充、数据拟合、数据清洗等技术手段,降低数据偏见并实现高质量数据输入。最后,从机器学习视角出发,持续优化机器学习算法,理性看待机器学习结果和决策,以实现人机高效协同、和谐共生。算法歧视风险治理具体路径如图9所示。
图9 人工智能技术产业化创新生态系统算法歧视风险治理路径
4 结论与讨论
4.1 研究结论与政策启示
人工智能技术经过快速发展,逐步从实验室阶段走向产业化应用阶段[1],并形成以人工智能技术创新与应用为核心的创新生态系统。然而,人工智能技术产业化引发的大数据隐私泄露、算法“黑箱”、就业替代等风险,使人工智能再次受到广泛关注和高度警惕[32]。本文聚焦人工智能技术产业化创新生态系统风险治理议题,分析并归纳了系统面临的内生性风险和外生性风险,探讨了具有多层次结构特征的风险治理群落,明晰了适用于人工智能风险治理的根本原则,揭示了创新生态系统风险治理的具体路径。主要结论及政策启示如下:
2017年1-12月神经外科出院患者1258例,发生医院感染59例,65例次,实际感染率4.69%,感染例次率5.17%。
本文从创新生态系统理论视角出发,针对人工智能技术产业化生态系统风险治理问题,提出风险识别依据,建立相应风险治理体系。现有研究虽然对人工智能技术创新与产业化应用引发的风险问题进行了一定讨论[19,29-30],但多聚焦于狭义的技术危机和机器伦理,对治理主体和治理过程的探讨也局限于传统科层制的思维逻辑[2],亟待基于创新生态系统理论,对人工智能引发的风险进行更加广泛和系统性的分析,并提出与之相匹配的风险治理体系,以降低风险等级、推动创新生态系统稳健发展。本文借鉴创新生态系统风险的相关研究[14-15],依据风险诱发属性,将人工智能技术产业化创新生态系统风险归结为内生性风险和外生性风险。风险治理情景下,创新生态系统将风险治理主体视为具有内在相关性的群落,在注重发挥各自功能的基础上,进一步强调治理群落间的互补性和协同性,并由此形成了风险治理群落的多层次结构和风险治理的根本原则。根据内生性风险和外生性风险特征,不同层次的风险治理群落通过内外结合、相互协同的治理模式,形成应对和化解创新生态系统风险的具体路径。
本文从创新生态系统视角,结合具体路径,为人工智能风险治理提供政策启示。首先,风险治理群落在提升治理能力的同时,也需要创新治理理念与方法。政府要避免对偶发性负面问题采取激进的治理措施,同时要创新监管方式,如推动先行先试和柔性监管;企业不仅要降低数据安全风险和数据偏见风险,使算法设计更具正义性,也要创新风险治理思路,如对于算法可解释性,或许探索相关关系而非因果关系,才是平衡用户利益和减轻企业解释成本负担的合理途径;学界要持续探索如何将责任式创新范式全面嵌入到创新生态系统风险治理体系中[33-34],为风险治理提供智力支持和决策辅助;社会组织与社会公众不宜定位于“呼吁者”,而应深刻认识自身价值和使命,广泛参与到风险治理中。其次,需要引入更广泛的风险治理群落,持续优化创新生态系统多层次结构及相互关系,形成科学高效的风险治理体系,引导创新生态系统向责任式创新方向演进。最后,积极推动人工智能风险治理的全球性合作。数据流动的全球性及人工智能研发应用的跨国界、国际分工等特征,都表明人工智能风险不可能局限于某一区域或国家,因此必须加强国际对话与交流,预防人工智能可能引发的国际风险。
4.2 研究不足与展望
本文主要通过分析和逻辑演绎,讨论人工智能技术产业化创新生态系统的风险性质和治理体系,而这种定性研究在系统框架验证、风险危害等级判定和风险治理效果评估方面存在一定不足,由此制约了创新生态系统风险治理过程中资源的合理投入以及治理方法与工具的灵活运用。未来可采用定量研究方法,利用经济计量模型,建立人工智能技术产业化创新生态系统风险测度体系和治理效果评估量表,从而将人工智能风险及其治理的相关研究从理论分析转向实证研究。同时,以风险治理效果为导向,逆向推动创新生态系统群落结构的合理调整、治理原则的有效落实和治理路径的持续优化,形成风险治理体系与治理效果之间的闭环生态和良性循环。