负责任创新框架下的人工智能伦理问题研究
2020-01-10李娜,陈君
李 娜,陈 君
(广州中医药大学马克思主义学院,广东广州 510006)
1 研究背景
负责任创新(responsible innovation),又称负责任的研究和创新(responsible research and innovation,RRI),是欧盟“地平线2020”科研规划的重要内容,主要强调科学与社会之间的合作以及加强公众对科学的信心,同时也是一种道德观念、价值取向和实践伦理经验,更是一种带有伦理意义的创新理念[1]。“负责任创新”一词首次出现在欧盟2002年的“第六框架计划”(The Sixth Framework)中,此后各种机构和活动之间的合作开始应用“科学和技术的负责任研究和应用”等相关词语(条),促进了全球背景下的对话和科学技术伦理研究。“负责任的研究和创新”一词于2013年首次应用于欧盟“第七框架计划”(法规,EU No.1291/2013),近年来在学术出版物和欧洲层面的项目中进行了讨论、研究和开发,逐步也在中国工程项目中得到应用。
目前,负责任创新理念的实际应用已经得到了社会的认可。美国在2008年调整纳米技术科研基金的使用中就融入了负责任创新的欧文四维框架,由此美国学界将负责任创新称为人类共同追求的理想;荷兰在2008 年鹿特丹港建设的马斯弗拉克特二期项目(MV2),从立项伊始就贯穿着负责任创新理念;英国在2010 年提出的平流层粒子注入气候工程项目(SPICE项目),经协商和反思意识到此项目存在一定风险,故最终取消该项目。以上这些案例都为负责任创新的实际应用提供了重要启示和有益经验。
人工智能(artificial intelligence,AI)自1956年在达特茅斯会议上提出至今,实现了前所未有的突破和发展。随着AI技术不断推陈出新以及快速更迭,无人驾驶技术、指纹识别、人脸识别、智能机器人、远程医疗等技术已逐步应用到现实生活之中,相关一系列技术伦理问题也随之突显,但因AI技术发展快速,传统的伦理规范道德制约和现有的法律法规已明显不足以应对当今复杂的社会发展局面,新兴科技的创新治理和发展规范成为当代世界各国面临的主要挑战和困境,也是国家创新与发展战略的重要组成部分。在中国,作为新兴科技代表的人工智能,面临着具有中国特色社会主义新时代特征的AI技术创新及伦理创新的重要挑战,由此AI伦理问题亟需得到解决。
欧盟委员会强调RRI的6个关键点——公众参与、道德、科学教育、性别平等、开放获取和治理,同时负责任创新本身所坚持的科学、绿色、节能、环保等理念,正好符合中国新时代的发展理念和路线。基于负责任创新本身的理念和实践经验,本文旨在运用负责任创新理念及其框架解决AI技术的伦理问题,以从科技研发源头避免伦理问题的产生,并在科技创新实际应用中反思和及时改正出现的伦理问题,促使科学技术创新更好地造福全人类和全社会。
2 RRI理念的背景及内涵
“负责任创新”的概念首先在欧洲被提出,主要是基于预期治理(anticipatory governance)和美国的ELSI两种概念。预期治理主要指在一个受限制的研究领域,对情景进行预期的管理;美国的ELSI主要指新兴科学和技术的伦理、法律和社会方面。
2.1 RRI理念的背景
RRI的出现,根源于“预期治理”概念。预期治理的历史可以追溯到2002年,当时Guston等[2]学者使用了这一术语,但没有明确提及RRI。预期治理主要是指在一个受限制的研究领域,包括创建未来可能出现的不同方式的情景,对其进行预期的管理,这或许有助于对未来可能出现的威胁作出最小化的决策并提供可行的替代方案。
RRI的出现,还值得一提的概念是从美国出现的ELSA概念,它代表着新兴科学和技术的伦理、法律和社会方面。Zwart等[3]认为ELSA研究与RRI有着惊人的相似之处,旨在为技术发展计划提供社会和伦理补充,这些补充最早可追溯到1994年的第四届欧盟框架计划。同时,ELSA研究承认科学专业知识不能被视为开发和引进新技术的唯一基础,相反,社会应该尽早参与。RRI定义最初的出现,并不是由专门的相关研究领域的学者提出,而是由科学政策制定者和欧洲委员会中大多的各种基金机构提出。因此,关于RRI的定义不仅包括学术定义,还包括行政定义。
2.2 RRI理念的内涵
目前,关于负责任创新的具体定义学界还尚未达成共识。根据Burget等[1]的观点,将负责任创新的定义主要分为两种:行政定义和学术定义,行政定义主要是基于负责任创新概念在政策、方针、机构等方面的定义,学术定义主要是学术界对其概念的定义。
2.2.1 行政定义
2011年在《关于负责任研究和创新的报告》中,Sutcliffe[4]认为RRI有主要以下特点:(1)刻意关注研究和创新产品,以实现社会或环境效益;(2)社会始终如一地参与创新过程的开始和结束,并且公众和非政府组织也关注公共利益;(3)评估并有效地优先考虑现在和未来的社会、道德和环境影响、风险和机遇以及技术和商业;(4)监督机制能够更好地预测和管理各种问题和机遇,并且能够适应和快速响应不断变化的知识和情况;(5)开放性和透明度是研究和创新过程中不可或缺的组成部分。除此之外,Sutcliffe[4]还提供了研究和创新的定义:研究是指一种系统调查方式,以便确定事实并得出新的结论;创新是指一种优越的过程或产品,也可指发明的有效商业结果。Schomberg[5]认为,负责任的研究和创新是指社会行动者和创新者彼此负责的一种透明和交互的过程,为了在我们的社会中适当地嵌入科学和技术进步,这个过程同时会考虑到创新过程及其可销售产品的(道德)可接受性、可持续性和社会需求。Schomberg[6]还将RRI定义为设计策略,该策略推动创新并为实现社会期望目标提供一些引导。在Schomberg的第二个定义中,RRI不再仅仅是一个过程,而是一种设计策略,也就是说,RRI成为一种能够塑造一个过程的策略。2013年,欧洲委员会[7]在其发布的政策文件《加强负责任研究和创新的选择》中,将负责任研究和创新定义为:负责任的研究和创新是指在研究和创新过程中采用的综合方法,在早期参与研究和创新过程的所有利益相关者(1)获得关于他们的行动结果的后果以及对他们开放选择范围的相关知识;(2)在社会需求和道德价值方面有效地评估结果和选择;(3)将(1)和(2)的因素作为设计的功能要求和新研究、产品和服务的发展。类似于Schomberg[5-6]的定义,RRI并不仅仅被定义为一个过程,而是指一种为研究和创新提供某种方向的方法。
行政定义的特点是包含各种要素,例如预期、预测问题和确定替代方案及反映价值观等等,也有学者强调评估、社会期望和评估社会、道德及环境影响等等,并且确定其优先级,同时考虑技术影响、风险和机遇、预测和管理问题,快速响应不断变化的环境和知识。本文采纳的是Schomberg[5]的第一种RRI定义,即在面对和解决AI伦理问题的过程中,需要AI技术研发人员和社会行动者的共同参与,彼此透明沟通、相互协商,适当嵌入科学和技术进步理念和观点,这个过程同时会考虑到AI创新过程及AI产品的(道德)可接受性、可持续性和社会需求。
2.2.2 学术定义
在学术界,大多数学者基本肯定了Schomberg[5-6]对RRI的定义,强调对潜在影响和社会期望的预期,并让利益相关者和公众参与研究和创新的过程。但部分学者也有不同见解,如Roco等[8]列出了负责任创新的以下4个特征:(1)跨部门和学科的变革,(2)考虑公平获取、健康、安全和环境的问题,(3)政府机构和其他利益相关者的参与,(4)预测和适应的长期措施;Stilgoe等[9]进一步阐述了负责任创新的定义:负责任的创新意味着通过对当前科学和创新的集体管理来关注未来;Stahl[10]将RRI视为一种元责任,将RRI定义为是一个更高层次的责任或元责任,旨在塑造、维护、发展、协调与调整现有的、新颖的研究和创新相关的过程、参与者及责任,以确保理想和可接受的研究成果;刘战雄[11]认为RRI是创新共同体以尊重和维护人权、增进社会福祉为价值归旨,以积极承担全责任为方法特征的创新认识和创新实践;Spruit等[12]将RRI描述为通过评估创新过程结果的可取性,例如根据责任法评估法院的有害产品结果,评估创新过程的质量;晏萍等[13]认为RRI是继可持续发展之后欧美国家提出的新的发展理念,其主要内容是将企业的社会责任与技术创新实践密切结合,从伦理角度有效评估和影响技术创新的各个环节,以保证技术创新成果的可持续性和社会可接受性。
关于RRI的内涵问题一直是学术界热烈讨论的话题,但到目前为止,国内外对其具体概念、定义、内涵和外延还尚未达成统一共识。研究人员将RRI主要视为一个包括利益相关者、预测、反思、协商和反馈社会需求和价值的过程;除此之外重要的是,关于学术定义,研究结果以及作为RRI终点的创新过程的结果一直被强调,并且将个人责任作为审议过程的一部分也被考虑在内。“负责任创新”这一概念是在21世纪中后期被一些学者引介到中国,国内学者倾向于Schomberg[5-6]对RRI定义的比较多。
2.3 RRI的理论框架
2013年,英国经济学家Owen等[14]将负责任创新主要通过“四维框架”将伦理因素考量纳入整体考量的理论和实践来看,即预期(anticipation)、反 思(reflexivity)、 协 商(inclusion) 和 反 应(responsiveness)。“四维框架”以阶段性方式参与作为整体的负责任创新过程,得到了学术界的普遍认可。2017 年,Burget等[1]在总结了 Owen 等[14]“四维框架”的观点基础上,增加了两个新兴的概念:“可持续性”和“关怀”。可持续性是指一种可以长久维持的过程或状态,通常包括生态可持续、经济可持续和社会可持续3个组成部分;关怀是属于公共领域的维度,指公民自己负责代表他们执行的决策和行动。在此基础上,本研究加入“无私利性”这一理论框架。无私利性主要是指科学研究人员不应该以科学活动或者科技创新的过程及结果来谋取私利。综上,构成了RRI研究及应用的7种理论框架,即:预期、反思、协商、反应、可持续性、关怀和无私利性。
3 AI定义及AI伦理问题
如今,AI已经从实验领域走向实践领域,逐渐发展成为当前全球最炙手可热的技术之一。随着2016年和2017年由谷歌公司研发的AI围棋软件“阿尔法狗”分别接连战胜围棋大师李世石和柯洁之后,AI的发展开始快速走向公众的视野,促使公众开始思考AI到底是什么及其所带来的伦理问题。
3.1 AI定义
人工智能,于1956年在美国达特茅斯人工智能夏季研讨会的提案上首次被公开提出,该提案由McCarthy等[15]科学家共同发起,旨在创造一种机器,使其学会使用语言、模仿人类行为和形成抽象的概念,以此来解决人类专有的遇到的各种问题并进行自我完善。其后,人工智能逐渐发展成为一种理念、一类技术和一门学科,既是理论概念又是实践方式。广义上,AI是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门技术科学,是计算机科学的一个分支,也是计算机科学技术的前沿领域。AI是对人的意识、思维的信息过程的模拟。AI不是人类智能,但能像人那样思考、更有可能超过人类智能。狭义上,AI是计算机科学或智能科学中涉及研究、设计和应用智能机器的一个分支,同时也是一门涉及计算机科学、信息学、神经心理学、哲学、伦理学、语言学等学科,通过学科融合发展起来的交叉性学科。关于AI的定义,至今还没有一个统一的表述,总体来看,对AI定义的不同见解都从一定程度上影射出AI的出现对于改善人类生活方式具有非凡的意义。
3.2 AI伦理问题
工业革命前后,科技都以一种正面的力量存在,它被哲学家高度赞誉,被称之为一种美德、一种人类社会进步的标志,但是随着两次世界大战的出现,科技开始呈现出负面的影响,催生了包括核武器在内的威胁人类命运的成果。即使在当前社会AI技术得到不断创新和应用,人类和社会在享受技术创新所带来的便利的同时,也不得不面对技术创新所带来的伦理问题。主要概括为以下3个方面:
(1)安全问题。AI安全问题主要是指AI技术在应用过程中出现,危及到人类安全及环境破坏等造成不良后果的问题。随着自动驾驶及智能机器人等AI技术的发展,出现了诸如自动驾驶成为武器,人类应该如何应对这一类问题。2018年3月20日,美国亚利桑那州坦佩市一辆处于自动驾驶模式的Uber自动驾驶汽车在进行路况测试时撞死一位过路的行人,这次交通事故成为全球首起自动驾驶致死案例,由此,AI技术的安全问题引起了社会广泛的关注和讨论。2019年3月10日,埃塞俄比亚航空公司一架型号为波音737MAX8的客机在起飞6分钟后进入无人驾驶的阶段,发生坠毁导致机上全部人员遇难,这也是继狮航空难事件之后该型号客机第二次发生安全事故,因此,相关专家及公众把此次有关安全问题的矛头指向AI自动驾驶技术,其安全隐患无法使公众放心。自动驾驶技术的研发本着方便出行,然而对创新的反思不足,给人类带来便利的同时也带来了灾难。
(2)隐私问题。AI隐私问题主要是指AI技术在应用过程中出现的私人信息或者大数据泄露等问题。随着大数据技术、人脸识别技术、指纹识别技术、声控识别技术及云计算技术等技术的兴起,出现了诸如公众个人信息能否在应用中得到保障这一类问题。发展AI需大量数据的积累,利用大量数据训练算法可提高AI解决问题的能力,但这也威胁到个人隐私,成为开发数据资源价值过程中最突出的伦理挑战。2017年9月,美国三大个人信用评估机构之一的Equifax被爆出遭遇黑客攻击,约有1.42亿用户的个人重要信息面临泄漏。2018年11月,美国汇丰银行通知客户发生了数据泄露,攻击者访问了该金融机构的在线账户,泄露信息包括用户的详细个人信息、账户信息和交易记录。由此可见,大数据算法的研发本是方便数据管理和储存的,然而因缺乏预测可能会出现的后果,造成应用过程中的数据泄露。又如人脸识别技术的研发,本是为方便刷脸解锁及刷脸支付等私密和快捷的体验,但如果不充分考虑和保证隐私保护问题而被不法分子肆意滥用,将带来一系列不可预期的后果。
(3)后果问题。AI后果问题主要是指AI在研发初期、应用过程以及应用之后可能会带来的一些负面影响或者是具有争议的复杂后果的问题。随着智能机器人、AI金融及AI医疗等技术的不断发展,技术创新既会对人类主体地位带来威胁,又会出现技术伦理道德等问题,出现了诸如基因技术或生物工程技术是否会导致基因重组、对环境造成破坏之后谁来承担责任等问题。2014年,由英国皇家学会举行的“2014图灵测试”大会上,一个名为尤金·古斯特曼(Eugene Goostman)的聊天程序上演了一场精彩的与人类对话,首次通过了图灵测试,让人误以为尤金是个13岁的孩子,因此让人不得不重新思考AI是否有一天会超越人类思维、是否应该制止AI的发展。医疗机器人在降低医疗成本的同时也带来了责任问题,如手术机器人在提高手术成功率方面表现优异,但安全风险一样存在,如果机器人在手术中发生系统故障,将直接危及患者的健康甚至生命安全,此类医疗事故存在责任认定的困难。因此,在技术研发初期就应该充分预测其可能带来的后果问题,以免陷入伦理困境。
以上几种伦理问题均指向AI技术创新给人类和社会所带来的一系列影响,同时,也促使人们开始思考到底什么样的AI才是可行、可应用的,AI技术创新的每个阶段需要结合什么样的责任才可以更安全,因此,把RRI框架的各个方面和AI技术研发、创新和成果的每个阶段结合在一起,可以完善AI技术的理论和应用的实践性。
4 基于RRI框架的AI伦理问题分析
基于已有的6种RRI框架,笔者通过学习科学的社会规范认为,无私利性是从科研人员利益角度出发进行分析,故新增无私利性框架。无私利性作为RRI框架,可以大大减少因科研人员和科研机构追逐利益为目标而产生的AI伦理问题。科研人员是科技创新的直接利益相关者,如果在科技研发之初就忽视利益问题而重视科技产品的价值和品质,那么将大大有益于科技创新的发展。
4.1 AI技术研发之处嵌入预期维度
预期旨在展望研究和创新的未来,通过对当前状态的分析展望未来。预期促使研究人员和组织机构关心“如果……会怎样?”的问题[16],还要考虑偶然事件、已知事物、可能性、合理性和可行性。预期涉及提高复原力的系统思考,同时揭示创新的新机会和为社会稳健风险研究制定议程。负责任创新把关注的重点从风险转移到创新本身,从对下游环节( 后果) 的关注转移到对上游环节( 创新) 的关注,可以避免基于风险的危害评估不能提供关于未来后果的早期预警的弊端[17]。因此,预期维度主要指负责任创新主体基于现有条件,对未来可能出现的科技创新和科技研究对自然社会、人类社会以及其他宇宙空间等带来的后果给予一定的描述、分析和预测。预期维度高度关注研究和创新的初始阶段,而非创新成果所带来的影响。
AI技术创新所带来的是一种不确定的后果,或有益或有害。如果将负责任创新的预期维度嵌入到AI技术的创新和发展起始之时,那么,以个体或者小集体为单位的责任主体以及以利益为目标的科研人员和生产商就显得不足以应对可能会出现后果。负责任创新的主体不仅仅是关乎决策机构、研究机构、高等院校、社会组织等主体间关系,也牵涉利益综合、权力冲突和话语选择间的博弈,还与技术可行性、经济效益和伦理考量密切相关,还可包括创新者之外的决策者、生产者、销售者、消费者、服务者及个体之外的集体等等。对于技术创新可能潜在的风险,我们可以通过预测进行系统化的考察和评估,从而更好地做到未来发展规划和风险规避,使AI技术创新更具有价值性和有益性。正如Rose[18]所强调的,对技术潜在影响的预期有助于(1)反思研究项目的动机和影响,(2)更清楚地了解不确定性和困境,(3)向更广泛的公众开放愿景和(4)利用成果塑造研究和创新轨迹。因此,预测在研发开始时起着重要作用。
4.2 AI技术创新过程中嵌入反思维度
负责任意味着行动者和组织机构需要对自身进行反思。Stilgoe等[9]学者认为,在RRI的背景下将反思定义为坚持某个活动的承诺和假设,了解知识的局限性并注意某个问题的特定框架可能不会普遍存在,并且意识到社会科学家和哲学家已经开始努力参与到实验室过程中。Wynne[19]认为,责任将反思性转化为公共事务,需要一种制度性的反思,由此,反思这一概念开始得到了重视。在当前阶段,概念维度的反思性旨在反映技术研究和开发过程中的价值观和信念。一些学者认为对反思的理解和应用离不开公众对话、公众参与、科学和公共合作,强调了将预期与反思性联系起来的重要性,这些都是了解反思的关键。一些学者认为反思旨在对科技创新的研究和开发过程中的价值和信念进行思考,反思的过程离不开公众的参与,注重预期与反思性相结合。因此,主动反思将成为让公众参与讨论科技伦理问题的有效工具。
将反思维度贯穿于AI技术的研发和发展使用过程中显得很有必要。公众参与、公众对话以及科学和公众合作等,让公众直接参与到科技研发过程之中,让科技不仅仅是科技发明者和创新者的专属,这样可以更加高效地提升AI技术的价值性和创造性,同时也有效避免因单一方面参与者的技术研发所带来的社会问题和伦理问题。我们可以建立一套AI技术研发的科研人员行为规范准则,使反思成为科研人员和科研机构必须遵守的一种理念;公众和机构的参与不仅能够促使研发者反思自己的价值体系,而且还有助于在科学和创新实践中建立反思能力。反思性要求科学家们在公共场合模糊他们的角色责任与更广泛的道德责任之间的界限,因此它要求科学和创新文化中的开放与领导。
4.3 AI技术研发及应用过程中嵌入协商维度
协商旨在让不同的利益相关者参与到研究和创新的早期阶段。Schomberg[5]认为,每个人的肩上都承担着特定的道德责任,然后这些人形成集体参与,通过集体辩论作出决策。为了履行这一道德责任,Schomberg[5]和 Owen 等[14]学者将这一责任与确定社会期望的结果联系起来,认为通过公众参与可以实现社会期望的结果。对于技术问题的解决,公众参与和公众协商同样是必不可少的,同时,经济和人文环境也有其存在意义。有学者认为,让公众参与到研究和开发的早期阶段,将会对技术发展产生积极的影响。基于此,将RRI的理念作为行为准则,指引各个行为者遵循安全、道德和有效的框架原则。在实践中,通常被采用的方法和技术有公民陪审团和公民小组、专门小组、共识会议、科学商店等等,但不包括构建特定种类的公众,权力不平衡将继续存在。
协商是最能表征RRI的概念维度。在大多数情况下,RRI与研究和开发中的社会包容性相关联,并且概念维度的实际实施已经开始出现。作为RRI的主要特征,协商需要更多反思性和批判性的学术讨论,因此,AI技术的研发和创新也需要加入协商维度的讨论。协商主体不仅应该包含科技创新的直接利益相关者,也应该包含科技创新的间接利益相关者。负责任创新本着以公共利益为导向,以公众参与、信息透明、民主化治理为手段,推动公众集体应对技术伦理挑战,通过协商,可以大大降低技术创新的不安全后果、伦理道德责任的缺失以及对生态环境的破坏,还可以更好地解决科研人员和人民群众之间存在的不理解和不信任,无论是科研人员还是技术的使用者、受用者,都可以通过共同探讨的方式重新评估和解决AI技术多带来的诸多伦理问题。
4.4 AI技术成果嵌入反应能力
反应能力是反馈能力和响应能力的总称。负责任创新需要具有根据利益相关者的反应和变化情况对框架和方向进行调整。在实践中反应能力主要集中在主要集中在同化、反应或排他性的态度,而不是回应或包容。反应能力包含风险识别、透明度和无障碍性。新技术涉及的风险或是中期、或是长期,或者与经济有关、或者是与环境有关、抑或是与社会相关联。欧盟通过无障碍获取意味着开放获取科学成果,也就是说公共资助研究的结果必须向公众开放,具有一定的透明度。在一些分析性的文献中,涉及反应能力的讨论主要与道德、风险、透明度和可访问性等相关。
AI技术研发过程所需要的时间是不确定的,技术触及的风险类别也是不确定的,所以应该将风险类别、障碍程度等因素融入反应能力中,以便在技术研发过程中不断得到反馈,作出正确的响应,提前识别和预防技术导致的风险以及带来得危害或损失;同时,AI技术的正负作用应该具有一定的透明性,至少是对技术操作人员来说是透明的,避免像波音737MAX客机事件的发生。此外,公众也可以参与进来,及时有效地提出意见,便于对创新过程中的方法进行调整;同时,国家或者政府等权威机构也可以无障碍获取AI技术成果,以达到及时的监管和监督效果。
4.5 AI技术产品嵌入可持续性
可持续性通常指的是新产品的资源效率。虽然可持续性的概念可以在大多数文献中找到,但其还没有明确地被称为概念维度。“欧盟2020战略”强调了科学与技术之间的合作是保证可持续和包容性经济增长的关键因素,Galdon-Clavell[20]支持这种想法并提出了“智慧城市”这一观点,认为当社会资本和基础设施投资通过预期治理来合理管理人力资源,以此支持可持续经济增长时,那么这个城市是“智慧”的。Owen 等[14]认为,在讨论社会需求和价值观等问题时也应考虑可持续性。Flipse等[21]也支持“欧盟2020战略”中的观点,认为研究和创新与社会责任密切相关,因为它们可以帮助提高可持续性产品。也有观点认为,资源使用不足是资源节约型和科技创新需要解决的主要问题。
AI技术产品如果嵌入可持续性这一观点,可以提升资源的有效利用和长期发展,同时大大降低“科技垃圾”的生产,也可以提高社会经济的可持续增长。正如智慧城市想法的提出,以创造“智慧科技”,节能、环保、可持续的AI技术产品。AI技术的研发和创新应与社会责任息息相关,社会责任在提高资源可持续和技术产品可持续上发挥着独特的影响力,因此,科技创新需要遵循可持续发展理念,以建设环境友好型社会。
4.6 AI技术研发和创新过程中嵌入关怀
关怀指的是以一种独特的方式将道德心理学和发展与道德考虑的范围联系起来,面向未来的伦理学的主要问题是如何处理来自技术创新等社会实践的不确定性。Owen等[14]描述了预期、反思、协商和反应等4个概念维度,但并不专注于作为判断环境的内在决定者的人,因此,公民自己负责代表他们执行的决策和行动。引入关怀的概念,人们积极采取的责任理念开始变得重要。关怀同时被解释为人们共同发展感知、行动和判断能力的过程。关怀作为RRI的一个单独的概念维度是重要的,以便不将包容性视为满足重大挑战的手段,而是将人们的高目标和日常实践结合起来的一种方式,但并不专指将人们共同的发展感知、行动和判断能力作为判断环境的内在决定者的人。因此,通过引入关怀的概念,作为主体的我们开始重视采取积极的责任理念。
在AI技术研发和创新过程中,如果嵌入RRI理念中的关怀,就要求科技研发人员以及参与到技术创新中的人应该关怀AI技术给人类所带来的影响。这一理念应该贯穿于科技创新的整个过程,从构思到实际应用的方方面面,以此有效避免在科技创新为人类服务及工作的同时对人类的生活质量和社会环境可能造成的影响,也可以是AI技术与人类更好地和平共处。
4.7 AI技术科研人员持有无私利性理念
无私利性要求科研人员在科技研发过程中,不应该把科技成果视为追求名誉、地位、声望的“敲门砖”,或者是运用不正当的手段在竞争中提高自己,更不应该以追求科技产品所带来的利益为价值指标。无私利性规范要求科学家不以科学活动谋取私利。Groves[22]认为,面向未来伦理学的主要问题是如何处理来自技术创新等社会实践的不确定性,尤其是科技创新工作者或者科技创新机构的不确定性。良好的研发开端才可能会产生有价值的科技创新成果。
因此,AI技术的研发人员或科研机构应该在创新之初持有无私利性的理念,并且将此理念贯穿于科技研发的整个过程以及科技成果的使用,不应该以单纯追求经济利益和社会利益等为目的,而应该首先忽略可能会带来的利益,忽略可能因为这一科技创新成果所带来的名誉、地位等超过科技成果本身所带来的价值,秉持无私利性的科学态度,为科技创新塑造良好的价值理念。
5 结论与展望
RRI自被提出以来虽然只有20年的时间,在定义和概念维度仍然缺乏明确性,但其理念已经在纳米科技、环境治理等多项新兴技术中得以应用,是欧美前沿的科技创新与研究理念;并且,RRI的概念已经开始出现在不同的机构文件和研究出版物中。尽管负责任创新的发展存在一定的局限性,但是,负责任创新的责任范畴已愈加广泛。从横向来看(空间),负责任创新的应用范围非常广泛,涉及人类社会、自然社会和宇宙空间等因素;从纵向来看(时间),负责任创新的责任范畴始终贯穿在创新准备、创新过程和创新结果之中。根据对RRI定义、概念维度和框架的讨论,可以认为RRI本质上是一种管理研究和创新的尝试,以便在研究和开发的早期阶段纳入所有利益相关者和公众;反过来,把不同的参与者和公众都考虑在内,意味着增加预测和辨别研究创新如何能够或可能使社会受益,以及防止任何负面后果发生的可能性。
AI技术产品越来越成为人们日常工作及生活不可缺少的一份子,因此,嵌入RRI框架来解决AI伦理问题成为可能,值得我们深入研究。通过预期、反思、协商、反应、可持续性、关怀、无私利性等框架理念,可以有效减缓AI伦理问题的产生。但是从长远的发展状况来看,RRI框架不足以应对伦理问题的解决,还需要伦理道德规范和伦理法律的实施、多元学科与多元领域的协作、创新制度和法律法规的完善。不仅如此,AI技术的发展也是任重而道远的。