APP下载

人工智能的伦理关切与治理路径

2022-11-12李珍珍孟天广

中央社会主义学院学报 2022年5期
关键词:黑箱

李珍珍,严 宇,孟天广

(1,2,3.清华大学,北京 100084)

第四次工业革命正深刻改造着人类社会及其治理体系。随着人工智能对新闻、驾驶、养老、司法、政府、制造等领域的嵌入和渗透愈益深入,技术的负面效果如歧视、支配、“黑箱”与安全风险等引发了社会的普遍担忧。人工智能技术在全球范围内的快速迭代,既显著提升了人类福祉,也催生了诸多伦理争论并使之成为全球科技发展与治理的前沿议题。面对人工智能技术的飞速进步及其对人类社会产生的深远影响,学术团体、公众、政府及科技企业(尤其是其中的头部企业)日益重视人工智能的伦理面向,界定核心伦理价值标准,并寻找伦理问题的解决思路和方案,从而引领和规范人工智能技术的研发、供给与应用。

所谓“人工智能伦理”,是指“当前在人工智能技术开发和应用中,依照理想中的人伦关系、社会秩序所确立的,相关主体应予以遵循的标准或原则”①陈磊、王柏村、黄思翰等:《人工智能伦理准则与治理体系:发展现状和战略建议》,《科技管理研究》2021年第6期。。人工智能伦理作为科技伦理的一部分,是21世纪以来继纳米伦理和生命科学技术伦理之后的又一个科技伦理研究焦点。尤其是新冠病毒肺炎疫情暴发以来,人工智能技术在疫情分析、病毒溯源、人口流动监控、健康信息管理、线上办公等领域发挥着不可缺少的作用,这不仅加快了人工智能技术渗透经济社会的进程,还加速了各国针对人工智能伦理问题所开展的政策和立法议程。我国作为人工智能产业大国,近年来对人工智能伦理的重视也已上升到国家层面,加强相关政策的研究,逐步制定相关法律法规和伦理规范,并以算法推荐为开端启动了对人工智能技术及其应用的监管。与此同时,近年来学术界呼吁将人工智能伦理议题提上研究议程。②沈向洋、龚克、乔杰等:《认识及应对新兴技术带来的伦理问题》,《科技导报》2021年第2期。既有研究从风险生成、应用领域、算法技术等多元视角阐述了人工智能带来的伦理挑战,并围绕核心目标、公共政策、技术优化、人机关系等方面提出了相应的治理思路。

一、智能技术与伦理价值的矛盾

人工智能是第四次工业革命的引领性技术,全面提高了人类经济社会的运转效率。然而,科技与伦理紧密交织,现代科学技术活动也是一场开拓性的社会伦理试验,技术的研究和应用使得其伦理向度在科技时代得以空前延伸和拓展。③刘大椿、段伟文:《科技时代伦理问题的新向度》,《新视野》2000年第1期。当科技发展与社会伦理之间存在的张力,与人类在宗教信仰、传统文化、身心健康、信息隐私、环境保护等方面的传统观念产生冲突与碰撞,科技的伦理问题随之显现。纵观人类社会的发展历程,从蒸汽机到电力和内燃机,到互联网和计算机,再到今天的自动化和人工智能,每一次重大的技术突破都会给人类社会与自然环境带来风险和挑战,譬如失业、安全风险、生态破坏等。④莫宏伟:《强人工智能与弱人工智能的伦理问题思考》,《科学与社会》2018年第1期。特别是第三次工业革命以来,原子能、微电子、航天、海洋、生物、新材料、新能源、电子计算机等领域的技术在极大地推动人类社会全方位变革的同时,也在不断地冲击着传统的价值观念。事实上,20世纪60年代中后期,在核技术和环境恶化的威胁下,科技活动的伦理问题已经成为社会和学术研究普遍关注的问题。⑤朱葆伟:《关于技术伦理学的几个问题》,《东北大学学报》(社会科学版)2008年第4期。简言之,科技发展不是价值无涉的,技术与价值的矛盾构成了科技伦理学形成的基础。

21世纪的社会是人类历史上当之无愧的技术社会,然而有不少观点对其前景表示深刻担忧。2000年,美国计算机科学家比尔·乔伊在《为什么未来不需要我们》一文中预言,纳米技术、基因工程和机器人对人类社会存在潜在威胁,有可能会使人类成为濒危物种。⑥Bill Joy, “Why the Future Doesn't Need Us,” April 1,2000,https://www.wired.com/2000/04/joy-2/.同年,纳米技术、生物技术和机器人被美国《发现》杂志评为21世纪威胁人类生存的重大危险。⑦王国豫、龚超、张灿:《纳米伦理:研究现状、问题与挑战》,《科学通报》2011年第2期。在人工智能伦理成为研究热点之前,科技伦理的研究焦点是纳米技术伦理和生命科学技术伦理。⑧侯剑华、周莉娟:《中西方技术伦理研究前沿的可视化分析与比较》,《科学与社会》2016年第4期。纳米技术的伦理研究始于21世纪初,源自人们对纳米技术潜在危害的恐惧。纳米技术可以在原子和分子的尺度上对物质进行操纵,在电子信息、航空航天、生物医药、工业制造、能源环保等方面得到了广泛应用。然而,纳米技术也存在着广泛的伦理争议,譬如纳米材料的毒性问题、纳米技术带来的风险承担与利益分配问题,以及将纳米技术用于人类能力增强、武器制造、隐私监控问题等。①陈子薇、马力:《纳米技术伦理问题与对策研究》,《科技管理研究》2018年第24期;张灿:《国外纳米伦理学研究热点问题评析》,《国外社会科学》2016年第2期。另一个引发巨大伦理争议的技术来自生命科学领域,其讨论热度至今未减。自1978年人类首个试管婴儿诞生以来,转基因技术、克隆技术、人类胚胎干细胞技术等生命科学技术迅速发展。科学家成功地将此类技术用于创造、修改人类生命的实验,成为各国普遍关注的热点,人们对之在欢呼之余也充斥着批判与怀疑。②樊春良、张新庆、陈琦:《关于我国生命科学技术伦理治理机制的探讨》,《中国软科学》2008年第8期。脑死亡移植、辅助生殖和克隆人技术引发了社会对死亡判定、生育权利和人类尊严的多维思考,③田妍、周程:《生命科学技术将步向何方?——林真理〈被操作的生命:科学话语的政治学〉评介》,《科学与社会》2019年第2期。而当前CRISPR/Cas9技术可以精确地对基因组特定位点进行修改,使我们不得不思考用技术编辑人类基因的红线在哪里。

继纳米技术和生命科学技术之后,人工智能技术的快速迭代及其广泛应用引发了科技伦理新一轮的讨论与反思。人工智能的概念自1956年在达特茅斯会议上被首次提出以来,相关研究几经沉浮。进入21世纪,尤其是2010年以来,得益于数据的海量积累、算力的显著提升、算法的优化升级,人工智能全面复兴且实现了迅猛发展,并于2016年发生了计算机程序Alpha Go击败围棋高手李世石这一人工智能发展史上的标志性事件。目前,人工智能仍处于爆发式发展阶段,机器学习、深度学习、模式识别、知识图谱、计算机视觉、自然语言处理等技术日新月异,在智能检索、图像处理、语音识别、机器翻译、语义理解、人机交互等任务上不断取得突破,带来了智能音箱、机械手臂、无人驾驶汽车、服务机器人、新闻推送APP等应用产品。

当前,人工智能伦理已成为伦理学研究的新兴领域。事实上,早在20世纪中叶,“控制论之父”诺伯特·维纳就预见到自动化技术的潜在风险。④章文光、贾茹:《人工智能的社会伦理困境:提升效率、辅助与替代决策》,《东岳论丛》2021年第8期。21世纪初,未来学家雷·库兹韦尔认为,到2045年计算机会超越人类。⑤[美]雷·库兹韦尔:《奇点临近:当计算机智能超越人类》,李庆诚、董振华、田源译,北京:机械工业出版社,2011年。近年来,来自各个领域的专家学者仍然对人工智能“可能的心智”表达了担忧,认为人工智能有可能对人类生存造成威胁。⑥[美]约翰·布罗克曼:《AI的25种可能》,王佳音译,杭州:浙江人民出版社,2019年。无独有偶,乔纳森·诺兰执导的《西部世界》虚构了机器人意识觉醒、反抗人类以夺取控制权的故事。此外,不同领域的知名人士,譬如物理学家史蒂芬·霍金、哲学家尼克·波斯特洛姆、特斯拉CEO埃隆·马斯克,都曾对人工智能最终发展出自主意识、脱离人类控制提出过警示。

对于人工智能发展所导致的后果,人们担忧具有自我意识的强人工智能和超人工智能的潜在威胁,思考人类命运是否会被机器所控制。目前,我们仍处于所谓的机器无自主意识的弱人工智能阶段,⑦莫宏伟:《强人工智能与弱人工智能的伦理问题思考》,《科学与社会》2018年第1期。但即便是在弱人工智能时代,因技术引发的伦理问题也层出不穷,譬如数据泄露和隐私侵犯、信息伪造和内容造假、算法歧视和算法独裁、产品事故问责困难等问题。更何况,当前智能技术几乎渗透到人类社会的各个方面,社交、家居、制造、零售、交通、医疗、城市管理等领域无不充斥着人工智能的身影,智能家居、智能支付、精准推送、自动驾驶、无人超市、智能客服、城市大脑等人工智能应用屡见不鲜。技术的普遍渗透更是引发了社会对人工智能取代人类劳动力、损害人类自主性的担忧。

对于当前弱人工智能技术衍生的伦理问题,既有文献从多元视角对现有问题及其机制进行了分析。从风险视角看,赵志耘等认为当前人工智能伦理风险表现在人类决策自主性、隐私保护、社会公平、安全责任归属以及生态等方面的破坏或失衡;①赵志耘、徐峰、高芳等:《关于人工智能伦理风险的若干认识》,《中国软科学》2021年第6期。谭九生和杨建武认为人工智能技术风险生成于算法技术黑箱、价值理性与工具理性之间难以协调,以及人类自身在风险认知与应对能力上的有限性。②谭九生、杨建武:《人工智能技术的伦理风险及其协同治理》,《中国行政管理》2019年第10期。从应用视角看,既有文献对智能驾驶的责任归属问题、③司晓、曹建峰:《论人工智能的民事责任:以自动驾驶汽车和智能机器人为切入点》,《法律科学》(西北政法大学学报)2017年第5期。智能司法的司法公正问题、④罗洪洋、李相龙:《智能司法中的伦理问题及其应对》,《政法论丛》2021年第1期。信息推送服务的“信息茧房”问题、⑤彭兰:《导致信息茧房的多重因素及“破茧”路径》,《新闻界》2020年第1期。机器人看护的受护者尊严问题⑥Amanda Sharkey, “Robots and human dignity: a consideration of the eff ects of robot care on the dignity of older people,” Ethics and Information Technology, Vol.16,No.1, 2014, pp.63-75.等方面加以探讨。从算法视角看,算法是驱动人工智能快速发展的引擎,郭毅认为算法社会无法回避隐私数据泛滥、知识权力的不对称、黑箱运作以及算法妨害,基于算法的决策有可能会放大人类社会既有的不平等、不透明、操纵。⑦郭毅:《“人吃人”:算法社会的文化逻辑及其伦理风险》,《中国图书评论》2021年第9期。对于人工智能伦理问题的治理,既有文献围绕着伦理治理的核心目标、公共政策、技术优化、人机关系调整等提出了应对方案。薛澜和赵静认为政府在人工智能与新兴产业发展和监管上应该建立起以敏捷为核心的治理框架;⑧薛澜、赵静:《走向敏捷治理:新兴产业发展与监管模式探究》,《中国行政管理》2019年第8期。贾开和蒋余浩认为,智能时代的公共政策选择应该着力于完善算法和数据的治理体系与治理机制、创新社会治理制度以及构建全球治理机制。⑨贾开、蒋余浩:《人工智能治理的三个基本问题:技术逻辑、风险挑战与公共政策选择》,《中国行政管理》2017年第10期。

概言之,人工智能作为21世纪的代表性技术,虽然极大地促进了经济社会的发展,但其伴生的伦理问题已成为当下科技伦理研究的焦点与前沿议题。随着人工智能技术在社会各领域的逐步推广,人工智能的伦理问题将进一步凸显。在此背景下,如何界定人工智能的伦理原则,对于引领与规范人工智能发展具有战略性意义。

二、人工智能伦理治理:国际趋势与中国路径

科技发展往往伴随着人文反思。随着人工智能在社会各领域的应用和推广,人工智能的价值日益得到社会认可,但相关伦理问题,如算法滥用、自动驾驶事故、个人隐私侵犯等,也引发了社会各界的广泛关注,世界主要国家和相关机构已逐步提出相关伦理原则。事实上,有关人工智能伦理原则的讨论可追溯到艾萨克·阿西莫夫1942年发表的短篇小说《转圈圈》,其中提出了著名的“阿西莫夫三定律”:一是机器人不得伤害人类,也不得坐视人类受到伤害;二是机器人必须服从人类的命令,除非这与第一定律相冲突;三是机器人必须保护自身的存在,除非这与第一或第二定律相冲突。“阿西莫夫三定律”具有启发性意义,是后续所有人工智能技术伦理准则的基础。①Lea Rothenberger, Benjamin Fabian, Elmar Arunov, “Relevance of ethical guidelines for artificial intelligence-a survey and evaluation,” Proceedings of the 27th European Conference on Information Systems (ECIS), 2019.

自2010年以来,为规范人工智能的研发与应用,国际组织、政府机构、科技公司、科技社群、学术团体等利益相关主体一直致力于编制规范性文件,颁布人工智能伦理的原则、倡议和指南。在国际组织方面,2019年经济合作与发展组织发布了“负责任地管理可信人工智能”的原则,包含包容性增长、以人为本、透明性、稳健性、责任等元素。2021年联合国教科文组织发布《人工智能伦理问题建议书》,这是全球层面首个人工智能伦理的规范框架,旨在促进智能技术造福人类、社会、环境以及生态系统。

在政府方面,2019年美国白宫发布题为《维持美国在人工智能领域领导地位》的行政令,强调减少使用人工智能技术的阻碍,同时保护美国的技术、经济和国家安全、公民自由、隐私和价值观。②“Maintaining American Leadership in Artificial Intelligence,” February 11, 2019, https://www.federalregister.gov/documents/2019/02/14/2019-02544/maintaining-american-leadership-in-artificial-intelligence.2019年欧盟发布《可信AI伦理指南》,指出人工智能从业人员在开发、部署和使用人工智能系统时,要遵守四项伦理原则——尊重人类自主、防止伤害、公平以及可解释性。③High-Level Expert Group on Artificial Intelligence, “Ehics Guidelines for Trustworthy AI,” April 8, 2019, file:///Users/lizhenzhen/Downloads/ai_hleg_ethics_guidelines_for_trustworthy_ai-en_87F84A41-A6E8-F38C-BFF661481B40077B_60419.pdf.

在科技企业方面,谷歌、微软、IBM等主要的人工智能大型企业公布了各自的伦理原则和方针。譬如,微软在2018年出版的《计算未来:人工智能及其社会角色》中提出人工智能应遵循六大原则,即系统公平、可靠与安全、隐私与保障、包容、透明以及负责。④沈向阳、[美]施博德:《计算未来:人工智能及其社会角色》,北京:北京大学出版社,2018年,第26页。

在科技社群方面,美国计算机协会、电气与电子工程师协会等专业协会也就合乎伦理的人工智能提出建议。譬如,美国计算机协会倡导算法开发和部署要落实知情、访问与救济机制、可问责、解释等七个原则。

在学术研究方面,除相关学术论文日益增多之外,涉及人工智能伦理治理的学术会议也逐渐增加,还有会议专门以人工智能的公平、问责制、透明度为主题。⑤斯坦福大学以人为本人工智能研究院:《人工智能指数2021年年度报告》,2021年4月,https://aiindex.stanford.edu/wpcontent/uploads/2021/04/2021-AI-Index-Report_Chinese-Edition.pdf。此外,《牛津人工智能伦理手册》于2020年出版,其中讨论了责任、透明、种族和性别、机器代人、自主性等问题。

在这场全球性智能伦理倡议的热潮中,中国作为人工智能大国,也提出了相应的伦理原则与治理框架。2019年6月,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出人工智能发展的相关各方应遵循和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理八个基本原则。2021年9月发布的《新一代人工智能伦理规范》提出了增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养六项基本要求。2021年以来,伴随着中央网信办等部门启动算法综合治理与推荐管理,部分伦理要求随着人工智能相关立法与监管活动在一定程度上得以付诸实践。

三、人工智能伦理的“六维度”框架

据不完全统计,全球范围内人工智能的伦理原则或倡议已超过百项,组成了人工智能伦理治理的“软体系”。①贾开、薛澜:《人工智能伦理问题与安全风险治理的全球比较与中国实践》,《公共管理评论》2021年第1期。对此,有研究机构以现有伦理指南为研究材料,从中总结出社会各界对人工智能伦理的关切要点。譬如,波士顿人工智能伦理实验室开发了一个工具箱,用于便捷地呈现已有的伦理原则。实验室研究人员分析了2015—2020年间发布的百余份相关文件,将人工智能伦理归纳为自主、无害、受益和公正四大类。②参见波士顿人工智能伦理实验室官网:https://aiethicslab.com/big-picture/。另一份由斯坦福大学发布的报告对人工智能技术相关的新闻媒体报道和博客进行分析,发现这些文本包含了人权、人类价值、责任、人类控制、公平、歧视、透明度、可解释性、安全保障、问责制、隐私等要素。③斯坦福大学以人为本人工智能研究院:《人工智能指数2021年年度报告》,2021年4月,https://aiindex.stanford.edu/wpcontent/uploads/2021/04/2021-AI-Index-Report_Chinese-Edition.pdf。本文通过梳理相关研究成果,提炼出人工智能伦理的核心关切,具体呈现为六个关键的“簇”(见表1)。

表1 人工智能伦理框架 ④Jessica Fjeld, Nele Achten, Hannah Hilligoss, Adam Christopher Nagy, Madhulika Srikumar, “Principled Artificial Intelligence:Mapping Consensus in Ethical and Rights-based Approaches to Principles for AI,” Berkman Klein Center Research Publication,2020;Anna Jobin, Marcello Ienca, Eff y Vayena, “The Global Landscape of AI Ethics Guidelines,” Nature Machine Intelligence, Vol.1,2019,pp. 389-399.

(一)自主决定原则

人类自主决定原则是指人工智能不能妨碍人的选择或对人进行操纵,其中关键要素包括自由、同意、选择、赋权和人类尊严。这一原则强调的是人类在与人工智能系统交互时,不能处于被控制、被决策的地位。2019年11月10日,浙江某小学给学生佩戴一种智能“头环”产品,立即引发全网热议。该头环号称可通过检测学生的脑电波来判断学生上课和写作业时的注意力——专注亮红灯,走神亮蓝灯,学生的注意力集中情况以每10分钟一次的频率发送给老师和家长。事件曝光后,该地教育机构对外表示已介入调查,并决定停用相关设备。①《小学生监测头环引争议 智能产品进校园缘何饱受争议》,2019 年 11 月 11 日,https://baijiahao.baidu.com/s?id=1649869 206702624757&wfr=spider&for=pc。这起新闻事件是滥用人工智能进行监视与控制、违反了自主决定原则的典型例子。与此原则背道而驰的另一个典型事件是被平台困住的外卖骑手。外卖平台依托算法系统接连“吞噬”配送时间,不断逼近外卖员的劳动力极限,导致不少外卖骑手为了避免超时与差评不惜“以命送餐”,在送餐过程中超速、闯红灯甚至逆行。②《外卖骑手,困在系统里》,2020年9月8日,https://mp.weixin.qq.com/s/Mes1RqIOdp48CMw4pXTwXw。在效率至上的评价机制之下,平台的算法化身为“数字监工”,而外卖配送员不过是数据红海之中的一个个数据点,人在算法的统治下毫无选择空间,难以获得“人是目的”意义上的人类尊严。

(二)安全可靠原则

安全可靠原则指的是人工智能使用起来应是安全、可靠、不作恶的。对于人工智能不可伤害人类的要求,自阿西莫夫提出机器人三定律起即存在。安全性有多个维度,既包括人工智能技术本身是遵从程序指令的、不会伤害生物或破坏环境,也包括人工智能技术要能抵御外界威胁,譬如需要具备一定弹性、能够抵御漏洞和网络攻击、保护隐私和个人数据等。以人工智能的核心技术——机器学习——的安全性为例,在模型训练与预测过程中,以下三方面值得注意:一是攻击者可能进行数据投毒污染训练数据集,进而影响模型训练结果;二是攻击者可能在正常模型中插入后门,即模型的隐藏模式,当输入特定样本时,攻击者就可以触发模型后门从而操控预测结果;三是攻击者还可能在样本中注入一些罕见样本或者扰动生成的恶意样本,使深度神经网络输出错误结果。③陈宇飞、沈超、王骞等:《人工智能系统安全与隐私风险》,《计算机研究与发展》2019年第10期。不可靠的人工智能系统有可能威胁使用者的生命安全,譬如曾有报道指出亚马逊智能音箱对用户进行危险行为诱导——当人们向智能音箱询问关于心脏心动周期的信息时,智能音箱却对用户说人类的心脏跳动加速了自然资源过度消耗,建议用户自杀。安全可靠原则是人工智能发展与应用的底线原则,关乎人类核心利益。

(三)透明公开原则

人工智能治理面临的最大挑战或许是技术的复杂性与不透明。人工智能的不透明有诸多来源,包括:企业为了维护商业机密和竞争优势而有意自我保护;编写、阅读和设计代码是一项专门技能,大多数人并不具备此项技能因而无法理解;代码通常是团队共同生产的多组件系统,有时甚至连程序员也不了解整个系统。④Jenna Burrell,“How the Aachine ‘Thinks’: Understanding Opacity in Machine Learning Algorithms,”Big Data & Society,Vol.3, No.1, 2016.当然,其中除了商业利益与专业壁垒的因素之外,还有代码本身的因素——机器学习、神经网络、深度学习等算法,天然地是复杂、不透明、难以理解的。这些复杂模型虽然对于复杂系统的分析和预测特别有用,但是它们的输入经常比传统模型多得多,而且其内在机制本身就是不为人所理解的黑盒子,即人们常说的“输入→黑箱→输出”过程中间的神秘环节。因此,透明公开原则的关键要素还包括可理解性、可解释性、数据和算法开源、知情权、定期报告等,这些关键词代表着人工智能系统从“黑箱”走向透明的可能路径。

(四)隐私保护原则

隐私是现代社会需要捍卫的价值和需要保护的权利,隐私保护经常与数据权利和数据安全等关键词一同出现。在智能时代,无处不在的传感器极大地增强了对隐私的直接监控能力,各式各样智能产品和应用不断侵蚀人类的私密空间,其超强的分析能力配以数据关联能力能够轻易地描绘出用户的完整画像。①郑志峰:《人工智能时代的隐私保护》,《法律科学》(西北政法大学学报)2019年第2期。例如,斯坦福大学的人工智能研究小组通过分析约会网站上的用户头像图片,提取出不同性取向人群的脸部特征,由此训练出来的深度神经网络模型可以判断图片主人的性取向,窥探个人隐私。除了滥用算法进行个人隐私的计算与推断,智能时代的个人信息泄露亦是重大挑战。因此,对于当前技术环境中的个人信息滥用和泄露问题,如何完善立法以保障数据主体拥有知情、访问、限制处置、反自动化决策等各项权利,以及在技术上使用一系列隐私增强技术来进行数据的传输与处理,都是实现隐私保护原则要面对的关键任务。

(五)公平公正原则

公平公正原则至少存在于两个方面。一是决策的公平性。尽管人工智能开发者可能不带有性别、种族、外貌、财富、政治取向等方面的歧视与偏见,但是当机器学习算法被用于数据分析,并把已有数据和既有历史作为训练模型的基础时,算法可能会轻易习得并继承人类的歧视与偏见。当前司法领域已经开始建立人工智能办案系统,而将智能系统应用于辅助司法裁判时,决策公平性尤为重要。一个反面例子是COMPAS——美国法院使用的一款用来评估罪犯累犯可能性的软件,研究发现COMPAS的模型会系统地高估黑人的累犯风险,从而产生歧视。②Jeff Larson, Surya Mattu, Lauren Kirchner and Julia Angwin,“How We Analyzed the COMPAS Recidivism Algorithm,” Pro Publica, May 23, 2016, https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm.此外,决策不公平的现象在我国也逐渐增多,譬如最为典型的莫过于大数据“杀熟”。二是社会经济后果的公平性。此类不公平的典型例子是智能技术替代人类劳动者所引发的失业,即“技术性失业”或者“机器代人”。人工智能将批量替代机械化、重复性的劳动,从而导致服务业、制造业、物流业等行业中知识水平较低、技术能力简单的人类工作者失业。经济学家达伦·阿西莫格鲁及其合作者研究发现,机器人对就业具有系统的负面影响,即在美国每千名工人中增加一个机器人,就业人口比例就会降低0.2个百分点。③Daron Acemoglu, Pascual Restrepo, “Robots and Jobs: Evidence from US Labor Markets,” Journal of Political Economy,Vol.128, No.6, 2020, pp.2188-2244.这些失业者通常为中低收入群体,因此人工智能造成的职业淘汰可能将进一步扩大社会不平等。

(六)责任担当原则

责任担当原则指的是人工智能技术在运用过程中应当承担的责任。目前,人工智能技术,尤其是自主无人系统,已经在交通、医疗、护理、制造、服务、新闻等领域得以普遍运用,用于辅助人类进行决策。然而,自主无人系统的自动化决策也造成了“责任鸿沟”,即无法厘清谁该为系统决策的后果负责。譬如,交通事故中自动驾驶汽车的责任划分问题最为社会各界所关注。当人类不主要参与驾驶时,智能系统因技术缺陷而导致的侵害行为,其法律责任如何分配?①司晓、曹建峰:《论人工智能的民事责任:以自动驾驶汽车和智能机器人为切入点》,《法律科学》(西北政法大学学报)2017年第5期。例如,2016年1月,我国京港澳高速河北邯郸段,一辆开启了自动驾驶系统的特斯拉Model S轿车撞上正在作业的道路清扫车,事故造成司机当场死亡。2016年5月在美国佛罗里达州,驾驶同款特斯拉汽车的车主在使用自动驾驶功能时与一辆正在转弯的卡车相撞,不幸丧生。在此之后,自动驾驶系统引发的交通事故时有发生,其责任界定问题浮出水面。②王乐兵:《自动驾驶汽车的缺陷及其产品责任》,《清华法学》2020年第2期。欧美国家已经注意到自动驾驶汽车交通事故责任归属问题,我国也正在积极探索相关领域的立法,填补相关规定和配套法律的空白。据估计,到2025年我国智能汽车将达到2800万辆,我国将成为世界第一大智能汽车市场。③《中国联网汽车 2025 年预计达 2800 万辆 将成世界第一大智能汽车市场》,2020 年 12 月 3 日,https://baijiahao.baidu.com/s?id=1685066040906113462&wfr=spider&for=pc。不久的将来,自动驾驶汽车将是最早一批被推向市场的完全自主的机器。面对可以预期的归责挑战,如何对责任分配制定新的规则将变得越来越紧迫。

四、人工智能伦理的治理路径

面对人工智能带来的丧失自主、妨害安全、不透明、不公平、隐私侵犯、责任困境等挑战,国际社会普遍认为人工智能的发展迫切需要伦理价值的引导与约束,世界主要国家的利益相关主体也正在采取各类措施应对人工智能的伦理挑战。总结起来,人工智能伦理治理的路径主要分为两种:一方面,完善人工智能治理的“硬”约束,即在法律意义上约束和规范人工智能活动;另一方面,建立人工智能治理的“软”约束,包括确认人工智能的风险及其治理的目标、机制、方案等不具有法律约束的倡议。④贾开、薛澜:《人工智能伦理问题与安全风险治理的全球比较与中国实践》,《公共管理评论》2021年第1期。两种措施建立起一个完善的人工智能伦理体系。当前,全球人工智能伦理治理格局以软性倡议为主,但是各国也正逐步建立人工智能监管的硬性约束。

(一)制定人工智能伦理法律法规

人工智能治理法律有利于规范人工智能应用场景、明确人工智能权责归属、培育人工智能伦理意识、为人工智能的开发和使用提供价值标准。例如,美国《深度伪造责任法案》、法国《数字共和法》、加拿大《自动化决策指令》、欧盟《关于制定机器人民事法律规则的决议》与《反虚假信息行为准则》等,均对人工智能加以规范。在我国,2021年陆续颁布的《中华人民共和国个人信息保护法》《中华人民共和国数据安全法》《关于加强互联网信息服务算法综合治理的指导意见》将网络空间管理、数据保护、算法安全综合治理作为主要监管目标。然而,一些非成熟技术领域的伦理立法尚处于初步阶段:一方面,人工智能技术仍处于快速发展阶段,仓促立法不利于法律条文的稳定性,也可能会限制新技术的发展;另一方面,人工智能伦理的社会共识仍在凝聚阶段,相关伦理规范还须经受实践检验。在此情况下,缓置立法工作,用行政文件和行业规范暂替法律条文,为规范性立法提供前期经验支持或成为可行路径。

(二)设立人工智能伦理委员会

人工智能伦理风险渗透在产品开发与应用的各个环节,所涉问题高度复杂,内含诸多价值判断。目前,研发人员往往缺乏专业伦理知识,难以承担关键伦理选择的责任。在此背景下,在人工智能利益相关方内部成立专门处理人工智能伦理问题的治理机构,成为加强人工智能伦理治理的基础性环节。当前,相关机构已经逐渐在国家、企业与社会团体等组织层面成立。在国家层面,美国于2018年5月成立“人工智能专门委员会”以审查联邦机构在人工智能领域的投资和开发;①中国信通院:《全球人工智能治理体系报告(2020)》,2020 年 12 月,http://www.caict.ac.cn/kxyj/qwfb/ztbg/202012/P02020 1229534156065317.pdf。法国于2019年4月组建了“人工智能伦理委员会”,旨在监督军用人工智能的发展;②中国信通院:《全球人工智能治理体系报告(2020)》,2020 年 12 月,http://www.caict.ac.cn/kxyj/qwfb/ztbg/202012/P02020 1229534156065317.pdf。在我国,国家科技伦理委员会于2019年7月宣布组建,旨在对包括人工智能在内的一系列科技伦理问题展开制度化治理。③《习近平主持召开中央全面深化改革委员会第九次会议》,2019年7月24日,http://www.xinhuanet.com/2019-07/24/c_12102 12685.htm。在企业层面,人工智能伦理委员会已成为全球主要科技公司履行人工智能伦理责任、强化企业自律的“标配”和基础机制,④曹建峰:《人工智能伦理治理亟需迈向实践阶段》,2021 年 4 月 13 日,http://www.legaldaily.com.cn/index/content/2021-04/13/content_8479153.htm。微软、谷歌、IBM、旷视等国内外大型科技公司均设立了相关委员会或者小组,作为人工智能治理事项的决策机制。在社会团体层面,我国人工智能学会于2018年组建了人工智能伦理专委会,该机构设置了多个人工智能伦理课题,并组织了一系列专题研讨。⑤《AI时代,伦理探索要跟上》,2019 年 7 月 28 日,http://www.banyuetan.org/kj/detail/20190718/100020003313621156343 1247056911166_1.html。上述不同类型的伦理委员会依托专家的多元知识背景和专业技能,对人工智能发展过程中的伦理问题进行识别、展开协商、形成判断、作出决策和推动执行,从而充分发挥专家在人工智能伦理中的作用。

(三)构建伦理标准体系

自2015年以来,各类组织和研究机构一直致力于编制人工智能伦理的规范性文件,因而呈现出伦理原则“爆炸”甚至“泛滥”的现象。⑥斯坦福大学以人为本人工智能研究院:《人工智能指数2021年年度报告》,2021年4月,https://aiindex.stanford.edu/wpcontent/uploads/2021/04/2021-AI-Index-Report_Chinese-Edition.pdf。不少行业观察家批评这些颇有“各自为政”意味的抽象原则基本无助于指导企业在研发实践中面临的实际伦理难题,呼吁人工智能伦理治理应从宏观的“原则”尽快转向更具可操作性的“标准”。①Reid Blackman, “A Practical Guide to Building Ethical AI,” Havard Business Review, October 15, 2020, https://hbr.org/2020/10/a-practical-guide-to-building-ethical-ai; Andrew Burt, “Ethical Frameworks for AI Aren’t Enough,” Havard Business Review,November 9, 2020, https://hbr.org/2020/11/ethical-frameworks-for-ai-arent-enough.基于此,从2018年开始,全球的人工智能伦理治理开始从原则大爆炸阶段逐步过渡到共识寻求阶段与伦理实践阶段,②曹建峰:《人工智能伦理治理亟需迈向实践阶段》,2021 年 4 月 13 日,http://www.legaldaily.com.cn/index/content/2021-04/13/content_8479153.htm。这意味着各相关机构开始从众多伦理原则中提炼出共识性通则,并不断探索如何将其转化为标准细则。这种转化主要包括两方面:一是推动制定和发布人工智能标准规范。譬如2018年1月,我国国家人工智能标准化总体组和专家咨询组宣告成立,并计划成立人工智能与社会伦理道德标准化研究专题组,以推动形成一批国家标准立项建议。③《国家人工智能标准化总体组和专家咨询组成立》,2018年1月19日,http://www.cesi.cn/201801/3535.html。二是加强技术研发,为人工智能标准规范的落地保驾护航。近年来,诸如联邦学习、对抗测试、形式化验证、公平性评估等技术工具不断得到关注与研发;④吴文峻、黄铁军、龚克:《中国人工智能的伦理原则及其治理技术发展》,《工程学》(Engineering)2020年第3期。这些技术一方面能够在标准制定阶段帮助决策者评估模拟何种标准将更契合企业实际与符合人类共同利益,另一方面在标准实施阶段则为企业依标行事、标准评估者收集证据提供了技术抓手。

(四)提供社会监督渠道

社会公众是人工智能的服务对象,更是人工智能伦理治理的参与者和监督者。公众监督主要通过公众向企业、新闻媒体、行业协会、政府进行反馈来实现。实现公众监督需要满足两个条件:一是公众具备人工智能的伦理自觉。公众在与人工智能的互动中,能够对其突破伦理的行为有所觉察,从而进行自我调节,掌握智能社会中的主动权。人工智能伦理的社会教育有助于实现这一目标。比如,美国在奥巴马政府时期发布的一系列算法歧视调研报告有效推动了公众对相关问题的认知;⑤贾开:《人工智能与算法治理研究》,《中国行政管理》2019年第1期。在我国,面对隐私让渡、深度伪装、网络诈骗等智能媒介带来的风险,已有声音呼吁要提升公众的智能媒介素养来强化公众对智能信息的解读、应用与批判。⑥黄晓勇:《充分重视智能媒介素养的提升》,《光明日报》2021年11月19日,第11版。二是公众拥有畅通的监督反馈渠道。公众能够向人工智能产品的责任方,如生产企业、销售平台等反馈反伦理事件,这些反馈需要相关机构加以接收处理;如果反馈渠道不畅通,行业组织、政府需要向公众提供相关监督渠道。

(五)加强责任主体伦理培训

伦理培训指对相关责任主体提前说明、解释在人工智能发展过程中可能涉及的伦理道德风险。关于人工智能发展的伦理道德风险的担忧与讨论、质疑与争议从未停止,未来社会的人工智能将不仅仅作为技术化的工具被人使用,更会逐渐具有类似于人类思维的能力,甚至可能在某些方面实现对人类思维的超越。彼时,人类面临的问题将不仅是大量程式化的工作岗位消失带来的失业、职业认知升级转型等问题,还包括如何重新从身体、精神两个方面“放置”自我。对此,国内外高校的计算机科学专业纷纷在近年开设了人工智能伦理课程,旨在培养负责任的技术人才。我国各地在人工智能议题实施过程中,如在青少年科技教育中,也已或多或少地、有意识地插入了伦理内容,通过促进潜在责任主体对人工智能技术伦理维度的认知,规范他们在人工智能开发及应用过程中的态度与行为,有效消解潜在风险。

(六)加强人工智能国际合作

人工智能伦理治理是全球性议题,关乎全人类的发展、创新和未来,需要全世界人民携手共进、抓住机遇、应对挑战。将人工智能用于推动人类、社会、生态及全球可持续发展已经成为全球性共识,这一愿景的达成需要在世界各国政府、产业、学术机构之间建立起全球性的人工智能伦理治理网络,推动各方在治理的原则、法律、政策、标准等维度展开对话与协商。①Seán S. ÓhÉigeartaigh、Jess Whittlestone、Yang Liu 等:《克服人工智能伦理与治理的跨文化合作阻碍》,2020 年 5 月 26日,https://attachment.baai.ac.cn/share/aies/cn-overcoming-barriers-to-cross-cultural-cooperation-in-ai-ethics-andgovernance-2020-05-26.pdf。21世纪已经来到第三个十年,人工智能的发展势头愈发迅猛,革命性的人工智能实践已经对人类的生产和生活产生了重大影响或冲击,世界各国应该树立“全人类命运共同体”的意识,求同存异、开源集智,以高度协作的姿态直面问题。我国一直在人工智能治理的国际合作方面采取积极主动的态度,搭建了许多供各国坦诚交流经验、沟通分歧、共话未来的开放性高端平台,取得了一定成效。未来我国应继续发挥正面作用,与世界各国在合作中实现共赢。

五、结语

当人类社会逐步迈入智能社会,人们在享受人工智能带来的社会经济价值的同时,也面临着诸如歧视、支配、黑箱、操纵等一系列新生伦理问题。人工智能伦理是21世纪最关键的科技伦理之一。人工智能伦理作为一国人工智能发展规划的重要部分,指导、支撑与规范人工智能产业与活动,关乎“发展什么样的人工智能”这个战略性问题。②贾开、薛澜:《人工智能伦理问题与安全风险治理的全球比较与中国实践》,《公共管理评论》2021年第1期。本文基于既有文献的梳理,发现自主决定、安全可靠、透明公开、隐私保护、公平公正、责任担当六个维度是人工智能伦理的核心价值。此外,诸如人类福祉、社会经济与生态的可持续发展、对话协作、和谐友好等也出现于现有伦理指南中,但相关讨论相对有限。

人工智能伦理治理存在刚性约束和软性倡导两大治理路径。当前人工智能伦理治理以推荐算法为开端,亟待向个人信息收集与滥用、公共区域人脸识别、社区监控等领域延伸,厘清这些领域的公民权利和人工智能应用之间的界限,将伦理价值标准操作化并细化监管依据,在具体的治理场景中落实原理原则。概言之,人工智能伦理治理应在我国人工智能发展规划下,以六大核心价值为方向,在伦理矛盾突出的重点领域以敏捷为核心、结合软硬两种手段进行实验式治理,从而实现“伦理先行、依法依规、敏捷治理、立足国情、开放合作”人工智能伦理治理的目标。

猜你喜欢

黑箱
拒绝黑箱
失踪的黑箱
生命黑箱
在算法“黑箱”中保障用户知情权
打开神秘的中药“黑箱”——中药现代化之路
信息化技术在软科学课程中的应用与实践研究
战略人力资源管理“黑箱”研究的述评
泄密文件曝光美欧自贸“黑箱”谈判
经济业务黑箱化导致审计面临的新挑战
试论行风评议中的“黑箱”及对策