人工智能开发企业社会责任及其法律规制
2019-06-11蒋洁
蒋洁
摘要:迅速迭代的人工智能技术与滞后的法律规范之间的矛盾冲突导致人工智能开发活动在制度层面产生巨大的规制窠臼。面对开发企业将道德和法律嵌入代码系统的过程中充斥的背离数据保护原则、冲击个人尊严、破坏民主诚信、削弱社会公允等现实风险,亟待从企业社会责任的内在逻辑入手,在借鉴相关国际经验的基础上,勾勒我国人工智能开发企业社会责任法律规制的具体方案,推动智能产品和服务开发遵循造福人类的可持续发展模式。
关键词:人工智能;开发企业;社会责任;法律规制
中图分类号:D9 文献标志码:A 文章编号:1004-3160(2019)02-0028-09
一、引言
从希腊神话中的机械巨人塔罗斯(Talos)到自主越障的波士顿动力机器人阿特拉斯(Altlas),从三国蜀地栈道运粮的木牛流马到百度公司投放雄安新区的自动驾驶小巴车阿波龙,人类矢志不渝地创建模拟、深化和拓展类己思维过程和智能行为的复杂装置。時至今日,全景数据思维下超级计算集成的庞杂人工智能谱系已经将技术开发的多元触角渗透到重塑生产结构和生活方式的各个领域,在第四次工业革命中展现出妥善解决重大疑难问题的综合实力,却也逐渐暴露出违规捕获和流转数据资源、操纵人类情感、漏传误报信息、加剧偏见歧视、扭曲资源分配等严重问题。
一些国家和地区相继将“即将成为世界新秩序”[1]的人工智能写入宏观发展战略,却未能深思高度契合社会发展需要的人工智能产品的应有类型和具体特征,亦缺乏深入探究新技术开发对人类生存权和发展权的实际影响。各国现行的法律法规不足以应对人工智能开发在数据采集、供应链管理、算法结构设计和模型结果验证中的巨大社会风险。国际组织、各国政府、专家学者和企业巨头各自搭建的人工智能伦理框架与审查机制,也未能有效威慑和制止人工智能开发中阻碍社会发展的不当行为。此外,持续创新的技术修复工具没有从根本上缓解某些人工智能产品侵害基本人权、破坏公共秩序、威胁国家安全、不利生态环境等弊端。
因此亟待明确人工智能开发企业社会责任的具体内容并构建科学合理的法律规制体系,迫使参与开发的企业、编写算法并优化特征权重的工程师、从事原始数据标注的海量矿工等积极改善自身行为,逐步营建公平、透明、可持续和有益人类发展的人工智能开发场景。
二、人工智能开发的社会价值
(一)人工智能开发的内涵
“人工智能开发”(Artificial Intelligence Development)迄今没有公认的严格定义。界定这一概念的内涵应当从相对成熟的“人工智能”(Artificial Intelligence)和“软件开发”(Software Development)的概念解读入手。“人工智能”是在融合计算机科学、统计学、脑神经学和社会科学的前沿认知理解人类智能活动规律的基础上创建让计算机去完成以往需要人的智力才能胜任的工作的人工系统①。“软件开发”则是创建和维护应用程序、架构及其他组件的设计、编程、存档、测试和漏洞修复的过程[2]。因之,能够概括人工智能开发活动本质特性的内涵描述是按照需求打造的应用计算机软硬件模拟人类某些智能行为的系统工程。
(二)人工智能开发的外延
人工智能开发全生命周期的标准过程包括确定开发目标和总体要求并进行可行性分析的计划阶段,编制开发项目的需求说明书、数据要求说明书并草拟用户手册阶段,详细说明开发项目的整体设计与下辖子系统各个层次中每个程序设计、具体规定数据库中所有标识、逻辑结构和物理结果设计以及测试活动设计阶段,训练作业、算法编制和模型开发阶段,项目测试、运行和维护阶段等等。
(三)人工智能开发的价值
长期以来,社会生产、分配、交换、消费的整个流程充斥着人力资源和物力资源浪费现象。日渐优化的信息交互背景下集成大数据、物联网、云平台、机器学习等的人工智能开发活动全面渗透到政治军事、生产制造、环保健康、金融保险、教育医疗、文化娱乐等各个领域,基于海量数据分析精准评估和预测复杂多样的人类行为,通过自主学习的机器成果和科学合理的决策引领大幅提升行为效率,缓解劳动力萎缩、人口老龄化和性别失衡的压力,降低精准处理产品和服务的成本,满足千禧一代越来越高的产品需求和服务期待,积极丰富稀缺物事,降低处境困难的消费群体的生存负担,加速国际沟通和全球化进程,改善生态环境和居民健康状况,推动个性化自我的自由再生,逐渐成为维护国家安全、保障社会福利、提升生产效率、改善居民生活的支撑力量。
三、人工智能开发的现实风险
全球遍地开花的人工智能开发设计中存在着侵害平等权、自主权、数据产权、用户控制权和其他社会经济权益的产品需求;项目推进中容易发生个性化画像不当收集用户信息、数据错误标注影响系统输出结果、算法精准分发引起信息茧房效应、算法型内容生产和庞杂的后续结构部署导致误差疏漏等不利后果,严重威胁个人尊严、民主诚信、社会公允和数据商品化进程。
(一)背离数据保护原则
人工智能开发活动以海量数据为核心燃料。迭代更新的智能硬件、庞杂零碎的数据供应链和缺乏监督的孤岛式算法结构具有突出的数据记录、存储和分析能力,追求利润最大化的经营主旨进一步加大了保护数据权益的成本和难度。通过扫描大规模数据集寻找合适的算法模型,容易背离当前数据保护法律规范调控数据收集和处理的有限使用原则;应用面部识别技术的边境管制可能违反了数据最小化原则,而应用自然语言处理技术的文档优化可能则违反了数据使用的目的限制原则等等①。
(二)冲击个人尊严
人工智能开发过程中,客观中立的大规模原始数据文件需要经过数据标注者的主观选择,而当前标注从业者的知识水平参差不齐且很大比例是未签订劳动合同的兼职人员,认知能力限制或工作态度引发层出不穷的数据错标和漏标事件,致使开发系统最初输入的数据集存在不可逆的偏差。同时,开发人员在算法结构设计、测试、使用和维护中的价值判断和工具选择亦受到自身认知能力或主观故意的影响(如伪造数据并“塑造”符合预设理想结果的复杂模型),造成机器学习的深度数据选择和关联强度判断潜藏着决策偏见和逻辑错误。此外,全景数据思维驱使下悄然兴起了将个人视为数据对待的风气。这一切严重冲击与主体人格不可分割且不容侵犯的个人尊严,加剧社会互信危机。例如,国际商业机器公司(IBM)与美国纽约警察局秘密合作开发可基于肤色、发色、性别等保护性特征搜索对象的智能识别系统时未经当事人允许就使用街头警用摄像机拍摄的海量路人面部信息[3],在很大程度上侵害了公众自主权、知情权、隐私权、平等权等等。
(三)破坏民主诚信
人工智能开发绩效与原始数据量级之间呈现出正相关性,而算法决策规则和决策过程普遍缺乏透明度和可解释性,部分开发者往往超越用户的真实意愿获取大型训练数据集,开发出的产品亦容易沦为使用者实现特定不良目标的隐性工具。例如,智能化技术驱动的竞选算法模型通过选民监督系统监视用户的在线行为、通过精准推送政治广告引导选民决策,严重侵害了自由言论和公平选举等集合权利,腐蚀公众对数字生态的信任,削弱国家主权治理基础,对民主制度产生破坏性负面效果。
(四)削弱社会公允
人工智能开发范围逐渐扩展到理解、辅助甚至代为判断居民的信用指数、职业能力、消费意向和整个社会的发展方向与其他具体决策等高阶认知任务领域。通过放大私密特征定位不同群体(如依据人工智能技术辨识搜索引擎中的低收入群体),使得人们处于意志和情绪等不自由的受限状态;通过冲击重复性或基础性劳动市场导致大规模技术性失业,由此引发的财富和机会不平等严重损害最贫困或最脆弱人群的基本利益。辨识受试者性取向的面部识别系统、自用户姓名推测种族和国籍的机器学习算法、歧视女性求职者的简历筛查算法等直接或间接侵害基本人权。
四、人工智能开发企业社会责任的内在逻辑
(一)企业社会责任的概念解读
现代企业的设立初衷是推动社会持续转变。虽然舆论在这一事物形成和发展初期曾主张企业以迎合市场为要务,其核心责任是高效使用资源并按照消费者愿意支付的价格提供社会所需产品和服务,却依然强调了健康的商业环境中企业主需要保持“合宜的同情心”[4]。直至20世纪80-90年代,随着生态环境急剧恶化和劳工阶层权利意识大幅提升,弗里德曼式“企业唯一的社会责任是在比赛规则范围内增加利润”的论调遭到口诛笔伐。取而代之的是欧美发达国家的企业社会责任运动开始兴起,由众多行业协会出台的企业社会责任守则甚至发展为强调企业可持续价值創造的《全球契约》和《联合国全球协约》等等。我国自上个世纪90年代中期开始关注企业对于经济、环境和社会绩效的三重底线,《公司法》明确要求企业承担社会责任。
一般而言,企业社会责任(Corporate Social Responsibility)是指企业在创造经济价值的同时,不仅需要承担对股东、员工和消费者的责任,还要承担对社会安全和生态环境的责任。社会责任理论要求企业必须超越把利润作为唯一目标的传统理念,强调在生产过程中对人的价值的关注和多利益考量,关注对社会可持续发展的贡献。当前全球公认的企业社会责任体现在人权、环保和反腐责任等方面,要求企业有效保证组建工会的自由、消除强制劳动和废除童工、避免用工歧视和其他侵害人权的行为,主动承担环保责任,并积极采取措施抵制任何形式的腐败行为。[5]
(二)企业社会责任渗透人工智能开发领域的主因剖解
全球人工智能技术开发的泛化竞争是深层次融合了经济、政治和文化等诸多元素博弈的加速社会发展链式突破的重要动能,亦面临着数据红利与人权保障的矛盾、可期利益与失控风险的冲突,亟待寻求实现技术进步与生态安全之间动态平衡的负责任的创新路径。企业社会责任渗透人工智能开发领域有利于增强开发企业的品牌效应、强化用户粘性、降低业务风险和其他不良后果。例如,谷歌公司因在全球科技公司社会责任指数排名中蝉联冠军(2017年、2018年),获得了更多消费者的信任与顶尖技术人才加盟,而因忽视社会责任而连续两年位列倒数的百度公司和腾讯公司已经在声誉和利益上受到巨大冲击,负面评价使得这两家企业的全球发展战略面临着严峻的信任危机[6]。
(三)人工智能开发企业社会责任的伦理回应
人工智能开发活动的复杂性、灵活性、前沿性等特征使得参与企业的社会责任有别于传统行业。近年来,英美中、俄法德意、加瑞韩日等多国政府开始设立专门机构和专业团队(如欧盟人工智能伦理委员会、美国白宫科技政策办公室、韩国国务总理下属的国家机器人政策和伦理委员会、英国议会人工智能特别委员会和人工智能伦理委员会等等),负责制定本地区人工智能开发企业社会责任的伦理原则、治理政策并具体协调责任落实事宜等等。联合国教科文组织、世界科学知识与技术伦理委员会、国际电信联盟、国际标准化组织、电气和电子工程师协会(IEEE)、欧洲科学与新技术伦理工作组等重要机构也从伦理政策角度构建人工智能企业独特的社会责任体系。多个超大型国际专家会议和互联网巨头企业如火如荼地开展相关伦理标准制定工作,产生了较大的社会影响。
众多人工智能开发者在“全球有益的人工智能大会”上联合签署的“阿西洛马人工智能原则”要求企业严格遵守高级人工智能和超级人工智能的开发必须为了全人类的共同利益且有针对性地规划人工智能开发活动以减少可预见的人工智能引致的冲击(特别是灾难性的或有关人类存亡的风险)。电气和电子工程师协会(IEEE)的《人工智能设计的伦理准则》要求设计目的是为了全人类的福祉,重点保障基本人权,削弱人工智能的负面影响。欧洲科学与新技术伦理组织发布的《关于人工智能、机器人及“自主”系统的声明》要求全球共同制定人工智能开发、生产和使用的统一伦理和法律框架,主张开发活动遵循有意义的人类控制原则且相应责任仍然归于人类。《人工智能负责任发展蒙特利尔宣言》中提出了幸福、自主、正义、隐私、知识、民主和责任等七项开发原则。
微软公司发布的新书《未来计算:人工智能及其社会角色》中指出,人工智能的目标是造福全社会,应当遵循公平、安全可靠、隐私保障、包容、透明、责任等开发原则[7]。腾讯公司在2018世界人工智能大会上主张,未来人工智能应当做到可知、可控、可用、可靠[8]。国际商业机器公司(IBM)的伦理审查委员会列明了不以取代人类为目的、增加透明性、提高技能培训和供给等人工智能开发原则[9]。
由此,人工智能开发企业的社会责任至少包括以服务人类福祉、保障基本人权为唯一发展方向,确保开发流程的透明度和包容性,明确算法动机和可解释性,守住数据安全与隐私保障的底线,维护民主、推动公正、促进平等、实现有意义的人类控制。
五、人工智能开发企业社会责任的法律规制
处于新生成长期的人工智能开发在造福人类的同时递增社会风险系数。自动驾驶车辆在公开路面撞伤行人致死①、沃森肿瘤智医系统频繁给出不正确且不安全的癌症治疗方案[10]、亚马逊人脸识别软件误将28名国会议员识别为犯罪分子[11]等恶性事件加深了人们对于人工智能开发的恐惧和焦虑,甚至转化为实质性的维权和纠偏活动(如美国通讯工人协会起诉脸书公司的广告投放工具运用独特算法歧视大龄求职者[12]、谷歌数千名员工签名或辞职抗议公司参与军事无人机项目[13]等等)。包括《欧盟通用数据保护条例》《欧盟机器人民事法律规则》《美国政府部门自动决策系统法案》《美国加州消费者隐私法案》以及我国的《网络安全法》《消费者权益保护法》《民法总则》《智能网联汽车道路测试管理规范》等在内的现行法律法规难以妥善应对。亟待构建具有国家强制力的统一规范体系,督促开发企业审慎履行社会责任,避免无序创新对社会发展的负面影响。人工智能开发企业社会责任的法律规制是传统企业社会责任理论结合人工智能开发的特殊行为逻辑与当代法权发展状况的全新展示,以开发出符合人类福祉的创新工具为目标,明确分配和承担相应法律责任,充分发挥保护人类存续的重要作用。
(一)人工智能开发企业社会责任法律规制的国际经验
虽然全球尚未出台总括性人工智能法,但很多国家和地区正在积极参与相关立法的前置步骤。欧盟委员会依据《2018人工智能发展规划》成立了专门工作组,集中审议《产品责任法》和《机器立法指令》等现行法律规范与人工智能发展目标的兼容程度并进行开发责任和安全框架的相关研究。《美国人工智能未来法案》提出建立研究人工智能可能带来的伦理、法律及社会问题的咨询委员会。我国十三届全国人大常委会的立法规划将人工智能列入“立法条件尚不具备、需要继续研究论证的立法项目”。目前,人工智能开发企业社会责任的法律规制主要表现为鼓励发展的软性规则、默示遵循传统法律法规以及出台特定的成熟子域(如无人驾驶)的具体规定等等。例如,《联合国工商业与人权指导原则》是判定缔约国企业的人工智能开发行为是否不利人权的重要标准。又如,《美国全民计算机科学法案》关注了人工智能技术对于居民生活质量的改善价值及其对部分工作的替代作用,《美国政府部门自动决策系统法案》则通过一系列法律措施督促政府公平公开地运用自动决策算法。次如,《欧盟机器人民事法律规则》规定了机器人研发中应当遵循的免受机器人伤害或操纵、不侵犯人类隐私、可被人类拒绝服务等法律原则,要求借助人工智能做出的决策必须在任何情况下都能够提供背后的算法设计规则,避免危害公共利益;《欧盟一般数据保护条例》禁止“将产生法律的或类似的重大影响”的全自动化处理。但基于欧盟并未给出人工智能开发企业遵循规则的实操方式(如并未细化界定前述“重大影响”),总体上仍然偏向现阶段采用软法规制人工智能开发企业的社会责任[14]。法国与之类似,在《维拉尼报告》中主张目前采用软法调整人工智能开发行为[15]。再如,《韩国机器人基本法案》明确规定了机器人设计必须符合人类福利的法律原则;《俄罗斯机器人法(草案)》虽然基于对机器人这一准主体和高度危险源在不同法律关系和不同发展阶段的不同定位适用殊别的法律条款,却也在总体上明确了开发活动应当增进人类福祉的基本立场;德国则在特定的无人驾驶领域颁布了技术开发必须符合法定正当程序、保证透明度和可追溯性、增进公共福利等法律原则。
(二)我国人工智能开发企业社会责任法律规制的具体方案
我国不仅制定了具有较强执行力的人工智能国家层面发展规划,国内企业拥有的验算数据规模也远超其他国家和地区,既加速了经济社会各领域从数字化、网络化向智能化迈进的步伐,亦增加了人工智能开发的社会风险。
目前,我国有关人工智能开发企业社会责任的法律规定散见于《网络安全法》《电子商务法》《个人信息保护法(专家建议稿)》《数据保护法(专家建议稿)》《消费者权益保护法》《反垄断法》《产品质量法》和《智能网联汽车道路测试管理规范》等等,并不足以在激励人工智能开发创新的同时防范和应对技术进步附随的社会风险。亟待明确人工智能开发企业社会责任法律规制的具体方案,最大化挖掘技术进步给人类社会创造的各种机遇,既避免公权力过多介入人工智能领域对技术和产业发展造成障碍,又克服其潜在的负面影响。
1.构建透明开发的法定正当程序
虽然深度学习技术和神经网络黑盒运作有可能侵害合法的数据权益,但海量数据支撑是人工智能开发的主要原料,过度限制数据存储、使用和移转将会阻碍行业发展。例如,备受推崇的被遗忘权写入多国法律之后,人工智能开发实践中暴露出欠缺远期数据影响技术研发实效的棘手问题。全面高效监管以确保人工智能开发履行服务人类福祉的社会责任的前提是整个开发流程透明可见,尤其是大规模推算数据的存取、使用和流转需要更高的透明度以避免以种族、性别、宗教信仰等保护性特征为强关联因素挖掘对象隐私,提升算法决策的安全性、可靠性与合规性。
立足人工智能开发从数据输入到结果输出的全生命周期,搭建以透明开发为核心的法定正当程序,科学规范开发项目需求者、开发主体、其他公共或私人参与者的具体行为,在利益相关者之间建立良好的信任关系。主要包括制定原始数据采集和标注的程序要求和评价标准;按照“AI+特种行业”特种许可和“AI+一般行业”加强监管审批的方式完善法定从业资格标准;构建数据保护影响评估标准、隐私声明和服务条款合规标准、开发机构内部管理和复审问责程序标准、开发产品功能规定和性能规定的监管审核标准;提供清晰的数据去标识指导方案和算法工具使用指南;要求开发企业定期向管理部门汇报进展并提供包括项目的合规分析、训练数据流动情况、算法使用技术列表和变量目录以及算法模型优化目标等在内的说明文件。
2.健全算法解释和结果验证的合规标准
欧盟和英美的数据保护法律规定都对算法的透明度、公平性和可解释性提出了要求。但人工智能算法模型是海量训练数据驱动的非线性权重和偏差的黑盒化自主学习和自我完善系统,在当前技术环境下难以详细解释算法内容或准确预测输出结果。为了避免社会风险,一味要求人工智能开发企业承担完全解釋算法逻辑和人工审核算法决策的责任将大幅提升劳动力成本,迫使开发主体删除一些影响关键运行规则的训练数据并放弃某些可能产生重大社会裨益的创新算法模型,不仅导致企业处于全球竞争劣势,使用者也无法获得优质服务。
构建算法可解释和结果可验证的合规标准是避免人工智能开发活动产生经济和非经济性负面影响的重要举措。关键在于,通过明确部署各阶段参与者的法律义务,建立可追溯、可理解和可查验的人工智能开发机制。具体而言,人工智能开发项目须经背景评估师审查以确保不背离人类共同的发展目标,训练数据集的来源、使用和保护应当符合数据保护法律标准,算法工具和工作原理必须满足法定的合理释明标准,依法履行测试验证和追踪算法模型输出结果的法律义务,加强开发活动参与者的法律知识培育以扩大监管成效,通过完善税收和保险机制等间接激励研发完全解释的白盒模型。
3.完善开发行为的违法问责框架
以违法问责为社会控制深层次警戒底线的国家公权有必要建立针对瑕疵开发行为负面社会影响的有效且有意义的违法问责框架。基于人工智能开发系统具有超出传统的创新性、独立性和复杂性,有能力提升安全性能、改进开发流程、增加产品价值的开发主体处于强势地位,開发出的产品也未改变工具本质,体现多数人集合意志的针对具体开发活动中严重不当行为引起的损害予以补偿、赔偿或接受处罚的主要承担方式应当是过错推定。即完善的人工智能开发行为违法问责框架是在开发造成损害时推定委托开发者、开发设计者、生产者、开发产品销售者和使用者未履行其应有的注意义务,应当承担法律责任。除非这些主体能够证明自己没有过错,才可以满足责任排除条件。同时,有必要积极健全人工智能开发犯罪的刑事责任制度和相应行政责任制度,有效约束开发企业利用技术优势和容错规则故意或过失地从事社会危害巨大的不当开发行为,“尽量将智能机器的发展限制在专门化、小型化尤其是尽可能的非暴力的范围之内”[16] 。
六、结语
“2018年,全球人工智能业务规模将达到1.2万亿美元,与2017年相比增长了70%”[17]。从阿里集团的“产业AI”到谷歌公司的“AI贯穿全系列产品”①,定义新时代的人工智能技术已经渗透社会生活方方面面,成为创新产品的造梦厂。迅速营建具有合理的可解释性、透明度且有益社会的良性开发环境,还需要积极提高社会公众的数字素养与批判能力,扩大间接监督规模并提升司法救济水平。
参考文献:
[1] The Verge. Putin says the nation that leads in AI ‘will be the ruler of the world' [EB/OL]. (2017-09 -04)[2018-12-29]https://www.theverge.com/2017/9/4/16251226/russia-ai-putin-rule-the-world.
[2] Software Development[EB/OL].(2018-12-24)[2018-12-29]https://en.wikipedia.org/wiki/Soft ware_development.
[3] IBM利用纽约警局提供的图像,创建人脸识别系统[EB/OL].(2018-09-07)[2018-12-29] http://www.sohu.com/a/252550296_395737.
[4] 亚当·斯密.道德情操论[M].何丽君, 译.北京: 北京出版社, 2008: 5.
[5] 寇恩惠.企业避税的社会责任[J].商学研究,2017(5):113-123.
[6] The Ranking Digital Rights 2018 Corporate Accountability Index[EB/OL].(2018-08-31)[2018-12-29]https://rankingdigitalrights.org/index2018/; The 2017 Ranking Digital Rights Corporate Accountability Index[EB/OL].(2017-09-30)[2018-12-29]https://rankingdigitalrights.org/index2017/.
[7] 沈向洋, 施博德. 计算未来——人工智能及其社会角色[M]. 北京: 北京大学出版社, 2018: 5.
[8] 马化腾.人工智能助力创新发展(2018世界人工智能大会主题演讲)[EB/OL]. (2018-09-17)[2018-12-29]http://huateng.blogchina.com/681472568.html.
[9] Alison Rayome. 3 Guiding Principles for Ethical AI, from IBM CEO Ginni Rometty[EB/OL]. (2017-01-17)[2018-12-29]https://www.techrepublic.com/article/3-guiding-principles-for-ethi-cal-ai-from-ibm-ceo-ginni-rometty/.
[10] 陈晓雪. IBM肿瘤医生“沃森”被曝不好用,医疗AI前景堪忧?[EB/OL].(2018-08-12)[2018-12-29] https://new.qq.com/omn/20180812/20180812A0DF20.html.
[11] 亚马逊人脸识别软件糗大了,把28名美议员识别为罪犯[EB/OL].(2018-07-27)[2018-12-29] http://tech.ifeng.com/a/20180727/45086019_0.shtml.
[12] 李明. Facebook广告工具歧视大龄求职者 多家雇主被诉讼[EB/OL].(2018-05-29)[2018-12-29] http://tech.sina.com.cn/i/2018-05-29/doc-ihcffhsv2756312.shtml.
[13] 李泽南,等. “不再作恶”:谷歌决定2019年后推出军事项目Project Maven[EB/OL]. (2018-06-02)[2018-12-29] https://www.sohu.com/a/233798761_129720.
[14] Mapping Regulatory Proposals for Artificial Intelligence in Europe[EB/OL].(2018-11-10)[2018-12-29]https://www.accessnow.org/cms/assets/uploads/2018/11/mapping_regulatory_proposals_for_AI_in_EU.pdf.
[15] Report of the Mission Villani on AI[EB/OL].(2018-03-08)[2018-12-29]https://www.aiforhu manity.fr/pdfs/MissionVillani_Report_ENG-VF.pdf.
[16] 何怀宏. 人物、人际与人机关系——从伦理角度看人工智能[J]. 探索与争鸣, 2018(7): 27-34.
[17] Christy Pettey. Gartner Says Global Artificial Intelligence Business Value to Reach $1.2 Trillion in 2018[EB/OL].(2018-04-25)[2018-12-29]https://www.gartner.com/newsroom/id/3872933.
责任编辑:杨 炼