APP下载

浅议中国人工智能伦理治理的对策

2020-01-20陶海燕周吉银

中国医学伦理学 2020年6期
关键词:伦理人工智能算法

陶海燕,周吉银

(1 陆军军医大学第一附属医院健康管理中心,重庆 400038,252905109@qq.com;2 陆军军医大学第二附属医院国家药物临床试验机构,重庆 400037)

谷歌人工智能AlphaFold和打败围棋高手的AlphaGo可谓孪生兄弟,2018年11月2日AlphaFold在极其困难的任务中击败了所有对手,成功根据基因序列预测了蛋白质的三维结构。作为一项基础技术,AlphaFold被称为人工智能研究推动和加速新科学发现方面的“第一个重要里程碑”[1]。2019年8月《科学》杂志的一篇文章称超级人工智能在人类顶级专业扑克游戏(六人无限制德州扑克)中的表现强于顶尖人类选手,玩多人扑克是人工智能进步里程碑的标志之一[2]。Insilico Medicine公司利用其开发的人工智能系统来构思和设计新的药物分子结构仅需21天,合成并在小鼠中成功测试了一种主要候选药物,其设计、合成和验证总计约46天[3]。

近年来,知名互联网公司强势布局人工智能领域,如,谷歌相继收购了以DeepMind、Kaggle为代表的人工智能公司,国际商业机器公司(IBM)打造了Watson平台,百度进军无人驾驶汽车,阿里打造“城市数据大脑”,腾讯公司成立人工智能实验室。我国人工智能研究质量不断提高,但在高影响力论文、人才和伦理方面仍需进一步提升[4]。我国在计算机视觉、语音识别和自然语言处理方面拥有世界领先的公司,但在塑造人工智能核心技术工具、制造具有人工智能功能的半导体芯片和设计可支持高级人工智能系统的计算芯片专家方面也不断突破。我国可能需要5~10年才能达到美国和英国的基本理论和算法的创新水平[4]。到2017年底,我国拥有的人工智能科学家和工程师人数排名第二,但顶级人工智能研究人员仅排名第六[4]。

人工智能的设计者、管理者、使用者和受用者未深入思考对社会的潜在影响。鉴于人工智能算法的不透明性、不可解释性带来的不确定性风险,研究人员须负有相关责任。未来非常有必要思考怎样将人工智能的治理原则切实贯彻到人工智能的整个生命周期(模型、产品、服务)。在自动驾驶、信息推送、虚拟现实等热门领域,设计者在产品设计和业务运营中也应积极探索,让人工智能提供的信息和服务助人成长。我国应加快人工智能伦理治理步伐,积极参与全球人工智能伦理准则的研究和制定,及早识别禁区,更好地让技术创新造福人类。

1 人工智能伦理的治理需求

目前,大多数人工智能的研究都聚焦在狭义人工智能上,如自动驾驶汽车、会下围棋的AlphaGo等。人工智能也许是唯一比基因编辑技术更能影响医疗领域的技术,主要应用于智能诊疗、智能健康管理、医疗机器人、智能药物研发等。人工智能既能服务于个人和社会,也可能被滥用,引发安全、公平、算法透明、社会包容、网络安全等挑战,也深刻影响人类尊严、隐私、歧视等基本权利[5]。人工智能换脸、声音合成等人工智能技术的滥用,以及借助人工智能技术筛选受骗目标人群,让电信网络诈骗层出不穷,这些都有力证明人工智能的不合理使用将引发伦理和道德风险。

人工智能存在算法歧视导致的不公平,所训练的“算法机器”无法达到万无一失[6]。鉴于人工智能各方有不同利益诉求和立场,拥有者、设计者和使用者对人工智能的价值理念具有差异性。人工智能不是一个可预测的、完美的理性机器,其伦理缺陷由算法、使用目标和评估等决定,应足够重视构建伦理准则以防范风险[7]。人工智能伦理准则是各国、各组织之间交流的重要议题。要研究让机器自主学习人类价值观以避免风险,这是人工智能最大的挑战之一,迄今尚无一台机器能真正基于理解实现自主学习人类的伦理道德。人工智能所引发的伦理治理挑战是各国面临的共同问题,需建立符合各国所需的伦理治理准则。

欧盟在人工智能伦理治理的规范上迈入世界前列。2019年4月,欧盟发布的《可信人工智能伦理准则》包含七个关键条件[8]。欧盟已将人工智能伦理打造成一个从宏观的顶层价值到中观的伦理要求,再到微观的技术实现的治理过程。人工智能的挑战具有全球性,任何国家都应负起各自责任。作为负责任的大国,我国正积极融入全球人工智能伦理治理,以期共享实践经验。2019年6月的《亚太及日本企业人工智能伦理道德研究》报告显示,我国企业在运用人工智能指导方针及管理标准方面位居亚洲前列。2019年6月9日,G20通过了联合声明以及《G20人工智能原则》,是第一个由各国政府签署的人工智能原则。上述各伦理准则都展现发展和安全的核心价值,即“鼓励创新(发展)、包容审慎(安全)”,属于目前人工智能发展最大的共识。

2 欧美和我国人工智能伦理治理的现状

人工智能既需创新,又需监管,其早期政策制定的难点在于如何平衡好创新和监管。美国对人工智能的监管是为了促进创新,以规避带来抑制创新的负面影响。我国对人工智能的态度和立场更接近于欧盟。

2.1 欧美人工智能伦理治理的现状

近年全球医疗领域人工智能初创公司融资额远超剩余行业的总额。人工智能增强医疗创新的步伐只会加速,在生物学的整合并非个例。为保持人工智能的发展优势,2018年4月英国议会发布《人工智能在英国:充分准备、意愿积极、能力爆棚?》的报告[9],随后欧盟委员会发布战略文件,从战略角度定位人工智能价值观,明确了人类优先的价值观,人工智能务必有益于社会和个人,在人工智能价值观指引下发展全球人工智能。

为保持全球竞争力,多种人工智能医疗器械已获美国食品药品管理局的快速批准上市。以谷歌为首的人工智能团队屡屡突破技术创新,已将其神经网络用于探索医疗领域,在癌症病理图片识别、基因组突变检测、疾病风险评估等诸多领域取得了等于甚至超过人类水平的成绩。许多领域的人工智能技术还处于探索试验阶段,基本没实施临床研究。

美国人工智能技术全球领先,却有不同的政策,伦理问题的讨论相对偏少,谨慎立法和监管,通过激励企业自我约束、拟定伦理指南等以解决人工智能的价值观挑战和监管[10]。即在技术早期鼓励百花齐放,政府从“轻”管理,大力投资于技术发展和创新,确保在基础研究和应用研究之间的对话。随着技术的出现与成熟,如何将人工智能纳入已有的监管结构中成了一个更为棘手的问题,政府需要介入更多。

2016年9月,美国著名科技公司亚马逊、谷歌、微软、IBM和Facebook联合成立非营利性合作组织,商讨人工智能的行业规范和标准。随后美国未来生命研究院提出“阿西洛马人工智能原则”的23条准则,明确人工智能的研发要遵守为人类做贡献、安全、负责、透明、可解释和多数人受益等原则[11]。2018年3月26日谷歌公司成立“全球技术顾问委员会”,其外部专家监督谷歌公司在应用人工智能等新技术时,遵循伦理准则的依从性。以期作为独立的监督机构,更“负责任”的开发和使用人工智能及相关技术产品,思考人脸识别、机器学习算法等人工智能技术应用中的伦理问题并提出建议[12]。顾问委员会2019年专家专业囊括全球知名高校和科研院所的哲学、计算机和公共政策等领域。但由于伦理委员会一成员的观点与谷歌价值观不合,谷歌员工提出抗议,导致2019年4月5日该委员会解散。

2.2 我国人工智能伦理治理的现状

我国人工智能战略文件多有涉及法律、伦理等反映人工智能价值观的制度安排。国家标准化管理委员会发布《人工智能标准化白皮书2018》,首次从国家层面明确我国人工智能的为人类服务原则和责任原则。2018年7月我国发展研究基金会发布报告《未来基石——人工智能的社会角色与伦理》,提出一系列人工智能的伦理建议,也推动了伦理问题的讨论。

百度创始人李彦宏在2019年全国两会上提案,建议在政府主管部门牵头下,由跨学科领域的行业专家、人工智能企业代表、行业用户和公众等研究人工智能伦理,并从顶层设计,以期加速行业健康发展,主动迎接人工智能技术革命。2019年6月17日发布《新一代人工智能治理原则——发展负责任的人工智能》,国家新一代人工智能治理专业委员会提出8条人工智能的治理原则,即和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作和敏捷治理[13]。

但我国人工智能的伦理治理框架仅具备原则性指向,还不够成熟。我国学界已有的不少研究,但与国际接轨程度不高。我国缺乏研究人工智能伦理治理的政策,未有效对接、转化和落地我国人工智能发展规划中的伦理建设内容。为此,需对接国际加速我国人工智能的伦理治理。

3 我国人工智能伦理治理的路径

人工智能迈入崭新发展阶段,具有人机协同、跨界融合、群智开放等特点,正深远影响人类生活。人工智能带来诸多伦理挑战,可采用明确人类优先、代表性样本和研究者以规避偏见、故障透明且可追溯原则、研发生产销售的全过程监管、立法以健全监督管理体系、规范以明确道德伦理边界、通过教育提升公众认知水平、限制垄断数据和全球治理以共同应对挑战等[5]。虽然当前各国、企业和研究者未就人工智能的控制和发展达成共识,但“为人类服务”是被共同认可的标准。

当前社会各界逐渐意识到人工智能的潜在风险,对其治理的呼声很高,也陆续出台越来越多的治理原则或应用准则,有助于引导行业健康发展。但这些治理原则或应用准则无法律强制力和约束力,且无责任范围。我国人工智能伦理治理原则专门关注国际协作,共同维护人工智能的发展。可特别从以下多方面增进我国人工智能伦理治理的建设。

3.1 有益于社会,政府引导

与人工智能交互的人类必须拥有充分且有效的自我决定能力,人工智能系统应遵循以人为本的理念,服务于人类、增强人类的认知并提升人类技能。人工智能存在的价值是教人学习、让人成长,而不是超越人、取代人。如果想要人工智能突破性技术符合多元文化价值观,政府的资助是必需的。如果政府没有参与资助,技术中的价值观会跑偏。政府的资助也可确保研究结果被共享,而不被某一组织商业化。积极应对经济变革,提升教育和培训体系,使之与时代发展步伐相一致;及时监测劳动力市场变动,为过渡期失业者提供支持,培养多元化、跨学科人才。提升技术和产业能力,促进人工智能技术广泛渗透到各行各业。人工智能使资源节约和环境友好;规避平台与数据垄断,鼓励公平竞争。

3.2 尊重隐私,防范泄露

人工智能算法的准确性依赖于海量数据的获取和计算,个人信息日渐被数据化、被自动采集和分析及商业化,隐私泄露风险大增,已有法律法规无法有效保护已泄露的个人信息。鉴于人工智能的深度学习需大量数据,数据的开放和共享尤为关键,需各国政府携手共享公共数据以加快人工智能的训练和测试。过去15年里欧盟已多次开放和再利用公共数据和政府资助的研究成果,也将出台医疗健康数字化转型政策(包括分享基因数据及其他医疗数据)。公共政策还应鼓励更广泛地分享私人所有的数据,与此同时,需要遵守关于个人数据保护的法律政策,如遵守欧盟《通用数据保护法案》,以保护个人信息[14]。因此,人工智能的发展要基于尊重和保护个人隐私,保障个人知情权和选择权。在个人信息的采集、存储、处理、使用等环节应设置边界,形成规范。完善个人数据授权撤销机制,打击任何窃取、篡改、泄露和其他非法收集利用个人信息的行为。

3.3 安全可控,避免造成偏见

人工智能的可解释性、透明性、可控性和可靠性应不断提升,以期能审核、预防、监督、追溯、信赖。人工智能的安全尤其重要,重点关注鲁棒性和抗干扰性,评价其安全性和可控性。人工智能算法的透明性仍是主要挑战之一。当前人工智能深度学习算法的自适应性尚无法解决实时变化的噪声、环境及恶意攻击。描述真实世界的数据是最理想的算法学习数据库,但实际训练用的数据库较片面化、理想化,不同于真实世界的多变性、复杂性。2019年10月《科学》杂志报道,一个卫生系统广泛使用的算法存在明显的偏见。产生该偏见源于算法预测的是医疗费用而非疾病。可见,认为选择容易获取的貌似合理真实数据可能是算法偏见的一个重要来源[6]。

3.4 建立责任分担规则

人工智能企业要履行其社会责任,才真正达到了负责任的人工智能要求。人工智能技术的使用导致责任主体难以追究,导致执法成本过高。人工智能拥有者、设计者、使用者应具备一定的自律意识和社会责任感,严守法规、伦理准则和规范。推行问责制,明确拥有者、设计者、使用者各自责任。应预防人工智能被用于非法活动。在构建人工智能平台时,企业往往不知道用户会如何使用平台。应设计使人工智能系统可自动检测、警示和规避滥用,这是人工智能制造者和设计者绕不开的问题。

人工智能产品并不是法律意义上的主体,暗箱算法的可解释性不强,难以按照现行法规追溯事故责任主体。由所有参与到人工智能产品的发明、授权和分配过程中的人来分担责任。这就要求人工智能系统必须能够在算法和运行层面追溯问题的来源,从而确定相关责任主体。算法问责要基于算法透明,算法透明并非指让公众了解算法的各个技术特征。对算法功能的广泛理解无益于实现算法问责,简短、标准化且涉及可能影响公众决策或提升公众对算法系统的整体理解的信息内容的披露更有效。通过解释某结果如何得出以实现透明,将使当前人工智能系统面临极大技术挑战,也大大限制人工智能的应用;反之,在人工智能系统的行为和决策上实现有效透明将更可取,更能显著提高效益。

3.5 兼顾创新和监管

尊重人工智能发展规律,创新有序发展与发现、解决风险并行。优化管理完善治理,使其贯穿于产品和服务的全生命周期。研究和预判更高级人工智能的潜在风险,负责任地确保其长远发展真正有益于人类、社会和生态。现存的伦理准则对人工智能领域来说是不够的,包括《赫尔辛基宣言》、《贝尔蒙特报告》及《阿西洛马人工智能原则》。应积极考虑对人工智能准则、政策法规等的适应性修订,使之适应人工智能的发展。如文化信仰、风俗习惯和社会经济背景影响各国人民的不同愿望和需求,各国政府应组建各自审议机构,积极组织社会各界代表公开讨论,决定如何将这些伦理准则纳入具体的政策法规[15]。

鼓励人工智能企业组建伦理委员会,制定伦理指南以引导、约束其人工智能研发者及其研发应用活动。即人工智能的伦理治理不可只停留在抽象原则的层面,要融入不同主体、不同层次的实践活动,使之成为有生命的机制。具体要管好重点行业,要在符合法规、遵守伦理的条件下,加强监管视觉识别、用户画像、精准推送、虚拟助理等人工智能技术应用的重点行业,强化商业APP规范管理,防范侵犯消费者权益的恶性事件。

3.6 开放协作,共享中国经验

人工智能企业界无法独自解决人工智能给人类社会带来的复杂问题,组建人工智能研究院有助于加速其伦理问题的研究,特别是人工智能应用和影响层面的基本问题。相关人员应深入了解人工智能,相关部门需要设立专项资金,资助高校和研究机构前瞻性地研究人工智能的伦理问题,有助于伦理规范和制度的适时修改。2018年美国麻省理工学院筹资10亿美元新建人工智能学院,主要研究人工智能的公共政策及伦理问题。同年,斯坦福大学组建人工智能研究院,旨在加快研究人工智能对社会的影响。2019年3月德国慕尼黑工业大学与Facebook共建人工智能伦理研究所,研究人工智能带来的伦理挑战,从技术和伦理层面审查人工智能领域的项目,以期为社会、人工智能行业和立法部门提供参考。

鼓励跨国、跨区、跨学科、跨领域的合作交流,推动国际组织、政府部门、科研机构、教育机构、企业、社会组织、公众积极参与人工智能发展与治理中的协调互动。国际合作和对话,尊重各国治理原则和实践,形成广泛共识的国际治理框架和标准规范。应协同推进我国新一代人工智能伦理与治理研究,使其逐步与国际接轨,共享我国人工智能伦理治理实践经验。

4 小结

人工智能将使人类社会驶向不确定性的未来,适时建立人工智能伦理治理准则,有助于其行稳致远。基于人工智能潜在风险和受益,必须随着科学研究和技术发展,适时考量伦理,逐步修改人工智能的伦理治理准则。这不仅需要人工智能行业人员主动参与,更需跨学科、社会、政治和国家的界限,以多方协作的负责任方式,让全部个体、群体和区域均参与技术发展过程,以期使技术造福于人类。为人类服务是发展人工智能要坚守的一个共识,英国和欧盟先后发布报告,均从战略高度定位了“以人为本”的人工智能价值观。在我国具备人工智能技术和产业优势基础上,期待我国人工智能的伦理治理能影响世界人工智能技术的发展。

猜你喜欢

伦理人工智能算法
《心之死》的趣味与伦理焦虑
灵长类生物医学前沿探索中的伦理思考
哪种算法简便
护生眼中的伦理修养
Travellng thg World Full—time for Rree
2019:人工智能
进位加法的两种算法
人工智能与就业
伦理批评与文学伦理学
数读人工智能