APP下载

美国人工智能适配伦理与管控的政府指引与我国适用之启示 *

2023-03-11唐淑臣许林逸

情报杂志 2023年1期
关键词:伦理人工智能系统

唐淑臣 许林逸

(1.清华大学法学院 北京 100084;2.北京师范大学法学院 北京 100875)

0 引 言

人工智能(Artificial Intelligence,AI)目前成为国际竞争的新高地和新焦点,其出色的解决问题与任务执行能力极大地解放了劳动力,在某些情况下其性能甚至超过人力。毫无疑问,人工智能正深刻地改变世界,相关技术竞争更是当下乃至未来大国博弈的焦点之一,是各国发展不可回避的竞争领域。但人工智能的发展过程中,也呈现出误解、误判等违背人类伦理与法治的弊端,这创造了秩序崩坏的危机,其引发的未知风险也值得警惕。为此,世界各国已达成基本共识,人工智能的发展必须为人类的更大利益服务,而不是反其道而行之。为应对人工智能安全风险,全球各国和地区纷纷加强人工智能安全问题的前瞻性研究,加大力度防控人工智能安全风险,加快推进治理政策出台,并逐渐从原有的原则性规定向可操作、可落地的方向迈进。比如欧盟正在推进专门的人工智能立法,对高风险应用实行严格监管;美国、新加坡、加拿大、日本等国以非强制性的监管为主,推出安全风险评估框架、安全治理模型、算法评估制度等政策,引导各类主体开展人工智能安全风险治理。但是在监管之外,关于政府如何引导人工智能适配伦理与法治的研究还较为缺失。以美国为例,国家安全机关[1]设置相关原则[2]并适用,但其他机构没有提供这样的指导。而且即使在提供原则的情况下,也很难将伦理性的原则转化为具体行动[3]。

在国内研究方面,相关讨论是从人工智能伦理风险和政府参与人工智能治理两个角度展开的。有学者对国内人工智能应用进行综述,指出公共治理中人工智能的应用重点集中在基本公共服务供给、城市应急与环境治理等方面,但人工智能应用仍面临安全、侵权、解构秩序、冲击法治体系和道德伦理等风险,并提出对应的解决策略[4]。事实上,国内大多数研究都着眼于人工智能的伦理风险[5]或法治监管[6],并提出相应建议。当前的讨论陷入一种两难的困境当中,焦点已经偏离人工智能如何融入国家伦理与法治,而演变为一种纯粹的形而上的终极伦理探讨与理想化风险监管。本文试图在这种追求一致性伦理的维谷中引入一种新的视角,即我国政府如何引导人工智能适配中国特色社会主义伦理准则,融入中国特色社会主义法系,打破西方人工智能伦理霸权的相关问题。新视角的核心在于使人工智能的相关讨论更贴合中国伦理与法治,为传统的人工智能自身伦理与政府参与人工智能治理的角度提供中国之治的抓手与经验。毋庸置疑,美国作为当今世界人工智能的头号强国,为了维持其在人工智能领域的统治地位,已正式将人工智能升级为国家战略,并在人工智能的指引方面进行了诸多尝试。对美国政府引导人工智能适配伦理与法治的方式进行考察与洞析,可为中国人工智能发展的理念和实操提供有益的参考。

1 美国人工智能呈现背离伦理与法治的趋势

人工智能作为推动新一轮科技革命和产业变革的重要驱动力量,在国家安全和军事领域的应用逐渐广泛,不但可能实现对作战平台和武器装备的自主控制,而且在网络战中发挥重要作用。美国在人工智能领域虽然占据领先地位,但其优势正在缩小,新兴大国有可能超越美国并取代其领先地位。美国为了保持自身在人工智能领域的优势地位,成立人工智能国家安全委员会(National Security Commission on Artificial Intelligence,NSCAI),负责向美国总统及国会提供人工智能相关领域的建议。作为解决美国国家安全与国防需求问题的政策参谋机构,NSCAI在推动人工智能、机器学习等技术发展方面出谋划策。虽然NSCAI仅是一个“负责向美国总统及国会提供人工智能等领域的建议”的咨询机构,但其构成人员包括15名技术专家、国家安全专家、企业高管和学术领袖,其先前诸多报告已经被美国政府所采纳,比如加大人工智能领域的投资,遏制中国的人工智能发展等。因此在美国政府签发正式文件指引人工智能适配伦理与法治前,NSCAI报告是最具有研究价值的参考文件。2021年3月,NSCAI颁布的最终报告指出,美国还没有做好人工智能时代的防御或竞争的准备[7]。人工智能的威力和局限性并未被充分了解,人工智能只有在符合伦理与法治的道路上发展,才能真正造福人类。

人工智能系统的性能和自主性发展达到新高度的同时,也呈现出有关使用致命武力的法律、道德问题。人工智能的透明度缺乏,引起更多人的不信任和恐慌;人工智能缺乏中立性,其所做的决策容易出现不准确和歧视性后果,在刑事司法、招聘和人脸识别等领域,人工智能的使用可能违背公平和包容性,强化辅助决策中无意的偏见,例如在性别、族裔中等产生倾向性。有媒体调查结果显示,人工智能在预测再犯时,会对黑人存在偏见,违背了社会公平[8]。人工智能发展过程中,缺乏数据收集的监督措施,导致隐私权和个人信息被侵犯,以及发展水平的不均衡,进而容易引发公平性的问题等。人工智能的风险和挑战频频出现意味着智能社会的发展需要适配伦理与法治,人工智能引发的公平性、安全性、可靠性等问题使得制定人工智能伦理准则的必要性日益彰显[9]。人工智能的良好发展和正确使用应当与国家的价值观相吻合,价值观指导着人工智能的发展趋势。NSCAI的报告作为指引人工智能遵循美国价值观的重要内容,提出了防范威胁的措施及指引人工智能发展符合美国人民和国家利益的建议,指出了人工智能竞赛的关键要素,并详细阐述了联邦各机构今后改革的行动路线。面对人工智能在战略层面的重要地位和人工智能产生的负面效果,美国政府正在采取全面的行动,指引人工智能与伦理规则与法治规范相适应,以防范其可能引发的相关风险。

2 理念层面:人工智能本身和使用必须符合美国价值观与法治理念

美国在理念层面指引人工智能的研发和使用,以保证人工智能本身及其适用与美国的价值观和法治理念(American Values and the Rule of Law)相契合,共同致力于维护民主、人类尊严和人权。在国家安全调查方面,以符合正当程序、个人隐私、平等保护和非歧视的宪法原则的方式使用人工智能;在外交方面,坚决反对使用人工智能来支持专制政府压制个人自由或侵犯其公民的人权;在军事方面,寻找方法让人工智能增强维护战争法的能力;在立法方面,需要进一步强化基本权利的保护,包括言论和集会自由以及正当程序、包容、公平、不歧视(包括平等保护)和隐私权(包括保护个人免受政府无理干涉的权利)。其他价值观反映在条约、规则和政策中,例如《禁止酷刑和其他残忍、不人道或有辱人格的待遇或处罚公约》[10],国防部的交战规则以及国防部关于武器系统自主性的指令等。

针对人工智能的价值观塑造,NSCAI提出两项建议:a.要求开发和部署均符合美国价值观和法治的系统,以确保开发或获得的人工智能系统将按照美国的价值观和法治运行,确保个人隐私在获取和使用用于人工智能系统开发的数据时受到保护。具体而言,人工智能系统应当采用符合隐私保护、公平、包容、人权和武装冲突法的技术和操作政策,若人工智能系统违反上述价值观,则被禁止使用。b.将目标明确表示在人工智能系统的目标和效用函数中。首先,预设价值权衡的标准,对人工智能系统的价值衡量进行设定和记录,包括记录选择时选取对性能有影响的操作阈值。其次,记录并审查人工智能系统在价值考量时对目标或效用函数的依赖程度,尤其是对不同价值权重的衡量时。最后,对运行过程和结果进行记录、审查,确保人工智能符合价值观。

符合伦理与法治的人工智能系统应具备可审计性、可追溯性、可解释性、可依赖性四个主要特点。可审计性强调在模型构建期间和模型投入生产之前的制定和使用需要有明确规定的工作记录,对算法、数据和设计过程进行评估,在模型生产过程中创建开发治理标准的审计跟踪。可追溯性是指应保障数据的来源可追溯,技术可以被了解,明确记录数据来源和操作,对第三方数据应进行评估后使用,掌握其开发过程和操作方法,在开发阶段,应将设计方法、相关设计文档和数据源提供给适当的相关方。在部署阶段,则要创建适当的用户访问和权限日志,消除人工智能系统的神秘感,增强其透明度。可解释性是指能够对人工智能算法的运行和决策原理进行充分理解,并解释给用户,即能够解释系统输出的价值和其准确性,其实质是小数据信息的知识化,这一特点需要采取必要的技术来保障数据集的选取与系统目标相称,并对数据进行及时更新。可依赖性是指人工智能能够以预期的方式执行任务,并且在人工智能的整个生命周期内保证安全性和鲁棒性。

3 实操层面:指引人工智能创设和使用的具体路径

当前人工智能仍存在诸多局限性,且容错率较低,易产生较严重的危害后果,使得人类极有可能被自己创造的技术反噬。人工智能在工程实践中数据易被篡改,系统交互时存在失控风险,人机交互中的可能发生故障,问责治理制度需要完善。基于此,在指引人工智能适应伦理和法治的具体操作层面,NSCAI提出四个方面的操作路径,着力在工程实践、系统性能、人机交互以及问责治理四个方面,设计并发展稳健、安全和可信赖人工智能系统,并利用人工智能系统提升人类的理解、决策能力,与人类进行优势互补,以保证人工智能在最初创设时尽量降低风险,在持续使用过程中稳定运行。

3.1 工程实践

在工程实践中,为了保证人工智能在预设的指引下顺利运行,应当避免各个环节因故障而违背原有指令。由于工程实践中使用的工程方法和模型具有脆弱性,不同环节存在的漏洞可能相互关联,容易出现前所未有的故障模式。目前故障模式主要分为故意失败和意外失败两类。故意失败是恶意行为者明确攻击人工智能系统某些方面的结果,包括中毒攻击达到污染数据的目的、模型反转以及在下载使用时破坏ML模型等类型。意外失败是指在人工智能开发和部署的生命周期中任何时候都可能出现意外故障,由于单独开发和测试的人工智能系统与其他人工智能系统组成并相互作用,可能会发生其他的意外故障。这种故障包括3种类型:人工智能系统以一种与程序员的意图相矛盾的方式实现编程目标、系统在一种环境中进行测试但无法适应环境变化以及目标规范不充分无法适应价值权衡的变化。

为了减少工程实践中的故障,应当在人工智能开发时结合场景和应用进行充分的早期分析和预设,评估总体的可行性以及对规则的遵守情况,确保应用程序中的公平性和对不必要偏见的消除。此外,应当进行系统风险评估,对系统的潜在社会影响进行分析,尤其是就与国家安全背景相关的关键领域提出风险评估问题,包括隐私和公民自由、人权、系统安全以及新技术被泄露、被盗或武器化等伦理与法律风险,尽早对风险进行控制和消除。

3.2 系统性能

指引人工智能系统依照伦理与法治正确运行,需要评估人工智能系统的性能,包括使用代表现实世界场景的数据或模拟现实环境来评估其能力和盲点,及其可靠性与弹性。人工智能的高质量发展需要系统之间相互作用、相互协调、相互配合,共同促进每个系统要素的正常运转及系统整体的相互支撑。现阶段在集成模拟中通常会发生意外的交互和错误,说明预测和管理系统的多个组件在组成不同的系统后可能会出现间歇性故障,这些故障不一定是任何一个组件有错误的结果,而是由于组合系统的交互作用产生。

针对系统交互产生的故障,应当进行充分的模型训练和模型测试,以涵盖人工智能预期性能的关键方面。具体而言,第一,应使用定期更新且尽可能充分的标准来测试和报告系统性能,通过定义、分类和度量等方式更好地评估人工智能的性能和漏洞。第二,考虑并记录数据和模型对于现有特定环境的代表性,并在不同环境中测试系统,并进行迭代模型测试和验证。第三,确保单个系统的正常运行。系统性能产生的交互故障可能由于系统之间以开发人员未预料到的方式进行组合,为了能够准确分析出由于交互产生的故障,应当先保障单个人工智能的性能正常,再对交互情况进行分析。第四,评估人机团队的总体绩效。考虑当前的基准可能是人类操作员目前的最佳表现或人机团队的综合表现。在交互过程中,重要的是衡量总体绩效,而不是单独衡量人工智能系统。第五,持续关注系统的可靠性和稳健性。在整个开发和部署过程中持续关注系统的实际性能。对于具有特别高的潜在故障后果的系统,将投入大量的架构和设计工作来构建整体系统的安全。

3.3 人机交互

人工智能开发和部署需要平衡人类和人工智能的关系,人工智能系统的开发以造福人类为导向,因此所有人工智能系统都将具有一定程度的人机交互。一些系统甚至将扮演与人类积极协作的队友角色。人工智能和人类的能力具有互补性,为了促进人机交互的进行,首先应当明确人机交互设计方法和指南。人工智能系统设计应考虑人类在不同场景下人机协作的定义任务,确保总体上人机操作的组合与预期行为一致;其次,使用算法和函数来支持可解释性,为个人提供与任务相关的知识,帮助不同受众理解人工智能系统运行中的关键因素;再次,利用可追溯性协助系统开发和理解,及时传达不确定性和误差范围,预设信息或任务应何时以及如何在机器和人类操作员之间传输。可追溯性流程必须捕获有关人机交互的详细信息,以追溯故障发生的位置及原因,从而改进系统及其对故障进行补救;最后,优化人类和人工智能在各种环境中共同承担复杂任务的能力,以及让不同的机器组相互合作,实现共同目标。

3.4 问责治理

2021年6月,美国政府问责署(GAO)发布了《人工智能:联邦政府和其他机构的责任框架》,提出针对人工智能的问责治理,国家安全部门和机构须明确针对特定系统结果和一般系统维护与审计的问责机制,包括承担责任的原因和方式等。最终用户和受人工智能系统行为影响的人应该有机会对人工智能系统的决定提出上诉。针对人工智能决策、推论、建议和行动的问责和上诉必须存在固定的流程,避免在人工智能出现违背伦理和法治的结果后无人担责。现阶段人工智能的问责治理对监管者提出了较高的技术要求,在出现争议后,监管者需要依据可解释性的技术能力了解系统中的问题,并依据可追溯性和可审计性进行问责治理,及时发现责任原因并解决责任归属问题。然而上述特征的人工智能基础设施建设需要较高成本,例如在法院考虑人工智能系统的决定能否作为证据被接纳时,需要审计追踪等技术对人工智能的决定进行分析,构建可审计性基础设施将增加构建人工智能系统的成本和工作量。

在人工智能问责治理的完善过程中,首先应当在高层领导中引入人工智能专家,每个对国家安全至关重要的部门和机构以及武装部队的每个分支机构,至少应有一个专职负责人;其次为问责治理提供技术支持,记录开发和部署人工智能系统的监管链和指挥链,明确不同阶段的负责人。提高可追溯性和可审计性能力,更好地跟踪系统的性能和结果;最后加强问责治理的政策,制定对未尽责任的人工智能开发或部署行为的监督机制,包括内部监督与外部监督两种方式。内部监督应该制定具体的监督和执法措施,包括审计和报告要求,允许对最敏感或高风险的人工智能系统进行彻底审查,确保系统的可审计性,对于不负责任开发或使用人工智能且有过错的责任主体进行惩戒。外部监督应当通过审计进行跟踪,促进系统可追溯性的实现。目前美国国家安全领域没有针对人工智能的专门外部监督机制,仅在内部监督方面进行了落实,因此外部监督的具体做法和机构设置仍是悬而未决的问题。

4 美国指引人工智能的启示与借鉴

2017年7月18日,国务院印发《新一代人工智能发展规划》[11],成为我国在人工智能领域的首个系统部署文件,标志着我国人工智能国家战略正式拉开序幕[12]。在人工智能的发展过程中,我国可在理念层面和实操层面学习美国的经验和方法,通过明确人工智能的伦理和法律准则,为人工智能的发展提供指导思想,同时强化人工智能的可审计性、可追溯性、可解释性与可依赖性,推动其沿着正确发展方向前行。但对域外经验的借鉴绝非照搬照抄,美国虽然在指引人工智能顺应本国价值观的方法上具有先进经验,但其终极目标的价值观并非完全正确,因此对我国而言,可以借鉴和学习其指引人工智能的方式,但绝不能对其价值观进行移植,应当对美国指引人工智能中的误导和歪曲行为进行甄别。

4.1 理念层面:明确人工智能伦理与法律准则

为促进人工智能的健康发展,确保其符合伦理与法治要求,应针对性制定人工智能发展的标准,为人工智能发展提供评估的依据。人工智能发展的目标是造福和服务人类,应当避免技术对人类的消解与威胁。美国在人工智能发展方面一直积极出台各项战略计划,专注“人工智能优先”的战略思想,通过多个官方文件推动伦理与法律准则的落实,并在具体的操作方面进行执行。例如2019年美国白宫更新《国家人工智能研究发展战略计划》[13],扩展人工智能研发战略重点。《国家人工智能计划法》中提出科技企业和国家科学基金会计划受助人应当制定道德伦理声明。该声明包括以下几点:a.研究的潜在社会效益;b.对社会造成的任何可预见或可量化的风险,包括该研究中有意或无意带来的重大社会危害的产品、技术或其他成果;c.技术或社会解决方案如何减轻这种风险,并制定采取这种减损措施的计划。国防部试图通过制定人工智能伦理准则的方式,向外界保证美军会以符合伦理和负责任的方式推动人工智能的军事应用,从而塑造美军内外对于人工智能军事应用的信任和信心,减少舆论障碍。以人工智能面临的歧视问题为例,在智能技术高效率运行的情况下,潜在的歧视会被无限的重复,进而被不当强化。NSCAI在指引人工智能发展的过程中,也对歧视问题进行了考虑,并在上述理念层面采取的措施中避免歧视被人工智能扩大。

我国在国家战略层面重视人工智能发展,并已出台政策进行指导。2019年6月,新一代人工智能治理专业委员会发布《新一代人工智能治理原则》[14],提出人工智能伦理和法律的“三步走”战略目标,到2025年,“初步建立人工智能法律法规、规范伦理和政策体系,形成人工智能安全评估和管控能力”。2021年9月,第一套人工智能伦理规范《新一代人工智能伦理规范》[15]发布,细化落实《新一代人工智能治理原则》,将伦理道德融入人工智能全生命周期,为人工智能应用的相关活动提供伦理指引。到2030年,我国将建成更加完善的人工智能法律法规、伦理规范和政策体系。我国可以借鉴美国战略出台和更新的方式,在2030年前将人工智能伦理与法律准则明确规定在官方文件中,作为人工智能发展的指导思想,继续完善人工智能的顶层设计,重视人工智能产生的风险,坚定人工智能的发展目标。通过伦理准则的明确,在算法运行之前对歧视问题尽可能消除,在算法运行之初及时发现歧视现象的存在,进行中止和补救措施。通过政策与法律的完善,避免人工智能为公共利益而过度侵犯个人利益。推动人工智能发展的前提必须是确保其有效、合理、合法、可控,保证其有序应用和良性发展,通过道德约束和法律规范防止技术的滥觞。除了运用相关的伦理道德约束外,人工智能还应遵守包括管理、研发、供应、使用等不同阶段的规范,促进人工智能的公平与安全,避免偏见、歧视、隐私和信息泄露等问题。

美国人工智能发展中存在错误的价值观,在国际社会企图打压其他国家的人工智能发展,以实现自身霸权。例如在加紧发展自身人工智能技术实力的同时,美国已经开始在关键技术领域对中国采取遏制手段,企图构建自身主导的人工智能技术标准,以保持科技领先地位,这种方式无疑是作茧自缚。正如2021年6月2日,美国总统科学顾问兼科技政策办公室主任埃里克·兰德尔正式上任时针对拜登总统关于人工智能竞争的问题,发表公开信称,引领全球科技发展给美国经济繁荣和国家安全带来深远好处,而不仅仅是让美国企业在全球市场中尽占先机[16]。即打压其他国家人工智能等高新技术的发展空间也会伤害了美国自身的利益,在人工智能领域进行冷战式“零和思维”只会让双方都陷入困境,不同国家之间的技术差异,也加剧了国家之间的人工智能发展的不均衡,进一步导致了“数字鸿沟”这一现象[17]。在借鉴美国发展人工智能的方法时,我国应对其中的偏激理念进行甄别,避免以正确的方法实现错误的目标,未来人工智能的发展将不再是某个国家的事情,而需要全球命运共同体的齐心协力,适当缩小数字鸿沟,才能维护人类社会整体福利。

4.2 实操层面:强化人工智能的基本特点

a.可审计性强化。

人工智能的审计需要通过内部和外部审计者的评估实现,并通过评估报告验证和呈现技术的可靠性。可审计性对于建立和维护用户对人工智能系统的信任至关重要,具体包括审计监督人工智能的设计和运行流程,检测人工智能系统的能力,并进行跟踪分析等。可审计性的强化需要针对技术制定具体的监督措施,包括审计标准和报告要求。人工智能系统的开发信息需要尽可能永久保存,以备审计所需,避免由于科学人员流动性引起的信息丢失。对于敏感和高风险的人工智能系统应进行彻底审查的机制,在涉及如人身安全等人类基本权利的应用中,人工智能系统应该进行独立的审计。对于人工智能的审计,可以借鉴美国人工智能问责治理的内部监督与外部监督方式,从内部审计和外部审计两个方面进行。对于算法的监管和审计曾有“算法师”这一职责的提出,其中“外部算法师”类似政府审计与外部监督员,“内部算法师”类似企业内部监督大数据活动的工作[18]。强化人工智能的可审计性应通过内部审计提前识别风险,从而明确风险职责,同时对外部审计结果进行承认。

b.可追溯性强化。

增强人工智能的可追溯性,是人类操控和更新人工智能模型的重要内容。人工智能是从数据中学习复杂系统隐含的内在规律,基于先验经验和统计模型进行数据预处理和建模分析,可追溯性要求人类掌控人工智能的学习规律,明确其分析原理和分析过程,人工智能系统产生决策使用的数据集和过程都应该记录下来以备追溯,并且应该增加透明性,对收集的数据和算法使用进行记录。而技术发展的局限降低了人工智能的可追溯性,导致人工智能系统的发展进入瓶颈。在数据资源方面,美国的政策是扩大专家获取高质量、有效和完全可追踪的联邦数据、模型和计算资源,用于联邦资助的人工智能研发,提高美国人工智能专家的竞争力。《维护美国在人工智能领域领先地位》行政令中指出:所有机构的负责人应审查他们的联邦数据和模型,以确保更多非联邦人工智能研究团队访问和使用的机会[19]。2021年12月,美国防部正式设立首席数字与人工智能官(CDAO)一职,以加强国防部的数据与人工智能技术开发应用[20]。我国在人工智能可追溯性的增强方面,可以吸收美国对数据的开发经验,公开、可用的数据对人工智能技术研发有关键作用,且数据多样性、深度、质量和准确性显著影响人工智能能力,因此必须夯实人工智能开发需具备的数据集、测试和训练资源基础。人工智能技术的发展离不开人才培养,人才的流失可能意味着失去对稀缺的人工智能专业知识的全球竞争力。美国第二号国防教育法案(National Defense Education Act II)作为培养科技人才的重要举措,指出解决美国科技教育体系中的不足。同时,美国通过新的激励措施和为技术移民在办理签证、绿卡以及寻找工作方面提供便利等举措,鼓励更多人工智能人才在美国学习、工作和定居。2021年5月,美国参议院议员提出《人工智能能力与透明度法案》和《军事人工智能法案》,前者致力于落实人工智能国家安全委员会最终报告给出的建议,改进人才招募制度并加速采用新技术,增强政府使用人工智能的能力及透明度,后者致力于改善军队各级人员的人工智能教育与培训计划,使其能更好地使用人工智能。2022年2月4日,美国通过了《2022年美国竞争法》,明确出台了对芯片行业的扶持计划。美国将创立芯片基金,拨款520亿美元鼓励私营芯片企业在美国建厂,创造就业机会的同时,支撑国家安全。在该法案的特别条款中,美国放宽了包括人工智能专业人才在内的科技人才绿卡配额。以此为鉴,我国也应注重人工智能领域人才的培养,通过教育强化与基金扶持等方式,避免人才大量外流,提高人工智能技术背后的团队素质,通过提升技术手段,实现为人工智能系统可追溯性的提升。

c.可解释性强化。

可解释性的强化归根结底是对技术解释能力的强化,意味着人工智能系统的可描述化、可程序化等,增强人工智能的公开性和透明度,以此减少公众对人工智能的疑虑和担忧。目前人工智能的可解释性仍在不断完善,与人工智能有关的大部分数据依然存在保密、访问受控以及受隐私保护等问题,因此在监督过程中需要在可追溯性的需求和数据保护之间寻求平衡。面对不断多元化、复杂化的人工智能安全风险,应加强跟踪研究以增加其公开透明程度,建立安全情报信息共享机制,定期发布相应的研究报告,对相应的管理规范和指引进行动态调整。美国联邦政府承诺,将以符合《宪法》和美国价值观并保护公民自由和隐私的方式充分利用人工智能,明确要培养公众对人工智能技术的信任和信心,并在技术应用中保护公民自由、隐私和美国的价值观。我国可以借鉴美国问责治理制度,适应人工智能监督的较强技术性。可解释性的前提是能够有效厘清技术运作的方式,明确输入资料和输出结果之间的关联性,以此来判定通过技术产生的结果是否恰当,是否存在偏差或者是否有歧视[21],因此需要更多对专业知识有了解的人对其进行解释,从而增加公众的信任度。政府或国家决策者应对人工智能的研究和应用加强引导、监督和管理,广泛开展智能知识普及,提供智能产品的服务和加大智能培训力度,建立健全公开透明的人工智能监管体系,督促人工智能行业和企业加强自律,切实履行社会责任。

d.可依赖性强化。

人工智能系统应当成为人类的辅助工具,而非干预人类甚至取代人类,进而引发系统失控的风险。人机交互是人工智能和人类共同协作的过程,这一过程以人工智能系统的可信赖性为基础,人类需要增强对人工智能系统的信任,进一步增强与人工智能的互动。在人机交互过程中,人类和系统需要有共同目标,并执行各自任务,以达成协调的合作。美国作为人工智能发展较为发达的国家,在人机交互层面仍在不断探索中,人机混合智能和态势感知机理相对模糊、机制较为混乱,由此而产生的智能只描述了事实性计算,缺失了人的情感性、价值性和责任性。人工智能系统在与人类高效协作时,应实现个性化适应,从而提升人机沟通能力。人机交互应不断迭代发展,最终实现个性化的辅助决策系统,达到人与机器的最优匹配。此外,为了增强人工智能的可依赖性,提升人工智能的安全性能,我国应建立人工智能安全责任制度。结合美国构建责任框架和问责机制的思想,设立安全问责框架并进行落实,促使各相关主题树立责任意识,一方面明晰组织内部责任分工,建立责任制;另一方面明确系统开发设计、使用、维护等不同阶段对应主体的责任。

5 结 语

人工智能飞速发展的同时,与之相伴的误解、误判等问题也需要及时解决。国内现有研究虽然试图解决这一问题,但并未从政府引导人工智能适配我国伦理与法治的角度进行分析,更极少将域外经验应用于中国特色社会主义伦理准则与法律体系中。面对人工智能引发的伦理与法律问题,美国已经采取措施对人工智能的健康发展及时指引,通过增强人工智能的可审计性、可追溯性、可解释性和可依赖性,开发和运行符合伦理和法治的人工智能系统,促进人工智能契合人类的需求,解决因人工智能技术和系统应用带来改变而产生负面影响,满足技术不断提升的同时维护安全。我国应当对域外经验中的可取之处进行吸收,对其中的误区进行避免,通过理念层面和实操层面的双重努力,进一步加强人工智能体系化布局,加快人工智能安全风险研判,完善风险管理体系,确保我国的人工智能依照伦理和法律稳步发展。

猜你喜欢

伦理人工智能系统
《心之死》的趣味与伦理焦虑
Smartflower POP 一体式光伏系统
WJ-700无人机系统
护生眼中的伦理修养
基于PowerPC+FPGA显示系统
2019:人工智能
人工智能与就业
连通与提升系统的最后一块拼图 Audiolab 傲立 M-DAC mini
数读人工智能
下一幕,人工智能!