APP下载

技术伦理学视域下的网络安全规范路径

2018-05-14张旺刘戟锋

湖湘论坛 2018年2期
关键词:综合治理网络安全人工智能

张旺 刘戟锋

摘要:人工智能技术的迅猛发展给网络安全领域带来了发展机遇和严峻挑战,在丰富网络社会治理路径的同时,也带来了合理利用技术的伦理规范难题。习近平总书记在党的十九大报告中提出了建立网络综合治理体系的目标要求,推动这一要求贯彻落实,最为紧要的便是有效破解网络综合治理体系的建构难题,从人工智能的技术伦理视角推进网络安全伦理规范路径,进而建立规范自律、合理有序的智能化生态化网络综合治理体系。

关键词:技术伦理;网络安全;人工智能;综合治理;伦理规范

中图分类号:C93 文献标志码:A 章编号:1004-3160(2018)02-0130-07

网络安全作为典型的非传统安全,面临的威胁挑战日益增多,不稳定不确定的风险系数不断增高,传统的监管方法手段已经不适用于网络空间的治理,新兴技术的推广运用呈现飞速上升趋势。特别是人工智能技术在网络安全领域的应用价值逐步凸显,其应用前景受到各界广泛关注,并已经在网络安全监测预防、网络治理等方面取得了明显成效。据美国知名风投调研机构CB Insights统计,2016年“网络安全”与“人工智能”两词共同出现在文章中频率快速上升,表明越来越多的讨论将两者联系在一起进行关注。[1]习近平总书记在党的十九大报告中明确指出:“加强互联网内容建设,建立网络综合治理体系,营造清朗的网络空间。”[2]同时也提出了推动互联网、大数据、人工智能和实体经济深度融合的目标要求。这些重要论述既为网络治理特别是网络安全指明了发展方向,也为人工智能在网络安全领域的应用拓展了思路举措。以网络安全为核心要素的网络综合治理体系建构路径,涵盖战略规划、技术治理、法律规制和教育引导等多个渠道,其中伦理规范是框设网络安全运行的重要路径。特别是基于技术伦理学的网络安全认知理念,既为网络综合治理注入了崭新生机,也为人工智能技术在网络安全領域的规范路径提供了有力的伦理支撑。

一、人工智能技术在网络安全领域应用的伦理困境

在现实社会的诸多领域,技术应用本身便可能带来安全与不安全两种后果倾向,这取决于技术本身的风险属性。风险文化学学者斯科特·拉什认为,技术发展造成了全球自然风险,“自然风险包括对自然和人类社会所构成的生态威胁和科学技术迅猛发展带来的副作用和负面效应所酿成的风险。”[3]人工智能技术在网络安全领域的广泛应用,以及技术手段的不断升级,使得新兴技术的复杂不确定性特征逐步凸显出来,不可避免带来了安全隐患和伦理困境等诸多难题,这其中伦理问题是首当其冲需要重点考量的因素。

(一)人工智能颠覆了传统技术视域下的认知观

传统技术的应用前景和实践后果,可以更多地通过技术预见的方法手段加以评估,而人工智能作为新兴技术体现的超前性和巨大功效,应用于网络安全这一非传统安全,产生了极大的冲击影响,极大地颠覆了人们的传统认知观,在某种程度上已经超越了人们的认知界限,使得技术发展的不可控性愈发明显。这种担忧和顾虑亟需从技术伦理的视角进行诠释规范,并将这种伦理理念嵌入人工智能在网络安全领域的实践活动。关于人工智能的忧虑中,最为值得关切的是人工智能的应用伦理及其价值植入的技术限度。就像有的学者指出的那样,“从伦理的视角反思实际的技术,不试图判断现代技术是善,还是恶,我们是应当拥抱它,还是应该摒弃它。技术哲学的伦理转向趋向于认为,我们生活在技术文化之中,技术的引入和使用是社会运行的常态,我们需要以负责任的方式对待技术。”[4]

围绕人工智能正当合理性的论战也持续了很久,引发了多方争议,呈现出两种迥异的认知判断。技术悲观者则认为,人工智能可能导致网络空间秩序失衡,甚至是人类社会的悲剧。如霍金认为:“人工智能技术发展到极致程度时,我们将面临着人类历史上的最好或者最坏的事情。”“人工智能的短期影响取决于由谁来控制它,而长期影响则取决于它是否能够被控制。”马斯克“AI终将灭绝人类”的悲观论调,人工智能却是人类文明存在的根本危险,它会对整个社会造成损害。2015年1月,比尔·盖茨在Reddit的“Ask Me Anying”论坛上表示,人类应该敬畏人工智能的崛起。他认为,人工智能将最终构成一个现实性的威胁,虽然在此之前,它会使我们的生活更轻松。技术乐观者则认为,人工智能会让网络空间变得更加美好。如扎克伯格认为,AI将使我们的未来生活变得更好,而有关AI末日的预言是“相当不负责任的”。雷·库兹韦尔也表示:“要成为一位发明家或企业家,你必须得是个乐天派。对未来所存在的风险,我并非是浑然不觉,我只是对人类安然渡过奇点而无需摧毁文明为代价持乐观态度而已。”随着技术向强人工智能阶段的不断发展,人工智能对网络空间的作用发挥愈发明显,一些不确定性后果与各种信用、道德缺失行为越来越多,将会全面彻底地颠覆了传统技术观,塑造了全新的技术认知观和伦理价值理念。

(二)人工智能伦理与网络伦理的复杂交织

作为人类基本文化现象的技术已经渗透到人类生存的各个方面,构成了人的“生活世界”,并拓展为一个“技术的社会”[5]。技术发展本身的不确定性接着又被经济、政治、文化、伦理和宗教等社会因素放大,演变成更为严重和剧烈的社会风险。还有学者把这自然风险这一客观风险与主观风险叠加的技术风险定义为现代技术风险。随着人工智能技术的普及发展,人工智能伦理已经成为各界研究的重要问题。人工智能在网络安全领域的快速发展,特别是在安全预警、数据分析等方面,已经开始达到并超过人类的认知水平和技能高度。网络空间的隐蔽性和无序化,更应该受到伦理规范的重点约束。伦理道德建设是网络综合治理的重要环节,是网络安全领域法律制度保障的有力补充,形成的影响力更为广泛,也给人工智能伦理与网络伦理的动态交织、互补规范,带来了更为严峻的挑战和难题。

人工智能技术与网络安全领域都具有鲜明的信息化特征和时代属性。“技术伦理是对技术活动运行过程中所涉及问题的伦理把握,是对技术活动的对象、过程、后果对人类本身及其生存环境与条件所产生的影响的伦理价值观的反思。技术伦理的核心是技术如何为人类的进步和发展服务。”[6]当前,以深度学习为代表的人工智能技术在网络安全的广泛应用,既推动国家战略层面的网络安全防范措施,也为新兴产业提供可靠的网络安全风险防范指导,促进有关部门、关键信息基础设施的运营者以及有关研究机构、网络安全服务机构等之间的网络安全信息共享,加快推动人工智能与产业企业的融合发展。但由此也带来伦理上的规范难题,如人工智能技术逐步替代了部分网络安全技术人员可能造成的人性伦理缺失、在算法中嵌入偏见歧视的风险,以及对网络隐私权和知识产权的破坏影响,甚至有可能挑战以往划设的网络安全伦理禁区。

(三)创新发展与安全可控的辩证矛盾

网络技术伦理悖谬是在网络技术实践过程中产生的与人们的主观动机和应用技术的目的相反的现象。创新需要冒险精神,但同时也可能带来失败甚至产生不可估量的后果。如何权衡创新发展与安全可控之间的度量,需要通过技术伦理的视角加以审视评估。技术的发展不仅给人类带来了巨大的福祉,也使我们遇到了多样的风险与挑战。只有对技术的发展结果做出合乎伦理价值的评价,才能制定出有益于社会发展和人类进步的文明进化规则,引领技术发展向着正确的方向迈进,体现对人类自身利益的终极关怀。

由于网络安全领域的数据基础流量非常大,很多环节只有人工智能才能进行科学处理,人工智能必将淘汰、替代这一领域的很多岗位,也将创造很多新的岗位,这些新兴岗位的技术含量可能更高,也会进一步推动社会进步和科技发展。人工智能技术给网络安全领域带来了巨大的变革,也同样带来了不可避免的困惑。如对网民个人信息等数据隐私造成的无意识侵犯,以及由于算法和模型制定者潜在的认知偏差造成的无意识歧视,这些都给网络安全带来了潜在危机和巨大隐患。如何防止人工智能技术的滥用和异化,解决技术发展与安全可控之间存在的矛盾问题,确保技术运用始终围绕可靠动机展开,避免在实际操作过程中带来的与伦理规范的不一致和冲突。

(四)人工智能的网络安全伦理规范仍有缺失

技术是确保网络安全稳妥可靠的关键所在,只有自主掌握核心技术,才能在网络攻防对抗中占领先机,以技术防治漏洞,用技术杜绝风险。而伦理规范则是确保技术运用不偏离使用者本意的重要途径,也是发挥技术功效的倍增器。当前,以人工智能为代表的新兴技术已经在网络安全领域发挥着越来越重要的作用,对维护网络安全起到了极大的推动促进作用。如运用机器自我学习和自我意识的基本原理,结合网络空間安全治理的现实需求,能够拓展深化网络安全治理研究视野,从技术驱动的角度对网络安全社会共治作出丰富完善,缩短网络安全治理周期,扩展网络安全治理参与群体规模。但要看到在技术应用方面仍然还有很多需要突破的环节和提升的空间,技术的使用掌控与伦理规范还远远未达到理想地步。近年来爆发的网络安全恶性事件,凸显了存在的技术应用隐患问题和伦理规范缺失,技术成熟度和伦理约束度还有很多需要加以提升完善的地方,如加快探索新兴技术在网络安全伦理规范下的作用机理和驱动机制,加深对伦理规范治理方法的研究运用,进一步加强网络安全防范能力和风险规避能力,从技术伦理视角建立完善网络空间治理和服务标准体系等。

二、人工智能在网络安全伦理规范上的国际经验

人工智能技术是网络安全领域最活跃、最具可变性的因素。以深度学习为代表的人工智能技术在网络安全领域的应用,已经在美国等国家取得了一定的研究成果。全球第一个基于深度学习提供商业化网络空间安全解决方案的公司(Deep Instinct)已于2015年11月在旧金山成立,该公司宣称其安全解决方案能够抵御未知攻击,能够即时地检测漏洞威胁和网络攻击。2017年10月15日,英国政府网站发布《英国人工智能发展报告》中特别提到了网络安全公司Darktrace,该公司已经把人工智能技术应用到网络安全领域。当今世界,网络安全规范正加速向智能化方向发展,呈现出战略设计、技术治理、法律规制、伦理规范、教育等全方位的发展态势,对国家安全和经济社会稳定产生了极为重要的影响。越来越多的国家重视人工智能伦理研究,形成了各具特色的网络安全领域伦理规范路径。

(一)制定伦理规范原则标准

伦理规范并不仅仅是简单的概念框设和理念约束,而更多地趋向于从定量视角进行相关原则的安全审查与伦理审查,这样既提高了规范标准的适用性,也提高了实践运用的可操作程度。在这方面,国外取得了比较成熟的经验可供参考借鉴。早在2015年,英国剑桥大学新建了一个研究中心,致力于人工智能未来并旨在影响其道德伦理发展。2016年7月,全球领先的AI研究者在纽约的研讨会上讨论了人工智能技术对社会和经济的影响。2016年9月,斯坦福大学主持的“人工智能研究一百年(One Hundred Year Study on Artificial Intelligence)”项目组的研究人员发布了第一份研究报告,描述了AI技术到2030年将对北美城市生活产生怎样的影响,并提供了相关的原则标准。2016年底,IEEE启动了人工智能伦理工程,发布了《合伦理设计:利用人工智能和自主系统(AI/AS)最大化人类福祉的愿景》,从可操作标准的层面为伦理嵌入提供指引。2017年初,美国麻省理工学院媒体实验室(MIT Media Lab)与哈佛大学伯克曼·克莱因互联网与社会研究中心(Berkman Klein Center for Internet & Society)合作推出一个预计耗资2700万美元的AI伦理研究计划。微软发布《人工智能政策建议》,鼓励制定最佳实践伦理准则。英特尔在发布的《人工智能公共政策机会》中对外传达了英特尔对人工智能技术的社会影响回应,包括重新思考隐私,合伦理的设计以及配套的可责性原则。

(二)成立伦理监督委员会

人工智能在网络安全领域的广泛运用,引发了各界的普遍忧虑。面对构建人工智能技术日新月异的发展进度和网络空间治理的严峻挑战,国外相关机构不光注重从技术层面进行治理,同样注重从伦理道德层面进行规范。一些部门和研究机构相继开设伦理委员会,研究人工智能在网络安全领域应用的伦理学问题,探索人工智能技术在网络安全领域的伦理规范路径,并围绕技术和科研政策问题制定相关伦理指导守则。IBM,Watson团队很早就成立了伦理审查委员会,IBM在2017年达沃斯世界经济论坛上公布了其发展人工智能的三个基本原则,不以取代人类为目的,增加透明性,以及提高技能培训和供给。谷歌、Facebook等五大科技公司(苹果公司后来加入)联合组成的人工智能合作伙伴关系也对外宣示了科技公司对人工智能社会影响的重视,希望技术能够造福于社会经济生活和人类自身。其中,谷歌DeepMind团队最近宣布成立人工智能伦理部门,表明其在加强人工智能技术研发和应用的同时,也将伦理等人工智能公共政策提上议程,负责任地研究和部署人工智能技术。2017年10月24日,代表硅谷等科技行业发展利益和需求的美国IT(信息技术产业理事会)发布首份《人工智能政策原则》,从人工智能发展和创新的角度回应舆论关于失业、责任等的担忧,呼吁公私合作,共同促进人工智能益处的最大化,同时最小化其潜在风险。

(三)注重人工智能应用的伦理约束

人工智能在数据感知、搜集、分析、处理等方面的巨大优势,使得这一技术成为辅助决策、提高判断准确性的重要工具。在网络安全领域,人工智能作用功能在很大程度上体现为其对人类已有预见预知能力的改变,而且这种改变是基于海量数据分析基础之上的,可信度和可靠性极高。以美国大选为例,竞选期间,剑桥分析公司曾向特朗普团队出售其服务。该公司建立了一个庞大的美国人信息库,善于利用选民的个人资料通过人工智能技术手段分析选民性格,进而推断选民的政治倾向,然后有针对性地对不同人群投放不同的广告信息,以影响他们的选票取向。2016年美国总统选举前几天,CNBC报道说,一个印度创业公司开发的人工智能预测特朗普将赢得选举,尽管当时的大多数民意调查表示希拉里领先。人工智能在网络安全领域的应用,在某种程度上将会改变人们的固有认知系统和分析习惯,从而做出对操控者有利的判断和选择。如果缺乏必要的伦理规范和道德约束,这种非常理的技术应用可能会造成社会秩序的混乱,并影响相关群体的利益。因此,国外特别注重对人工智能技术的伦理规范,设定伦理禁区,并阻止人工智能向军事领域的过度渗透发展。

三、人工智能在网络安全领域伦理规范的路径

近年来,人工智能技术已经成为国内网络社会治理的重要手段,愈加发挥不可替代的作用。如何将网络安全这一特殊领域与人工智能技术更好地结合起来,将伦理规范理念融入管理运维全流程中,是解决社会发展中的网络安全隐患和互联网黑色产业链等突出问题的重要方法。在推进基于人工智能的网络安全伦理规范目标下,还有很多亟需解决的现实问题。

(一)审视伦理规范的价值作用

人文社会科学研究本来就应该超越自然科学的发展,就像我们不能等克隆人产生之后再来研究克隆人的伦理与社会问题一样,我们必须在人工智能产生安全问题之前就做好充分的理论准备。技术运用配以伦理规范,能够有效避免可能产生的技术异化,防止一味追求技术效率和利益产出,而忽视方法手段的合理性,甚至做出不顧伦理约束的举动。同时,网络安全需要人和人工智能合力共建,伦理规范的对象既包括以人工智能为代表的新兴技术,也包括网络治理闭环回路中的人;既需要将伦理规范意识嵌入人工智能系统,也需要重新审视人的伦理道德建设是否契合网络社会治理。只有准确把握政府机构、企业、社会组织和广大网民等在网络综合治理体系中的角色定位,不断强化多元社会主体的安全意识和责任担当,才能构建起网络安全发展的新秩序,主动把握发展新机遇。其中,政府要转变治理理念,理顺运行机制,强化属地担当;企业要积极承担网络治理义务,推动网络开放协作共享,切实服务国家发展战略;社会组织要充分发挥建言咨询作用,强化自身监督职能;广大网民要增强网络治理意识,学习提升网络安全基本防护常识。网络综合治理体系中的多元社会主体不断强化伦理道德约束,在强化行业监督和个体自律的前提下推动共建共治共享,才能确保网络综合治理体系科学运行,这也是我们当前需要深入思考的社会问题和迫切解决的现实问题。

(二)探索推进伦理规范的国际合作长效机制

基于重大网络安全问题进行伦理分析,并对人工智能技术加以伦理规范,在国外已经取得了初步成效和宝贵经验,给我们带来了很多参考借鉴的地方。而探索一条适合自身的伦理规范路径,加强基于网络安全伦理规范基础的国际合作便显得尤为重要。尽管各国对网络空间需要协同治理这一问题已经基本达成共识,但由于治理主体的政治体制、价值观念、文化法律、利用驱动等存在明显区别,各国对彼此间交流合作协同机制还存在认知偏差和行为分歧。在各国间求同存异呼声日益高涨的国际环境下,探索推进伦理规范的国际合作机制,能够将体现中国传统伦理的“网络空间命运共同体”这一中国主张更好地向国外传播,并逐步成为国际社会所接纳的网络空间全球治理的主导理念。

2017年麦肯锡发布的《2017人工智能影响中国报告》中,便提到了“在中国公民和全球社会之间建立道德上和法律上的共识”的内容。2017年12月1日,IEEE新版人工智能与伦理白皮书发布预告会在中国科学院召开,IEEE标准协会、IEEE中国办公室与中国科学院科技战略咨询研究院便围绕人工智能与伦理全球倡议进行了科学解读,探讨了加强国际合作推进全球人工智能安全平稳发展的伦理路径。国际伦理规范合作机制的成熟完善,还能将国外的宝贵经验为我所用,避免走不必要的弯路,同时为双方合作推进网络安全领域伦理规范提供了深化交流平台。这一机制将极大地超越伦理规范固有的地域界限和认知偏差,便于共同探讨人工智能技术伦理的共性与地域性特征,进而形成基于自愿、共识基础上的全球伦理标准和网络安全领域最佳实践的伦理准则。

(三)加快推进伦理规范的组织机构建设

2017年7月20日,国务院发布了《新一代人工智能发展规划》,对人工智能技术在准确感知、预测、预警基础设施和社会安全运行的重大态势方面进行规划展望。2017年11月15日,科技部在京召开新一代人工智能发展规划暨重大科技项目启动会,宣布成立由15个部门构成的新一代人工智能发展规划推进办公室以及战略咨询委员会。随着国家层面全面启动人工智能发展规划,结合人工智能的技术优势与伦理规范的理念优势,丰富完善网络安全治理的组织机构建设,能够为提升网络治理水平和维护网络空间安全提供高效的战略规划和技术支撑。

推动人工智能在网络安全领域创新发展,既需要专业技术人才,同样也需要伦理规范研究方面的专家人才。要加快推进人工智能和网络安全方面的研究机构建设,培育发展人工智能与网络安全的交叉学科,设立人工智能伦理课程,推广网络安全意识教育,进而形成特色鲜明的伦理规范人才队伍。要积极借鉴国外成熟经验,探索建立国家层面的人工智能和网络安全领域的伦理监督委员会,对网络安全领域伦理规范情况进行检查督导。同时,政府、企业、社会组织、学术界等相关研究机构应成立伦理研究所,围绕人工智能的网络安全产品进行伦理设计,通过引导使人工智能技术向符合道德的方向发展,不断推动伦理规范的效果提升和成果转化。

参考文献:

[1]CB Insights.Cybersecuritys Next Step: Artificial Intelligence Is Helping Predict, Prevent, And Defeat Attacks[EB/OL].(2015-09-20)[2017-10-05]https://www.cbinsights.com,2016-11-02.

[2]习近平.在中国共产党第十九次全国代表大会上的报告[M].北京:人民出版社,2017.42.

[3][英]斯科特·拉什.王武龙,译.风险社会与风险文化[J].马克思主义与现实,2002(4):52-63.

[4]顾世春.柏瑞预知性技术伦理研究[J].自然辩证法研究,2017(1):19.

[5]朱葆伟.关于技术伦理学的几个问题[J].东北大学学报:社会科学版,2008(10):283-288.

[6]杨伟宏.风险社会视域下的技术伦理[J].学术交流,2009(10):43.

责任编辑:肖 琴

猜你喜欢

综合治理网络安全人工智能
全国多地联动2020年国家网络安全宣传周启动
新量子通信线路保障网络安全
2019:人工智能
人工智能与就业
保护个人信息安全,还看新法
数读人工智能
涉毒案件场所变化趋势的分析
小流域水土保持综合治理问题探讨
下一幕,人工智能!
中国网络安全产业联盟正式成立