APP下载

科学史视域下人工智能的伦理反思及管控启示

2020-12-13安烁羽商光美

关键词:伦理人工智能算法

安烁羽 商光美

(1. 上海交通大学马克思主义学院, 上海 200240;2. 福州大学马克思主义学院, 福建福州 350108)

21世纪的人工智能构建了全球性的变革,其迅速性和便捷性带来包括伦理在内的新挑战,在造福人类的同时,也带来潜在的威胁,人们不仅关注科技创新带来的文明智慧,更需要对其带来的科技伦理和道德问题给予重视。

一、人工智能伦理的重要缘起

人工智能触及人们传统的的价值观,它的滥用会不可避免地冲击现有的伦理,作为维持人类发展的基石,科技价值固然很高,但是伦理观念中离恶向善的共性也不可抛弃,人类的发展史就是在科技与伦理之间维持自己与他人的天性中不断进化发展起来的。

(一)人工智能威胁论

随着人工智能的发展,大批企业使用机器流程自动化技术,手工作业被自动化取代,此举将会增大重复度高、取代性强的工作岗位对应的工作人员失业风险率。在此过程中可能遇到显著的短期风险,如算法漏洞存在安全隐患、算法偏见导致歧视性政策的制定等,也可能面临潜在的长期风险,如对产权、竞争、就业甚至社会结构的影响。对于许多技术奇点论者面言,“智能”是至关重要甚至唯一的标尺;人类智能被视作这个标尺上的一个里程碑式的节点,一旦人工智能跨越了这个节点,技术奇点就将到来,威胁也随之降临。[1]当科技的发展取代人类的劳动,人类可选择的岗位逐渐减少,产业发展趋势也渐渐从劳动密集型向智能集约型过渡,传统意义上的劳动力也由个人逐步向机器转变。人类对于科技成就生活之美的向往并没有在现实中得到体现,反而感受到人工智能技术对于自身的威胁。在这样的状态下,社会贫富差距将会进一步扩大,导致周期性贫困和收入不平等。若财富分化悬殊,小部分工作者所得财富远大于多数失业者,必将导致失业群体的不满,激化社会矛盾。[2]人类的思维不断被人工智能技术奴役,依赖现有科技所能提供的服务和帮助,对其依赖程度上升,对新鲜事物的敏锐程度和学习能力减退,最终影响人类灵感的迸发以及对于世界的革命性改造,也从伦理角度对人们提出警示。

(二)科技伦理的缺失

人工智能为核心的新技术的应用,使遵循理性规则的机器在一次次赢取与人类的较量后,自主程度逐渐提高,但其永远无法与人类具有相同的价值观,当偏离人类预期,道德价值逐渐消失,传统的伦理就会被绑架。人们不应仅赞叹科技创新所蕴含的文明智慧,更多的是要重视其裹挟的科技伦理道德问题并进行思考。人类不是瞬息的单调的去生活,永恒才是人类继续生存和繁衍的基础,而这个基础就是“善”。英国物理学家史蒂芬·霍金教授曾认为开发完全的人工智能,具备自我启动与高速自我更新能力,而人类受到缓慢的生物进化限制,无法与之竞争,最终人可能将会被取代,导致人类灭亡。当人工智能作为独立的个体可以做出自己的决定,便具有了“自主意识”,也就无法保证它的想法与人类一致。此时,它的能力将全面超越人类时,不再是被人类控制的“工具”。假想有一天,人工智能技术已经成熟到能够轻松掌控整个世界的脉络,进而控制了人类的思想,这就导致伦理道德观念发生彻底的转变,因为原先人类主宰的社会所设定的道德伦理准则都是建立在人类具有独立思想的基础上,是为人类的认知和意识所主导的,而当人类被人工智能所控制,取代人类成为社会的主宰者,人类所具有的意识形态就不再尊崇内心真实的想法,而是在人工智能的控制和摆布之下所产生,那先前形成的认知观念将被颠覆,价值体系也将被推翻。

二、人工智能伦理的主要挑战

随着时间的推移,科技与人文的异化作用愈发显著,造成其背后所隐藏的弊端逐步显露,尤其是对于社会伦理的挑战,当这种技术延伸到个人隐私的侵犯、性别的偏见与歧视、公众安全威胁等道德伦理方面,人类可能就会在统治了数亿年的自然环境中失去主动权。

(一)基于自身利益的挑战

除了算法在实际运行过程中所遇到的不可预见问题,自身利益是伦理利己主义这一道德理论的唯一基础。[3]对于智能算法,基于自身的利益, 程序员的任务是解决如何使机器能够很好地学习去完成任务,就利益本身而言,也可能成为引起安全问题的一大因素。无人驾驶传感器尚未开发自我清洁功能,导致无法在雨天进行相应测试,真正实现全天候自动驾驶依旧存在诸多困难和挑战,需要一定的时间等待技术的完备,试想如果企业出于自身利益脱离道德标准的束缚,将尚未成熟的技术推向市场,势必会触发安全隐患。如果把人工智能看作是物质上的东西,那么它随时可能成为危害人类的可怕工具。任其无约束地发展,它的潜在成果既有可能造福人类,更有可能摧毁人类生存环境和打破社会秩序。正如江晓原教授所说,科学只是工具,我们的目的是追求人的幸福,如果因为急于发展某项科学技术而危害了人们的幸福,那就是本末倒置。[4]

(二)基于技术本身的挑战

人工智能的核心是大数据和算法,通过基于算法的大数据分析,实现数据驱动的人工智能决策。算法从设计、训练到使用,算法的训练数据不能完全覆盖应用场景的所有情况、处理步骤无法保证完全按照原始步骤进行以及允许错误率存在一定的弹性等问题。目前的人工智能发展领域,最引人关注的是无人驾驶技术。作为优先考虑的安全问题,无论在何种情境下,系统必须用最完备的方案保证他人的人身与财产避免因算法失误导致危险情况的发生。尽管对危险源有大概认知, 但对其范围难以清晰加以定义而产生的潜在额外风险。[5]很多时候算法也具有局限性和不可预见性,2018年3月18日,Uber发生一起无人驾驶汽车致死事故,起因是这辆车的传感器在探测到一位行人正在横穿马路的情况下,自动驾驶系统没有及时采取紧急避让措施。这起事故从表面上看是由技术问题所引起,在出现上述紧急情况时,系统所执行的算法依然无法脱离对人的依赖而做出相应调整,实现相对合理的应急处置,而这也正是其做出错误选择的原因。事实上,安全隐患的背后所折射出的是道德伦理的问题。

(三)基于隐私保障的挑战

人工智能的开发依托各种渠道收集海量数据,在获取数据过程中不可避免地会侵犯到人们的各种隐私。因为数据的采集与使用会无意间忽略人们对个人数据的控制权和个人的自主权,同时很多数据也并不是专门搜集并完全服务于原始目的。“换脸”软件ZAO一度引发人们对于人工智能换脸技术和用户隐私保护话题的讨论,用户可以上传自己的照片,通过人工智能换脸功能,让自己变成热门影视剧中的男女主角,随后还可以将小视频分享到社交平台。随着相关算法的深入,这种人脸图像和视频的伪造度更加真实,潜藏的用户数据安全和隐私方面的风险也越来越大。就像潘多拉魔盒,一旦打开,有惊喜,也有风险。伦理是人和人,人和社会,人与其他物种相处遵守的规则,而目前,这原本稀缺的信任关系被一些新技术推向深渊,让人与产品之间的信任关系降低,矛盾冲突显现。无独有偶,斯坦福大学计算机系的一名教授声称通过人工智能技术能够实现“同性恋面部特征识别”,可以更加准确地判断出同性恋信息,消息传出,引发大量批评,因为这会对同性恋群体造成潜在的威胁。虽然这位教授使用的数据部分来自于在社会调查中主动公开出柜的人,但同样还存在大量未公开自身性取向的同性恋群体,如果通过其他手段索取他们的数据用于研究,将会对该部分群体的隐私造成侵犯,而这本身就与人类社会固有的伦理和道德背道而驰。

(四)基于平等公平的挑战

随着人类文明水平的不断进步,社会发展水平的不断提高,公平成为文明社会的标志之一,也是社会体系构建过程中最基本的一条准则。公平的意义在于不同地区、不同人种以及不同身份的人在面对同一件事情时能够被同等的态度对待,然而人工智能技术的引入让不公平的一面再次显现。通过一项关于家庭场景中人脸识别的实验发现,人工智能技术存在一定的思维定式,家庭场景元素的特殊性总是与性别直接相关。例如,在厨房中进行的面部识别测试显示男性存在一定概率会被错误地辨认为女性,原因在于人工智能技术在前期的数据训练过程中,所积累的数据具有一定的偏差,产生性别歧视。在训练过程中所包含的信息可能本身并不具有“代表性”,从而变相导致人工智能技术成为性别歧视的元凶。另外一项科学研究表明,通过使用机器学习算法帮助银行提供接受还是拒绝房贷的建议时,黑人申请的批准率大大低于白人申请的批准率,这就是人工智能工具存在的“黑箱”般的不透明性。因此,研发者不仅以高科技的手段和智能化的方式向善地帮助人类,实现原本难以企及的目标,更应该确保在开发、推广或应用人工智能的过程中尊重基本权利、原则及价值,加强对女性、特殊群体的关注,为他们提供更具区别性和包容性的算法方案。

三、人工智能伦理的风险防控

当前,人工智能技术的发展能否摆脱单纯对利益的追求,能否正确平衡道德观念和先进科技的关系,成为未来科技发展方向的关键因素。而决定这一切的基础就是要辨析人工智能技术背后所蕴含的伦理风险,共建规制,只有当人类深刻认识到伦理问题的存在,并有意识地从主观上做出改变,才能从本质上实现科技向善的发展理念。

(一)人工智能伦理观的构建

在科技迅猛发展的当下,世界各国都应携起手来,平衡科技与人文的关系,洞悉人工智能与科技伦理关系,在争议中寻求治理方案,有道德、负责任地共同应对新科技带来的挑战。早在1940年美国科幻作家阿西莫夫就明确提出“机器人三原则”保护人类安全,其中一条便是机器人不得伤害人类,不得看到人类受到伤害而袖手旁观。[6]人工智能伦理不仅在公司发展层面受到重视,在学界也同样掀起一股研究热潮。2019年3月18日,斯坦福大学成立人工智能研究院,致力于社会影响方面的研究,促进科技与人文的协调发展。Facebook公司资助德国慕尼黑工业大学建立专门的人工智能伦理研究中心,开展研究工作。国内企业在谋求科技进步的同时,也不断将伦理观念融入到发展进程中。马化腾在2019年全国两会上就科技伦理建设建言献策,提出《关于加强科技伦理建设践行科技向善理念的建议》。2019年5月《人工智能北京共识》发布,针对人工智能的研发、使用、治理三方面,提出了各参与方应该遵循的有益于人类命运共同体构建和社会发展的15条准则。

(二)人工智能伦理管控举措

人工智能作为新兴的科技革命,产生的伦理问题需要人类共同解决,在宗教、哲学、科学等文化现象之间寻求平衡,让科技伦理达成国际共识。目前对于人工智能伦理研究只有把伦理研究与智能研究并举,让研究成果尽快应用到实际中,才能打通人工智能道德伦理最后一公里。一是企业层面:承担社会责任,确立人工智能生态伦理,在开发技术时用技术与伦理交融的方式观察、预测、熟悉数据权利、数据管理、隐私保密、平等自由等领域内的伦理原则和道德规范,保障研究成果遵守安然原则、公正原则、尊重原则、文明原则和可持续发展原则。二是政府层面:人工智能技术对政府与公众双向赋予权利的同时要强化对他们的双向约束,完善社会保障体系,保障数据安全, 努力防控人工智能导致的技术势差和不平等风险,在立法和监督层面管控日益复杂的算法,处理庞杂的数据,从人文主义层面布局人工智能发展规划,调节技术带来的伦理道德问题,使机器思维符合人类伦理道德。三是社会层面:人人树立科技向善理念,除了研究专家,法律、伦理和社会科学学者也应该参与到人工智能的每个步骤,思考所开发的智能机器技术将会被应用在哪些情境,有哪些违背伦理的可能性,有哪些没有预计到的后果,提前预见可能出现的伦理道德问题。

四、科学史对人工智能的启思

科学是由自然科学与人文科学组成的,没有人文精神的世界是不完美的,树立科学史是作为沟通科学与人文的桥梁这一思想,用智慧对智能技术的发展方向和负面影响及时预测和评估,将科技伦理风险降低到最小值,重新审视和定义人工智能核心价值观,遵循科技伦理发展道路,建立更加持续性、更加公平性、更加透明性的科技伦理体系。

(一)科学史与人工智能的联系

近年来,越来越多的认知科学技术的成果被运用于自由意志、伦理责任研究,面对人类与科技合体的趋势,科技伦理规范着人工智能在实际应用上科技向善的原则,人文精神,能够弥补科技理性之不足,保证机器的行为被伦理约束,使人工智能的未来发展方向与不断变化、不断发展的社会环境保持一致。美国著名物理学家理查德·费曼说:科学知识使人们能制造很多产品、做许多事情。当然,当人们动用科学做了善事的时候,功劳不仅归功于科学本身,而且也归于指导着我们的道德选择。科学知识给予人们能力去行善,也可以作恶。它本身并没有附带说明。[7]由此可以看出,科学的首要价值是由自然科学与人文科学共同决定,如何利用科技伦理约束它,而不是为了盲目追求利益最大化,触及道德底线,打破道德伦理与科技发展的平衡。未来的人工智能技术与互联网结合可以超越智能的物理极限如存储和计算能力,并以难以想象的速度自我进化,从弱人工智能到强人工智能再到超级人工智能,最终失控。[8]

(二)人工智能的人文要素融入

关心人本身应当始终成为一切技术上奋斗的主要目标。科学史家萨顿曾提出,仅仅依靠科学,人类并不能生活得更美好。我们需要清醒地认识到,人类是从文明发展起来的,没有人文的科技是不完美的,人文是内心的调和,重在治本,从内心去,从原点解决问题,才能引领人类迈向更加美好的生活。把科学与文化结合起来,不能让科学伦理道德无关的工具来发展。科学人性化的最好方式,就是对科学历史的考察,必须研究它的发生和进化,这是科学史的使命。随着科学技术的进步,无论人工智能达到怎样的大众化程度,它的发展都不能离开初衷,科技伦理都应该成为其发展的最重要部分,促进自然科学与人文科学共同发展,相互融合与协调。

(三)把握人工智能的向善特征

在科技实力逐级累进的趋势下,将人文科学中对人性的思考,道德伦理的观念充分融入到自然科学中,形成独特的历史观对科学的含义进行重新的定义和解读。人工智能算法在许多场景的应用都与安全、人权和社会等各方面的问题息息相关,这些领域的算法应用一旦出现漏洞,将直接损害人类社会的根本利益,因而人工智能只有受到人文的指引和伦理的制约,才能最小化地迷失方向,步入正确的发展轨道。人工智能的未来可以按照人类所指挥的步骤操作进行,完成人类为其设定的目标,达到至善全能的地步,实现正向发展,这更需要从科学史的视域,审视伦理为技术开发与研究指明方向起到的关键作用,将科技发展与人类生存的意义紧密结合。

注释:

[1] 李恒威、王吴晨:《人工智能威胁论溯因》,《江科学术研究》2019年第4期。

[2] 江晓原:《人工智能:威胁人类文明的科技之火》,《探索与争鸣》2017年第10期。

[3] [美]雅克·蒂洛:《伦理学与生活》,北京:世界图书出版公司,2015年。

[4][8] 江晓原:《你不了解的真相——江晓原说科学》,北京:华文出版社,2019年。

[5] 翁岳暄、多尼米克·希伦布兰德:《汽车智能化的道路:智能汽车、自动驾驶汽车安全监管研究》,《科技与法律》2014年第4期。

[6] 梁洪亮:《科学史与方法论》,北京:清华大学出版社,2016年。

[7] [英]霍金:《宇宙简史》,北京:中国言实出版社,2008年。

猜你喜欢

伦理人工智能算法
《心之死》的趣味与伦理焦虑
哪种算法简便
《白噪音》中后现代声景的死亡伦理思考
Travellng thg World Full—time for Rree
2019:人工智能
进位加法的两种算法
根据问题 确定算法
人工智能与就业
伦理批评与文学伦理学
数读人工智能