人工智能与伦理道德
2019-07-13胡章荣
胡章荣
西华师范大学-教育信息技术中心 四川 南充 637001
1 序言
机器人已经在教育、医疗、军事、家庭生活等多个领域广泛应用。随着技术的发展与进步,几乎可以肯定的是,将来机器人的应用会更加广泛,且在很多地方会与人类越来越类似,甚至非常接近于人类。因而,由此引发的伦理问题也更加尖锐,自2004年1月,正式提出了“机器人伦理学”这个术语后,很多学者就对机器与人的关系进行过研究,并发表了自己的意见。20世纪70年代,德雷福斯曾在《炼金术与人工智能》以及《计算机不能做什么》中,从生物、心理学的层次得出了人工智能必将失败的结论;《走向机器伦理》一文的作者之一安德森表示,随着机器的越来越智能化,其也应当承担一些社会责任,并具有伦理观念,这样可以更好进行智能决策;无独有偶,2008年英国计算机专家诺埃尔·夏基教授就曾经呼吁人类应该尽快制定机器(人)相关方面的道德伦理准则。目前,对人工智能伦理道德的研究主要集中在国外,如2005年欧洲机器人研究网络(EURON)的《机器人伦理学路线图》、韩国工商能源部颁布的《机器人伦理宪章》、NASA 对“机器人伦理学”所进行的资助等[6]。国内研究相对较晚,相关文献也不齐,但最近几年越来越多的学者也开始关注该领域的研究。
2 人工智能的伦理相关概念
伦理是哲学的分支,是研究社会道德现象及其规律的科学,对其研究是很必要的,因为伦理不但可以建立起一种人与人之间的关系,并且可以通过一种潜在的价值观来对人的行为产生制约与影响。如果没有伦理道德,我们的社会会有什么人伦与秩序可言[1]。人工智能伦理学是机器人及其他人为智能生物技术伦理学的一部分。通常划分成机器人伦理和机器伦理,机器人伦理关注人类设计,制造,使用,对待人为创造出来的智能生物时候的道德行为,机器伦理则关注于人工智能产物本身的道德行为[2]。像人伦道德一样,智能机器人也应该受到人工智能伦理道德的约束。
3 人工智能面临的伦理道德问题
微软副总裁沈向洋曾经这样谈到人工智能:人类的智能主要体现在感知和认知两方面,随着计算机语音和计算机视觉技术的发展,人工智能在感知方面的到了很大的发展,但受限于脑科学的发展,计算机在认知方面远远没有达到和人类相比的水。人工智能在创造新的机会的同时也给人来带来了很多忧虑,如果人工智能技术应用出现偏差将会给人类带来很多灾难,包括AI武器化、算法偏见、缺乏透明度、通过AI操纵人类行为、工作流失以及数据所有权等。
3.1 冲击就业 人工智能不仅在重复性的工作中取代了人类工作,也逐渐在很多复杂性的工作中取代了人类劳动力,如,人工智能正在智慧城市,智能翻译,智能谱曲,智能管控等这些过去需要成千上万的劳动力完成的工作中逐渐取代着人类的工作。在不久的将来势必会得到更广泛的应用,取代更多的劳动力,造成大批人员失业。
3.2 财富分配问题 经济体系是以对经济贡献的补偿为基础的,通常用每小时工资来评估。当涉及到产品和服务,大多数公司仍然依赖于每小时的工作。但是,通过使用人工智能,一家公司可以大幅减少依赖人力劳动,这意味着利润可能被分配到更少的人手里。因此,慢慢地,那些以人工智能为主要劳动力的公司将会拥赚到所有的钱,贫富差距日益扩大。
3.3 犯错不可避免 智能机器人来源于学习,在学习初期都有一个训练的过程,在这个过程中通过不断的修正才能得到较高的正确率。显然,培训阶段不能涵盖系统在现实世界中可能处理的所有可能的例子,这些系统在某些情况下会被愚弄,而人类不会。如果我们依靠人工智能将我们带入一个新的劳动、安全和效率的世界,我们就需要确保机器按计划执行,而且人们不能干扰它,以此来为自己的目的而使用它。
3.4 AI遭受攻击导致灾难 技术越强大,它就越能被用于邪恶的或者善意的目的。这不仅适用于生产来取代人类士兵的机器人,或自主武器,而且适用于恶意设计以带来损害的AI系统。如果AI受到具有恶意目的的人的控制,必将导致不可估量的灾难。
4 人工智能伦理的相关法律
随着人工智能在人们生活中应用越来越广泛,也有越来越多的人对这些问题开始思考和制定规则。在过去的两年时间里,有大量的AI研究人员开启对AI伦理的思索[5]。2016年12月,由全球100多名人工智能、伦理学及相关领域的思想领袖和专家共同制定并发布了第一版《合乎伦理的设计:将人类福祉与人工智能和自主系统优先考虑的愿景》;2017 年,人类未来研究所发布的《阿西洛马人工智能原则》,旨在确保AI为人类利益服务,呼吁全世界的人工智能领域在发展AI的同时严格遵守这些原则,共同保障人类未来的利益和安全[7];以行动为导向的2018年峰会重点讨论了能够产生长期效益,并帮助实现联合国可持续发展目标的有影响力的AI解决方案。为了制定一套可作为建立全球标准和立法行动基础的道德准则,EGE 提出了一套基于《欧盟条约》和《欧盟基本权利宪章》的基本原则和民主先决条件。在条约中指明了人工智能伦理道德建设应遵循的原则和方向,包括人类尊严、正义、平等和团结、自由、民主、法治和问责制、安全保障、身心完整、数据保护和隐私、可持续发展九个方面。
5 结语
人工智能正被逐渐应用到各领域,取代人们的工作,各行业对人工智能的依赖性也在不断增加,然而人工智能在认知方面的滞后使得它不能像人类那样去灵活处理所遇到的问题,会给人类带来一定的隐患。因此,在推动人工智能技术发展的同时,也需要加强对机器认知方面的研究,指定统一的人工智能法律法规和相关道德准则。