APP下载

人工智能对人类若干伦理道德的影响问题分析

2020-03-03

漯河职业技术学院学报 2020年6期
关键词:伦理道德伦理人工智能

杨 曦

(漯河职业技术学院,河南 漯河 462000)

随着科技的不断发展,第五代移动通信、大数据、云计算、人工智能已经成为电子信息领域炙手可热的技术,其中人工智能被认为是引发社会创新和产业变革的重要驱动力,具有巨大的发展空间。习近平总书记在中央政治局就人工智能发展现状和趋势进行集体学习时强调:“要整合多学科力量,加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德。”我们在关注人工智能带来的文明智慧和美好蓝图的同时,也需要不断思考和探究其存在的诸多伦理道德问题。

一、人工智能的伦理道德拷问

马克思主义伦理观认为“伦理道德是人们现实生活中由经济关系所决定,以善恶为评价标准,依靠人的内心信念、社会传统习惯和舆论所维系的一类社会现象。”人工智能作为一项革命性技术,对一些领域具有颠覆性影响,不断触碰人们传统的价值观念。目前人工智能的开放性应用场景不断拓展,不可避免地冲击现有的人伦关系,引发诸多伦理冲突,带来各种各样的伦理道德难题,引发了人们对人工智能伦理道德问题的广泛关注和相关讨论。

(一)人工智能是否威胁人类生存

任何事物都具有两面性,科技也是如此,在人类文明进程中,经历了许许多多“危机论”,源于对一些新生事物未知的想象而产生的恐慌和抵触情绪。例如在19世纪中期,工业文明开始起步,蒸汽机车开始“轰鸣”着进入以马车为传统运送工具的西方人的生活,被称为“魔鬼之车”。历史的发展始终由科技所驱动,科技的两面性源于其使用属性,用蒸汽机生产的汽车,推动了人类社会的文明进步;而用蒸汽机生产的武器,却威胁人类生存。人工智能也是如此。随着大量企业使用人工智能技术,实现了生产流程的自动化,解放了大量劳动力,提高了产品的一致性和企业的生产效率。但同时,对于重复性高的生产岗位,由于自动化设备取代了传统的人工操作,增加了这些岗位工作人员的失业风险。由此人们预见,人工智能的发展最终会取代人类劳动,人们可选择的岗位会越来越少,“人”作为传统意义上的劳动力概念将逐步被淡化,而“智能机器”则会成为劳动力的新符号。因此,人们在享受人工智能所带来的便捷生活的同时,也担忧岗位得失、贫富差距、身心健康等问题,感受到人工智能技术给自身带来的威胁。譬如在今年我国新冠疫情期间,大量人工智能技术应用于防疫抗疫,在智能测温、智能远程服务、智能社区管理、智能办公、在线教学等环节都发挥了无可替代的作用。疫情的存在,推动全世界应用人工智能的加速度,但人们担忧人工智能技术在社会生活中的过度应用,会使人们对其依赖度上升,导致思维能力及学习能力下降,最终影响人类探索世界的灵感和改造世界的创造性。另外,人工智能的商业化、军事化应用场景也使人类面临诸多人工智能伦理道德问题。一些科学家认为,人工智能将是人类生存的最大威胁,甚至可能导致人类灭亡,人类需要敬畏人工智能的崛起。因此,我们应不断提高对人工智能应用和发展的认知水平,对人工智能潜在的威胁保持高度警惕。

(二)人工智能是否瓦解社会伦理秩序

人工智能技术在快速发展和广泛应用中走向成熟但远未成熟,其可能导致的伦理道德后果难以准确预料。近期,网络上类似“换脸”APP、DeepNude软件引起的道德拷问不计其数;有关虚拟现实、智能驾驶带来的伦理与道德规范问题,也在拷问着人工智能场域下的社会伦理秩序等等。自从IBM的计算机“深蓝”在国际象棋人机对弈中击败加里·卡斯帕罗夫以来,以人工智能为核心的智能机器,虽然遵循人类赋予它的理性规则,但却在与人类的较量中一次次获胜。随着技术的不断创新,智能机器的自主程度会不断提高,具备高度自主意识和高速自我更新、自我复制的再生能力,表现出超越人类的文明智慧,但其价值观只能依附于过往的经验数据,无法始终趋同于人类的价值观。当与人类预期出现偏差时,会引发传统伦理道德价值的冲突。人工智能所引发的伦理道德问题,不仅存在于公共社会层面,而且也存在于军事博弈中,智能机器人武器系统已经有多个国家在研发,正如微软公司总裁史密斯的判断,未来我们将无法避免“杀手机器人”的出现,人类社会应该有一套道德标准来约束与引导人工智能的发展。就目前而言,人工智能技术所引起的伦理道德问题,只是少数技术操作者的行为,但是由于科技伦理规范的缺失以及网络传播的推波助澜,极易被更多人模仿,其造成的社会危害程度无法估量,由此引起人们对人工智能瓦解社会伦理道德秩序的担忧。对于人工智能所触发的伦理道德问题,已经引起了各国政府及相关行业协会的重视,我们应针对科技公司开发者及使用者制定人工智能开发与使用的道德与法律规则,调整和约束开发者和使用者的行为,以促使人工智能在创新发展与伦理道德规范上找到平衡点。

二、人工智能伦理道德的主要挑战

人工智能伦理的水平,与人工智能的成熟度正相关。随着时间的推移,人工智能与人文的异化作用凸现,其隐含的对于社会伦理道德秩序的挑战也愈发明显,已经涉及数据隐私、权责机制、公共安全等诸多伦理道德问题。

(一)数据隐私的挑战

人工智能利用强大的信息挖掘能力和数据运算能力,在海量数据中提取“有用”的信息,其快速性和精准性为各行业构建了快捷高效的管理和服务体系,但目前为止,隐私保障问题依然是行业面临的主要挑战。如诸多政府部门、通信服务商、图书档案馆、医院、学校等机构为业务需要而对个人信息数据的采集与使用,往往模糊个人信息的所属权,并且这些个人数据并非完全服务于原始目的。在人工智能的诸多细分应用领域中,人们认识较多的是移动支付、人脸识别、声音识别、指纹识别以及智能驾驶、自动翻译等,智能系统获取个人信息数据变得更加容易,这些私人数据给谁用、用来做什么以及使用后如何处理等问题,数据采集方往往拥有更多的控制权和自主权,使大多数人开始担忧人工智能会威胁到自己的隐私。在人工智能面前,算法拆解人的身份特征并使之数字化,通过不同身份特质的再组合重构,以虚拟形象拟制真人,必然造成严重的社会后果,对个人的隐私和人类社会固有的伦理道德形成冲击和挑战。

(二)机器算法的挑战

人工智能需要大数据及其算法优化的支撑,才能进行高效而精准的数据分析,从而通过数据驱动实现智能决策。机器行为通过一定的算法模型预先设定,算法程序的设计、训练和使用场景受人类认知条件的约束,无法穷尽包括未知领域在内的所有场景情形,无论如何都难以避免误差弹性。以目前最受关注的智能驾驶汽车为例,由于受大数据技术的支撑,可以通过自动规划路线规避道路拥挤,提高乘用效率;通过智能化的无人驾驶规避交通事故,提高安全系数等等。但无人驾驶不可能做到尽善尽美,2018年3月9日晚,美国亚利桑那州一条普通的公路上发生一起无人驾驶汽车撞人致死事故,处于无人驾驶状态的汽车通过传感器探测到了行人,但自动驾驶系统并未实施避让决策。这起事故反映出人工智能技术在机器算法上面临的挑战,在程序编制过程中,受制于对陌生情形的考量和预判,具有局限性和不可预见性,在遇到紧急情况时,系统根本无法得到对应的设定,只能从数据库中随机选择类似的案例加以类推,无法像自然人那样凭借经验和直觉做出本能反应,由此映射出智能驾驶在极端情况下的“伦理困境”。

(三)平等公平的挑战

平等公平是人类社会体系构建的最基本准则,也是衡量人类社会文明水平的重要标志之一。社会平等公平的意义是,在同一事件面前,以同等的态度对待每个人,不分性别、身份、肤色以及所处地区。然而,当今社会,诸多不公平的表现形式往往在各个社会层面显现,人工智能的应用加剧了这一现象。人工智能本身具有理性的算法和客观的数据,不带有情绪和偏好,能够带来中立的结果。但事实上,由于人为因素的存在,数据质量、算法歧视以及设计者的偏好往往导致非中立性的结果,如性别歧视、种族歧视等。有一项研究表明,在美国被普遍使用的COMPAS算法,存在种族歧视“偏见”,该算法在法院的犯罪预测评估中,预测黑人的再犯罪风险是白人的两倍。面部识别是人工智能的一项重要算法,也无法避免性别和种族偏见问题,麻省理工学院的Joy Buolamwini发现,IBM、微软和中国公司 Megvii的三个最新的性别识别AI可以在99%的情况下准确从照片中识别一个人的性别,但这仅限于白人;对于女性黑人来说,这个准确率会降至35%。人工智能早已渗入了各个领域,数据和算法导致的“偏见”往往具有隐蔽性,当遭遇不公平对待时,人们难以发现和消除。

(四)虚拟现实的挑战

虚拟现实是信息智能技术的产物,智能机器能够“读懂”人的语言、表情、手势、动作,通过虚拟场景,让人产生身临其境的交互式感觉。虚拟现实可以在身体和精神上让人获得神奇的虚拟体验,成为有别于现实的另外的人,可能会导致一些新颖的伦理道德问题。智能秘书、智能教师、智能医生、智能保姆、智能护理等,往往会对传统的人际关系形成挑战。人越来越多地与智能终端相处,借助它并依赖它,仿佛已成为人体的一部分而离不开它。过度沉迷这种虚实一体的生活,极易产生不现实的幻想,尤其是各种虚拟游戏,充斥着血腥暴力、荒诞色情等毫无道德底线的内容,使人变得孤僻、冷漠、厌世、精神麻木,危害人格健康。虚拟现实技术还在不断尝试突破,应用场景不可限量,但其在伦理责任和道德规范方面的挑战不容忽视。

三、人工智能伦理道德的风险防控

只有重视人工智能发展过程中所蕴含的社会风险和伦理挑战,并有意识地加以疏导和改变,共建规制,为技术发展清理路障,才能从本质上实现科技向善的发展理念。

在过去的几十年里,世界范围内高科技公司越来越强大,其掌握的数据量越来越多,在构建人工智能技术及服务平台方案时,世界各国应该加强合作,以审慎、负责任的态度,更好地了解大家对人工智能伦理问题的认识,在争议中寻求治理方案,共同应对新科技带来的挑战。科幻作家阿西莫夫出于保护人类的目的于1940年就提出了“机器人三原则”,其中第一条即机器人不得伤害人类,或看到人类受到伤害而袖手旁观;2019年斯坦福大学成立人工智能研究院,基于人工智能的社会影响促进科技与人文的协调发展;Facebook公司借助德国慕尼黑工业大学的学术资源建立了人工智能伦理研究所,在包括公平、隐私、安全和透明度等领域探讨“行业内无法单独回答”的问题。我国在人工智能伦理道德问题的研究,也走在了世界前列,在2019年全国“两会”上马化腾提出《关于加强科技伦理建设 践行科技向善理念的建议》,同年5月《人工智能北京共识》发布,提出了各参与方应该遵循的有益于人类命运共同体构建和社会发展的15条准则。由此可见,企业、行业协会、学术界和政府行业部门针对人工智能的研发、使用、治理,布局人工智能发展规划,构建完整的人工智能伦理道德风险防控体系,监测新科技可能引发的伦理道德问题,从法律法规层面促使新科技与人文伦理道德的协调发展。

猜你喜欢

伦理道德伦理人工智能
《心之死》的趣味与伦理焦虑
企业伦理道德视角下的安全生产
护生眼中的伦理修养
城镇化进程中新的伦理道德文化的迁移与重塑
2019:人工智能
人工智能与就业
数读人工智能
伦理道德视角下的医患关系研究
下一幕,人工智能!
对新闻摄影伦理道德的研究