APP下载

人工智能对电子信息工程伦理教育的影响

2022-05-31何志权何玉鹏曹文明

电脑知识与技术 2022年11期
关键词:工程伦理以人为本人工智能

何志权 何玉鹏 曹文明

摘要:当前,我国人工智能技术飞速发展,但该领域内的工程伦理教育却迟滞于技术的发展,正逐渐受到重视。为此,文章在总结电子信息工程和人工智能技术特点的基础上,提出了目前人工智能领域工程伦理教育中存在的三大问题,从不同维度反映了目前工程伦理教育面临的挑战。随后,探讨了以人为本的责任伦理解决方案,倡导具有人文温度、规范创新、价值引导等工程伦理理念和方法,把工程倫理原则转化为伦理实践成果。

关键词:工程伦理; 人工智能;  责任伦理; 以人为本;公共福祉

中图分类号:TP3        文献标识码:A

文章编号:1009-3044(2022)11-0084-02

1 引言

工程活动是现代社会存在与发展的重要驱动力,反映了人与自然、人与人之间和人与社会的相互关系[1]。工程活动目前还面临着诸多深刻、重大的工程伦理问题。工程应用、科学研究、技术工具等本身并无善恶之分。不论科学研究还是技术应用都与人类生存和可持续发展息息相关,对社会公共福祉产生影响,科研和技术因此而具有道德内涵。所以,加强工程伦理教育是实现科学技术发展风险可控、健康有序、服务于大众的内在条件。目前,我国正逐步健全工程伦理教育的标准,并越来越重视培养工程师的行业责任与社会责任[2]。

人工智能是以数据为基础的机器学习技术,其中深度学习技术的应用最为广泛。深度学习模型分析和解决问题的能力从海量数据中学习,从而在专业领域做出比人类更迅速、更精准、更客观的预测。人工智能信息技术对我国产业结构的直接影响不仅是工业数字化,而且是工业智能化,因此我国正在大力支持和推动人工智能信息技术在电子政务和公共民生政策方面的更深层次应用。与此同时,人工智能发展也衍生出复杂多样的伦理问题[3]。在全球科技产业竞争加剧和数字经济发展成为一个国家战略核心竞争力等重大背景下,考虑到当前我国人工智能行业的自身发展情况,我国对人工智能行业需要加强创新技术治理和严格规范技术监管,保障人工智能的健康发展和积极应用。

2019年7月24日下午,中央全面深化改革委员会第九次会议中,审议通过了《国家科技伦理委员会组建方案》。会议要求“科技伦理为科技活动必须遵守的价值准则,且构建一套覆盖全面、导向明确、规范有序、协调一致的科技伦理治理体系”。从此,在国家顶层设计中明确了伦理道德在科技活动中的准则地位,为科技伦理治理指明了具体要求和路径。对人工智能而言:2020年被认为是人工智能监管元年,欧盟和美国分别通过了《人工智能白皮书》《人工智能应用监管指南》。我国则采用立法形式渐进式约束工程伦理、保障公民权利。例如2021年7月28日科学技术部科技监督与诚信建设司研究起草了《关于加强科技伦理治理的指导意见(征求意见稿) 》,用于强化科技伦理审查和监管,查处科技伦理违规行为;2021年8月20日,十三届全国人大常委会第三十次会议表决通过《中华人民共和国个人信息保护法》,协调个人信息保护与规范不同信息处理者的规制方式,促进安全健康的信息自由流动。

2 工程伦理问题分析

人工智能越来越多地被应用到社会生活的各个方面。目前人们生活在算法之下,算法决策开始帮助甚至主导越来越多的人类社会事务。目前人工智能更多的是IT和算法工程师的参与,缺乏哲学、伦理学、法学等社会学科。要想让人工智能真正有益于人类社会,服务于大众,就需要关注人工智能背后的伦理问题。目前人工智能技术带来的主要问题表现为算法歧视、隐私泄露、责任与安全混乱等。

2.1 算法歧视

算法歧视可以描述为通过设定特定的数据管理方式,在无正当理由的情况下对用户实施差别待遇,侵害客户合法权益的行为。算法决策是人工智能技术的重要组成部分,使用历史的和当前的数据预测未来的趋势[4]。而预测结果取决于算法模型的设计和数据的选择。因此,这两个因素成为算法歧视的主要来源。一方面,算法构建的过程在很大程度上被描述为设计者和开发人员实现其设计、目标、成功标准和数据使用的主观意图,这允许设计者和开发人员将自己的价值观甚至偏见嵌入算法系统。另一方面,数据的广泛性、有效性和适用性也会影响整个算法决策和预测的准确性。在人工智能系统与现实世界的交互过程中,不合适的算法优化和人机交互数据的干扰都可能引发算法歧视。更重要的是,数据在一定程度上反映了社会现实,训练数据本身可能具有歧视性,采用这种数据训练出来的人工智能系统自然具有歧视性。

进一步来说,人工智能算法的训练优化过程固化或放大了歧视,使得歧视在整个算法中持续存在。人工智能算法用于预测未来,过去的歧视性数据和不恰当的训练和优化过程可能会在算法中固化和强化。此时将会产生正反馈将算法歧视不断放大。最终,算法决策会造成错误,影响人与人、人与自然的关系。归根到底,人工智能算法决策高度专业化,且大部分不可解释,从而导致算法歧视,甚至违背常理和公序良俗。

2.2 隐私泄露

数据已经成了人工智能时代的基础能源,参与人工智能算法的数据样本越多,模型越完善,结果越准确。一些互联网公司和电信、金融等单位在提供服务活动中获得的公民个人信息被非法泄露或者未经授权私自采集个人信息的情况时有发生,给人们带来新的隐私忧虑[5]。一方面,个人信息的收集变得越来越容易,对信息的不当使用或予以泄露会给个人造成财产、精神上的损失。另一方面,各行业服务之间交易数据量大,数据不断流动和备份,数据进入新的循环,可能会削弱对个人数据的控制和管理。与此同时,隐私保护的伦理规范和法律制度落后于人工智能技术的发展和数据应用。从外部来看,现有的社会秩序和法律规范不能很好地适应新兴工程技术的高速发展。目前各主体的道德伦理意识尚未形成:各主体的道德伦理意识薄弱,数据责任感缺失,主要表现在用户在网络空间中的自我控制与行为约束能力不足和服务部门工程道德伦理教育匮乏。

2.3 风险与责任缺失

人工智能、物联网、大数据等数字新技术的出现对产品安全和责任提出了新的挑战。这些技术的特点是系统性、决策自主性、解释复杂性和数据依赖性。他们可以根据自主程序执行任务,几乎不需要人工决策。同时,配备人工智能的复杂系统可以通过学习过去的数据经验来提高决策效率。人工智能技术通常集成在复杂的网络环境中,其中许多不同的传感器连接设备和服务应用程序相互作用[5]。

决策自主性、算法的复杂性、数据的不完备性会带来产品的安全性问题。由于一些人工智能系统的“算法黑箱”,算法和数据需要具备专业的分析能力和技术专长,算法解释性差,系统的复杂度不断增加。系统越复杂,风险性越高,经由优化和训练的模型可能做出错误的,甚至反常识的决策。对自主系统的责任归属尚没有清晰的界定,数据使用者和管理者没有承担相应的隐私保护责任。

3 对策探讨与改革方案

伴随着人工智能技术第三次浪潮的兴起,目前欧美和日本针对人工智能的相关伦理问题开展了同步讨论。在我国,工程伦理研究和教育已经在高校得到了一定程度的普及,但高校师资缺乏,技术发展更迭快,教学效果不甚理想。只有不断解决技术带来的社会热点问题,才能增强学生的工程伦理意识。为此,文章在以下四个方面提出解决思路:

3.1 符合伦理的人工智能设计

做好顶层设计,将人类社会的法律、道德规范和价值评价标准嵌入人工智能设计理念中。根据电气和电子工程师协会对人工智能技术的倡议,人工智能工程伦理设计分三步实现:首先是发现需要嵌入AI系统的道德规范和价值标准。如果技术存在道德或价值的问题,明确功能需求合理安排系统伦理逻辑,做好预案准备工作,统筹兼顾。第二步是将所发现的规范和价值加入人工智能系统,需要辩证唯物方法论,探寻客观规律,并用实践检验工程伦理,积极创新。第三步是评估已经嵌入AI系统的规范和价值观,看它们是否与人类社会相一致。一方面做好人工智能技术的解释性,做到过程可理解,结果可追溯;另一方面是完善工程伦理理念,建立一套价值一致性和相符性标准。

AI工程伦理教育应包括三个原则:一是利他主义,技术发展的唯一目标是最大限度地满足人类需求;二是不确定性,为应对不确定性风险健全行业标准和应急预案;三是考虑人类,即人类行为提供了关于人类价值的信息。

3.2 培养以人为本的价值观念

为避免人工智能“去人类中心化”产生的技术、权力、责任、伦理等方面的道德风险,人工智能技术的发展理念应始终围绕“社会公平”“人道主义”以及“人与人、人与自然关系”三大基本原则展开。人工智能工程伦理教育核心以人为本,秉承把人类的利益、安全和健康福祉放在首位的原则,实现人类社会可持续发展。

应确立人的自主性原则,强化人的领导能力和监督意识。人工智能工程伦理的发展和应用支持人类的自主和决策。人类所有权和监督权的不断加强、人类控制权的获得以及人类的监督和干预,有助于确保人工智能系统不会影响人类的决策自主权,也不会将其影响力扩大到造成其他不利的伤害,以确保它被人类实际使用。显然,开发人员和设计人员应该充分发挥自主、支配和监督的作用,这对人工智能的成功至关重要。重点培养人的伦理观念,增加人工智能工程伦理的方法和作用,实践且落实工程中人的观念。

3.3 进行监管,避免作恶

由于人工智能算法的复杂性不断增加,同时算法决策的影响范围也越来越大,因此需要人们对算法的设计和应用进行监督。首先,监管措施包括行业标准、应用领域分类、性能指标、设计标准、责任主体标准等。在过程可解释性和结果可追溯性方面,包括算法自身代码的可解释性以及算法决策的严密逻辑推理过程。此外,还有民生服务和政府权力审批制度,例如对于自动驾驶汽车所采用的算法,监管部门需要进行事先检查审批。

要落实监管措施,必须将科技伦理纳入制度和法律,建立健全相关法律法规、伦理规范和政策体系,形成完整有效的安全评价和管控能力。应加强科技伦理监督,构建从实验室研发阶段到工程应用阶段的新技术全链条监管体系,完善相应的问责机制。

3.4 针对算法决策建立责任伦理

根据责任伦理的观点进行推广,每一人工智能算法的作用效果和群体都是独一无二的,设计和开发团队都应该对算法决策行为承担相应的后果,这是责任体系中个体应承担的,并且在做出决策前要理性对待可能诱发的工程伦理问题,及时应对所带来的风险与不良后果。同时,考虑人工智能带来的隐形责任伦理,考虑人的主观观念,渐进化改变人与人、人与自然的关系。人不能漠视人工智能技术产生的风险,考虑到滞后性问题,要进行及时的反思性批判,自觉形成实质的工程伦理意识,从而减少或者避免人工智能技术带来的风险。因此,责任伦理更应考虑到技术当前的任何行为都可能对社会及未来后果负责之上,并且形成多主体参与的伦理责任共担的自觉意识,这一原则对构建人工智能技术责任伦理体系有着重要的借鉴意义。

工程伦理教育中采用责任伦理的方法,将“责任”与“伦理精神”进行融合,通过显性与隐性化教育,内化到人工智能技术开发人员观念中。因此,在提升责任的伦理价值时,工程伦理教育应引入人员的自我责任意识,电子信息专业人员要强化自我责任的伦理意识。同样,应结合唯物辩证法的思想政治教育,提升责任伦理在工程生态学中的指导作用。

4 结论

面向未来发展的工程伦理教育,不断加强思想政治教育,既要以人为本又要积极落实责任,深化工程伦理教育。本文分析了人工智能领域工程伦理教育中存在的三大问题,从不同维度反映了目前工程伦理教育面临的挑战。采用以人为本的责任伦理解决方案,采取伦理治理,把工程伦理原则转化为伦理实践成果,协调技术与社会关系,使人工智能技术最大化地服务人民。

参考文献:

[1] 林健,衣芳青.面向未来的工程伦理教育[J].高等工程教育研究,2021(5):1-11.

[2] 廖莉,陈万球.中国工程伦理规范的历史进路[J].长沙理工大学学报(社会科学版),2020,35(2):33-40.

[3] 马佳义,陈珺.新形势下信息学科工程伦理教育的重要性和目标层次[J].未来与发展,2019,43(4):93-95.

[4] 鄭智航.人工智能算法的伦理危机与法律规制[J].法律科学(西北政法大学学报),2021,39(1):14-26.

[5] 余婷.人工智能的伦理问题及对策研究[D].武汉:武汉理工大学,2016.

收稿日期:2021-10-09

基金项目:该文的工作和相关的教学实践得到了基金项目“面向深度学习的卓越AI人才培养体系探索与实践”(编号:E-RGZN20201035) 的支持

作者简介:何志权(1978—) ,男,湖南邵阳人,讲师,博士,主要研究方向为机器学习和多媒体信息处理;何玉鹏(1996—) ,男,江西赣州人,在读硕士研究生,主要研究方向为深度学习图像处理;曹文明(1965—) ,男,江苏洪波人,教授,博士,主要研究方向为多媒体信息处理、模式识别和人工智能算法研究。

猜你喜欢

工程伦理以人为本人工智能
2019:人工智能
人工智能与就业
数读人工智能
语文教学应“以人为本”
以人为本理念在幼儿园管理中的应用研究
提升教育智慧,打造高效课堂
工程伦理的多元化愿景
工科大学生工程伦理教育模式及实现途径
工科研究生学术责任养成的路径研究
国内工程伦理研究综述