人工智能技术发展中伦理问题的思考
2023-11-03杨会军程啟华
杨会军 程啟华
摘要:人工智能是人类第四次工业革命进程中的关键技术,将会深刻影响人类社会的发展进程。人工智能技术的发展伴随着一系列伦理问题,例如安全隐患、隐私泄露,以及自主选择权的放弃等。通过对人工智能技术及其伦理问题的分析,可以得出人工智能技术和伦理之间的辩证关系,并提出应对人工智能技术伦理问题的若干策略。坚持“以人为本”的科学发展精神,使得人工智能能够始终走在向善、为人类福祉服务的发展道路上。
关键词:人工智能,技术伦理,对策
人工智能是人类第四次工业革命进程中的关键技术,通过模拟人类智能和学习能力,计算机系统完成类似人类智能的任务和活动。当今社会受人工智能技术影响较深,主要表现在以下方面:
第一,对产业结构的影响。科学技术是第一生产力,人工智能技术作为新一代科技革命的代表,将极大地推动已有产业结构的变革。高附加值岗位,如以“复杂智力”为代表的职位,逐渐取代了以“简单体力”为代表的低附加值岗位。
第二,对供需关系的影响。人工智能和人类生产和生活紧密结合,社会生产力的发展导致供需关系产生变化,从而培育出新的价值增长点。
人工智能技术一方面提高了生产效率,方便了人们的生活;另一方面,如果不加以引导,技术发展可能带来适得其反的不良后果,并引发大量伦理问题。因此,人工智能的伦理规范至关重要。包括为智能机器人预设道德准则、设定人工智能技术研发及应用标准、建立人工智能产品本身的道德指引,以及规范科研人员的伦理行为[1]。本文针对人工智能技术发展过程中所伴生的伦理问题,从技术和伦理两个角度进行研究,分析技术伦理和人工智能之间的辩证关系,并提出解决人工智能伦理问题的若干对策。
一、人工智能技术及其伦理问题
(一)人工智能技术及其存在的问题
1956年的达特茅斯会议上首次提出了人工智能的概念,随后相关技术取得了突破性进展,其发展日新月异。
人工智能的本质是对人类思维的模拟。这种模拟可以通过结构模拟和功能模拟来实现[2]。采用类比的方法来仿真人脑的组织结构,创造出类似人脑的机器;功能模拟对人脑进行抽象分析,将人脑分解为若干功能模块,在功能上模拟人类思维过程。相较于结构模拟,功能模拟更为简化。随着人类对人脑研究深入,基于结构模拟的人工智能产品将具备更多人类智慧,也给人类带来更大的挑战。
在人工智能发展的早期阶段,人类通过简单的程序来控制机器设备,机器设备是执行者,按照指令完成工作,本身没有自学习能力。但随着以机器学习、深度学习为代表的人工智能技术的进步,机器设备通过模拟人类的神经网络结构获得了自学习能力。机器的智力水平和学习效果与其所接触的样本数量有关。再加上机器学习的速度远超人类的学习速度,可以预见,人工智能将对人类智能带来挑战。
科学技术是一把“双刃剑”,既可以造福人类,也可能带来灾难[3]。同样,人工智能也存在着一些潜在的风险和伦理问题,需要人们在其发展过程中加以重视和规范,确保其积极影响人类社会。
1.便利与危险并存
在新型冠状病毒肆虐的疫情期间中,人工智能起到了重要作用。新型冠状病毒传染性极强,为了切断传播路径,国家实行动态清零的抗疫政策。并利用人工智能技术分析与感染人员(区域)有交叉的相关人员的时空数据。及时通知并做好备案筛查工作,使得疫情能够及时得到控制。同时,利用融合了人工智能技术的措施,如疫情防控健康码和核酸检测数据的实时更新,也起到了良好的抗疫效果。另一方面,在疫情防控期间,有些不法分子在社交平台上有目的地散布虚假信息,制造恐慌和混乱。人工智能技术也起到了很好的作用,通过自动化的文本分析和情感识别技术,快速识别和筛查出不实信息。此外,人工智能还可以帮助监测大数据中的信息流动,及时发现和追踪病例的传播路径,从而更有效地进行疫情控制。总体而言,人工智能在新冠疫情期间发挥了重要作用,为防控工作提供了有力支持。
无人驾驶技术是指在无需人类干预的情况下,实现车辆自主控制与操作,从而实现汽车驾驶自动化技术。无人驾驶可以将人类从单调乏味的驾驶过程中解放出来,让人们专注于风景或工作,大大提高了驾驶的舒适度。然而,机器的智能化控制是由“智能芯片+驱动模块”组成的,代表了电子产品的可靠性问题。例如,程序控制中可能出现的“程序跑飞”现象。虽然这种情况发生的概率很低,但人们对将自己的生命完全交给“智能芯片+驱动模块”需要有很大的勇气。在2023年4月,谷歌旗下自动驾驶公司Waymo的无人驾驶车辆在接送乘客过程中遇到了交通管制。交警示意车辆靠边停车,但无人驾驶车没有立即做出反应,而乘客也无法使汽车按照交警的手势行驶。而在2018年3月,美国亚利桑那州一名女子不幸被一辆处于自动驾驶模式的Uber汽车撞伤,后来不幸身亡。因此,目前来看,人工智能系统存在系统漏洞和能力缺陷。
2.数据的消费者与隐私的失控
大数据被誉为“未来的新石油”,是人工智能学习和判断的基础。因此,人工智能需要不断地从物理世界中获取数据、分析数据、挖掘数据,从而为人们提供实时精准的服务。
每个人既是数据的贡献者,也是数据的消费者。这些数据既包括公共数据,也包括私有数据。如果私有数据被不法分子滥用的话,将会带来隐私的失控,给个人带来伤害。在万物互联的时代,人们享受到了高效、便捷的生活,但个人的性格特点、兴趣爱好、意识形态、行踪轨迹等都被系统记录下来且无法消除。这些交织在一起的数据信息在毫无防备的情况下不受控地流向何方,人们根本无从所知。未来的人工智能依靠这些汲取的信息不断地进化迭代出新一代的智能体,因此很难说是人掌控着塑造出来的人工智能,还是人被人工智能所掌控?
3.被动的“多”和主动的“少”
在20世纪,人们主要通过查阅书刊和积累经验来获取信息。然而,在当今的信息时代,人们可以通过百度、谷歌等搜索工具快速获取未知领域的信息。人工智能能够根据搜索关键词分析用户的兴趣点,并定期推送相关主题的信息,大大提高了信息获取的效率。导航软件如百度地图和高德地图可以根据实时路况信息为人们规划不同的路径选择。旅游类APP如携程和同程旅游能够为人们提供交通、饮食、住宿、导游等一条龙服务。网上购物平台可以根据人们的浏览记录推送相关商品选择。从用户的角度来看,人们在被动地选择,有时甚至不需要选择,系统已经给出了答案。这有可能造成人们自身主动性的逐渐丧失,把它交给了人工智能,让人工智能来做选择,这很可能会使人们陷入“信息繭房”[4]的困境。
当人们信赖人工智能时,其实是无条件接受了人工智能背后的规则。而这些规则对人们就像一个“黑箱”,但又并不能准确地分析和描述“黑箱”背后的工作流程以及“黑箱”操作背后的规则。由于个体的差异,这些规则并不能适合于每一个人。只是被动地接受人工智能提供的若干选项,将自身的主动权和决策权交给了自己并不了解的人工智能。而人工智能提供给人们的信息是根据开发者制定的规则和依据筛选出来的,因此,人们所获得的信息是不完整的,这又严重局限了人们的思维,只能在有限的信息空间内思考问题。
4.表面的“得到”与背后的“失去”
人工智能技术的应用使得人们的生活日益便捷,享受着高科技带来的无忧生活。通过对天气的预测,人们可以决定是否添加衣物或外出;通过对景区人流的动态监测,人们可以规划自己的旅行目的地;通过对实时路况信息的获取,人们可以提前规划行程,避开拥堵地段,提高效率;通过美食的建议和推送,人们可以选择享受美食的地点;全球互联网技术大大降低了信息获取的成本,人工智能基于网络数据为用户提供个性化服务,人们的衣食住行更加便捷,享受到了像保姆般的贴心服务,促进了社会的繁荣。
在日常生活中,无论是否愿意,每个人都直接或间接成为数据的贡献者。人工智能正在融入并改变着人们的生活,但人工智能所带来的结构性失业、算法歧视、隐私泄露等问题让人们丧失了自主性、独立性和创造性。笛卡尔曾说过“我思故我在”,人的价值体现在于主观的能动性、独立性和创造性。没有了主动思考能力的人类将面临更大的失去。如果没有技术伦理的限制,人类终有一天会被自己的技术产品所取代。
(二)人工智能技术和伦理之间的关系
在万物互联的时代,人和物本质上都是数据的贡献者和消费者。人工智能技术通过对人的思维过程,赋予智能体学习能力,但这也带来了复杂的伦理、法律和安全问题。人工智能技术伦理的目标是从道德角度规范科技开发人员的活动,确保科技活动不会损害人类的生存条件和健康,保障人类切身利益,实现可持续发展[5]。
人工智能技术和其伴生的技术伦理问题之间存在着辩证关系。一方面,技术与伦理之间存在矛盾。技术追求的是改变、先进和效率,而伦理强调的是规范和秩序。通常情况下,伦理问题滞后于技术发展,因此面对新技术的浪潮,伦理上往往会产生巨大的恐慌。然而,机遇与挑战并存,绝对禁止这些新技术,一味地保守可能使人类和新技术的发展失去平衡。另一方面,技术与伦理之间又是统一的。历史上可以看到,开放包容会带来科技文化的巨大发展,而闭关锁国则会导致科技文化走向衰落。开放包容并不意味着盲目接受,而是有选择地进行扬弃。技术伦理也是如此,其初衷是为了使技术获得更好的发展,通过挖掘优势、舍弃劣势,让人工智能始终走在道德善良、造福人类的发展道路上。技术和技术伦理可以看作问题的两个方面,可让人们能更全面地看待新技术,在对立统一中实现人工智能技术的良性发展。
二、应对人工智能技术伦理问题的策略
每位科技工作者都应该承担起时代的责任和担当,并主动将自己的工作融入人类时代发展的大潮之中,为社会的进步贡献自己的力量。人工智能作为一种新技术,是一个客观的存在,技术本身并不包含社会文化和道德层面的因素,但是该技术的研究方法、研究过程、研究成果及其应用却具有社会文化和伦理道德的影响因素。因此,人工智能技术的发展需要受到技术伦理的道德引导。针对人工智能技术的伦理问题,可以从以下几个方面入手。
第一,鼓励公众参与。科技成果推动生产力的進步,并最终影响到公众的生活。因此,公众应该拥有更多的知情权。在制定决策前,广泛且深入地讨论人工智能可能存在的伦理问题,采集公众的建议,并公之于众,形成诸多成果。在新技术的良性发展中,公众的态度和意见将提供重要参考,“兼听则明,偏信则暗”。
第二,开展大学生工程伦理教育。大学生是未来人工智能技术研究的主力军。因此,在大学工科教育阶段,要及时对相关专业的大学生进行工程伦理教育。使其在学习专业技术的同时,充分了解工程伦理的概念和内涵,能辩证地看待技术和伦理之间的关系。牢固树立“以人为本”的科学发展精神。目前,国内高校都在开展工程教育认证工作,毕业要求第六节明确要求评价“工程方案对社会、健康、安全、法律以及文化的影响,并理解应承担的责任”。在理工科大学教育中全面推进工程伦理教育已成为工程界、教育界和政府相关部门的共识。
第三,提高科研人员的人文素养。科研人员在工作过程中,企业应主动承担科研人员的人文素养教育。在开展科技研究的过程中,要将技术能力和职业道德并举,企业效益和社会责任两手抓,两手都要硬。在科技管理中,加强科研人员的职业素养教育,提高科研人员遵纪守法、追求真理、诚实守信、杜绝弄虚作假等职业道德,弘扬风清气正的科研环境。
第四,发挥政府的指导性作用。政府针对人工智能发展中存在的社会问题进行研究,出台相关行政规章制度,并设立专门的机构进行规范和监督,除了禁止与人性伦理道德完全相违背的技术及其应用外,对于大多数具有一般性伦理问题的新技术,可以引入一种伦理“软着陆”的机制[6]。在刚性规则不成熟的情况下,政府和企业可以联合出台指导性的行业规约,对技术的研究和应用进行约束,并周期性评估执行过程中的规约,实现伦理在科技应用中的“软着陆”。
第五,进行同行评议。号召不同区域、不同单位的专家学者对人工智能技术及其伦理问题进行评议和审核,同行具有比外行更专业的知识结构,相互之间的评议更有说服力。此外,专家学者之间还存在知识结构互补,同行评议方式可以对他人的研究成果进行监督和规范。
第六,开展跨学科专业论坛。组织召开跨学科专业论坛,参与者可以是利益相关者,拥有广泛的视角和经验。包括人工智能技术专家、生物医学家、社会学家、伦理学家、决策者、管理者、研究资助者、公共利益的拥护者、行业代表和公众成员等。从不同的角度看待以人工智能为代表的专业技术,了解不同学科的需求和关切,收集广泛的意见和建议,最终达成共识。
三、结束语
人工智能技术的快速发展必然带来一系列伦理问题。在人工智能技术产业发展过程中,需要充分考虑人工智能技术伦理问题对产业发展的影响。这意味着社会在肯定人工智能推动人类社会进步的同时,也要及时发现技术存在的不足之处,使人工智能的伦理研究能够走在技术发展的前面。针对人工智能技术及其存在的问题,本文提出了应对人工智能技术伦理问题的若干策略,以保证人工智能的发展受到道德伦理的约束。
作者单位:杨会军 南京工程学院信息与通信工程学院
程啟华 南京工程学院工业中心
参 考 文 献
[1]吴汉东.人工智能时代的制度安排与法律规制[J]. 法律科学(西北政法大学学报), 2017, 35 (05): 128-136.
[2]朱欣文. 5G+人工智能时代办公室工作模式与应对策略[J]. 秘书之友, 2020 (02): 4-7.
[3]张全洁. 人工智能的伦理准则研究[D]. 苏州大学, 2020.
[4]王绍源, 赵君. “物伦理学”视阈下机器人的伦理设计——兼论机器人伦理学的勃兴[J]. 道德与文明, 2013 (3): 133-138.
[5]王蒲生,雷毅.技术的报复——科技伦理与科技人员的伦理责任[J]. 科学中国人, 2002(05): 42-44.
[6]刘大椿. 在真与善之间——科技时代的伦理问题与道德抉择[M]. 北京: 中国社会科学出版社, 2000.
基金项目:江苏省教育厅高校哲学社会科学研究项目资助(2022SJYB0449)。
杨会军(1979.10-),男,汉族,河南长葛,博士,高级工程师,研究方向:电磁信息数据及应用;
程啟华(1979.07-),女,汉族,四川成都,博士,副教授,研究方向:智能测控系统。