APP下载

“人在回路”的道德机制:机器人伦理实践的新路径

2025-01-23程海东胡孝聪

摘 要:机器人伦理是以人类为主体的伦理,侧重于机器人与人类的交互中的伦理问题。进入人工智能时代,机器人伦理的研究焦点之一为人机共生伦理。“人在回路”的道德机制将人类视为机器人道德建模过程中的关键参与者,寻求利用人机共生的优势来弥补彼此的不足。这种策略有两种优势:一是人类能够从人机交互的过程中进一步增强人类的能力,让人类专注于独特优势的任务;二是人类处于回路中能够减少机器人不道德的输出,在面对高风险情况时,人类能对机器人的行动及时纠偏。

关键词:机器人伦理;道德建模;人在回路

基金项目:辽宁省社会科学规划基金项目(L19BSZ013)

作者简介:程海东,哲学博士,东北大学马克思主义学院副教授、博士生导师,主要从事技术哲学研究;胡孝聪,东北大学马克思主义学院博士生。

中图分类号:TP242;B82-057 文献标识码:A 文章编号:1000-2359(2025)01-0108-07 收稿日期:2023-07-08

自工业革命以来,机器人就一直处在不断替代人类体力劳动的进程中。在人工智能时代,智能机器人又开始替代人类的脑力劳动。随着人类社会的智能化进程,机器人已经从传统的制造业机器人,逐渐拓展到各类服务型机器人。作为新兴技术,当代机器人技术在给社会治理提供高效治理方案的同时,也带来了新的难题。其中机器人的道德伦理问题已成为社会和学界关注的焦点之一,这一问题又可以具体为机器人能否成为真正的道德智能体,有无可能对人类造成伤害,又该如何避免机器人造成的伤害,人类如何与机器人共处等问题。随着AlphaGo的接连获胜和ChatGPT的不断升级,机器人超越人类的担忧更是急剧上升。智能时代机器人的工作模式和人们对机器人不断加深的担忧使得机器人伦理的研究快速走向前台。

一、走向人工智能时代的机器人伦理

(一)何为机器人伦理

机器人是通过模拟人类的思维和行动与外部世界交互的电子器械。贝基认为,机器人是“在世界中运行的,能够感知、思维和行动的机器。” Bekey George A. Current trends in robotics:Technology and ethics. in Robot ethics: The ethical and social implications of robotics,MIT press, 2014, pp.17-34.也就是说,机器人应该是在物理实体上运行的可以感知、思维和行动的实体机器人。“机器人伦理”一词是由韦鲁吉奥于2004年在意大利举行的第一届机器人伦理会议上提出:“机器人伦理指的是人类在设计、制造、使用机器人时的道德行为” Veruggio Gianmarco. Roboethics roadmap. in EURON Roboethics Atelier. 2011.,即人类在与机器人互动时所产生的责任以及应遵循的伦理准则。可见,机器人伦理学关注的是人在设计、制造和使用机器人的过程中产生的伦理问题。在阿萨罗看来,机器人伦理包含三个层面的含义:“机器人内置的伦理系统,设计和使用机器人的伦理,以及人们如何对待机器人的伦理。” Asaro P M. What should we want from a robot ethic? The International Review of Information Ethics, 2006, p.10.即机器人伦理学关注的不仅是人类主体在设计、制造和使用机器人的过程所产生的伦理问题,也关注机器人内置的伦理系统——机器人与人类相处时所遵循的伦理法则。阿布尼也提出了类似的观点,他认为机器人伦理至少有这样几种含义:“第一,它可以指机器人专家的职业道德;第二,它可以指为机器人编写的道德准则,这是机器人自己的道德准则,而不是机器人专家遵循的准则;第三(可能不存在的含义),‘机器人伦理’可以指机器人有自我意识的能力来进行伦理推理,这是机器人自己的、由自我选择的道德准则。” Abney K. Robotics,ethical theory,and metaethics:A guide for the perplexed.In:Keith Abney,George A. Bekey(eds.)Robot ethics:The ethical and social implications of robotics,MIT press,2016,p.35.

具体而言,机器人伦理可划分为如下子问题:与机器人相处时,人类如何看待机器人的行为是否符合自己的道德诉求;机器人能否承担行为的责任,它们能否被看作是道德智能体;具有自主性的机器人如何与人类共处,而人类又该如何与它们共处?换言之,机器人伦理的目标不是要将机器人视为独立的道德智能体,“在这一领域作出伦理决策时,我们应该抵制将机器人视为道德智能体或受动者(patients)的诱惑。在可预见的未来,将人类和机器人视为伦理上相似的物种比将它们视为伦理上不同的物种会带来更多的伦理风险。” Chrisley R. A human-centered approach to AI ethics. In: Dubber, M.D., Pasquale, F., Das, S. (eds.) The Oxford Handbook of Ethics of AI. Oxford University Press, 2020, p. 463.可见,机器人伦理学指的是围绕机器人的设计、使用和如何看待机器人的伦理问题,包括诸如机器人的设计是否应优先考虑人类安全,机器人应如何与人类互动等问题。

(二)人工智能时代机器人伦理的面向

从道德建模角度看,机器人伦理采取的策略是外部规约,“以人为责任主体” 闫坤如:《机器人伦理学:机器的伦理学还是人的伦理学》,《社会科学文摘》,2019年第10期。,将责任落实到设计者或使用者身上,集中探讨在设计和使用机器人过程中人类所要遵循的道德原则和所担负的道德责任。科克尔伯格认为机器人伦理应该以人类道德主体的表象为标准,使用拟人化特征想象地投射到机器人身上 Coeckelbergh M. Virtual moral agency, virtual moral responsibility: on the moral significance of the appearance, perception, and performance of artificial agents. AI amp; society, 2009, 24(2).,即通过关注人类在做道德决策时所表现出来的形态,将这些形态投射到机器人身上,看它们是如何表现的。在人-机、机-机的交互中去观察,根据它们的表现做出道德评价和责任认定,只要机器人能够“表现”为负责任的道德形态,就可以认为它们具有道德。

人工智能时代,通过一定的技术手段,机器人能够具备“明物理、通事理”的能力 余欣,朝乐门,孟刚:《人在回路型AI训练的基本流程与交互模型研究》,《情报资料工作》,2022年第5期。。当前的机器人已经可以做到与人类进行深度的交互和绑定。例如,英国的机器人公司生产的Ameca机器人,能够与工程师熟练对话,使用 GPT-3进行对话和翻译,使用DeepL进行语言检测,并使用Amazon Polly Neural语音。源于现代道德建模方式的机器人,已经具有一定的道德决策能力,只是还不能够被看作是道德实践的主体,布瑞将这种机器人称作是“准道德主体”,能够做到“明物理”和“通事理”,但还未能做到“懂人理”。

随着人工智能技术的发展,机器人伦理的研究路径也需要转换。在当下的研究路径中,机器人伦理学与机器伦理学是密切相关但属于不同的研究领域:以人为对象的机器人伦理,从人类独有的伦理道德属性出发,关注的是人类主体在机器人应用过程中所要承担的道德责任,以及是否可以对机器行为作出道德解释等问题,关注于设计出能够做出道德行为的机器人;以机器为对象的机器伦理,关注的是机器行为的道德源头,以及如何让机器能够“听懂”人类的道德原则,关注于设计出能够依据人类道德原则独立做出道德决策的机器人。这种将二者区分为不同研究领域、采取不同研究路径的思路已不能满足人工智能时代机器人伦理的研究和实践要求,因为它们关注的或者是人对技术的主导性,或者是技术对人的塑造,而未关注到技术与人类的共生实际。智能时代的人机关系可以从人类道德的习得过程与运用中寻找答案——“师法自然” 高新民,何冠岐:《师法自然与基于“进化论转向”的智能解剖》,《贵州社会科学》,2021年第4期。,即机器人的道德化过程与人类的道德化历程具有很强的相关性:人类道德化的过程是在人与自然、人与社会、人与人的交互中不断成熟的,机器人的道德化也应该是机器人在与人类、技术人工物、其他机器人的具体交互中构建出道德规范的连续过程。

二、基于“人在回路”道德机制的机器人伦理

(一)“人在回路”的道德机制及其功能

“人在回路”(human-in-the-loop,HITL)的核心是强调人类在自动化系统决策过程中的关键角色,作为一种典型的人机协同模式,其起源可追溯至国防和航空领域的建模与仿真研究 DoD Modeling and Simulation (Mamp;S) Glossary, DoD 5000.59-M, January 1998, p.118.。在此模式中,人类操作员的职责包括处理监控任务、控制异常、优化任务及维护任务等,是自动化控制过程的重要一环。谢里丹将这一过程定义为:“一个或多个人类操作员间歇性地编程并不断从计算机接收信息,该计算机本身通过人工效应器关闭到受控过程或任务环境的自主控制回路。” Sheridan T B. Telerobotics, automation, and human supervisory control. MIT press, 1992, p.1.

在自主武器系统的开发中,HITL指的是人类参与到自主武器的设计、测试、部署和使用等阶段。自主武器是指“能够自主独立完成全部作战任务周期,即搜索目标,确定攻击和发动攻击的武器。虽然称作自主武器,但无论是监督式自主武器还是完全自主武器,都是由人类设计并投入作战行动的。” 保罗·沙瑞尔:《无人军队:自主武器与未来战争》,朱启超等译,世界知识出版社,2019年,第57-58页。这也再次突出了人类在自主武器各阶段的至关重要性。根据人类参与程度的差异,HITL又可以细化为三个部分,分别是人在回路中(human-in-the-loop)、人在回路上(human-on-the-loop)和人在回路外(human-out-of-the-loop)。其中,“人在回路中”是指半自主武器系统,即武器系统主要用于搜索、识别和打击目标,而人类负责下达打击任务的指令,“在战争制胜问题上,人是决定因素” 黄松平等:《无人作战及其指挥控制问题探析》,《火力与指挥控制》,2023年第4期。;“人在回路上”指的是有监督式自主武器,其目标由人类设定,系统自主寻找、识别并决定是否对目标进行打击,只有在必要时人类才干预打击任务;“人在回路外”是指完全自主武器系统,这种系统能自行寻找、监测并决定是否发动打击,人类无法直接参与或干预打击任务 保罗·沙瑞尔:《无人军队:自主武器与未来战争》,朱启超等译,世界知识出版社,2019年,第48-51页。。可见,“人在回路外”的模式涉及的潜在风险极大,当下的技术难以实现。

因此,保证人类能够干预系统的打击决策,在智能化作战中是至关重要的。特别是在系统误将平民识别为战斗人员时,人类操作员能及时干预并纠正打击任务。人类的参与有助于在系统出现异常或判断错误时,作为能够承担责任的实体进行纠正和负责。在自主系统可能对人类造成伤害时,人类的适时介入可以最大限度地降低这种错误决策的可能性。例如,无人机的操控者能够在紧急情况下采取手动控制,以避免误伤平民。自动驾驶汽车的开发人员和使用者可以通过手动驾驶功能来处理复杂交通场景,以确保安全驾驶。这种人机结合的方式使得人类能够在系统出现意外情况或设定错误时介入并纠正,确保智能系统的正常运行和人类的安全。

随着人工智能技术的快速发展,HITL理念已经被引入到机器学习领域。在这里,“人在回路”是指人类参与构建、训练和测试机器学习算法的过程,这是一种监督式机器学习和主动学习的结合。这种结合可以创造出一个持续的反馈循环,“在使用人工智能的应用中结合人和机器智能的策略” Monarch R M. Human-in-the-Loop Machine Learning: Active learning and annotation for human-centered AI, Simon and Schuster, 2021, p.4.,以此优化算法的每次输出。在监督式机器学习中,人类通过标注和注释数据,为学习算法提供学习和决策所需的信息。同时,人类还可以对模型进行修正以提高其准确性。这个过程构成了HITL的算法周期。 Wang G. Humans in the loop: The design of interactive AI systems, Artificial Intelligence Res, 2019, pp.243-252.该周期始于人类对数据进行标记,为模型提供大量的高质量训练数据。然后机器学习如何根据这些数据做出决策,直到人类开始对模型进行微调。最后,人类通过对模型的输出进行评估以测试和验证其准确性。随着学习的推进,这一过程使得算法的效率和准确性都得到了显著提升,其中人类的判断有助于调整和测试模型的输出,以实现最准确和可操作的决策。当人工智能在预测或识别上出现误判时,位于回路中的人类可以进行纠错,这一过程被称为反馈回路。因此,HITL可以被视为一个连续的反馈回路,每次训练、调优和测试任务都将反馈给算法。通过反馈回路,人类能够快速地识别和纠正机器人道德决策中的错误。主动学习是一个持续地迭代过程,每个迭代过程中都会选择一些数据进行人工标注,然后使用新的人工标注数据重新训练模型。在机器学习领域,人类可以调整数据的收集和处理方式,作为反馈的来源,并监控模型的部署结果,从而改进和优化整个流程。

简言之,HITL的机器学习是将人和机器学习有机地结合在一起,实现“1+1gt;2”的效应。在人工智能应用中,引入人类目的是提高机器学习模型决策的准确性。这种模式的两个主要目标是:一是使用人工输入使机器学习应用更精确,二是利用机器学习来改善人工任务 Monarch R M. Human-in-the-Loop Machine Learning: Active learning and annotation for human-centered AI, Simon and Schuster, 2021, pp.16-17.。例如,在进行机器翻译时,我们可以利用机器翻译系统推荐的单词和短语来加快翻译任务,就像我们现在使用的输入法,在输入单词时,输入法系统会自动推荐下一个可能的词汇。这种通过提供人工翻译的数据让机器翻译系统进行学习,可以提高机器翻译的准确性,既改善了人类的生活体验,同时实现了提高人类效率和机器准确性两个目标。

综上所述,在不同的领域中,HITL实现了两个重要功能:一是通过机器系统,人类可以识别并纠正机器的错误行为;二是在机器学习中,人类能够帮助机器学习模型做出更精确的决策,形成人-机学习模型的连续反馈回路,从而提高模型的性能和准确性。当然,HITL在机器学习领域也存在相应的挑战,人类对模型的调整和修正并不总是能提高模型的准确性,因为人类的决策也可能受到自身的偏见和误解的影响。这就需要我们制定一套合理的反馈和监督机制,以确保模型的公正性和准确性。

(二)“人在回路”道德机制在机器人伦理学中的应用

在机器人伦理中,将“人在回路”引入伦理考量是必要的,因为道德决策的可靠性来源通常被归于人类。这种机制将道德建模看做是一个循环不断地进程,通过人类与机器人在现实世界的交互式反馈,实现机器人与人类的伦理对齐。更重要的是,机器人和人类通过交互过程实现学习、决定和行动,它们的技术诀窍会随着时间的推移而进化,因此对事件链的解释和理解会更加严格 Pacaux-Lemoine M P, Trentesaux D. Ethical risks of human-machine symbiosis in industry 4.0: insights from the human-machine cooperation approach. IFAC-Papers OnLine, 2019, p.20.。在机器人的决策中,不仅要关注其行为的准确性,可解释性在人机交互中也非常重要,因为人类不希望机器人是一个只能看到输入和输出的黑箱。如果机器人在我们的生活中扮演重要的角色,我们就需要理解它的决策依据,这有助于加强人类对机器人的信任和降低可能的道德风险。人类是社会的一部分,机器人也将是社会中不可或缺的个体。一个最终需要在人类社会中发挥作用的机器不应该脱离人类的视野。人在回路的道德机制旨在将人类接管机器人训练的回路之中,对机器人赋予特定的价值、伦理、道德、文化和意识形态,使得机器人不仅能够“明物理”和“通事理”,而且还可以“懂人理” 余欣,朝乐门,孟刚:《人在回路型:AI训练的基本流程与交互模型研究》,《情报资料工作》,2022第5期。。“懂人理”并不是静态的、由编程人员提供的代码,而是需要在动态的人机交互中实现人类与机器人的集体能动性建构 于雪,初昊:《人机合作中集体能动性的建构》,《长沙理工大学学报》(社会科学版),2023年第2期。。

在机器人伦理的语境中,“回路”具有独特的含义,它不仅表征循环过程,更重要的是,它强调机器人的道德建模不是一次性或静态的任务,而是一个动态的、持续的学习和进化过程。这一过程不只是从数据中学习,更是对新知识的不断获取和整合。要清晰地理解这一概念,需要强调的是:即使是已经训练完成的模型,也必须保持学习和进化的能力,以适应变化的环境和情境,处理新出现的道德挑战。这种动态的学习模式将确保机器人能够及时地获取新的知识,适应未知的情况,从而在不断变化的现实世界中保持其道德决策的效能。

在道德建模的过程中,维护“人在回路中”与“人在回路上”的平衡至关重要。我们必须谨慎对待排除人类参与的情况,因为这可能会引发更多的伦理和技术问题。随着机器人技术的发展,更为自主和适应性强的机器人正逐渐渗透进人类生活,人类的角色也可能从“在回路中”向“在回路上”过渡。这并不意味着人类的角色减弱,反而强调了人类在机器人决策中的指导性地位。虽然机器人能够更高效地执行重复和单调的任务,但它们仍然需要人类的指导来确定任务、解释数据含义以及纠正模型偏见等。例如,完全自主的武器系统可能会引发严重的安全和伦理问题,这在法律、道德和战略三个层面上都是不可接受的。在自动驾驶领域,尽管将人类排除在回路外可能带来一些好处,比如更快的反应时间和降低因人为因素导致的事故率,但同时也可能增加系统性风险。在机器视觉处理或识别出现问题的情况下,人类的及时干预可以阻止潜在事故的发生。因此,在可预见的未来,人类应该在机器人道德决策中维持重要的角色,无论是“在回路中”还是“在回路上”,人类都应保持在这个系统中的关键位置。

三、“人在回路”机器人道德机制的实践

如上所述,基于“人在回路”的建模策略,可以从两个维度考量机器人的伦理实践:一是权衡人类和机器人各自的优势和缺点,以确保处于“回路”的机器人能做出符合人类道德原则的道德决策;二是确保人类在机器人的设计、制造、使用和监管过程中始终处于“回路”中,以实现“将所有利益相关方纳入人工智能伦理、社会和监管中……在利益相关方之间建立共识” Jotterand F, Bosco C. Keeping the “Human in the Loop”in the age of artificial intelligence, Science and Engineering Ethics, 2020(26), pp.2457-2458.,其中的关键在于确定机器人的自主性与人类的关键参与之间的平衡点。

(一)权衡人与机器人的优势互补

权衡人类和机器人的优势和缺点,利用各自的优势来弥补对方的缺陷。“人类擅长将上下文和直觉应用于问题解决,可以把握和解释因果关系。” 程海东,胡孝聪:《智能时代人机共生价值关系探析》,《道德与文明》,2023年第3期。在处理问题、解释因果关系,以及进行道德推理方面,人类有着独特的优势,这些都依赖于人类的上下文理解、直觉和适应性。尽管如此,人类的决策过程仍可能受到情绪、情感和身体疲劳引发的主观偏见的影响,同时在处理和分析大量信息的能力上也相对有限。与此相对,机器人优势在于能够快速、一致且客观地处理和计算大量数据。当机器人被适当地设计和训练时,它们可以根据数据做出决策,避免人类可能的偶然偏见。然而,机器人的能力范围通常局限于特定的训练任务,无法超越预设的框架或理解人类的价值观。此外,机器人在行动决策中也受限于其所依赖的形式化语言,“无法对现实的大千世界进行完全的表征” 李放放,商卫星:《机器智能的理论困境》,《河南师范大学学报》(哲学社会科学版),2007年第1期。。尽管机器人能够有效地处理重复和繁琐的任务,但它们仍然需要人类设定任务、解读数据的意义,以及纠正可能出现的模型偏见。由于人类和机器人各有其优势和局限,我们的目标应该是通过一定的设计和应用,将两者的优势进行最佳的互补。我们要寻求将人类的创新思维与机器人的高效处理能力相结合,以期获得更优的表现和结果。

“人在回路”的建模策略可以结合人类和机器人的优势,以减少机器人的不道德输出。在面对高风险或复杂情况时,人类可以对机器人的决策进行监督,及时纠正可能出现的错误;机器人则可以通过处理大规模数据分析、执行重复任务和提供一致的输出来增强人类的能力。这一机制使人类可以专注于需要其独特优势的任务,而机器人可以被设计为向处于回路中的人类解释其决策,帮助他们理解决策的缘由。同时,通过参与人在回路系统的工作,机器人可以从人类的输入和决策中学习,以持续提升其性能。

(二)实现跨学科的道德建模

在机器人道德建模准备阶段,必须构建一个跨学科的团队以进行深入的论证。这个团队的组成应确保其能够在决策过程中融入各个领域的专业知识、观点和立场。工程师和计算机科学家能够为团队带来对机器人系统技术的深入理解,他们能够精确地揭示机器人技术的潜在优势和局限性。伦理学家则具备道德哲学和伦理框架的专业视角,他们可以协助团队识别和分析由机器人技术引发的伦理问题,确保开发过程遵循伦理原则和主流价值观。社会学家和心理学家的参与则有助于评估机器人技术在更广泛的社会背景下的应用,以及其可能产生的社会影响和人机交互的动态。政策制定者的参与则有助于将道德原则与实际政策执行相融合,以确保道德建模过程与法律框架保持协调。此外,机器人的目标用户和其他利益相关者也是机器人进入应用阶段的关键参与者。他们的需求和期望是机器人产品必须满足的关键要素。因此,我们需要建立多个专门的平台,以收集各方的意见和反馈。通过积极的对话和充分尊重不同群体的关注点,我们可以建立社会信任,促进包容性,确保机器人道德建模过程充分考虑到了多元化的视角。在这个过程中,综合各方观点,充分反映尽可能广泛的关注点和价值观,并将收集到的反馈融到道德准则的制定过程中,这将是我们实现这一目标的关键环节。

(三)明确道德建模者的道德责任

在机器人道德建模的实施阶段,人类参与者的角色和责任需得到明确,要特别注重明确机器人设计者和制造者的道德责任,并对可能出现的伦理问题进行仔细审查。“设计者和制造者都始终对他们的系统造成的风险或外部影响承担责任。机器人设计者和制造者必须能够在程序层面说明为什么系统以某种方式运行,以便应对和处理责任归属问题。” 国家机器人标准化总体组:《中国机器人伦理标准化前瞻(2019)》,北京大学出版社,2019年,第54页。

机器人设计者的重要任务是预测和评估具体使用语境中可能出现的伦理问题。从某种程度上说,“机器人的设计和研发不仅要考虑它们所能带来的经济效益,也要考虑它们对人类生活整体和自然环境可能造成的不可逆的影响。” 国家机器人标准化总体组:《中国机器人伦理标准化前瞻(2019)》,北京大学出版社,2019年,第30页。正如维贝克所言:“设计者协助塑造了技术物的行为调解方式,设计被看作是一种以物质的方式所从事的伦理活动。” Verbeek P P. Moralizing technology:Understanding and Designing the Morality of Things, University of Chicago Press, 2011, p.91.这说明设计者可以通过技术手段,通过预测-评估-设计等环节,将某种形式的伦理规范嵌入到机器人之中,对机器人进行道德化设计。因此设计者需要具备一种前瞻性思维,以便在设计环节嵌入一定的价值和伦理准则,并进行风险预测,尽可能预见其在社会中可能引发的伦理问题,并采取防范措施。在更复杂的情况下,机器人应被设计为在遇到无法自行解决的道德困境时能够进行人机协商,以人类的伦理判断作为最终的决策依据。

在机器人制造过程中,制造者的责任绝不仅仅限于生产,他们应深入审视每个环节,建立和实施相应的伦理评估机构,以确保制造出的机器人符合人类的道德标准。特别是在制造和设计阶段,他们需要“预测与识别、伦理问题的分析与澄清、解决方案的开发与确定来修正和完善开发方案” 王钰,程海东:《人工智能技术伦理治理内在路径解析》,《自然辩证法通讯》,2019年第8期。。制造者有责任保证生产出的机器人符合产品质量标准。如果产品由于设计缺陷、不符合标准或无意的副作用导致伤害,制造者应承担相应的责任。为此,制造者需要在用户手册中提供详尽的操作指南,并明确指出可能出现的道德和伦理问题,以及相关责任归属情况。而在机器人投放市场后,制造者的职责并未结束。他们有义务持续跟踪产品的使用情况,收集用户反馈,并及时将这些信息反馈给设计者,以便于及时进行调整和改进。这样的持续改进机制不仅可以帮助提升产品质量,也能确保机器人的道德建模始终处于不断的优化和提升过程中。

(四)在应用阶段实现人机优势互补

在机器人的应用阶段,使用者需深入理解机器人的能力及限制,以确保其在道德范围内运用机器人,并明确何时应介入其决策过程以发挥人机互补优势。同时,监管者应负责制定机器人应用政策,监控机器人行为是否符合道德规范,并在必要时解决由此产生的道德问题。

传统的技术伦理观念将使用者视为技术后果的被动接受者,这种观念往往忽视了“使用者对技术所引发的问题也应承担重要的社会责任” 陈凡,陈多闻:《论技术使用者的三重角色》,《科学技术与辩证法》,2009年第2期。。实际上,使用者在整个技术周期中扮演着重要角色,他们“既是使用阶段的现实建构者,也是发明、设计和制造阶段的潜在建构者——技术的发明、设计和制造都是以预设的使用目的为楔入点。” 程海东,刘炜:《技术认识论刍议》,《自然辩证法研究》,2013年第7期。使用者会根据不同的使用情境将机器人应用于各种场景,以最大化机器人的价值。因此,使用者需要承担起机器人可能带来的问题的社会责任,并避免其违规或非法使用。任何“技术使用的情景塑造不是哪一类使用者的专有责任,而是使用者整体的责任,每个使用技术的人都应积极地、有意识地参与到重新塑造情景的行动中来,每个使用者都应履行自己的义务,并获得自己的权利。” 陈多闻:《论技术使用者的人性责任》,《科学技术哲学研究》,2012年第2期。作为机器人交互的主体,使用者有责任提供有价值的反馈。一旦发现机器人的行为存在道德问题,使用者应将此反馈给相关方,如机器人的制造者或监管者,从而促进机器人道德行为的持续优化和提升。

作为机器人伦理的守护者,监管者承担着制定适应性法律和规定的责任,以保障机器人决策的透明度、安全性和可靠性,同时确保使用者的隐私和数据安全。监管者的主要任务是“通过制度调适、舆论调适和教育调适三条路径,实现人工智能产品与社会价值体系的顺利融合” 王钰,程海东:《人工智能技术伦理治理内在路径解析》,《自然辩证法通讯》,2019年第8期。。首先,监管者需要从制度角度完善与机器人技术和伦理相关的标准。这涉及对机器人的研发、设计和应用等各环节提供强有力的制度保障。针对不同的机器人应用场景,应有针对性地制定严格的技术标准,防止不合格产品进入市场。同时,对于机器人应用可能引发的伦理问题,需要为利益相关者设定明确的伦理标准和道德规范。其次,监管者应善用舆论力量,对机器人产品的市场流通进行有效监管,坚决阻止与基本道德原则相违背的产品进入市场。此外,通过利用新兴的媒体技术,可以引导设计者、制造者和使用者之间建立有效的信息反馈渠道。同时,进行公众咨询,以收集公众的观点、疑虑和反馈,进一步完善机器人产品。最后,通过对各个环节的教育调整,监管者应促成完善的机器人技术培训和伦理教育体系的建立。这将有助于深化公众对机器人伦理的理解,提高整个社会的伦理意识,从而让机器人技术在符合伦理规范的前提下更好地服务人类。

四、结语

随着机器人技术的发展和应用范围的拓宽,所引发的机器人伦理问题将对我们现有的道德和法律框架提出更大的挑战。而“人在回路”的道德建模策略,通过一种动态的、持续的方式,旨在完善机器人的道德准则,确保机器人的决策符合人类的道德原则。在准备、建模和应用机器人道德建模的各个阶段,人类的参与可以增强人类对机器人的信任,并有助于降低机器人的道德风险。“人机关系的未来将是合作而非竞争关系,人机一体化的理想状态是人类与机器之间实现优势互补、和谐共生。” 张雪琴:《迈向智能化时代的劳动发展:价值陈述、系统变革与逻辑走向》,《河南师范大学学报》(哲学社会科学版),2023年第2期。作为社会的一部分,人类和机器人都是不可或缺的组成,不应该将机器人看作是脱离人类的“他者”。在这个“回路”中,人类和机器人都占据着特定的位置,发挥着各自的功能,承担着各自的责任。由此看来,人工智能时代机器人伦理实践并不是要设计出与人类一样的伦理主体,而是要让机器人在与人类的交互中实现伦理对齐,以此助力人类的伦理实践,实现人类与机器人的共生共进。

Human-in-the-loop Moral Mechanism:A New Path of Robot Ethics

Cheng Haidong,Hu Xiaocong

(Northeastern University, Shenyang 110169, China)

Abstract:

Robot ethics focuses on ethics with humans as the primary subjects, emphasizing ethical issues in the interactions between robots and humans. As we enter the era of artificial intelligence, the focus of research in robot ethics has shifted towards the dimension of human-machine symbiosis, namely the robot ethics of human-in-the-loop. This research path sees humans as key participants in the process of robot moral modeling, seeking to utilize the advantages of human-machine symbiosis to compensate for each other’s shortcomings. This strategy has two advantages. First, humans can further enhance their abilities through the process of human-machine interaction, allowing humans to focus on tasks where they have unique advantages. Second, having humans in the loop can reduce unethical outputs from robots, and in high-risk situations, humans can timely correct the actions of robots.

Key words:robot ethics;moral modeling;human-in-the-loop[责任编校 刘 科,段玲玲]