APP下载

陪护机器人伦理问题及对策建议

2022-03-24胡明艳谭润民

科技智囊 2022年9期
关键词:伦理机器人人类

胡明艳 谭润民

1.中共中央党校(国家行政学院)哲学教研部,北京,100091;2.珠海市人才资源与就业服务中心,广东,珠海,519075

陪护机器人是指能够陪伴和看护老人、儿童及其他行动不便病患等人类弱势群体的智能服务机器人。陪护机器人会长时间陪伴在人类身旁,产生前所未有的人机交互体验和影响。随着陪护机器人在人类社会的逐步应用,各种潜在的伦理问题逐渐凸显,引发了社会各界的担忧。

一、陪护机器人的应用背景

全球人口正步入老龄化阶段。根据世界卫生组织的报告,到2050年,全世界60岁以上人口将翻一番,增至21亿人。[1]据2021年5月11日发布的我国第七次全国人口普查公报(第五号)显示,截至2020年11月1日零时,我国大陆60岁及以上人口为264 018 766人,占人口总数的18.70%,其中65岁及以上人口为190 635 280人,占人口总数的13.50%。[2]我国人口老龄化问题较为严峻。随着第一代独生子女的父母老去,我国家庭养老功能日渐弱化。与之伴随的是我国配套养老服务设施不足、专业养老服务人员短缺等问题,我国城市老年人口的迅猛增长与养老服务供给相差甚远的矛盾十分突出。此外,随着2016年我国全面两孩政策开始实施,不少独生子女家庭将面临上有四老、下有两小的情形,面临坚守工作和照顾家庭难以两全的矛盾,父母由于各种原因缺少时间陪伴教育孩子,这将不利于儿童的身心健康和成长。

陪护机器人不仅可以帮助照看老人的日常生活,如辅助吃药、检测身体情况、为老人解闷等,还可以帮助照看儿童的生活、学习,提供娱乐等,有助于缓解众多家庭的养老和育儿压力。据国际机器人联合会(IFR)发布的数据显示,2019年,包括陪护机器人在内的全球服务机器人市场销售额为169亿美元,同比增长31%,销量约为2337万台,同比增长34%。[3]日本率先研制出了一系列老人陪护机器人,如西科姆公司的“我的勺子”自动喂食机器人,松下公司推出的洗头机器人[4],日本产业技术综合研究所开发的海豹型机器人帕罗(Paro)等。据研究,帕罗能有效改善老年人的情绪,治疗老年痴呆症的效果明显。2008年年底,丹麦政府订购了1000个帕罗,现在丹麦几乎所有的老年人护理机构都拥有一个帕罗。[5]日本还开发了儿童机器人,如具有强化通信功能的家庭型机器人PAPEPO 2005,其能够在噪音环境中识别声音、与儿童交流,并可由用户通过手机画面遥控、操作。[6]

陪护机器人具有长期与人陪伴共处的特殊性,可能触发不可忽视的伦理和社会问题。鉴于转基因技术、纳米技术等新兴技术的发展教训,人类不能只考虑新兴技术可能的收益而忽视潜在的风险,更不能等到某项技术在人类社会中产生严重的乃至不可逆的后果时才开始进行伦理反思,应及早关注和研究尚处在发展初期但应用前景广阔的陪护机器人伦理问题。

二、陪护机器人应用可能引发的主要伦理问题

目前,陪护机器人在人类社会的市场化应用还处于初级阶段,国内外对相关伦理问题的研究尚处于初步探索和讨论阶段。笔者结合已有的研究,从机器人技术自身、人机交互过程和社会正义3个角度分析陪护机器人的伦理问题。

(一)陪护机器人技术自身可能引发的伦理问题

外形设计的可接受性。陪护机器人是一个必须以现实产品出现的实体机器人,人们对它的观感与接受度是影响其发挥陪护作用的关键因素之一。Broadbent等人发现,大多数老年人都偏好小型机器人,人们相信女性机器人比男性机器人更温柔,人们也更喜欢性格与自己相匹配的机器人,一个富有同情心的机器人可以鼓励人们互动,机器人根据用户的喜好和个性调整自身的行为可以提高其可接受性。[7]机器人的大小需妥善考虑,如果机器人体形比正常人还要高大,即便能帮助人们处理很多事情,但是也存在伤害人类的可能性,特别是容易对儿童产生惊吓。此外,机器人是否要说话,如果说话,是设计成女性声音还是男性声音,是否带有口音、饱含情感,要设计哪些身体动作、面部表情等,这些都会对人机交流的质量带来很大影响。这可能引发以下伦理问题:把机器人设计成能够显示出人性是否正当?机器人能显示出情绪是否符合道德?

机器人行为的不可预测性。首先,机器人的自主性增强会带来不可预测性。在过去几十年里,科学家们都致力于环境感知和分析、自然语言处理、人机互动、认知系统、神经网络、机器学习等研究。在此情形下,机器人的智能是自我发展的智能,机器人通过学习自己的行动所获得的经验不断演化。虽然在短时间内,达到或超过人类智能水平的机器人还只能出现在科幻电影里,现在就把机器人当作具备同人类一样的自由意志的道德主体、谈论机器人的道德责任问题还为时尚早,但也许在未来的某一天,人类会和那些被赋予了工程学意义上的拥有自主性的机器人共处一室。机器人日渐增长的自主性存在超出设计者原有意图的可能,可能会引发不可预测的后果,需要机器人的设计者们提高警惕。其次,意外技术故障会带来不可预测性。机器人通过程序的设定执行特定的指令动作以完成相应的任务。受设计、技术和操作等影响机器人并不能保证始终按照特定程序完成任务,存在发生意外技术故障的概率。陪护机器人是用来陪伴和看护老人、儿童以及其他行动不便病患等人类弱势群体的,其意外技术故障给被看护者带来的安全隐患尤其值得关注。

(二)陪护机器人在人机交互中引发的伦理问题

随着陪护机器人应用范围日渐广泛,人类逐渐把机器人看成潜在的朋友甚至爱侣,但机器人并不能真正“理解”或“分享”人类的喜怒哀乐。这样的人机交互会对既有的人类社会交往产生影响,引发一些伦理问题,主要表现为以下4个方面。

1.情感欺骗问题

很多陪护机器人的设计为了增加人与机器人互动的可信度,往往会通过增加机器人的触觉、语音和面部反馈能力来模拟动物或人。人是情感动物,在与陪护机器人的长期相处陪伴过程中,受照看者难免会对机器人产生情感。

有研究表明,儿童往往把陪护机器人——不论它是否具有人类的体貌特征视为有生命的个体,如儿童有意拍打机器人时,认为机器人会感到疼痛,会把陪护机器人视为自己的“朋友”等。把机器人当作有生命的人一样对待,这对儿童而言是一种欺骗,长此以往,儿童对生命可能会产生错误的认知。

陪护机器人除了可以在日常生活中照料老人,还可以为这些老人提供心灵上的慰藉,缓解其因长期独居所产生的孤独感。然而,有研究表明,日久天长,老人会对陪护机器人产生情感依恋。例如,当机器人被移走时,接受机器人照料的患有阿尔茨海默病的老人会想念它们。[8]如果接受治疗的老人对机器人产生了情感依恋,而机器人因为某种原因消失了,就可能让这些老人因心情沮丧而影响治疗效果。为机器人预先设定的机械回应赋予了机器人过多的人类智能和情感,使得长期受到机器人陪护的正常老人也会有意无意地把机器人当作有情感的生命。实际上,不同于人类对陪护机器人的情感依赖,机器人对人类的“情感性表达”只是一种算法结果的表现,对人类具有欺骗性。这可能引发以下伦理问题:人类对机器的单向度情感是否会削弱人的尊严?给予老人长期陪伴和守护的机器人是否会削弱老人与家人之间的亲情,影响人类自身家庭关系的正常维系?

2.隐私问题

随着大容量存储技术的发展,陪护机器人能全方位、全时段地采集被照料者的生活数据。当陪护机器人进入人们的日常生活后,长期和用户生活在一起,对用户的家庭情况,包括家庭成员的身体状况、从事职业、兴趣爱好、对各种社会事务的倾向及家庭财产和收入来源等信息了解得一清二楚。在信息化时代,高效精准服务的机器人必然要求其一端与互联网相连,这就极大增加了用户隐私被泄露的可能性。若用户的隐私被泄露,或者被别有用心的人利用,可能对用户产生极其严重的负面影响。被照料者的其他家庭成员是否有权代替被照料者本人对这种监控采集记录进行许可授权?这些数据应当被保留多久、谁可拥有隐私数据的访问权等,都是亟须解决的隐私伦理问题。

3.社交影响问题

老人陪护机器人在一定程度上可以缓解老人的孤独感,但是陪护机器人毕竟只是机器,陪护机器人与人类的交流对话是基于一定的算法,因此陪护机器人不能完全取代人,更不能替代社会关系中人的存在。若独居老人将与陪护机器人的交流替代和社会中的人打交道,长此以往,将会影响老人正常的社会交往和认知水平,甚至可能会引发老人的心理疾病。

儿童陪护机器人往往只是被动地接受主人的语言命令并执行,并不具备足够的敏感性,如儿童陪护机器人不能通过主动观察婴幼儿的面部表情获取婴幼儿需求的暗示,不能对婴幼儿的需求作出及时回应等。婴幼儿主要是通过观察周遭事物并和周围人类的社会交往来学习成长,如果从小和机器人一起生活,可能影响其认知能力及社会交往能力的正常发展。

4.自主意愿问题

陪护服务涉及多方要素,现阶段陪护机器人的智能水平层次仍然比较低,在实际的使用过程中,可能出现机器人制约服务对象自主意愿的现象,这在老年陪护机器人的使用中体现得较为明显。例如,患有某种疾病的老人每天需要定点按时吃药,吃药服务由机器人提供,但是假如在某一时段老人情绪不稳定,拒绝吃药,陪护机器人依然会在那一刻为老人提供吃药服务,这在事实上就形成了对老人自主意愿的干涉。根据John和Julienne的调查,老年人普遍认为他们做自主选择的权利不应该被限制,他们不希望所有人知道他们在家中跌倒,因为他们认为其可以自行克服这些困难,并会在他们觉得需要帮助的时候再通知别人。[9]未来,随着机器人智能水平的不断提高及更多地深入人类家庭,其在陪护服务过程中的自主决策也会增多,陪护对象的自主意愿受到机器人干扰的可能性也会增加。

(三)陪护机器人在社会中可能产生的正义问题

当前,我国城乡之间、不同区域之间、不同群体之间收入分配差距依然较大。不同类型陪护机器人的应用,都会涉及不同地域贫富群体的购买力水平差异,进而引发社会资源分配正义的伦理问题。此外,我国是多民族国家,各民族通常会有其独特的民族习俗等,陪护机器人在设计研发使用时,如果只考虑一般群体使用偏好,忽视对不同民族习俗等的少数民族群体的细致考量,也会引发社会正义的伦理问题。

三、实现陪护机器人负责任发展的建议

在人类社会发展已经深度科技化的今天,包括陪护机器人伦理在内的新兴科技伦理研究并非为了阻挡科技发展——事实上也不可能阻碍科技的发展——而是为了推动科技更好地造福人类,实现科技负责任的发展。2022年3月,中共中央办公厅、国务院办公厅印发的《关于加强科技伦理治理的意见》提出,要“健全多方参与、协同共治的科技伦理治理体制机制,坚持促进创新与防范风险相统一、制度规范与自我约束相结合”“努力实现科技创新高质量发展与高水平安全良性互动”,并明确了伦理先行、依法依规、敏捷治理、立足国情和开放合作的治理要求。[10]据此,笔者对实现陪护机器人技术负责任的发展提出如下4点建议。

(一)让伦理规范渗透机器设计

在科技伦理治理的体系中,科学家、工程师是相关伦理问题研究和实践的主体。只有科学家、工程师把科技伦理的研究视作科研活动的一部分,自觉注重源头治理和预防,将科技伦理要求贯穿科学研究、技术开发等科技活动全过程,才能真正做到科技发展的“伦理先行”。只有科学家、工程师积极为科技创新中伦理问题的前瞻性治理建言献策,做科技伦理治理的先行者,才能真正实现科技发展的“敏捷治理”。当前,技术伦理学中兴起的“道德物化”思想认为,把抽象的道德理念通过恰当的技术设计,使之在人工物的结构和功能中得以体现,可对人的行为产生道德意义上的引导和规范作用。[11]鉴于此,科学家、工程师应该将社会普遍认可的伦理规范纳入陪护机器人的整体算法设计和制造中。

首先,科研人员应该明白,包括陪护机器人在内的人工智能科技的发展不应以贬低和消除人的智能和价值为前提,而应以人的价值为基础,让科技发展真正造福人类。无论陪护机器人怎么发展,归根结底是人造物。无论将来是否会出现具备独立意识的超级机器人,目前的陪护机器人都是依靠科技研发人员所设定的程序完成既定指令的。科研人员应不断优化机器人产品设计,让陪护机器人优先听从人为指令而非机器人的自身程序指令(除非人为指令存在非法伤害人类个体或全体的行为),以此保证人的主体地位。其次,科研人员应根据具体应用场景设计机器人外观形态,引导陪护对象产生积极的情绪而非不安和厌恶等负面情绪,且要遵循社会公平正义原则,不在机器人外观设计中暗含歧视性元素。再次,对可能产生的情感欺骗问题,科研人员可以设定一些程序,让陪护机器人和人交流时显得不像人与人交流那么自然,即以一种人为障碍的方式拉开机器人与人交流的距离,让人能够时刻明晰与自己对话的机器人并不是人,也不能取代人。最后,加强对用户隐私安全的保护,科研人员与生产企业要严格遵守国家的法律法规、行业标准,树立客户至上的理念,保障用户的信息安全。

(二)健全法规制度、制定行业标准

国家层面的法律法规应当为陪护机器人发展设定禁区,国家有关的产业发展意见和政策可以为陪护机器人的发展划定界线。产业层面的行业标准可以为陪护机器人行业发展引导伦理方向,为企业制定自己的产品标准提供参照。

在国家层面,应制定相应的法律法规,如明确科技公司利用陪护机器人收集并滥用用户隐私信息属于违法行为,必须从严追究法律责任。同时,国家层面应就陪护机器人的伦理问题进行专门监督,可以将对这一问题的监督职责纳入现行的国家伦理委员会职权范围。国家伦理委员会除了发挥监督职责,也可以在确定陪护机器人伦理发展方向、细化陪护机器人的伦理准则要求方面发挥作用。此外,国家应适时出台针对陪护机器人伦理治理的产业发展意见和政策,为相关产业发展提供符合社会公平正义的引导,如当陪护机器人技术足够成熟且存在广泛社会需求时,国家应对一些经济状况困难的家庭提供购买陪护机器人的适当补贴。

在产业层面,应积极与政府及相关的社会组织探讨制定陪护机器人的行业标准。具体到生产特定陪护机器人的科技公司,应该就自己生产的某一款陪护机器人产品制定特定的产品标准,这一标准既要能够让陪护机器人满足用户的需求,又要尊重保护人的主体地位。考虑到现在的多数公司还没有形成陪护机器人伦理的产品标准,对相关的伦理原则了解甚少,可以先鼓励科技公司设立伦理委员会。但是,科技公司的伦理委员会不能成为科技公司发展陪护机器人的“伦理外衣”,流于形式,需要在倾听用户公众意见、监督公司收集处理使用用户隐私信息、制定陪护机器人产品标准等方面发挥作用。科技公司伦理委员会可以仿照上市公司监督委员会的设置,主要由外部人士组成,并且由外部人士担任负责人。[12]

(三)提升公众科学素养和道德素质

陪护机器人作为一项技术产品,其技术路径的形成离不开社会语境的塑造。除了国家层面、产业界、科学家共同体外,广大公众对陪护机器人技术的社会形成也至关重要。当前,公众对陪护机器人的了解多来自科幻电影或小说,缺乏对陪护机器人实际研究进展的准确认知,加之公众道德素养参差不齐,对陪护机器人符合道德的应用会产生不良影响。为此,应积极提升公众科学素养和道德素质。

正确发挥媒体作用,帮助社会公众提升科学素养,使之对陪护机器人技术形成真实的认知,而非基于科幻小说或科幻电影中夸张的想象进而产生不切实际的伦理担忧甚至恐慌。实际上,作为当前智能机器人技术根基的人工智能技术尚属于弱人工智能,与科幻小说或电影中的强人工智能还相距甚远。陪护机器人作为人工智能技术下的分支,在可以预见的将来,也主要停留在弱人工智能阶段,尚无超越人类的能力,人类陪护者无须过于担忧被陪护机器人取代。

公众需要提升道德素质,树立合理对待陪护机器人的道德观念。陪护机器人的购买者和使用者应该明白,陪护机器人本质上是协助人类进行护理、增进人类福祉的机器,即便将来随着技术的发展,陪护机器人智能程度越来越高,人类也不能对陪护机器人产生过度的信任或依赖,而要始终牢记,人机交互不能代替人与人之间的交往,不能因为购置了陪护机器人就放弃了人类自身的道德责任。长期使用陪护机器人对心智尚未成熟的幼童可能产生一定的伦理问题,不利于幼童将来融入人类社会;长期使用陪护机器人也可能使老年人沉迷,影响其与他人正常的社会交往。所以,应对陪护机器人的使用时间和范围设定限制,决不能用陪护机器人完全替代监护人的正常陪伴和照料。

(四)构建共通但具特色的伦理规范体系

在经济和科技全球化的背景下,陪护机器人作为新兴的科技产品,从设计师笔下图纸上的模型到成为现实中市场上售卖的产品,中间会历经多个国家、众多环节,陪护机器人伦理问题的产生和解决不再局限于某一国境内。要想实现对陪护机器人的有效伦理治理,让其更好地造福人类,各国必须通力合作。应倡议各国就实现陪护机器人的有效伦理治理开展对话并建立长效沟通机制,在对话交流中达成共识。在此基础上,各国结合本国国情和文化特色,制定对陪护机器人的全球性合作与本国实际相结合的伦理规范体系。

我国要实现对陪护机器人伦理问题的有效治理,必须在开放合作的同时立足本国国情。一方面,要广泛吸纳现代人类价值和文化中的伦理观念,如在保障人的主体地位、尊重人的尊严和自主选择权利方面可以借鉴其他国家一些好的做法,在保护用户使用陪护机器人的个人信息隐私安全方面与其他国家加强合作。另一方面,鉴于伦理价值观念上存在的文化多样性,我国陪护机器人伦理问题的应对也应基于自身的文化传统和发展实际。正如《中国机器人伦理标准化前瞻(2019)》所提出的,“只有充分考虑世界文化的多元特征,中国机器人设计与应用的伦理导则才能得以妥善制定和良好施行”。[13]我国传统文化一直将天地万物看成一个联系密切、休戚与共的共同体,强调“天人合一”,提倡“民胞物与”的人与万物共生繁荣的思想境界。这对解决陪护机器人伦理问题具有一定借鉴意义。西方的机器人伦理标准往往是人类中心主义的,对人机关系持有非此即彼的态度,催生出人机关系紧张的伦理构想;我国可以尝试构建去人类中心主义的机器人伦理标准体系,将机器人看作人类生活大系统中的一个有机构成,推进人机共生繁荣。

猜你喜欢

伦理机器人人类
《心之死》的趣味与伦理焦虑
人类能否一觉到未来?
人类第一杀手
护生眼中的伦理修养
1100亿个人类的清明
人类正在消灭自然
机器人来帮你
认识机器人
机器人来啦
医改莫忘构建伦理新机制