APP下载

机器人发展引发的技术伦理问题探究

2015-01-31赵玉群

周口师范学院学报 2015年6期
关键词:伦理学本体伦理

赵玉群

(渤海大学 政治与历史学院,辽宁 锦州121000)

机器人发展有其独特的历史。1950年,美国科幻小说家阿西莫夫在他的小说《我是机器人》中提出了机器人必须遵循的“三准则”:首先,机器人不得伤害人类或坐视人类受到伤害;其次,机器人必须服从人类命令,与第一准则相违背的情况除外;第三,机器人必须保护自己不受伤害,与第一、二准则相违背的情况除外[1]。这些准则也成为机器人发展中所遵循的道德底线。目前随着科技的不断进步,人们正在经历“第三次工业革命”,这次革命不仅是一场信息化、网络化的革命,而且是一场多元化、多领域的革命,而机器人的发展也正处于多元化领域内的一角。机器人在不断发展,可以帮助许多领域进行技术和工艺的革新,在应用的同时,不免会出现诸多问题,尤其是在机器人伦理方面,这就需要我们寻求一种或多种方式来正确处理机器人的伦理问题,以规范机器人的发展。

一、“物转向”与物伦理

1900年,现象学家胡塞尔提出了“回到事物自身”这一口号。随后,海德格尔在20世纪30年代、50年代对“物”曾进行过多次讨论。60年代罗兰·巴特(Roland Barthes)、鲍德里亚(Jean Baudrillard)等人关注着物意义的阐释。90年代唐·伊德(Don Ihde)提出了“后现象学”这一口号,21世纪荷兰学者维贝克(P.P.Verbeek)提出的“物伦理学”更进一步推进了这一研究[2]。

早在古希腊时期,思想家们就注意到了自然物与人工物的区别。柏拉图以床为例,提出床的三个含义:“一是理念的床,具有本质意义;一个是木匠造的具体、特殊的床,是本质意义上的床的影像;还有一个是画家画的床,它是床的影像的模仿。”亚里士多德从物存在的角度给出了人工物与自然物的区别:凡存在的事物,有的是由于自然而存在,有的是由于别的原因而存在。机器人只能看作是人工之物,也可以称作是人造物,这种人造物也可以被看作是存在之存在。既然存在物有其存在的意义,那么从价值论角度讲也就有研究价值,这种价值在物伦理学的建构上才能得以体现,不能仅仅把机器人看作是一种人造物,更应该在价值论的角度去赋予一定的物伦理意义。

物伦理学是物转向在伦理学领域内的一个映射。物转向去除的是人本主义的倾向,转而去研究物的德行与伦理,物伦理学是哲学研究的一个重要领域,不仅是研究物本体的存在,更研究的是物伦理的存在。与经典道德责任相比,“物伦理学”是一种实用道德责任。机器人在快速发展的同时,与人类的关系愈来愈密切,那么就需要界定其伦理底线,是人还是物,是理性还是感性,是有意识还是无意识,是有道德还是无道德,这些都是需要去探讨的伦理问题。

二、机器人发展引发的伦理问题

每一种新技术的产生都会伴随着利弊。机器人技术不断成熟的同时,人机交互感越来越强烈,人与机器之间的物理边界变得模糊并逐渐融合,人在与机器人相处的过程中,会产生许多问题,其中就包括一些伦理问题。

(一)历史上的机器人伤人案件

在机器人的发展史上,有许多机器人伤害人的事件发生。当然绝大多数都属于机器人故障或者人工操作失误导致的,由于技术条件的限制,很少有机器人作为一个主体去损害人类的利益。历史上也发生过一些不能解释的机器人伤人或者自杀事件。例如,1978年发生了世界上第一次机器人杀人事件:日本一个切割钢板的机器人发生故障,将身旁工作的工人当作钢板并执行了既定的程序。

1989年发生了一起智能机器人伤人事件,也是比较典型的一个案例。一位国际象棋大师,名叫古德科夫,在一次比赛中,对手是机器人。古德科夫在连胜三局之后宣布机器人的智力是斗不过人类的,机器人恼羞成怒向金属棋盘释放了高强度的电流,此时古德科夫的手正放在棋盘上,一瞬间他死于非命。这有点像世界国际象棋大师卡斯帕罗夫与IBM“深蓝”机器人对决,深蓝虽然也输掉了比赛,但不至于杀死卡斯帕罗夫。这种人脑与计算机的对决有很多,比如智力竞赛节目挑战“沃森”计算机系统、保龄球选手与保龄球机器人比赛等,但发生伤人的事件却不多。为什么会发生机器人伤人事件,是程序问题,是硬件故障问题,还是其他伦理问题造成的?

另外还有一起比较特殊的机器人自杀事件:2013年,奥地利一户名为Gernot Hackl普通家庭中有一个普通清扫机器人,这个清扫机器人已经正常工作了4年,在像往常一样完成相应的工作任务后,Gernot Hackl便切断电源把它放入柜子内。他下班回家后,发现这个机器人自动爬上炉子,点燃了自己,最后成为一堆灰烬;机器人的自焚引燃了Gernot Hackl的屋子,Hackl无家可归。

不论是初级机器人伤人还是高级智能机器人伤人,或者机器人自杀,都或多或少存在社会和伦理问题,研究机器人伦理也是未来机器人发展的一个主要方向。

(二)机器人与人“二律背反”的问题

“二律背反”是对人的理性的一个警告,暗示理性不得越出经验的范围而妄想认识自在之物。康德在《实践理性批判》中把“或则是谋求幸福的欲望是德行准则的推动原因,或则是,德行准则是幸福的发生原因”作为实践理性二律背反的命题[3]。那么在这里针对机器人与人的伦理关系,可以引出两个“二律背反”的命题。

正题:人们限制机器人的发展。

反题:人们不限制机器人的发展,而是发挥其应有的功能和价值。

正题:机器人是一种“物”。

反题:机器人不是一种“物”,而是赋予物伦理准则的价值主体。

第一个二律背反指的是我们一方面限制机器人的发展,担心它的发展给社会、生态等造成危害,另一方面我们又要鼓励其发展,充分发挥其应有的功能和作用,比如日韩应用广泛的儿童看护机器人、现代军用机器人和类机器人等。第二个二律背反指的是我们不能仅仅把机器人看作是一种人造物或者工具本体,更应该把这种物纳入到物伦理的范围之内,在假设其为实践本体的前提下,赋予机器人一定的道德责任和相应的权利,只有具有被赋予道德责任和权利才能在法律框架内对其行为进行约束,最终在这个系统内实现一种人与机器人的内在和谐。机器人不属于物自体的范畴,因为物自体是相对于现象来讲的,是不依存于人们意识而独立存在的客观物质世界,是不可认知的。但机器人是可以被人们认识的,甚至在两个二律背反的基础上可以与人和谐共生,共同发展。

(三)社会伦理问题

机器人大量代替人类劳作,怎么权衡机器人与人之间的特殊关系,也是值得我们去探讨的。现在已经出现了一些服务机器人可以照顾老人、陪老人逛街聊天、负责老人安全问题等。但是如何防止这些自主意识较强的机器人不撒谎,或者如何判断它们是否具有潜在的负面影响呢?未来机器人大量发展也许会像现在的电脑那样得到普及,势必会产生大量的电子垃圾,带来很大的辐射污染。

首先,机器人发展带来的家庭伦理问题。以儿童看护机器人为例,这款机器人的目的是为了引导新生儿和儿童健康成长,并在成长过程中保护儿童不受伤害。但是,亲人们的看护和机器人的看护是有本质区别的,家长们的关爱和情感呵护是不能被替代的,这就需要一个度去界定机器人对儿童的看护,以避免出现儿童长大后离不开机器人的问题,避免儿童人格的畸形发展。

其次,类人机器人带来的伦理问题。日本曾经展示了一种类人机器人,不仅可以与人进行交流,模拟人们眨眼和呼吸,而且可以阅读和播报新闻,通过展示特定的动作以更接近于人的特征。这种类人机器人是否应该被赋予一定的人类道德,如何去界定它与人类的伦理关系,能否把它看作真正意义上的人,是应该把它看作人造物还是人造人,或者是具有物伦理倾向的人,都是值得深入探讨的。

总而言之,机器人不断发展是必然的,智能化程度也不断得到提升,与人类的关系也会越来越密切,其间会产生很多问题包括机器人与人的伦理问题,这就需要我们引入物伦理的概念去加以阐释。

三、如何处理人与机器人的伦理关系

广义上来讲,机器人分为初级机器人和高级机器人。初级机器人比如机械臂等与人之间的关系是一种操作与被操作的关系,问题仅在于物理技术层面,虽然过去也有初级机器人伤人事件的发生,但都是一些程序或者人工操作不当产生的;而高级智能机器人具备自主处理信息的能力,它的发展与人的关系愈来愈密切,在某些领域甚至超过人类,当然这种自主性越来越明显,所彰显出来的问题也就越来越多。如何处理这些问题,是未来机器人发展着重考虑的一方面。

(一)物伦理学中的道德走向

物伦理其实是物转向在哲学领域的一种映射,机器人伦理则是物伦理中的一个分支。如何为机器人发展设定一个限度,使其朝着“善”的方向发展,这就需要物伦理学所设定的一种道德责任。从宏观层面来讲,智能机器人这种物行为体在社会技术系统中担负着巨大的责任,这是大科技时代中伦理责任的题中要义[4]。

现代社会一些护理机器人快速发展,这些护理机器人一方面可以看护老人和孩子,陪老人聊天,伴随着孩子一起成长,另一方面也可以把它界定为一种人生或者精神伴侣。如果把其界定为“物”,这种“物”是否是一种理性自律的物,是否会对人们造成困惑或者危害?一个没有任何行为意识或者思维意识的物不可能去看护他人,这里不能把简单的程序设定或者物理的机械设备控制能力归结为它是一种物。在这里应该把它看作“人”或者“类人”来讲比较好一点,人具有道德自律,才不至于做一些破坏道德底线的事。当然对于机器人,也需要设定一些道德底线,因为再完善的程序也会出错。比如目前的看护机器人,其在看护老人或者跟小孩子玩耍的时候会不会产生一种潜在的负面意识(说谎等)而间接地危害人们的利益?目前的战争机器人被称为“杀人机器”,连最基本的战斗人员和非战斗人员都识别不了,这些杀人机器更应该遵守道德规范。即使具备伦理道德规范的机器人被设计出来了,由于机器人不当行为引发的问题应该由机器人本身来承担,还是应该由设计者来承担,这也是值得探讨的。

(二)机器人的“情本体”

所谓“情本体”,就是以“情”为人生的最终实在、根本,该理论是李泽厚先生提出来的。他认为情本体即无本体,已经不是传统意义上的本体,情本体之所以仍名之为本体,不过是指人生的真谛、存在的真实、最后的意义,仅此而已[5]。

探讨机器人与人的伦理关系,切入点便是探讨“工具本体”与“情本体”的关系。从李泽厚先生的积淀说可以看出,工具本体的不断积淀,产生了一种由量变到质变的变化过程,逐步形成了心理本体,进而推演出情本体。但“积淀说”只研究工具对心体的单向度作用意义,情本体又囿于“情”对于“心体”的价值意义,目前最为重要亦亟须开展的研究乃是“心(情)”对于“工具”的作用意义[6]。人是自然性与社会性的统一,既然心理本体或者说是情本体是由工具本体积淀而来,人是属于历史性的存在,那么机器人便是历史性基础上的更高层次的存在;因为机器人是由情本体的人所创造出来的,情本体可以被称作是一种功能性的道德传统,那么机器人也可以在情本体框架内不断沉积积淀,慢慢地赋予一种情感和道德责任。

“情本体”中强调的是情,而无论西方哲学还是中国哲学都没有将情看作是一种中心,甚至一种“本体”去讨论。机器人在现代的发展中,仅仅有道德约束还是不够的,还需要赋予自身一种“情”。人们在关爱机器人的同时,机器人也会同样把这种“情”施加到人们身上,使人和机器人之间达到一种和谐。

(三)法律强制性约束

所谓机器人法律就是相对的为机器人设立一些行为或道德准则,以防止机器人伤害人或者人类虐待机器人。比较知名的一套机器人法律便是阿西莫夫的机器人三定律,之后他又增加了一条:机器人不得伤害人类群体,或坐视人类群体受到伤害。

机器人法律包括机器人的使用和应用的法律。这是因为今天的法律和技术术语变得越来越难以在机器人领域中应用。机器人定律是对先进的机器,是为不断增加的配备人工智能机器人的自主性的状况评估及法律上的讨论。这种讨论是对机器人所应该履行的法律权利和义务(不仅仅是传统的法律类型)进行的重新评估。

韩国政府曾起草世界上第一份《机器人道德宪章》。该宪章认为机器人必须严格遵守命令,不能对人类的利益造成危害,当然人类也不能虐待机器人,应该充分尊重机器人的利益,合理使用它们。日本经济产业省也推出了《下一代机器人安全表现指南(草案)》,用于规范未来机器人研发的行为,以及未来智能机器人的行为规范,防止“行为不轨”的机器人暴动害人,经产省将敲定未来所有机器人必须遵守的具有法律性质的行为规范[7]。机器人立法将会是未来机器人发展着重探讨的一个问题。

机器人的发展是一种顺势而为,智能机器人的普及也将会是未来发展的一种趋势。从物转向到物伦理学更深入到机器人伦理学,以这些理论做支撑,在处理人与机器人之间的交互关系时,可以使它们朝着一种“尚善和谐”的方向前进;更深入地将“情本体”理论应用于机器人本身,将之纳入法律的框架内,构建一个“德行、情性、法性”的机器人发展体系,以促进机器人规范发展。

[1]张奇志,周亚丽.机器人学简明教程[M].西安:西安电子科技大学出版社,2013:1.

[2]杨庆峰,闫宏秀.多领域中的物转向及其本质[J].哲学分析,2011,2(1):158-165.

[3]李从军.价值体系的历史选择[M].北京:人民出版社,2004:278.

[4]王绍源,赵君.“物伦理学”视阈下机器人的伦理设计:兼论机器人伦理学的勃兴[J].道德与文明,2013(3):135-136.

[5]赵士林.略论“情本体”[J].哲学动态,2011(6):90-96.

[6]尤西林.心体与时间:二十世纪中国美学与现代性[M].北京:人民出版社,2009:87.

[7]乐艳娜.机器人立法的道德悖论[J].环球,2007(11):62-64.

猜你喜欢

伦理学本体伦理
《心之死》的趣味与伦理焦虑
实践音乐教育哲学中的伦理学意蕴探析
“纪念中国伦理学会成立40周年暨2020中国伦理学大会”在无锡召开
眼睛是“本体”
论马克思伦理学革命的三重意蕴
护生眼中的伦理修养
伦理批评与文学伦理学
基于本体的机械产品工艺知识表示
医改莫忘构建伦理新机制
专题