APP下载

自动驾驶汽车道德归责困境及其消解

2024-01-18胡明艳白英慧

关键词:伦理受体事故

胡明艳, 白英慧

(1. 中共中央党校 哲学教研部, 北京 100091;2. 中国人民大学 哲学院, 北京 100872)

自动驾驶汽车(autonomous vehicles/self-driving cars,以下简称AV)作为各项人工智能技术应用于交通领域的一项成就,预期可以大幅降低交通事故的发生率,在一定程度上改善交通拥堵状况,比普通汽车更安全便捷。国外发达国家已有多年的AV发展历史,近年来我国AV的研发速度也很快。然而,国内外发生的多起AV交通事故(1)自动驾驶汽车近年来频发各类交通事故,并造成人员伤亡:如2018年3月,Uber自动驾驶汽车在亚利桑那州撞死一位横穿马路的行人;2021年4月,特斯拉自动驾驶汽车在美国德克萨斯州一条公路上撞树引发火灾,车内两名男子身亡;2021年8月,餐饮连锁品牌“美一好”创始人林文钦驾驶蔚来自动驾驶汽车于沈海高速涵江段追尾施工车辆,不幸身亡;2022年7月,艺人林志颖驾驶的特斯拉自动驾驶汽车撞到路牌杆并起火,导致林志颖受伤。一再提醒人们,AV事故归责问题亟待得到妥善解决,否则会降低公众对这项技术的信任度与接受度。当前,关于法律层面上交通事故责任的认定与划分,各国尚未针对AV不同自动化级别、不同责任主体进行明确区分。由于“社会是一个道德规范的聚合系统,而法律在当代世俗社会中是上述道德规范的基本体现”[1],所以,要解决AV交通事故的法律追责问题,我们有必要先关注AV交通事故的道德归责问题。

一、 传统道德责任观

当车辆控制权被移交给AV系统,事故发生后,如何进行道德归责?这已成为AV大面积推广所面临的核心待解伦理难题之一[2]。对此,我们需要重新考量传统的道德责任观。

亚里士多德奠定了西方传统的道德责任观,但并未确切定义“责任”一词,而是通过《尼各马可伦理学》第三卷中对“意愿行为”的考察,为进一步研究道德责任提供了基础。亚里士多德认为,判断某一主体是否应负责的标准在于其行为是否“出于意愿”,“既然违反意愿的行为是被迫的或出于无知的,出于意愿的行为就是行动的始因在了解行为的具体环境的当事者自身中的行为”[3]。“出于意愿”包含两层含义,即“控制”与“觉知”自身行为。马克·科克尔伯格(Mark Coeckelbergh)对亚里士多德的道德责任思想进行总结,认为道德责任主体需要具备两个条件:控制条件(control condition)与认知条件(epistemic condition)[4]111。一方面,道德责任主体具有能动性,其行为会对他人及社会产生影响,因此当主体所作出的决定与行为在自身控制之中时,应对自身行为负责。自然灾害等突发状况超出了主体的控制能力,社会上外部势力的胁迫使主体无法依据自身意愿行动,因此在这两种情况下主体无需负责。如在沙尘暴的影响下,高层窗户被吹落,导致汽车被砸,此种情况下主体无需负责;但如若天气正常,有人故意将窗户从高空抛下砸坏汽车,此主体就必须承担道德责任。另一方面,当道德责任主体知道自己在做什么,并对自身行动相关的知识背景及行为的后果有所了解,具备解释其行动的能力时,需承担道德责任。当然并非主体处于无知状态时就一定无需承担责任,儿童犯错大多追究其监护人责任,但成年人酒后伤人必须承担责任。

以亚里士多德的道德责任思想为基础,此后不同的道德责任观虽丰富了“责任”一词的内涵与外延,但其作为传统的道德责任观仍具有相同的特征,具体来说:

第一,责任的认定核心在于个体,大多依照主体的属性对责任进行界定与分配,责任分配结果较为清晰,不存在多人或多物责任重叠难以明晰个体责任的状况。第二,传统道德责任观多探讨人与人之间的责任关系,责任主体只涉及人类,虽然有的学者将责任主体由人扩展到动物等生命体,但技术人工物尤其智能人工物仍被排除在责任探讨范围之外。第三,传统道德责任观多从责任主体(agent of responsibility)的视角出发,未将责任放置于社会关系背景中进行考察,往往忽视责任受体(patient of responsibility)的重要性,侧重于“谁对事故负责”而不是“发生事故应对谁负责”[5]。第四,传统的责任分配采取后视性视角,大多在事故后通过当事人、目击者、监控等提供的证据还原事故发生前与发生时的状况,据此分析事故原因,以确定相关道德行为的责任主体并进行道德责任分配。

二、 自动驾驶汽车的道德归责困境

传统道德责任观在一定程度上可以作为AV事故道德归责的伦理依据,但其适用性是有限的,当AV发展到高度自动化阶段,若仍以传统道德责任观的视角进行事故后的道德归责,就会陷入困境。

2020年3月9日,我国工信部官网对《汽车驾驶自动化分级》进行公示,并于2021年1月1日开始实施。这一标准参考了美国机动车工程师协会(SAE)制定的相关标准,并结合中国实际情况,依据为自动驾驶系统能够执行动态驾驶任务的程度、在执行动态驾驶任务中的角色分配以及有无设计运行条件限制等,将自动驾驶分为0~5级共6个等级。随着驾驶自动化层级的不断提升,自动化系统能够执行动态驾驶任务的程度不断提高,且其受到设计运行条件限制的程度越来越低,5级可完全执行动态驾驶任务,并不受设计运行条件的限制[6]。

依据这一分级,3~4级的AV大多数决策由自动驾驶系统作出,人类主体只对其进行监督,而5级水平的AV根本没有驾驶员,乘客除了发布乘车和停车指令以及强行关闭系统外,没有其他控制权力。当前,AV仍处于较低等级,其规模化应用正处于2级到3级的过渡阶段[7],但许多AV企业为盈利而在宣传时夸大其词,许多用户被不负责任的车企所误导,盲目信任较低等级的AV,造成不少交通事故。依照现有法律与伦理,此种事故后的责任分配较为清晰,但对于4级以上的高度自动驾驶的汽车来说,若简单遵循西方传统的基于个体道德的责任观,我们会陷入道德归责困境。

首先,责任主体的认定上存在“责任空缺”(responsibility gap),即无明确责任承担主体[8]。众所周知,在传统交通事故的责任认定中,责任主体是人类驾驶员或车主。德国作为世界上最早规定允许自动驾驶的少数几个国家之一,于2017年批准了《德国道路交通法》,依然遵循传统的责任分配原则,规定:即便车辆处于自动驾驶模式,驾驶员和车主仍然要承担责任[9]。依据我国现行法律,因辅助驾驶功能失灵造成的交通事故,驾驶人承担责任,但可以向车企追偿(2)2022年8月1日,《深圳经济特区智能网联汽车管理条例》实施,其所指称的智能网联汽车包括有条件自动驾驶、高度自动驾驶和完全自动驾驶三种类型,该条例第七章明确了AV事故责任。。以上这些法律规定只适用于目前AV的辅助驾驶阶段。然而,在高度自动驾驶的汽车引发的交通事故中,依照传统道德责任观的“控制”条件,人类驾驶员并不具备责任主体的资格:在高度自动驾驶的汽车的行驶过程中,算法系统面对新情况往往会快速作出自主决策,留给人类反应与干预的时间极短,人类驾驶员无法及时介入控制,因此不应对自动驾驶事故负责。此外,根据传统道德责任观的“认知”条件,AV并不具备意识,亦无法成为责任主体。看起来,似乎只有算法工程师与制造商能够解释自动驾驶算法系统的行为并对其负责。然而,算法工程师与制造商尽管能够为自动驾驶算法系统设定目标,了解自动驾驶算法系统所做行为的目的,明白系统的一般运行方式,但他们在解释系统决策过程中会面临不透明性和不可解释性所造成的“算法黑箱”难题,无法确切了解系统在任一时间地点的行为,因此,算法工程师与制造商无法对系统的决策负责[4]115-116。此外,从实际效果上看,如果我们一味地将责任归到算法工程师与制造商头上,很可能会挫伤其发展自动驾驶的积极性。由此,处于高度自动驾驶阶段的汽车在发生事故时会引发“责任空缺”,即我们在进行AV事故道德归责时找不到合适的责任主体。

其次,责任承担上存在“惩罚空缺”(retribution gap)[10]。这指的是,即便从长远视角出发,自动驾驶系统成为了责任主体,也会因其不具备可惩罚性而产生无法实施惩罚的情况。因为“惩罚的目的既是为了让他意识到自己的错误,也是为了让所有社会成员知道任何挑战法律规范的行为都要付出代价。然而,至少在可见的将来,智能机器不会具有意识,不能反思自己的行为”[11]。所以,对智能机器进行精神惩罚并不现实。同时,机器并无痛感,亦无财产,对其进行躯体上的物理惩罚或经济惩罚也毫无意义。这就产生了AV道德责任承担上的“惩罚空缺”困境。

再次,责任分配时存在“多手问题”(problem of many hands)与“多物问题”(problem of many things)。AV的发展具有历史性,其涉及由AV设计、制造、检测到使用的复杂链条,每一阶段都会涉及不同的主体。自动驾驶事故发生后,很难追踪AV发展各阶段的各人类主体,无法明晰导致事故的因果链条,会出现可能不止某一主体有责任的情况,难点在于如何分配各参与主体的责任内容与程度,这就是道德责任归属和分配上的“多手问题”[12]。与此同时,AV是各种技术的集合体,其技术框架可分为感知层、决策层、执行层,涉及环境感知、高精度地图、人机交互技术等多种技术模块,各个软件与硬件密切结合,处于动态交互之中。这些技术均具有历史性,与人类主体产生关联,更不要说,作为AV关键技术之一的算法具有不透明性和不可解释性。所以,当技术出现问题造成AV事故时,我们很难确定每项技术在多大程度上引发了事故的发生,因此会产生“多物问题”[5]。可见,无论是具备完全能动性的人类主体还是具备一定能动性的自动驾驶技术,都在某个环节具有不可追溯性,难以进行事后的道德责任分配。

总之,随着基于深度学习的人工智能算法的发展,自动驾驶系统显现出了以往人工技术系统所不具有的自主性和人-物协同性,对在传统责任理论下进行相应驾驶事故的道德责任认定提出了挑战。

三、 对传统道德责任观的拓展

AV技术的发展突破了传统道德责任观是AV事故道德归责困境出现的关键原因。对归责困境的消解不能仅仅被动依靠技术的发展,更重要的是为传统道德责任观注入新鲜血液。消解道德归责困境的前提是拓展传统道德责任观的深度与广度,在其基础之上构建新型道德责任观。具体而言,我们需要从以下四个维度对传统道德责任观进行拓展。

第一,从关注人类责任主体拓展到关注非人类的准责任主体。随着自动驾驶层级的提高,人类主体与自动驾驶系统之间的角色不断发生变化,人类主体的角色会经历“控制者→协作者→乘客”的变化,而自动驾驶系统会经历“工具→协作者→能动者”的角色转变。这给传统的以人类个体为责任承担主体的道德责任观构成了直接冲击。思文·尼霍姆(Sven Nyholm)提出,上述角色转变是基于人类主体与自动驾驶系统的交互而产生的。然而,他拘泥于传统道德责任观的框架之下识别责任主体,只关注成为责任主体所应具备的“控制”与“认知”条件,认为即使达到驾驶自动化5级的标准,也不应将自动驾驶系统看作完全独立的能动者,其本质上是协作能动者,自动驾驶系统作为人的辅助决策者与代理者而存在,所以,自动驾驶事故的责任只能由人类主体承担,否定了自动驾驶系统承担责任的可能性[13]。事实上,对于高度自动化的AV,人类主体无法对其进行实时干预,并不完全满足责任主体所应具备的条件。对此,卢恰诺·弗洛里迪(Luciano Floridi)等建议,在对道德主体(moral agent)的认定上,我们可以区分道德责任(moral responsiblity)和道德问责(moral accountability)。前者强调传统理论对意图、意识及其他心智的关注,可评判某个主体是否以及在多大程度上要对某个道德行为负责,后者则只关注某个主体是否引发了善或恶[14]。按照道德问责(moral accountability),AV也可以成为道德主体。我们不必关注道德人格方面的困扰,而可以通过停止其服务、破坏它等方式对自动驾驶系统进行道德问责,改善、规范其行为[15]。此外,温德尔·瓦拉赫(Wendell Wallach)等悬置了关于道德主体的伦理学定义的争论,将基于工程学进路的“图灵测试”引入道德领域,提出“对比道德图灵测试”(comparative moral Turing test,简称CMTT),即将一组实际有道德意义的行动作为例子展示给人类评判者,并清除任何识别信息,如果评判者无法明确区分人与机器,且机器的道德水平并不比人类的道德水平低(即使机器的总体表现包括被判定为道德上错误的行为,但只要其总体道德表现超过人类),机器就能够通过“对比道德图灵测试”,并被认定为准责任主体[16]。尽管“对比道德图灵测试”尚未获得广泛认可,但它为自动驾驶事故归责提供了一种新视角:AV的责任表现为角色责任,其无需具备一定的个体特质,只需在社会性交互中满足他者的需要与社会预期即可[17]。为此,我们需保持责任主体范围的开放性,承认自动驾驶系统作为准责任主体的可能性与必要性。

第二,从个人担责拓展为人-物集体担责。大科学时代以来,新兴科学技术往往都是多个人工部门、多个技术系统协同合作的集体产物,AV更是鲜明地体现出了人-物协同的特点。“自动驾驶汽车是一个集环境感知、规划决策、智能控制等众多自动驾驶功能为一体的综合系统,涉及传感、通信、计算机、电子、自动控制、车辆动力学等众多技术领域。跨学科、多交叉的自动驾驶汽车开发需要相关技术人员可以模块化并行开发各个子系统。”[18]因此,AV以各项技术为基础,涉及技术研发部门、设计制造部门、宣传销售部门、维修售后部门等多个人工部门的协调运行。具体来说,自动驾驶系统的运行是基于自动驾驶制造商、系统工程师、用户以及自动驾驶系统的共同目标,并在相互作用与相互补充的集体行动中实现的。无论是自动驾驶用户还是系统工程师,都对自动驾驶系统具有直接或间接的监督控制权。一旦发生事故,上述主体都可能成为道德上被归责的对象,因此自动驾驶事故责任主体理应是包括AV用户、设计者、制造商和AV自身所构成的整体。

第三,从关注责任主体拓展到关注责任受体。针对以AV为代表的人工智能技术物是否可以作为道德主体承担道德责任的问题,科克尔伯格另辟蹊径,提出了关系性视角。他认为传统道德责任观关注责任主体,基于自动驾驶算法系统是否具有某些属性(例如意识)来判断其是否应承担责任。这是有问题的。因为我们无法获知自动驾驶算法系统是否真的具有类人道德属性,更进一步来说,以怀疑论的视角来看,我们无法确定人类是否具有特定的道德属性[4]58。实际上,人类现有的社会关系以及语言为道德归责提供了可能性。科克尔伯格将责任转变为社会关系性概念,强调责任受体的重要性。他认为责任与其说是基于责任主体的道德属性而产生,不如说是基于在社会关系中存在的责任受体要求作出回应而显现。责任受体即受责任主体相关决定或行为影响的存在,其位于责任关系的反面,是责任主体被要求承担责任的理由[19]。责任受体可分为直接责任受体与间接责任受体,包括人类与非人类。关注责任受体的关键在于对“可解释性”[5]的重视,可解释性不仅与传统道德责任观中的“认知”条件相关,即责任主体了解行动的知识背景,还包括责任主体基于道德要求向责任受体提供自身行动的理由,即可回应责任。可回应责任以自动驾驶系统的可解释性为基础,相比于通过技术手段以增加责任主体对责任受体的可回应性,倾听责任受体的意见更为重要。

第四,从事后追责拓展为责任前瞻。传统道德责任观适用于事故发生之后,对照责任标准以确定责任主体,仅关注如何将道德责任施加于责任主体,而忽视了责任主体在事故发生前对道德责任的主动承担。彼得-保罗·维贝克(Peter-Paul Verbeek)关注人类与技术、主体与客体的相互形塑,认为人具有技术性,技术作为中介,调节我们与世界的互动[4]43-45。因此,我们应关注人工智能技术如何调节人与世界的关系,并在技术还未成熟之时尝试进行积极的干预和引导。具体来说,在自动驾驶技术使用前就进行责任前瞻,将各方形成的伦理共识嵌入AV的构建过程之中,以尽量避免陷入事后道德归责困境。自动驾驶系统的核心在于算法,算法的不透明性、不可解释性与不确定性导致了事后道德归责过程中责任的不可追溯性,由此导致责任推诿现象的发生,各责任主体试图寻找替罪羊,以免除自身的责任。对这一难题的解决需前瞻性归责视角的出场,通过对技术以及社会环境的塑造以确保自动驾驶系统被负责任地设计、制造和使用,事故未发生时各责任主体便可意识到并主动承担起自身的道德责任,即便自动驾驶事故不可避免,也能为事故发生后道德责任的厘清提供帮助。

四、 自动驾驶汽车道德归责困境的消解方案

鉴于AV自主性凸显,且属于人-物协同集体行为的产物,想要消解AV道德归责困境,关键在于找到一个可与自动驾驶集体行动者相匹配的道德责任归属组织,以合理的方式对自动驾驶系统的自主性予以承认。在现行法律构架中,“法人”是“相对自然人而言的一种法律关系主体”,其具有团体性和独立人格性的本质特征,团体具有独立人格的关键在于其可以独立承担责任[20]。法人不仅是个体行动者的简单聚合,也不仅是单纯的团体集合,更是具备组织性、管理良好的团体[21]。我们不妨设立“AV法人”这样一种集体担责组织来消解AV事故的道德归责困境。

首先,“AV法人”有助于解决“责任空缺”和“惩罚空缺”问题。对于AV事故集体担责组织的设立,学界其实已经提出了各种方案。亚历山大·赫韦尔克(Alexander Hevelke)等认为,可以通过设立保险公司或通过税收的方式对AV进行责任分配[22]。王华平认为,应设立专门的“AV安全公司”来消解归责困境。AV安全公司以法律强制性保证公司成员构成的全面性,自动驾驶制造商、系统工程师、用户、自动驾驶系统四类主体都被认定为合理的归责对象。AV安全公司可作为被惩罚的对象,当所有行动者无明显过失时,AV安全公司接受惩罚。当某一人类行动者存在明显过失时,由其作为个体接受惩罚。当AV自身有重大过失时,可采取降速、强制学习、销毁等措施对AV进行惩罚[11]。这一提法从责任主体的维度丰富了传统道德责任观,既实现了责任主体由个体到集体的转变,也将作为人工物的AV系统本身纳入了责任主体范畴,十分有利于解决“责任空缺”和“惩罚空缺”的问题。

其次,利用现有的一些技术手段,“AV法人”有助于化解AV归责困境中的“多手问题”和“多物问题”。例如,阿兰·温菲尔德(Alan F.T. Winfield)等提出:人工智能系统应配备类似于飞行数据记录器的“伦理黑匣子”(ethical black box),其具有足够的坚固性。AV包含传感器、自动驾驶算法系统、执行器三个子系统,伦理黑匣子对这三个子系统的数据进行收集。当事故发生后,通过整理伦理黑匣子中的数据,能够重建事故发生前与发生时的时间线,以此为事故归责提供技术与数据支持[23]。王华平认为,AV安全公司在自动驾驶系统中接入“标准化安全包”,其因果推理模块能够追溯实际因果关系,监测模块负责记录数据并对汽车进行定期测试,还需采用区块链技术对安全包所涉及的数据进行保护,以此保证数据的去中心化与可追溯性[11]。以上技术手段都能够在一定程度上追溯AV事故各相关方的行踪,为确切的道德责任分配提供依据。

再次,“AV法人”除了直接进行可追溯的人-物集体担责,还可从责任受体进一步细化对AV道德归责困境的消解。“AV法人”通过搭建对话平台,关注自动驾驶事故受害者的道德诉求。根据新型道德责任观,责任受体包括直接责任受体与间接责任受体,例如在一场自动驾驶事故中,假设一辆AV因某种原因撞向路上行人,致使行人死亡,并对公共交通设施造成了破坏,自动驾驶用户无伤亡。此次事故的直接责任受体是行人以及作为非人的公共交通设施,间接责任受体为受此次事故影响降低AV购买积极性甚至抵制AV进一步发展的事故旁观者。对此,AV法人扮演各主体间的关键协调者角色,搭建起自动驾驶事故利益相关者的对话平台,实现多方信息实时、透明交流,使责任主体拥有充足的意愿和能力去理解责任受体的要求及意见,为增强社会层面而非技术层面的可解释性提供切实可行的路径。具体来说,在AV法人的组织协调之下,自动驾驶事故的相关责任主体通过与直接责任受体进行充分的沟通与交流,能够将“以何种方式承担责任”这一抽象问题具体化,在反复磋商的基础上形成经济赔偿、物理惩罚、刑事责任等责任承担的确切方式,达到双方满意的归责效果。此外,通过社会公开磋商的方式得出道德责任承担方式的最优解,在一定程度上降低公众作为间接责任受体对AV的排斥度。

最后,“AV法人”通过伦理培训或道德问责,帮助相关成员主动承担责任,实现责任前瞻。对于AV的用户,应使其认识到自身应承担的使用责任,即购买AV前的认知责任。2018年3月在美国加州山景城以及2018年5月在加州拉古纳海滩,特斯拉汽车均发生了事故。造成这两起事故的原因,均为用户忽视了自动驾驶系统的警告。事实证明,明确告知用户AV的使用规则是必要的,应避免因用户对“自动驾驶”一词错误理解而造成事故这一情况出现[24]。通过对自动驾驶相关背景知识、使用规则、伦理知识尤其风险性的介绍,用户能够在认识到自身责任的基础上主动担责,由此便不会产生用户因无知而将责任推给自动驾驶系统的情况。对于自动驾驶系统的工程师和设计者,应使其意识到自身所应承担的预见责任。许多技术人员将伦理视为一种限制与阻碍,认为重视伦理会导致金钱、时间以及精力方面的额外付出,忽视了重视伦理在促进自动驾驶技术可持续发展、构建人类美好生活方面的重要作用[4]174。实际上,人工物并非价值中立,其设计和建造过程被嵌入了人类的道德价值。系统工程师在进行自动驾驶系统设计时,不应只考虑技术与经济要素,还应将人与社会的长远发展考虑在内。为此,应着重培养自动驾驶系统工程师的道德想象力。道德想象力能够帮助工程师在既定的情境中分析采取多种行动的可能性,并预想每一既定行为有可能带来的积极与消极影响。自动驾驶系统工程师在进行系统设计时充分发挥道德想象力是其事前主动担责的重要途径。对于AV的生产商,应通过培训使其认识到在AV设计、制造的过程中构建开放决策过程的重要性与必要性,强调各重要决策环节应向各利益相关方征求意见,尊重其权利及自主性,由此保证各利益相关方在享受AV所带来红利的同时,能够对AV的风险性有一定程度的了解,并在其参与度不断提高的同时,提高其道德担责的自愿度。“通过制度化、规范化的参与决策,公众在合理地表达和争取权利和利益的同时,也逐步增强责任感,追求利益、权利和责任的平衡。”[25]对于AV自身,我们按照道德问责去思考AV系统的设计、使用和控制,通过对自主智能体进行监控和谴责,改善和规范其行为。

五、 结 语

专注于人类个体的传统道德责任观已经无法适应凸显人工物自主性和人-物协同性的AV技术的发展,这导致了AV道德归责的困境。技术发展挑战了传统道德伦理观念,并非是AV技术的特例,而是当前诸多新兴技术发展引发伦理困境的共性原因。当前我国正在大力推进科技伦理治理,提出在科技发展的过程中要做到“伦理先行”和“敏捷治理”。所谓“伦理先行”注重的是源头治理和预防,强调将科技伦理要求贯穿科学研究、技术开发等科技活动全过程,但绝不是用一套陈旧的、固定的伦理原则去约束科技发展,而是在科技与社会的协同演化中寻找一种缓冲机制,让科技快速发展可能给社会带来的巨大冲击实现“软着陆”。所以,科技伦理治理要能够及时动态调整治理方式和伦理规范,快速、灵活地应对科技创新带来的伦理风险,实现“敏捷治理”[26]。自动驾驶汽车道德归责困境的产生与消解恰恰体现了技术与伦理之间的良性互动,技术发展塑造着伦理规范,伦理规范也引导着技术发展,由此才能真正实现技术的向善发展。

猜你喜欢

伦理受体事故
《心之死》的趣味与伦理焦虑
学中文
护生眼中的伦理修养
废弃泄漏事故
小恍惚 大事故
Toll样受体在胎膜早破新生儿宫内感染中的临床意义
2,2’,4,4’-四溴联苯醚对视黄醛受体和雌激素受体的影响
医改莫忘构建伦理新机制
Toll样受体:免疫治疗的新进展
婚姻家庭法的伦理性及其立法延展