新兴科技风险、责任伦理与国家监管
2021-09-15张海柱
张海柱
[中图分类号]D035 [文献标识码]A [文章编号]0447—662X(2021)08—0114—08
一、问题的提出
科学技术是现代社会发展的重要推动力量,然而,科技的快速发展与应用也会对生态环境或人类健康造成“潜在的副作用”。近年来,以基因编辑、人工智能等为代表的新兴科技或颠覆性技术逐渐涉人人类社会生活领域,对生态环境、人体健康、社会安全以及文化伦理等方面带来了巨大冲击或挑战,使人类社会面临着更多的未知、不确定以及“未预期后果”。如何对这种新兴科技风险进行有效监管已经成为学界、政府与社会关注的重要问题。
为了更好地考察新兴科技发展带来的风险挑战及其监管难题,本文选择“人类基因编辑”技术作为经验考察的对象。人类基因编辑的典型性在于,一方面它代表了生物医学发展的最前沿,能够推动精准医疗的变革发展,具有重大的科学、经济与社会价值;另一方面,它直接以人体细胞特别是遗传基因作为操作对象,冲击了人之生命伦理,并因各种安全与社会风险而引发了学界和社会的广泛争议。2018年底,中国科学家贺建奎宣布“基因编辑婴儿”的出生更是引发了海内外舆论批评“刷屏”,使人类基因编辑的合法性以及风险监管的有效性开始直面社会质疑。有鉴于此,选择以人类基因编辑风险为例能够更好地考察新兴科技风险的监管及其改革问题。
由于新兴科技议题多涉及复杂的专业知识,风险监管过程基本上被科学专家与技术官僚所垄断,从而形成了“专家治国”(technocracy)体制。包括我国在内的许多国家对人类基因编辑风险的监管基本上以“科学监管”特别是科学共同体的“自我监管”为主,而国家监管(或政府监管)力量弱化,社会公众的参与更是严重缺位。然而这种科学监管模式往往因科学自身的不确定性等局限而陷入监管困境,最终造成风险的隐匿与监管迟滞,“基因编辑婴儿”事件即是一个明显例证。因此,本文将在考察科学监管模式缺陷的基础上,基于“责任伦理”原则探讨国家主体更为积极地介入风险监管的必要性以及风险监管模式改革问题。本文认为,在新兴科技风险不断生成与显现的背景下,国家主体需要承担起积极的风险预防职能以回应公众的风险忧虑、保障社会安全,而这也将推动“风险监管型国家”建设,这是未来我国国家治理转型的重要方向。
二、人类基因编辑:风险论争与监管框架
人类基因编辑研究热潮的兴起,主要是由于被业界称为“基因剪刀”的CRISPR-Cas9技術的发明和改进。该技术可以快速且高效地对包括精子、卵子在内的活体细胞中的DNA序列进行修剪、切断、替换或添加操作,而且具有精度高、成本低、操作简单等优势,极大地降低了基因编辑的“门槛”。由于基因编辑技术的独特性,它在人类疾病的精准诊断与精准治疗方面极具前景,尤其适合治疗艾滋病、地中海贫血等遗传性疾病,因而具有重要的科研与经济价值,被许多国家视为重要的战略性研究领域与产业之一。我国国务院于2016年印发的《“十三五”国家战略性新兴产业发展规划》中,特别强调要推进基因编辑技术研发与应用,促进其临床转化和产业化发展。
然而,人类基因编辑技术也并非完美,技术发展的不成熟以及技术自身的特性导致了安全、伦理、社会与法律等多方面的风险。首先,科学界普遍承认人类基因编辑的技术操作及其效果方面尚存在许多未知领域,基因编辑具有“不可逆性”并存在较大程度的“脱靶”现象,可能对人体健康造成潜在危害。对人类胚胎的基因编辑甚至可能危害人类的“基因完整性”与“人种完整性”。其次,对生殖细胞或胚胎的基因编辑涉及对人之自然形态与演化方式的改变,这种“扮演上帝”的行为被视为对人类尊严与生命伦理的挑战,因而在许多国家引发了激烈的伦理争论。再次,基因编辑技术的应用在社会层面上引发了对“基因强化”“优生学”乃至定制“完美婴儿”的忧虑,被认为可能引发基因歧视、基因垄断等新的社会不平等问题。此外,对生殖细胞或胚胎的基因编辑涉及后代人的权利问题,而且人类基因的法律地位(作为财产、人格抑或资讯)尚不明确,因而也对现有法律构成了挑战。
基于对基因科技风险的担忧,相关领域科学家强调了“科学责任”与“自我约束”的重要性,主张在风险得到更好的理解并且设计出适当的防范措施之前,推迟某些类型的研究。2015年,几位基因编辑技术的发明者在《自然》杂志刊文,呼吁禁止该技术的临床研究与应用。同年,在华盛顿召开的人类基因编辑国际峰会上,学界共同划出“红线”:禁止出于生殖目的而使用基因编辑技术改变人类胚胎或生殖细胞。与此同时,对早期人类胚胎或生殖细胞的基因编辑研究则被允许,前提是需要遵守一系列科学与伦理规范。
相较于国际范围内科学共同体较为一致的自我监管原则,不同国家在立法层面上形成了不同的监管态度。少数国家采取了禁止模式(例如澳大利亚、加拿大)或宽容模式(例如英国),更多国家则采取了中立模式,即允许从事相关基础研究但禁止生殖目的的胚胎或生殖细胞基因编辑临床应用。不过,出于对巨大科研与经济价值的考虑以及国际竞争的压力,许多国家的监管政策也在调整,有限度地放开对人类基因编辑的约束或禁令正成为趋势。
在我国,由于立法的滞后,法律层面并没有对人类基因编辑进行明确规定。现有的监管规范包括2003年卫生部颁布的《人类辅助生殖技术规范》,其中规定“禁止以生殖为目的对人类胚子、合子和胚胎进行基因操作”。同年,由科技部和卫生部制定的《人胚胎干细胞研究伦理指导原则》中规定可以以研究为目的对人体胚胎实施基因编辑和修饰,但必须遵守14天法则。可见,我国政府针对人类基因编辑的监管态度基本上与国际科学界保持一致。在基因编辑临床研究申请审批上,2015年卫计委等部门发布的《干细胞临床研究管理办法》规定审批权限授予相关医院专家与伦理委员会,申请材料只需向卫生行政部门备案即可。由此,我国政府层面对人类基因编辑采取了较为宽松的监管立场。直到“基因编辑婴儿”事件发生后,卫健委在2019年2月发布的《生物医学新技术临床应用管理条例(征求意见稿)》中确立了对基因编辑技术临床应用的行政审批制度,实现了备案制向许可制的转变,增强了监管力度。
总结来看,以我国为代表的许多国家在人类基因编辑风险的监管上基本确立了以“科学监管”为核心的监管框架。这种科学监管包括两个方面。一方面,科学监管强调科学共同体的“自我监管”,主要体现为各种科学研究规范或指导原则的确立以及研究“禁區”的划定。该领域一些科学家明确表示“自我管理是最好的管理方式”。这种自我监管的约束性除了依靠研究者自律外,主要体现在基于同行评议的成果发表上,这也是科学共同体内部监督的重要形式。例如2015年中山大学黄军就团队从事的世界首例人类胚胎基因编辑的研究成果就因伦理问题先后被《自然》与《科学》杂志拒稿,而“基因编辑婴儿”事件发生后一些业内专家对贺建奎的批评即包括“没先通过同行评审发表论文”。
科学监管框架的另一方面体现为国家或政府监管机构对科学专家及其专业知识的依赖,从而形成了基于科学咨询的监管决策模式。在该模式下,关于特定科技的风险评估被等同于科学评估,科学专家取代政府成为事实上的风险监管决策者。对人类基因编辑而言,监管权限事实上被授予相关专家与伦理委员会,国家或政府监管部门则更多扮演间接的指导与监督角色,这在我国得到了典型体现。然而现实中的伦理委员会审查多流于形式,国家或政府监管部门的权威与责任很大程度上被虚置。只有出现严重问题后,政府部门才去追究伦理委员会的监管责任,这在贺建奎事件中得到了典型体现。然而对于人类基因编辑所具有的特殊风险以及不可逆性特征而言,事后问责显然已经远远不够。
三、科学不确定性背景下的风险监管困境
“基因编辑婴儿”事件在我国的发生,除了与相关研究人员自身的伦理意识欠缺以及伦理审查制度的执行不力相关外,还有着更深层的制度性与结构性原因。本文认为,这种深层次原因即为在国家监管弱化甚至缺位的情况下,科学监管模式的支配地位与科学不确定性问题的彰显之间产生内在张力,进而导致了科技风险监管的困境。
国家监管的弱化或缺位,一方面源于国家特别是后发国家长期奉行的“发展”逻辑。在此逻辑下,科技创新被视为经济发展与国际竞争的核心推动力量,国家本身则成为投资推动科技研发的重要主体。因此,发展型国家倾向于放松监管来为科技创新营造更加宽容自由的环境,面对潜在风险的监管意愿则明显不足,以免与开发政策相违背;另一方面,由于科技风险问题的专业性与复杂性,国家监管决策高度依赖于科学专家提供的专业知识。在此背景下,专家的政治地位不断上升,科学咨询机构甚至拥有了事实上的政策制定权。而作为理性行动者的国家监管部门也倾向于诉诸科学理性来推卸监管决策责任。即如果决策是依据科学结论做出的话,“它意味着决策者只是遵循了事物的本质,他们就可以不承担政策选择失误的责任”。
如果科技应用引发的负面后果足够清楚,或者科学专家能够提供充分、确定的专业知识的话,科学咨询制度的确有助于提升风险监管决策的有效性。然而对于以人类基因编辑为代表的新兴科技风险而言,其关键特征在于科技自身的“不确定性”问题高度彰显。这种不确定性来源于多个方面,例如认识对象的复杂性、认识主体的局限性、科学研究范式及体制方面的限制等等。特别是当科学知识转化为技术进而应用于社会领域中时,不确定性问题将更为显著。诸如此类的不确定性问题表明了科学技术自身的局限性,也对科学咨询制度的有效性构成了挑战。
具体到人类基因编辑技术,尽管技术自身在不断发展,然而各种“未知”(unknown)问题仍大量存在。这种“未知”既包括“已知的未知”,也包括“未知的未知”。前者是指可能的负面后果已知,但不清楚它何时发生、如何发生以及如何解决。例如人类基因编辑中的“脱靶”现象,目前技术尚无法有效确定与解决;后者是指对科技应用到底会产生怎样的后果也不清楚,即可能出现“非预期后果”。人类基因编辑可能对人体造成的确切影响只有经由人体试验才有可能获知,然而这种人体试验又是科研“禁区”,由此陷入技术安全性论证的悖论。正如贝克曾指出的,只有在“技术得到运用之后,我们才能从经验确定性的角度研究它的后果,在此之前,一切都只是推测”。在此情况下,基于现有科学知识的风险监管决策只是用“已知”去掩盖“未知”,即“以有限的知识解释无限的现象、以确定解释不确定性、以安全控制之想象处理不安全的领域”。
应当说,不确定性或未知领域的存在是科学研究中的常态现象,对未知的探索也正是科学进步的动力。然而,监管决策中的“科学”(监管科学)与纯粹的科学研究(研究科学)存在显著差异。面对科学未知问题,研究科学一般诉诸“更多的研究”予以解决。然而监管科学要服务于政府监管决策的知识需求,因而面临着决策时限的压力。为了回应公众的风险忧虑与争论,监管决策机构需要加快搜集和评估风险证据的进度。在监管背景下,一个需要“等待更多数据支持的决策”就等于一个“不作为的决策”。因此在监管决策中,对相关专业知识的搜集和应用不能简单地遵循常规科学研究的模式。风险监管决策的最大特征即在于它是决策于“未知”,要在不确定情境中做出一种确定性选择。然而在实践中,风险监管决策机构往往持有“等待科学”的固有思维,期待科学研究解决各种未知问题之后再进行决策,在此之前则将决断权赋予科学共同体自身。这种“等待科学”的监管决策思维易于造成风险应对的迟缓或滞后。当科学知识足够充分或风险后果清楚暴露时,社会公共利益可能已经遭受无法挽回的损害,这也是当前对人类基因编辑合理性的主要质疑所在。
此外,监管科学与研究科学的不同在于,它并非单独由科学工作者在实验室中完成。相反,监管科学的一个显著特征是政府与产业界深入参与了相关科学知识的生产过程。因此,监管科学质量的评价不能仅仅诉诸科学同行评议,还要接受“非科学”领域的监督,需要与政治社会价值、法律规范与伦理道德相符合。就此而言,科学“自我监管”模式只适用于研究科学领域,在监管科学中则存在明显局限。正因如此,当前对人类基因编辑合理性的质疑包括认为科学共同体的自我监管过于狭窄地关注安全问题,而忽视了社会道德问题。
综上所述,在以人类基因编辑为代表的新兴科技风险监管中,科学监管模式的支配不可避免地会引发风险监管的困境。监管困境的形成主要源于三个方面的相互作用:其一,在科学层面上,不确定性问题的存在表明了科学自身的“无知”,也表明了风险监管中“科学监管”模式的不足。正如贝克曾指出的,“在风险的界定中,科学对理性的垄断被打破了”。科学自身无法提供有效监管所需的充分知识,因此无论是科学共同体内部的自我监管,还是基于科学咨询制度的政府监管均会遭遇某种程度的“理性不及”问题,这一问题仅靠科学自身无法得到有效解决;其二,在国家或政府层面上,尽管科学本身存在缺陷或不足的观念已被广泛接受,然而风险监管机构仍然诉诸科学专家的咨询意见来为自己的决策进行论证,由此形成了一种“不确定性悖论”。这一悖论表明既有的监管制度设计中对科学不确定性问题的忽视或回避。很多情况下对于那些尚不具备技术层面的可管理性的风险将被认为是不存在的,而在产业发展的逻辑下高科技应用所带来的潜在危害或风险往往被漠视;其三,在社会层面上,对于科学的信赖与推崇以及风险意识的薄弱使得普通公众易于接受类似“科技—强国”宏大叙事的逻辑而缺乏对科技风险的警惕与反思,对于风险监管制度设计中的科学支配问题也难以形成有效的外部监督与制衡力量。
上述三个方面的共同作用导致科技风险无法经由科学自身得到化解,也无法诉诸科学共同体之外的监管力量以得到有效应对,由此陷入困境。在此情况下,科技应用中的风险问题往往被忽视甚至被“隐藏”,最终将形成所谓的“制度性隐匿风险的迟滞型高科技风险社会”。只有当风险最终转化为真实的危害结果后,监管机构才真正介入,进行事后补救,然而这对于风险监管而言已经十分滞后。本文认为,“基因编辑婴儿”事件的发生表明这种特殊风险社会形态在我国已经初步显现,因此有必要通过监管制度的改革予以回应,以走出风险监管困境。
四、责任伦理与新兴科技风险的国家监管
对于以人类基因编辑为代表的新兴科技而言,其显著特征在于风险后果的高度不确定性,此时“等待科学”成为国家监管机构“退居幕后”的重要理由。事实上,如果科技引发的危害后果确定的话,国家或政府作为民众福祉或基本权利的保护者,自然有责任采取积极手段进行应对,此时不会有人反对国家或政府的介入。然而在风险后果不确定(缺乏足够科学证据)的情况下,国家权力介入或强制干预是否还有其正当性或必要性?基于对国家权力扩张或滥用的警惕,这一点需要进行谨慎论证。本文则认为“责任伦理”原则可以为新兴科技风险的国家监管提供重要的价值支撑。在明确国家监管责任的基础上,需要对现有的科学监管理念与模式进行变革,以提升风险监管的有效性。
1.责任伦理与风险监管中的国家责任
“责任伦理”概念由马克斯·韦伯提出,用以区分“信念伦理”。在韦伯看来,信念伦理主要考虑的是行动者的行为意图,而责任伦理强调的是必须考虑行为的结果,并且责任伦理优先于信念伦理。不过,韦伯所谓的“考虑后果”并非结果论或功利主义(行为结果产生后进行利害计算),而是强调在行动之前就需要“事先”考虑可能的后果。即责任伦理最为关注的并非如何获得最大效果或收益,而是如何防止“最坏后果”的问题。
沿着韦伯的思路,德国哲学家约纳斯(Hans Jonas)提出了著名的“责任原则”。约纳斯所思考的是科技时代的伦理原则问题,他认为科技时代的特点在于“行为主体的整体性以及行为后果的长远性及不确定性”,此时无法清楚确认危害“肇事者”的身份及具体过失,因此传统的“义务”原则已经难以适用。在此情况下,约纳斯用“责任”进行替代,这里“责任”是指人们应当自觉地意识到自己行动直接或间接导致的后果,并为此承担一种“前瞻性责任”,从而区别于“事后问责”。约纳斯特别强调了科技的“远程效应”问题,即随着科学技术的快速发展,人们越来越难以预测技术的未来后果或对子孙后代会产生的影响。此时,需要建立一种“未来伦理学”,“如果一个决定是负责的,那么,此一决定就不仅应考虑到行为的即时、直接后果,也应考虑行为的远程效应、行为的后果的后果的后果。”
就本文讨论的新兴科技风险监管而言,它正是为了未来的安全而规制当下的行为。由于科技风险本质上是一种“人造风险”,它源于人的决策或主动选择,而责任与决策或决定是相关的,做决定者须负责。在当前的“大科学”时代,科学研究与技术发明不再只是专业领域内科学工作者的行为,企业、政府、社会主体甚至普通公众等多元主体共同参与其中,因此这些主体应当成为科技责任的共同承擔者,这是责任伦理的基本要求。
具体来说,对于以人类基因编辑为代表的新兴科技而言,科学共同体作为风险责任承担者的角色在一定程度上得到了强调,然而现实表明这种“自我约束”并不充分,未来还需要有效的制度规范进一步夯实“负责任创新”的原则。除科学主体外,企业、政府与社会主体的责任未能得到有效落实,甚至在很大程度上被忽视。事实上,在现代科技研发过程中,科学与产业界的关联日益紧密,产业利益在很大程度上会引导甚至主导科技创新的方向,因此科技企业需要与科学工作者共同承担责任。而“大科学”时代的重要特征即在于“国家意志”开始涉人科学研究进程,通过科技产业政策的扶持与大量财政投入推动科学技术发展已经成为包括我国在内的世界主要国家的重要战略选择。在此情况下,国家扮演了“风险制造者”的角色,由此必须为自己的决定承担主体责任。此外,就社会公众而言,正是公众对各种科技产品或服务(例如利用基因技术进行产前检测)的消费客观上推动了技术的发展,人们在享受科技带来的利益改善的同时,也无法回避技术发展可能引发的负面后果,因此,也要承担相应责任。
事实上,约纳斯的责任原理是对整个人类提出的伦理要求,他认为对于科技时代出现的各种危机而言,“都难以归责给个人,不是‘你们或‘我,而是‘我们必须共同承担集体作为的后果。”不过,在对多元主体共同责任的界定中,本文认为国家主体的责任需要得到优先强调。这不仅是因为国家政策导向在新兴科技发展过程中的引导或主导性地位,而且是因为只有国家主体才能代表科技发展过程中所涉及的多元利益与价值诉求,同时也只有国家主体才有能力超然于特殊利益之外,在整体层面上对新兴科技发展的收益与风险进行权衡。事实上,即便是约纳斯本人,尽管他将责任原理承担主体诉诸整个人类社会,但是也认为“只有民族国家这种政治实体才能承担对人类未来的最重大责任,也只有它才能有效地担负责任”。因此,结合当前时期以人类基因编辑为代表的新兴科技风险监管中相关责任主体的履责现状,本文认为当务之急是国家监管责任的有效界定与履行。
在责任实现方式上,约纳斯特别强调对科技负面后果的关注,他认为责任伦理的目标并非追求最大的“善”,而是避免极端的“恶”。约纳斯认为对科技潜在危害后果的“恐惧”不应被视为一种负面情感,而是一种“敬畏”价值,“基于对未来的恐惧,人类行动就变得不再鲁莽,而是小心谨慎地行事,肩负人的世间责任。”这种“敬畏”或“谨慎”体现为对科技力量使用与掌握的“克制”甚至“放弃”,“根本不拥有所涉及的力量,也许更好些。”由于基因技术的特殊性,传统风险评估中的“权衡利弊”规则可能难以适用,正如德国伦理学家赫费指出的,“拿去冒险的是身体和生命的基本权利和人权”,“不管预料到了什么有见识和功利的东西,等级都较低一些。”
总之,面对以人类基因编辑为代表的新兴科技风险,上述责任伦理原则要求国家主体有效承担其应有责任。就此而言,我国科技部、卫健委等监管机构对“基因编辑婴儿”事件的事后问责虽然有其必要性,然而却在很大程度上忽视了风险的事前预防责任,也即一种更为直接且积极的“前瞻性”监管责任。前文分析表明,传统的科学监管模式已经无法满足有效风险监管的要求,此时迫切需要国家监管的“在场”以回应责任伦理的实践诉求。
2.新兴科技风险的国家监管模式构建
责任伦理要求国家监管责任的回归,以此为基础构建一种更为有效的科技风险监管模式,从而超越或替代现有的科学监管模式,走出风险监管的困境。本文认为有效的国家监管模式的构建应体现为如下几个方面:
首先,确立基于科学不确定性的风险预防原则(precautionary principle)。对科学不确定性问题的忽视或否认是科学监管模式的重要特征,也是风险监管失效或困境形成的深层根源。因此,国家监管机构需要将科学不确定性问题纳入风险决策考虑范围,这在实践中主要体现为风险预防原则。它是指针对环境与健康领域可能出现的潜在危害,即便在科学评估证据并不充分或者未能完全确定的情况下,监管者也可以提前采取高水平的管制措施用以保护消费者安全。预防原则表明监管机构对待科学不确定性问题由“忽视”到“承认”的态度转变,此时“等待科学”本身就被视为一种不可接受的风险。具体来说,预防原则要求国家监管机构以尽可能严格的监管方式来承担自己的责任,此时必然带来国家安全保障职责的扩展,即从传统对“确定性危险”的防范或事后救助,到对“不确定性风险”的事前预防。对于人类基因编辑等新兴科技而言,这意味着监管时机的提前——并非临床应用产生确定性结果之后才进行监管,而是在早期研究阶段就需要国家主体介入监管。就此而言,国家监管应当体现为一种从“研究”到“应用”的全过程监管,以避免风险的隐匿与应对迟滞问题。
其次,对传统科学监管模式进行改革,防止“科学独断”。如前所述,科学不确定性表明了科学理性自身的局限,而科学监管模式对科学理性的过分依赖往往导致风险监管的失效,因此需要走出“技治主义”或“科学决定论”的思维误区。需注意的是这并非是指对科学理性的完全摒弃。事实上,科学知识仍是风险决策所需有效知识的最为重要的来源,只不过诸如社会价值、伦理原则、公众偏好、情感诉求等“非科学”知识也需要被认真对待。另外,积极的风险预防职能并非要求国家监管机构自身的“独断”,因为国家主体自身也无法提供有效监管所需的全部理性知识,相反国家监管的强制性还可能阻碍科技创新的正常进程。本文所谓的国家监管事实上更加强调国家对多元利益或价值的调和与兼顾。国家主体在主要扮演一种“协调者”角色下,要通过一系列制度建设构建起科学、政治与社会进行科技沟通与风险对话的渠道和平台,通过沟通对话实现对新兴科技风险后果的集体学习与全面理解,并以此作为风险监管决策的基础。正如贝克在思考风险社会的出路问题时所指出的,“科学研究有必要就特定步骤或计划的风险提前进行充满争议、剑拔弩张的讨论”,“这种讨论不仅应当出现在专业小圈子内部,也需要在制度的保障下,扩展至跨专业的局部公共领域。”因此未来的监管改革既要重视科学专业知识的理性价值,又要通过社会讨论与公众参与来弥补科学的不确定性缺陷,从而兼顾科学理性与民主政治的回应性与责任问题。
再次,要对国家监管机构的风险监管职能进行强化。在科学监管模式下,国家监管机构的风险监管职能很大程度上呈现出弱化甚至虚置问题。例如,人類基因编辑临床应用试验的审核权限被授予相关专家与伦理委员会,与此同时只需向卫生行政主管部门“备案”即可,由此使得国家监管很大程度上沦为形式。贺建奎事件发生后国家监管机构所履行的更多是一种事后问责职能,这已经偏离了风险监管“防患于未然”的本意。因此在监管改革中,国家监管机构需要强化自身的监管力度。而这种强化监管除了要对科学研究与技术应用的“全过程”进行监管外,还涉及监管方式的改变,要由备案制改为更具约束力的审核制。这方面已经在卫健委发布的《生物医学新技术临床应用管理条例(征求意见稿)》中得到了初步体现,其中规定申请高风险生物医学新技术(包括基因编辑)临床研究要由省政府卫生部门初审,初审意见提交国务院卫生主管部门审查。同样,国家监管职能的强化不应妨碍正常的科技创新进程,因此未来改革需要对具体的政府部门审核模式与流程进行完善,以更为审慎全面的风险评估作为审核判断的基础。而这种风险评估应该超越单纯科学评估的局限,通过纳入政府、学界、企业、社会等多元主体的意见和诉求从而建立起一种更具包容性的风险评估模式。
此外,为了有效履行积极的风险预防职能,还需要对国家监管机构自身进行改革。例如当前我国对人类基因编辑的监管主要基于“基础研究”与“临床应用”的界限划分,分别由科技部与卫健委负责。然而,人类基因编辑技术的特殊性在于“研究”与“应用”关联紧密、界限模糊,这与传统科学技术的“研究一应用”模式形成了鲜明对照。传统科技研究主要在实验室内进行,研究成熟之后则在社会或企业领域进行应用。而对人类基因编辑而言,研究与应用很大程度上均在临床试验过程中进行,基因编辑婴儿事件即是一个典型例证。贺建奎申请的临床试验本身是作为科研项目提交的审查,然而研究结果却是基因编辑婴儿的出生。因此有必要考虑成立专门监管机构(例如人类基因编辑监管委员会)进行统筹协调以明确监管责任,防止多部门之问的权责不清问题,由此也有助于“全过程”监管的真正落实。
五、结论与讨论:走向风险监管型国家
本文以人类基因编辑为例,讨论了针对新兴科技风险的监管模式及其改革问题。人类基因编辑作为案例的典型性在于它代表了科技创新的前沿领域,能够带给人类社会美好的“希望”,同时它又呈现出高度的风险与不确定性,因而引发了许多忧虑甚至“恐惧”。风险监管的任务即在于对这种“希望”与“恐惧”进行权衡,既不能过分约束从而阻碍科技创新的步伐,又不能过于放纵而使社会公众暴露于巨大风险之中。
本文分析指出,现有的“科学监管”模式在科学不确定性彰显的背景下已经无法承担有效监管的任务,“基因编辑婴儿”事件的发生即是一个明显例证。而基于责任伦理的要求,科学共同体外部的多元主体需要与科学主体共同承担责任,而其中国家监管责任的回归又显得尤为重要。它要求国家监管机构承担更为积极的风险预防职能以履行“前瞻性”监管责任,以此为基础进行风险监管模式的改革。这种风险监管改革涉及风险预防原则的确立以及国家监管范围与方式的合理界定、国家监管力度的强化以及监管机构自身的改革等多方面内容。同时,鉴于科技创新在整个国家发展中的重要作用,本文认为针对新兴科技风险的治理改革应当成为整个国家治理体系改革的重要构成。就此而言,国家对积极的风险预防职能的承认与承担不仅有助于各种新兴科技风险的有效治理,而且也将推动国家治理形态的整体性转型,即从传统的发展型国家向“风险监管型国家”的转变。
在发展型国家模式下,国家通过政策引导与财政补贴来扶持科学技术及相关产业的发展,由此实现经济的快速增长与国际竞争力的迅速提升。然而在此过程中,科技快速发展的“副作用”以及各种潜在矛盾在不断累积并逐渐显现,最终导致各类灾害危机的不断发生。由此,对灾害危机的应急管理成为国家面临的紧迫任务,2018年机构改革中应急管理部的成立可以视为国家层面对这一任务需求的直接回应。然而,回应灾害危机本身固然重要,更重要的则是思考如何消除灾害危机的隐患,而这即是对国家风险监管职能的要求。
风险监管型国家是对当前高科技风险社会情境的政治回应,它要求国家角色由传统的经济发展推动者、社会福利供给者等角色转变为新兴风险的治理者角色,由传统的危机应急(事后)思维转变为风险预防(事前)思维,并以风险预防为基础对国家治理体系进行重构。这显然是一项复杂且艰巨的系统性改革任务。不过在我国,随着国家层面对风险问题的逐渐重视,这种改革议程已经初见端倪。例如,2019年1月“省部级主要领导干部坚持底线思维防范化解重大风险”专题研讨班召开,习近平总书记在开班式讲话中特别强调要注意防范化解包括科技领域在内的重大风险,并指出“防范化解重大风险是各级党委、政府和领导干部的政治职责”。十九届四中全会发布的《中共中央关于坚持和完善中国特色社会主义制度推进国家治理体系和治理能力现代化若干重大问题的决定》中也明确提出要完善包括科技安全在内的国家安全体系,“建立健全国家安全风险研判、防控协同、防范化解机制”。
由发展型国家向风险监管型国家转型的更重要的体现是,2020年10月发布的《中共中央关于制定国民经济和社会发展第十四个五年规划和二。三五年远景目标的建议》中明确提出,要“统筹发展和安全,建设更高水平的平安中国”,“把安全发展貫穿国家发展各领域和全过程,防范和化解影响我国现代化进程的各种风险。”这事实上是对传统“先发展后治理”模式的深刻反思。在未来时期的国家治理与整体发展布局中,风险应对与安全保障不再仅仅作为经济发展这一核心任务的“配套”或“补充”,相反,风险防范与安全实现在一定程度上已经成为国家发展特别是经济发展的“前提”与“归宿”。而当“安全发展”真正成为现代化进程中各领域发展的基本原则时,本文所考察的新兴科技风险有效治理的实现也就有了更为坚实的系统性支撑。
责任编辑:秦开凤