科技伦理治理,如何伦理先行?*
2023-01-02段伟文
段伟文
(中国社会科学院哲学研究所,北京 100732,duanweiwencass@163.com)
什么是科技伦理治理?“科技创新,伦理先行”又意味着什么?虽然现在并没有关于什么是科技伦理治理的定义,但现在它既然作为一个从国际到国家层面倡导的多主体协同体系,就必然会在实践中构建出一个决定相关认知与行动的框架,并且对科技伦理本身作出新的规定。从现象上来看,不论是2017年人工智能热之后的人工智能伦理热和数字治理,还是2018年重大科技伦理事件后的国家科技伦理治理体系建设,虽然以往来自科技伦理和应用伦理的传统的科技伦理研究者在其中发挥了一定的作用,但作为在此过程中广泛接触到政、产、学、研、媒等方面的亲历者和参与者,不得不指出的是,参与科技伦理治理研究和实践的主体更多的是科技、管理、法律等方面的人士。这实际上表明,科技伦理治理与其说是将科技纳入伦理框架,毋宁说是将科技伦理纳入科技的框架。因此,从科技伦理治理的角度来讲,意味着在科技和伦理两个方面的创新,而且往往是在实践层面寻找中间方案的过程,这是我们对此应有的基本认知。基于这一认知,科技伦理研究者应从国际和国内科技伦理治理的实践出发,在理解和思考其中的创新文化、价值取向和运作机制的基础上,探寻面向现实的科技伦理治理之道。
1 作为研究与创新“红绿灯”的科技伦理原则
科技伦理治理的一个重要内容是明确科技伦理原则。其实伦理原则在理论和实践上比较复杂,包括道德哲学前提、伦理论证方式、伦理原则排序以及伦理原则本身的局限性等。但近几年来,出现了大量的科技伦理原则,特别是在人工智能伦理领域,像出现了伦理规范、准则、标准的“寒武纪爆发”,来自科技、法律、公管、社会学以及科技伦理与应用伦理等各个领域的人参与其中。因为来自不同领域,原则的制定本身就不再是一个学理的讨论,最后得到的伦理原则及其表述是不同领域参与者都能接受的内容,所以得出的各种伦理原则大同小异,如造福人类、尊重生命权利、维护公平公正、确保安全可控等,基本上反映的是人类共同价值再加上颁布原则的主体的核心伦理诉求。然而,现在国内的科技活动主体对伦理原则的理解有两大误区:一是只是用它来显现和表达对科技伦理问题的重视;二是只是将它视为一套禁止性规范,对其多少有些敬而远之。但实际上,伦理原则在英美主导的当代科技创新文化中可能更多地意味着游戏规则,其主要内涵是说如果满足了什么条件或者遵守一些原则,那就是可行的。比如,2019年10月31日,美国国防创新委员会推出《人工智能原则:国防部人工智能应用伦理的若干建议》,这是对军事人工智能应用所导致伦理问题的首次回应。从这个案例来看,创新主体如果接受了这种游戏规则意识,就可能倾向于认为,一旦在遵循了某些特定的伦理原则之后,就是可行的。
因此,很多具体的科技伦理的准则、规范和指南实际上是研究和创新的“红绿灯”,但不同文化对此有不同理解。在东方文化里面主要关注的可能是“红灯”及由其带来的“罪与罚”,往往在犯规和不犯规之间抗争。欧洲大陆文化因其历史教训而强调坚定地维护人类尊严和人的基本权利,据此欧洲十分重视新兴与颠覆性科技的伦理风险评估与预见,出台了很多比较刚性的具有法律规范性的条例,并且希望通过施行道德敏感设计、倡导负责任的研究和创新使科技合乎伦理。英美—盎格鲁撒克逊文化则更多地受到殖民冒险和商业创新的影响,对创新的态度是风险偏好型的,在重视消费者权益和儿童权利的底线之上,对科技的治理目的更多的是鼓励创新,往往是为科技前沿的探索和创新设定可行性条件。针对存在科技伦理争议的前沿领域,英国的纳菲尔德基金会等智库和美国国家科学院等机构一直在开展各种预见性的研究,积极地制定具体领域的伦理指引。我国的科技创新与治理文化主要受到东方文化和英美文化的影响,而现实层面的实现科技强国目标、维护国家形象以及新的地缘政治之争等重要因素是理解其科技伦理治理特色的关键线索。从国家科技伦理委员会的建立到《关于加强科技伦理治理的意见》的出台,既是重大科技伦理事件推动的结果,更是高水平科技自立自强与勇闯科技“无人区”的态势下对立于道德制高点和有效管控科技伦理风险的国家需求所致。
2 科技伦理治理旨在促进研究和创新
不论是从学习者还是竞争者的维度,我们应该认真体会英美科技创新与伦理治理的相关论述中的价值偏好、内在逻辑和实践智慧。例如,2017年美国国家科学院、工程院和医学院发布的《人类基因组编辑:科学·伦理·管理》中指出,进行生殖系基因组编辑至少需要满足以下几项条件:①缺乏合适的替代技术;②将编辑严格限制在预防严重疾病、会导致严重疾病的基因且被编辑的版本常见于人群且没有严重的不良反应的范围内;③有良好的临床数据表明编辑的安全性与效用;④稳健的监管并确保受试者安全;⑤有长期的跨代际健康监控措施;⑥临床研究实施过程透明且保护受试者隐私;⑦避免预防疾病之外的用途。也就是说,只要满足以上条件,就是可以做的。
由此不难看到,科技伦理治理的论述逻辑与道德哲学和伦理学研究中的论证或论述方式是不一样的。以其中第二条“将编辑严格限制在预防严重疾病、会导致严重疾病的基因且被编辑的版本常见于人群且没有严重的不良反应的范围内”为例,这句话本身就是在进行伦理论证。科技要造福人类,要带来社会福祉,首先要预防严重疾病,那么所预防的这个严重的疾病就是常见的。换句话说,这里面就有一个公共卫生资源分配的公正性问题。所以我们一定要解读其中的价值预设和伦理内涵,看到其辩护的理由,而不是简单地当作原则去套用。
其实,这些文件的制定,并非原则性的“大话”“好词”的罗列,而是一个策略性的创造过程。其中,尤为重要的策略是,通过设定研究和监管上的条件,为其所支持的研究和创新创造模糊的可行性空间——当然其背后的动力机制是经济社会发展、全球问题应对,以及国家竞争和区域竞争对科技领先的刚性需求。例如,“有良好的临床数据表明编辑的安全性与效用”实际上是建议在这个领域可以进行探索性研究,至于怎么探索,可能是动物实验或其他替代性实验,也可能是游走在现有规则的边缘,甚至进入有争议的无人区。因此,前沿领域的科技伦理治理的实践智慧在于科技可能性与伦理可行性的模糊空间的创造。如第四条提到“稳健的监管并确保受试者安全”,什么是稳健的监管?怎样确保受试者的安全?第五条“有长期的跨代际健康监控措施”,就是说生殖系基因编辑固然会影响到后代,但可以通过某种跨代际健康监控措施防范可能的风险。对这些措施的解读和评估不仅不是绝对的,还为研究和创新者提供了证明其创新在伦理上可接受性的路径。
换言之,这些建议和指南中的原则与条件的提出实际上是“亲技术的”,其目的是要促进而不是阻止创新,它们是在给科学家具体的和正面的暗示,即在重视基本的生命安全红线和伦理底线的前提下,伦理上可接受的科学是一片大可探索创新的天地。又如2018年6月,英国纳菲尔德生命伦理协会(Nuffield Council on Bioethics,NCB)发布的报告《基因组编辑与人类生殖:社会与伦理议题》指出,尽管当前的条件并不满足伦理可接受性指出,但在特定情况下人类生殖系基因组编辑在伦理上是可接受的。为此,报告列出了需要满足的5个条件。与前述美国“三院”的文件类似,其中的第三条指出“在技术被用于临床之前,需要有充分的循证医学证据”,那什么样的循证医学证据叫作充分的?由谁来论证?显然,这是在提示研究和创新者可以从这个方面的自我评估与管理来实现与监管的对接。
3 “亲技术”的ELSI研究与科技伦理“软着陆”机制
纳菲尔德的报告对社会与伦理议题的强调实际上表明科技伦理治理不仅涉及伦理,且涉及安全、政治、法律、社会等方面的问题;而我们对其加以解读的时候不应该停留在对相关问题的认知上,还要看到其中所建议的解决问题的方案。例如,该报告第一条是 CRISPR Cas 9系统在未来被证明是安全的;第二条指出“要通过持续不断的公共教育使公众理解生殖系基因编辑并达到对科学的信任,避免出现‘优生学’”;第四条和第五条是“研究应该有足够的社会效益,应表明基因编辑能够服务于患者及其家庭的福祉”“在开展基因编辑之前,该技术应该已经经过社会公开讨论和征求意见”。这里面不仅有伦理正确,更有生命安全、政治正确和社会接受等方面的考量,这些问题显然不可能完全由科学家和政治家决定,最终需要通过改变公众的认知消除其对科技伦理风险的疑虑。
科技伦理治理当然离不开科技伦理等相关研究。英国等欧美国家在进入二十一世纪以来就十分重视新兴科技的伦理、法律、社会问题(ELSI)研究,一个重要的策略是强调科技传播和公众参与科学。固然可以说其宗旨在于促进负责任的研究与创新,但其中未明确表达的诉求对研究和创新所导致的社会、伦理与法律问题进行调解与协调,在一定程度上具有研究创新公关的意味。当前国际社会生命科技等新兴科技的ELSI研究的努力方向是增进社会对科学的信任。也就是说,与哲学和伦理层面的批判性反思不同,ELSI研究的目的不是揭示和批评研究和创新中的问题,而是要让它们得到化解和监管,从而使科技在社会基本可以接受的情况下进行研究和创新。
当前国际ELSI研究的重要策略是汲取早期疯牛病、转基因、纳米等领域科学传播和公共讨论中的教训,以避免对新兴科技的不确定性与风险的过度解读和对科技过度不信任。为此,基于ELSI研究的两个科技伦理治理策略值得关注。一是对新兴科技研究和应用的命名尽可能减少价值预设,例如“合成生物学”的命名就是汲取了“转基因”命名的教训,而最近中国科技企业和网络主管部门将人工智能应用中的“深度伪造”命名为“深度合成”也是基于这方面的考量。作为科技伦理的研究者要思考的是,通过这样的策略性操作,固然可以使相关讨论少受修辞的影响,但也有淡化社会、法律和伦理风险的可能。二是在合成生物学等前沿领域,ELSI研究者越来越多地通过合作研究或获得资助在研究的早期就参与其中,这种上游参与策略不仅使得伦理学家和社会科学家能够更好地理解前沿研究与创新,而且使其更有效地在科学家和公众之间扮演中间人的角色。也就是说,伦理学家和社会科学家的观点,先在与科学家的互动中产生,然后通过媒介传播和与公众互动影响社会。显然,在这种机制中会产生一些问题:建立合作关系和获得资助会不会影响ELSI研究者的立场?会不会出现科学家说服ELSI研究者、ELSI研究者再说服公众的单向影响模式?
由此,可以观察到所谓“科技创新,伦理优先”的目的是为科技创新构建伦理“软着陆”机制,即在对相关伦理风险的认知与共识的基础上,大致划定安全红线和伦理底线,使伦理问题得到有效的管控。而这些问题则取决于知识经验和利益诉求不同的相关群体,特别是拥有话语权和解释权的群体的认知。而且,在科技伦理治理实践中,将伦理看作研究与创新的优先事项的结果往往是通过技术和管理手段寻求伦理风险的止损点。其基本策略是将伦理风险转化为技术和管理上的解决方案,如将数据伦理中的隐私问题转化为隐私计算,进而形成可操作的行业标准,而不是不断地深挖可能的伦理风险及其根源。
进一步而言,透过科技伦理治理及相关研究可以看到,渗透其中的科技创新文化建立在当前主流的国家主导的科技创新框架之上,其实质是推动创新的,是亲技术的,而非人文反思和哲学批判性的。
在科技伦理治理层面的这些特征,无疑有助于科技伦理研究者反思在新兴科技伦理治理中的研究和协同策略。正如卡尔·米切姆(Carl Mitcham)等[1]在《中国技术哲学应该重视批判性》一文中所指出的那样,自由与知情同意、人权、风险-成本-收益分析、科研诚信、隐私以及利益冲突等技术伦理研究的基本立场是“亲技术”的。由于国内的大多数科技伦理研究者的大多数研究基于对国外科技伦理研究和实践的评介,而很少参与到管理部门、科学家和企业对科技伦理治理的讨论之中,往往没有明确地认识到这一点。近期,中国科学院长期研究致毁性科技风险的刘益东[2]在《对两种科技伦理的对比与研判》一文中强调:“目前科技伦理研究已成热点,以是否维护主流科技发展模式为判据,科技伦理可分为两种:维护辩护式科技伦理和变革转型式科技伦理,可分别简称为科技伦理I、科技伦理II。前者默认当前(西方或世界)主流科技发展模式可持续,以此为前提,用科技伦理来弥补、修复、解决科技发展中产生的伦理问题,维护其继续发展;后者则作深度反思,揭示科技伦理风险的根源在于主流科技发展模式的内在缺陷,认为治标要治本,变革转型科技发展模式才是根本解决之道和当务之急。”在他看来,目前主流科技伦理治理是在科技的框架下进行的,不论是负责任的研究与创新,还是平衡风险与受益的平衡论,都是高科技、高风险赌局的一部分,也难以约束科学狂人和尖端武器研发竞赛。
在主流科技创新框架下,这一鲜明的批判立场一时难以改变现实,但明确地认识到其所揭示的科技伦理治理亲技术的现实,认识到科技伦理治理的相对性,无疑有助于科技伦理研究者反思在新兴科技伦理治理中的研究和协同策略。
4 面向深度科技化时代的实践智慧
当前,新兴科技的发展日益走向深度科技化时代,对生命、社会和文明具有突破性和颠覆性影响的科技创新层出不穷,科技伦理研究的一个重要方面是探讨科技伦理治理中的群体认识论策略,直面既有科技伦理治理的创新文化、价值取向和运作机制,探寻有效推进科技伦理治理的实践智慧。
首先,要看到目前科技伦理治理中寻求技术、管理和制度上的解决方案可能并不完美和彻底,但可以在主流科技创新框架下探寻可操作的管理举措并不断改进。以2021年法国、德国和英国等联合发布的《关于人类遗传基因组编辑伦理的联合声明》为例,该声明向世界各地的政府和利益相关者发出呼吁:所有司法管辖区都明确地将可遗传的基因组编辑置于相关公共当局的控制之下,并使其滥用受到适当的制裁;在对相关干预措施的可接受性进行广泛的社会辩论之前,不可临床尝试使用可遗传的基因组编辑;在研究将临床使用风险的相当大的不确定性降低到可接受的水平之前,不应进一步尝试临床使用;在允许临床试验或申请之前,必须对个人、群体和整个社会的不利影响风险进行适当评估,并采取措施对其进行监测和审查;在对相关干预措施的可接受性进行广泛的社会辩论之前,不可临床尝试使用可遗传的基因组编辑等。
为了不让这些倡议束之高阁,就需要从管理上建立一套机制。就目前来看,至少可以采取两方面的举措。一方面,通过广泛的调研和预见性研究与评估,设立具体领域的科技伦理高风险清单,目前国家科技伦理委员会正在研制生命伦理、医学伦理和人工智能伦理的高风险清单。这些清单的发布和动态更新的目的就是要让科技共同体、管理者和整个社会公众等群体认识到具体的科技伦理风险所在,尽管这样并不能预防那些难以预见的风险,但现实是我们只能通过提升研究的质量加以改进;另一方面,可以从开源创新和开放科学的维度,要求具有较高科技伦理风险的研究和创新活动在启动阶段公开注册,通过数据开放存储与共享,在研究实验的全生命周期保持研究数据的透明性和可核查性,以便及时接受必要的伦理风险评估和审查。近年来,国家科技主管部门和科技机构越来越重视开源创新和开放科学,为增进知识共享和应对科学研究的可重复性危机提供了有效途径,将来在科技伦理治理方面应有较大的发展空间。
其次,科技伦理的协同共治需要进一步探索相应的面向多元共治的群体协同认识论。一些重大科技伦理事件的教训表明,研究主体突破科技伦理底线的行为往往是在问题研究公开发表之后才为人所知。为了避免科技伦理治理的被动,在不同主体知识、信息和话语权不对称的情况下,需要在系统思维和底线思维的基础上形成一种有利于协同共治的群体认知文化。对此,中国航天的总体设计和系统工程中的认知文化具有一定的启发意义。二十世纪六十年代,在东风导弹的研制中,时任国防部五院一分院总体设计部政委刘川诗组织起草并提出了“谦虚、信赖、交底、讲理”八字协作方针,后来又发展成 “谦虚、信赖、交底、讲理、主动、负责”十二字指导方针。不难看到,在科技伦理治理中,不同主体之间的信赖、交底、讲理、主动、负责无疑是至关重要的,而营造这种群体认知文化,显然有助于克服闯祸的研究者不对同行和管理部门交底等关键问题。
另一个航天系统工程中的群体认识论是巨浪导弹总设计师黄纬禄当年提出的“四个共同”工作理念,即“有问题共同商量、有困难共同克服、有余量共同掌握、有风险共同承担”。巨浪导弹是一个固体的燃料导弹,由于要在潜艇里面发射,因此它的总体积是很有限的,所以每个部分都要做得足够小,这里面涉及一个很重要的问题就是余量。如果每一个系统都有余量,就不能够把它尽量的做小,到最后整体就不行。在未来的科技伦理治理中,如果能够做到“四个共同”,那么就会有助于提升科技伦理治理在实践中的协同性。作为一个哲学家和伦理学家,如果参与科技伦理治理可能要注意不要将哲学上的批判绝对化。而研究算法治理的法学家,也不应该只是从法律规定的角度对一些发展中的问题作出绝对化的断定,而应该对现有法律认知和法规尚未认识到和覆盖到的一些新问题有所意识。同样地,对于监管者来说,要想清楚监管的力度是不是恰当;对于科技公司来说,要充分认识到其产品、服务和经营方式的社会影响,尤其是社会公众的印象和社会接受程度。简言之,相关主体的认知与行为都要有“余量”是科技伦理治理必不可少的群体认知论策略和实践智慧。
最后,科技伦理治理要注重遵循相称性原则,既要避免松懈也要防止过于严格。二十世纪七十年代,我国曾经对人工智能进行过批判。对此,我国杰出的人工智能专家马希文在二十世纪为德雷福斯的著作《计算机不能做什么?》作的代中译本序中提出了反思。在他看来,由于人们过分强调了计算机在生产自动化方面的作用,甚至把计算机应用的目的片面地解释为节约劳动力,这就使得很多人担心这会带来劳动力过剩的问题,进而对之产生疑问,最终导致了我国计算机应用日程推后了若干年。他不无洞察地指出:如果我们认真从这件事情吸取了教益,那就应该慎重地对待当前宣传中越来越普遍使用的“电脑”这一绰号——这如果不算是“港台风”,也至少使我们想起二十世纪四十年代有人把摩托车称为“电驴”,不应只从商品心理学的角度谈论这个问题,因为它暗示了计算机可以取代人脑这一个重大的哲学命题。他强调,实际上,许多学者已经清楚地把这个命题表达出来了;如果漫不经心地把没有经过科学认证过的命题应用到社会生活中去,我们很可能再一次付出代价[3]。
这些反思和洞见中体现的群体认识论策略就是国际科技伦理治理中非常重视的相称性原则,其基本内涵是既不忽视问题也不夸大问题,而是展开针对性地治理。包括联合国教科文组织新近颁布的人工智能伦理建议等国际科技伦理指引中都强调了这一原则。但如何做到相称呢?如果沿着协同治理和保留 “余量”的策略,可以从两个方面入手。
一方面,科技不要“冲”得过快,并且科技活动的主体应该认识到为了使科技伦理风险可控,需要及时地作出伦理回调。科学共同体应该认识到,干细胞研究中因为伦理争议导致研究议程减缓等教训已表明,科研“冲”得过快而不考虑伦理问题就难免踢到伦理铁板,而不得不作出伦理回调。研究者应该认识到,在生命医学等存在高伦理风险的前沿领域,在没有对伦理风险作出清晰的研判并形成共识、没有经过透明的公众参与的讨论之前,莽撞地“冲”到前面去,会使中国的科学共同体乃至国家声誉受损。真正认识到这一点,就意味着在做科学研究的时候,不要急于追求新奇的东西;在进行突破性研究时,实验应该设计得更精致,数据更可靠,尽力使得研究过程合乎国际科技伦理规范,尽可能多地考量研究结果可能存在的伦理风险。
另一方面,在对科技企业的伦理治理、法律规制与行政监管中,应该致力于通过恰当的监管促使其及时作出必要的伦理回调,同时应该避免过于严苛的处置。近年来,由于基于网络平台的大科技公司在数据与隐私保护、算法歧视、信息茧房等问题上饱受诟病,国际上出现了强烈的科技反冲(techlash)。“科技反冲”这个词体现了各国政府和社会公众对于大科技公司所带来的负面影响和巨大力量的疑虑、抵制和不信任等态度。但是,在数字治理等科技伦理治理中,应对科技反冲的态度有所节制,而不易简单地否定科技企业,如因视其为绝对的垄断的力量,从以往的“包容审慎,鼓励创新”突然转向过度的强监管。为了克服政策的一百八十度转弯等两极化偏误,应从公共管理层面展开对科技公司的科技伦理治理,引导企业让科技更好地去发挥造福人类的作用,推动科技的公平应用,使社会中的每个人分享更多的创新红利。
当前,之所以科技伦理治理的相称性很重要,是因为不论是新冠疫情的暴发还是国际政治与科技格局的巨变,都意味着我们需要构建一个更具韧性的社会;而提升社会韧性的关键在于,面对诸多骤变的冲击,我们比以往更需要在科技力量的帮助下恢复社会的活力,开创文明的生机。对此,《金融时报》2021年底推荐的年度最佳经济学读物之一《韧性社会》(TheResilientSociety)一书的观点也颇有借鉴价值。该书指出,面对巨大的风险,有时稳健性并不是最好的前进方式,韧性更能够经受住风暴并更易恢复。书中引用了拉封丹(Jean de La Fontaine)诗歌中橡树和芦苇的隐喻,主张疫情冲击下的人类社会应该像“我弯曲,但不折断”的芦苇那样,更具韧性。这一观念对包括数字治理在内的政策的启发是:面对疫情的挑战,应该使各项政策赋予包括企业和个人在内的整个社会更大的韧性。