面向可持续发展的科技伦理:从“不作恶”到“向善”
2022-03-11翟志勇
翟志勇
科技是第一生产力,但在科技推动社会经济发展的同时,也会给人的生命、自由、隐私、安全等带来各种各样的威胁和风险。我国已经在医疗等领域制定了专门的科技伦理规范,但将科技伦理上升到国家战略层面,实际上始于2018年。2018年的“基因编辑婴儿”事件引发全社会的普遍关注和担忧,科技“作恶”已经开始挑战人类最基本的伦理底线,急需建立完善的科技伦理和治理体系。
2019年7月24日,中央全面深化改革委员会第九次会议审议通过《国家科技伦理委员会组建方案》,“目的就是加强统筹规范和指导协调,推动构建覆盖全面、导向明确、规范有序、协调一致的科技伦理治理体系”。2020年10月21日,国家科技伦理委员会正式组建。2021年7月28日,在国家科技伦理委员会的指导下,科技部研究起草了《关于加强科技伦理治理的指导意见(征求意见稿)》,其中确立五项科技伦理原则,包括“增进人类福祉”“尊重生命权利”“坚持公平公正”“合理控制风险”“保持公开透明”。
值得注意的是,《指导意见(征求意见稿)》在科技伦理原则体系中,将“增进人类福祉”作为首要原则,指出“科技活动应有利于促進经济发展、社会进步、民生改善和生态环境保护,坚持以人民为中心的思想,不断增强人民的获得感、幸福感、安全感,促进人类社会和平发展和可持续发展。”这一原则定位意味着,针对科技伦理,我们不能仅仅局限于“不做恶”,还应该关注“科技向善”。而所谓的“向善”,非常重要的一个方面就是面向可持续发展。
不作恶
很长一段时间内,“不作恶”(don't be evil)几乎成为科技伦理的“最高”标准。谷歌公司在1999年初创时期提出“不作恶”口号,并将其作为公司的价值理念和行为准则,并在2004年将“不作恶”写入公司的首次公开招股书中,成为谷歌在科技伦理方面非常响亮的主张,备受追捧。2015年,谷歌重组成立新的母公司Alphabet时又进一步提出“做正确的事”(Do the right thing)取代“不作恶”,并将其作为公司正式的座右铭,不过仍然在行为准则中保留着“不作恶”的表述。虽然看上去“做正确的事”似乎包含着“不作恶”,但是或许因为“做正确的事”不像“不作恶”那么直截了当,以至于“做正确的事”始终没有“不作恶”那么有影响力。
2018年5月,有报道称,谷歌修改了行为准则,删除了其中几处“不作恶”的表述,仅在行为准则最后一句保留“不作恶”:“记住,不要作恶,如果你看到一些你认为不正确的事情——大声说出来!”为什么要做如此修改?谷歌始终没有给出任何解释,以至于很多人认为谷歌公司已经突破了“不作恶”这条底线。即便如此,“不作恶”依然是公众对于科技伦理的“最低”要求。
事实上,对于科技“作恶”的担忧和指控时有发生。在生物技术领域,从最早的克隆羊多莉到“基因编辑婴儿”,公众和科学家始终关注着生物技术给人类带来的伦理挑战,但底线依然在不断降低,著名学者弗朗西斯·福山疾呼要对生物技术加以政治管制。此外,在互联网和信息技术领域,科技巨头利用个人数据进行用户画像,再通过定向推送广告赚取巨额利润,甚至形成“信息茧房”,干预个人的自由意志,动摇民主制度的社会基础。几乎所有的科技巨头都或多或少在隐私、安全、垄断等方面受到指控,因各种违规违法行为而缴纳罚款几乎成了家常便饭,缴纳罚款就像是在购买“赎罪券”。本来作为底线的“不作恶”,几乎成了“最高”的伦理要求,即便如此,底线仍一再被突破。
这种状况仍然在加剧,随着算法、人脸识别、人工智能技术的突飞猛进,科技“作恶”已经成为系统性的社会问题,算法带来的系统性剥削和控制,人脸识别潜在的追踪和控制风险,人工智能可能带来的失业问题,以及诸如元宇宙可能带来的人类自主性的丧失等。因此,近年来各国都在加强科技伦理和治理方面的立法,用立法来守护“不作恶”这条底线。例如:我国将“将基因编辑、克隆的人类胚胎植入人体或者动物体内,或者将基因编辑、克隆的动物胚胎植入人体内”的行为纳入到刑事处罚中,国家互联网信息办公室等四部门出台《互联网信息服务算法推荐管理规定》,严禁算法歧视、“大数据杀熟”、诱导沉迷等算法不合理应用;欧盟在《可信赖的人工智能伦理准则》基础上,禁止人脸识别技术在公共场所的使用;美国正在推出《算法责任法》,限制算法在自动化决策领域的使用,等等。人是目的而非手段,伦理底线失守之处,政治和法律必须出场。
技术向善
虽然对于科技公司来说,守住“不作恶”的底线已经很难,但这并不妨碍科技公司提出更高的伦理要求。比起“不作恶”,“科技向善”看起来充满正能量。其实谷歌公司当年提出“做正确的事”,已经部分包含“科技向善”的意思。据说投资者保罗·米勒最早提出“技术向善”(Technology for social good):“确保技术公司专注于回馈世界,而不仅仅是占领我们的屏幕时间。”但这种提法在中国流行,主要是因为腾讯公司的推动,并且将其改为中国人更喜欢的表述“科技向善”。
2018年1月,腾讯研究院在北京举办“T-Meet大会”,开始启动“科技向善”项目。2019年5月6日,腾讯董事会主席兼首席执行官马化腾首次在公开场合谈到公司的新愿景和使命:“我们希望‘科技向善’成为未来腾讯愿景与使命的一部分。我们相信,科技能够造福人类;人类应该善用科技,避免滥用,杜绝恶用;科技应该努力去解决自身发展带来的社会问题”。随后腾讯公司将“科技向善”作为公司新的使命愿景:“用户为本,科技向善”。
接下来的问题是,如果连“不作恶”都不能完全实现,“科技向善”又如何可能呢?首先是如何定义这里的“善”?企业不是慈善机构,企业要盈利,要对股东负责,要在激烈的市场竞争中胜出,企业所理解的“善”应该如何界定?即便是提出“科技向善”的腾讯公司,也没有对“善”给出一个清晰明确的界定。腾讯呼吁社会各界通过对话达成共识,但就目前的情况来看,共识远远没有达成。即便达成共识,这是腾讯公司要达成的“善”还是所有企业都要接受的“善”?更何况腾讯只是个互联网技术公司,这种“善”可能未必适合其他类型的企业。
其次是如何“向善”?即便对何为“善”达成了共识,那么如何“向善”呢?企业要使自己的所有产品和服务都符合善的标准,还是企业选择一两个符合善的标准的项目就可以了?比如从2021年开始的APP适老化改造。也就是说,“向善”是一个普遍性的要求还是一个选择性实施的加分项?“不作恶”可以成为企业的伦理义务,乃至于上升为法律责任,但“向善”只能作为一种倡议,无法通过法律强制企业履行“向善”的伦理义务。
那是否意味着“科技向善”就是一个空洞的口号呢?就像“不作恶”总是流于空洞的说教一样。“不作恶”尚且有各种各样相对明确的伦理规范,而“科技向善”始终没有可以依据甚至参考的标准。要避免“科技向善”沦为空洞的口号,我们可以用全社会已经达成的共识,为“科技向善”注入新的内涵,《关于加强科技伦理治理的指导意见(征求意见稿)》已经指出了这种可能性,那就是让“科技向善”面向可持续发展。
面向可持续发展
2015年联合国千年发展目标(MDGs)到期后,联合国193个成员国在可持续发展峰会上正式通过17个可持续发展目标(SDGs),旨在从2015年到2030年间以综合方式彻底解决社会、经济和环境三个维度的发展问题。可持续发展的17项目标是在联合国推动之下为各国所普遍接受的,这些目标的最终实现当然要靠各国政策的推动,但也要注意到,科技的进步是实现可持续发展目标的重要力量,甚至是决定性力量。
比如,解决人类饥饿问题需要粮食,而在耕地面积有限的前提下,粮食的增产主要依赖于科技的进步。再比如,今天全球有8亿人口食不果腹,占全球总人口的1/9,而与此同时全球每年有1/3的粮食被浪费掉,如果能改进粮食的供应链,避免大量粮食的浪费,饑饿问题是有可能在不增加粮食产量的情况下就能解决的,这同样需要有改进粮食供应链的技术。因此SDGs目标2(消除饥饿,实现粮食安全、改善营养和促进可持续农业)的实现,非常依赖技术的发展。
2019年4月3日,联合国人居署与腾讯公司在联合国总部举办主题研讨会,探讨如何利用人工智能等新兴技术实现可持续发展目标。联合国人居署执行主任谢里夫讲到:“世界五分之一的人口正居住在严重缺水地区,而未来城市对于食物 、能源、水这些基础资源的需求更是前所未有的,我们需要鼓励科技创新来解决未来城市所面临的挑战。”会议上提出一个重要的课题“AI for FEW”,如何用AI分析数据来提高农作物产量和种植效率(Food),如何用AI预测能源需求并优化能源供给和清洁能源生产(Energy),如何用AI提升用水效率、预测水资源供应以及检测水质(Water)。腾讯公司首席探索官网大为(David Wallerstein)有一本书《重构地球:AI FOR FEW》,系统阐述了如何用人工智能技术重塑食物、能源和水的未来,用科技来实现可持续发展目标。
“AI for FEW”是一个很好的面向可持续发展的“科技向善”的例子,这样的例子今天不是太多而是太少了,我们期待更多的科技企业,利用自身的技术助力可持续发展目标的实现,期待更多面向可持续发展的“科技向善”的创意和尝试。虽然可持续发展目标并非衡量“科技向善”的唯一指标体系,但在“科技向善”的具体含义仍不清晰之前,为了避免“科技向善”流于空洞,不妨先将“科技向善”指向可持续发展。
最后要特别强调的是,“科技向善”不能取代“不作恶”。在倡导“科技向善”的同时,也不能忽略对科技“不作恶”的伦理要求,更要警惕企业通过高举“科技向善”的旗帜来遮蔽“作恶”的行为。“科技向善”和“不作恶”代表了科技伦理最高和最低的要求,两者都不仅需要具体化为可执行可测量的标准和规则,也需要通过一个个具体的案例来呈现和检讨,如此才能确保两者都不停留在口号阶段。
3899500338209