APP下载

“科技向善”需要一套“好技术”

2022-04-13TheodorosEvgeniouandLudoVanderHeyden

董事会 2022年3期
关键词:经合组织伦理公平

Theodoros Evgeniou and Ludo Van der Heyden

技术一直是一把双刃剑。虽然它是推动人类文明进步的主要力量,但也被滥用并造成伤害。从蒸汽动力到福特主义(Fordism,以市场为导向,以分工和专业化为基础,以较低产品价格作为竞争手段的刚性生产模式),历史表明,技术本身并无好坏之分。是好还是坏,取决于使用方式。

电信、特别是互联网,以及到2030年预计为全球经济贡献超110亿欧元的人工智能,本质上都没什么不同。

一方面,互联网将所有人联系起来,让大家能在疫情期间保持紧密联系。人工智能和机器学习可以帮助解决一些世界上最紧迫的问题,例如诊断疾病、保护网络安全、应对气候变化等。然而,如果不加以控制,算法也可能使偏见永久存在,制造网络回音室、激进主义,并危及安全和隐私。

2022年,全球数字监管格局彻底改变。欧盟议会批准了《数字服务法》,以加强网络安全和消费者保护,并在筹备出台《人工智能法》来管理AI。美国联邦贸易委员会(Federal Trade Commission)发布了其关于人工智能的指导意见,中国也推出了一波监管规定。目前,经合组织跟踪到了60个国家的700多项人工智能政策举措。

与此同时,多年来,私营和非营利部门一直支持“科技向善”(Tech for Good)运动,该运动致力于“让数字和技术为人类服务”。它以最简短、最全面的形式承诺,技术可以帮助世界实现联合国的可持续发展目标。

但从历史的角度来看,我们必须问:“科技向善”是否能在不造成伤害的情况下取得成功? 答案在于更加關注“好技术(good tech)”本身。

好的意愿并不能保证积极的结果。因此,只关注技术能做什么是过于狭隘的,需要把重点转移到在技术发明使用过程中如何跨领域地综合考虑环境、实施和监控等。

换句话说,需要关注过程。

为了充分利用人工智能等技术的优势,并保护我们的世界免受这些技术固有风险的影响,必须在相关技术活动中纳入强有力的流程设计,以防止滥用、偏见或有害使用。根据在人工智能、机器学习等方面的研究,可以将这种基于“过程导向的技术创新和监管方法”的技术产出称为“好技术”。

“好技术”的目标是将现代技术被滥用和造成伤害的可能性降到最低,使经济社会尽可能多获得净利益。“好技术”需要一个严格的、包容的设计、执行和监督过程,包括三个组成部分:向善的原则、公平的程序和强有力的监督。

设定技术目标后,还需要定义价值观。在一个组织或团队中,共同的价值观创造了一道防止滥用和防范风险的“理念之墙”。

近年来,谷歌、微软、IBM、宝马和Telefonica等公司纷纷支持道德或负责任的技术原则。截至2020年4月,瑞士非营利组织AlgorithmWatch在其人工智能全球道德准则清单中设置了173条准则。

最有力、最有效的原则,如联合国的《人权原则》或经合组织的《人工智能原则》,都是“基于价值观的”,是通过一个包容性的过程逐步提炼出来的,该过程寻求所有利益攸关方的意见,并最大限度地减少偏见。幸运的是,我们不需要总是从头开始。例如,经合组织的人工智能框架等原则和经合组织人工智能专家网络所做的工作可以成为开发“好技术”原则的基础素材。

目标和原则很好,但如果在需要的时候没有实施或忽视它们,一切就形同虚设。实施是一项关键挑战。

虽然设计负责任的技术有多种框架,但需要确保它们也完全符合经过时间考验的公平程序。这是一项至关重要的工作。

对公平程序的承诺有助于发展“好技术”。公平竞争,也被组织科学家们称为公平程序,由五个价值观定义,所有这些价值观都适用于“好技术”的过程管理:

·清晰和透明,包括目的和“规则”;

·始终如一地平等对待人和事,没有偏见;

·有利于倾听而非倾诉的沟通,不会因为人们说的话而制裁他们;

·面对新证据时,观点能够相应改变;

·追求真理,做正确的事情,而不是选择最受欢迎或最方便的事。

公平程序指出了在创造“好技术”时候,如何决策、监测以及根据需要进行调整。它需要可执行和可测量。例如,我们知道精准医疗中的性别偏见会影响患者护理,尤其是如果人工智能使用的数据集中男性多于女性。在这种情况下,公平程序要求数据分析不分性别,并建立系统检查,以防止“代表偏见”。

“好技术”还需要具有相同价值观和使命感的员工,由于任务的复杂性,非常需要高效的协作领导。

许多组织已经设立了技术伦理委员会和董事会来审查和调查人工智能风险。公平程序要求公正、负责、透明,并像法官或州长那样,要求无偏见的领导。良好的技术伦理委员会应该包括具有足够多样性的外部跨部门专家,以便消除更多偏见。

技术伦理委员会必须通过公平程序组建,否则将面临风险。例如,谷歌的人工智能伦理委员会成立不到一周就消失了,它被对其组成和作用的怀疑所吞噬,人们普遍认为该委员会缺乏明确的授权,它可能只是个形式主义的产物。

此外,规章制度也必须经过公平程序的检查。一个值得称赞的例子是,欧盟一直会发表白皮书公开信息,促进利益相关者开展讨论。

开发“好技术”遇到的大多数错误往往重复出现,虽然不一定以同一种方式出现,但基本逻辑几乎没变。设置合格的技术伦理委员会、聘用“明智的领导”,可以有效杜绝这些错误。

不可否认,技术总是会带来风险,这将一直存在、无法改变。但向善的技术原则、公平的程序和强有力的监督,可以在开发新的技术时让世界更安全。在未来几年,基于一套“好技术”开发方案,我们或许能避免几场技术灾难。

来源:哈佛商学院;编译:王梦菲

猜你喜欢

经合组织伦理公平
《心之死》的趣味与伦理焦虑
员工伦理型领导原型对伦理型领导有效性的影响:员工崇敬感的中介作用*
愿你金榜题名,更愿你被公平对待
笨柴兄弟
浅谈我国社会工作伦理风险管理机制的构建
必须公平
亲组织非伦理行为研究
外媒称经合组织闹分裂或因中国
公平的决定