可信任人工智能
2020-11-28ToddMoore
当今世界正处于新冠肺炎疫情期间,我们面临着一场全球性健康危机,能否有效地拯救生命取决于我们如何收集和有效利用数据。
众多事件相互交叉、相互影响。它们影响到我们如何利用人工智能,如何利用我们的模型和数据,以及我们将如何从这里走向未来。
IBM的核心价值观根植于权利平等。IBM的公司政策,可以追溯到1953年托马斯·约翰·沃森所写的(IBM公司)政策令第4号:确保IBM作为雇主将提供平等机会,确保IBM不会容忍因种族、肤色或宗教而产生的偏见。
今天,IBM现任CEO阿尔温德·克里希纳已肩负这项使命。
日前,阿尔温德宣布IBM不再提供面容识别服务,因而切断了一条可能会因其使用而在社会中造成偏见的途径。他也将这一问题提升为一项公众对话,以探讨这项技术是否有意义,我们的社会应该如何应对。
但是,人工智能的可信、透明,不仅仅是面容识别,当我们收集的数据一旦投入使用,隐私问题就呈现出来。
伦理问题关乎这些数据如何使用和转化,关乎我们的社会如何应对,所有涉及这些方面的伦理问题都亟须解决。
为此,IBM提供了一系列工具。我们也将其中的许多项目进行了开源。我们能够提供一个由一系列Python库组成的稳健性工具包,能够提供一个能在模型和数据中发现偏见的公平工具包,能够提供一个可解释性工具包,工具包可以让你快速检查你的潜在AI模型中的黑匣子,从而把这个黑匣子变成一个能识别其行为方式的工具。
同时, 我们也在着手AI Factsheets项目,该项目是关于我们如何追究模型的责任。比如,通过食物标签上的信息,我们可以知道食物含有哪些东西。
现在,这些项目已经取得了进展。我们希望这些项目都置于其开放治理模式之下,Linux基金会人工智能机构(LF AI)的技术顾问委员会(TAC)目前已经投票赞成孵化这些项目。大家可看到其中三个项目已经发布,并通过LI AI机构开源。让其他人加入,并公开影响和推动这些工作的进展,我们认为这对社会很重要。
这个团队已经有很多非常重要的公司和大学参与其中,此外,还有“可信人工智能委员会”的参与,我们希望大家都能参加进来。
可信人工智能委员会一直在制定(人工智能)基本原则,而我们将充分遵照这些基本原则,使用由此而研发的AI技术所产生的数据和模型。
可信人工智能委员会工作组宣布了七项基本原则,即公平性、再现性、透明性、治理、隐私、安全和问责。这些是这个工作组正在研究的七项基本原则。
AI Factsheets已经提上议事日程,我们已经开始寻求其开源途径。AIF360团队与Scikit Learn和R Studio展开合作,现在已经可以在Learn和R Studio中使用了;Kubeflow MLOps流水线也已经发布,我们可用这些流水线进行公平性和对抗性检测;Apache NiFi也已经接纳MLOps,现在我们也有了可用的Apache NiFi处理器。所有的项目都取得了很大的进展,感谢一直以来为此做出贡献的人们。
下面谈谈如何全面释放开源的价值。
开源可以使数据更好地得到有效运用,数据影响到我们如何利用人工智能,如何利用我们的模型。我们已经开始寻求其开源路径。
我们现在经历的时代是史无前例的,各个组织也正在努力适应新的挑战,他们在竭力思考业务的开展方式。
IBM很幸运可以为客户提供多种软件产品支持解决方案,简而言之,是为商业和社区开源软件提供支持的解决方案。
半年前,为了深入了解我们的客户在其企业中如何使用开源软件,我们委托Forrester咨询公司进行了一项研究。我们重点关注的领域不仅是客户在使用开放技术开发解决方案方面,而且也包含客户在部署和维护这样的解决方案时所面临的挑战。所以,我们的目标是,解决客户在大规模部署开源技术时面临的一些关键性挑战和阻碍。
现在,企业都在想办法弄清楚如何推动业务向前发展,去适应更多不同的东西。所以,无论是远程办公,还是新模式的销售、交付服务和产品,抑或是我们经常碰到的额外的成本压力,都是我们要面对的挑战。
先让我们来谈谈“治理”这个话题,这是一个非常宽泛的话题。我们经常谈到的“治理”是指,围绕技术使用的管理系统的人员和流程进行创建。客户将越来越多的开放技术用于关键任务的信息技术,同时,他们也在寻求更广泛的服务帮助。
总之,所有挑战都是良好治理解决方案的要素。
越来越多的组织在生产环境中使用社区开源软件,但缺乏对这些产品的企业级技术支持,是他们面临的最大挑战。而这正是我们团队有所作为的地方,我们可以为他们建立全方位的开放生态系统支持方案。