APP下载

人工智能审计:IIA的框架与应用导向

2018-09-10曾繁荣

中国内部审计 2018年12期
关键词:人工智能

曾繁荣

[摘要]人工智能被视为下一个数字前沿领域,内部审计部门有必要了解人工智能的基础知识、可能扮演的角色、由此带来的风险和机会以及在内部审计领域的运用。国际内部审计师协会(IIA)的人工智能审计框架及其各部分的有机联系,为人工智能应用于审计领域提供了参考。

[关键词] IIA 人工智能 审计框架

内部审计在人工智能中的作用,是帮助组织评

估、理解和传达人工智能在短期、中期、长期内对组织价值所产生影响的程度(消极或积极)。为更好地履行职责,内审人员应利用IIA的人工智能审计框架,如图1所示,为组织提供适当的人工智能咨询与保证服务。IIA人工智能审计框架包括三大组成部分,即人工智能战略、人工智能治理和人为因素,涉及七个要素,即网络弹性、人工智能能力、数据质量、数据架构和基础设施、衡量绩效、伦理学和黑匣子。

一、人工智能战略

每个组织人工智能战略的独特性基于其利用人工智能的方法。组织的人工智能战略通常是其大数据战略的自然延伸,應明确人工智能活动的预期结果及其与组织目标的关系,以及组织的人工智能技术能力、约束和愿望。这些应在组织各部门之间协作展开,专业技术人员也需要参与人工智能战略的执行。

人工智能依赖于大数据,因此在考虑人工智能之前,应充分开发和实施组织的大数据战略。实际上,人工智能可以帮助组织从大数据中获取洞察力。正如IIA在《全球技术审计指南》所指出的,通过这些洞察力,深入理解和审计大数据,组织可以做出更好的决策,以创造性和差异化的方式瞄准新客户,为现有客户提供独特的服务。人工智能也可以发展成为组织持久的竞争优势。人工智能战略部分涉及两个要素:

要素1:网络弹性

组织抵御、应对和从网络攻击中恢复的能力(包括故意滥用组织的人工智能技术)变得越来越重要。审计负责人需具备在其团队内快速建立网络安全的能力,持续监控人工智能/网络安全风险,并向高级管理层和董事会传达组织所面临的风险级别及应对此类风险的努力。

要素2:人工智能能力

当前,拥有人工智能专业知识的技术专业人才并不多。但即使难以使用人工智能来构建审计系统、即使缺乏广泛的专业知识,组织仍然有必要为员工填补人工智能的知识空白,包括了解人工智能的工作原理、面临的风险和机遇,明确人工智能结果是否符合预期、如何采取纠正措施等。

如表1所示,内部审计应了解人工智能如何运作及其带来的风险和机遇等,还应有能力确定第三方技术提供者是否胜任人工智能的相关技术要求。

二、人工智能治理

人工智能治理是指用于指导、管理和监控组织的人工智能活动的结构、流程和程序。治理结构和形式将根据组织的具体特征而有所不同。人工智能治理应包括建立问责制、责任和监督;帮助确保具有人工智能职责的人员具备必要的技能和专业知识;确保人工智能活动和相关决策行动符合组织的价值观、道德、社会和法律责任;为人工智能的整个生命周期建立政策和程序(从输入到输出),为培训、衡量绩效和报告制定政策和程序,如表2所示。

(一)问责、责任和监督

人工智能既有可能带来巨大利益,也有可能带来巨大伤害。最终,利益相关者可能会让董事会和管理层对其组织的人工智能结果负责。在评估人工智能治理时,内部审计人员可利用三道防线模型,如图2所示。但三道防线以及高级管理层、管理机构、外部审计和监管机构都在人工智能治理中发挥作用,内部审计人员应了解各方角色以及内部审计如何与它们对接。

1.监管机构。通常监管机构了解和控制各级组织的具体活动,其“了解”是通过开展研究、参与制定标准和指导以及与利益相关方沟通等活动来实现,其“控制”则是通过监督、制定和执行法规等实现。IIA指出,监管机构通常设定旨在加强组织控制的要求、执行独立和客观的功能,以评估第一、第二或第三道防线。当前还没有专门针对人工智能的法规,但现有法规的某些条款可能与人工智能活动有关,世界各地的监管机构和标准制定机构已通过研究、讨论、建议和指导来表达关注。监管机构已认识到人工智能审计的重要性。例如,美国食品和药品管理局在其“关于医疗器械现有软件使用(OTS)的指导”中,认识到与审计相关的OTS软件(如人工智能、专家系统和神经网络软件)的重要性,要求制造商就“OTS软件开发人员使用的产品开发方法适用于预期用途……”提供保证,并建议将OTS软件开发人员使用的设计和开发方法纳入审计范围。内部审计人员应了解监管机构和标准制定机构在人工智能领域的工作进展,向高级管理层和董事会提供建议,并评估组织的监管控制目标是否反映了新的法规、标准和指导的要求。

2.领导层。董事会负责对组织的人工智能活动进行最终监督。董事会应与高级管理层一起确定组织的人工智能战略。内部审计部门应理解并充分了解人工智能以及组织的人工智能活动。除了为人工智能活动提供保证外,内部审计还应提供建议和见解,以确保董事会做好充分准备。

3.第一道防线。组织的运营部门负责人应随时掌握人工智能所面临的风险。内部审计部门应评估业务层面的人工智能政策和程序,核实控制目标是否充分并按设计要求运作。

4.第二道防线。合规性、道德规范、风险管理和信息隐私/安全性是监督某些方面人工智能风险的第二道防线。内部审计部门应评估第二道防线人工智能的相关政策和程序,验证控制目标是否达到并按设计运行。

5.第三道防线。内部审计应对人工智能风险、治理和控制提供独立保证。监管和标准制定机构已认识到人工智能在风险管理和合规性方面的潜力。金融稳定委员会(FSB)在名为“金融服务中的人工智能和机器学习”的报告中指出,人工智能和机器学习的内部(后台)应用可以改善风险管理、欺诈检测和遵守法规要求并降低成本。同理,最先进的内部审计部门将开始使用算法,持续加强审计和监控,提升有效性和效率。

6.外部审计。外部审计师是在组织中没有既得利益的第三方,就是否根据适用的财务报告框架或法规编制财务报表发表意见。对于人工智能,外部审计师最关注相关结果。例如,模型风险管理或估值背后的算法,以及这些算法是否对组织的财务报表产生重大影响。

(二)法规遵从性

法规通常落后于技术变革,人工智能也不例外。但法规也会使人工智能的实施复杂化。例如,1996年《美国健康保险流通与责任法案》(HIPAA)和2018年《欧盟通用数据保护条例》(GDPR)等隐私相关法规强化了对个人身份信息的保护,而人工智能技术依赖于这些信息。

其他公认的法律问题还包括反歧视法的遵守,尤其是为组织提供人工智能服务的第三方。FSB总结了对第三方服务商的担忧,称当前许多人工智能和金融服务机器学习提供商不在监管范围之内,或不熟悉适用的法律法规。若金融机构依赖第三方人工智能和机器学习服务商提供關键功能,且外包规则不到位或不被理解,则这些服务商和提供商可能不受监督和监管。同样,若此类工具的提供者开始向机构或零售客户提供金融服务,那么金融活动可能游离于监管之外。

组织不应坐等监管环境与技术环境的同步改观。即使现有法规未具体涉及人工智能,组织也应掌握人工智能活动是否符合现行法律法规。其中一种方法是预设场景,分析人工智能活动是否用于恶意或犯罪活动,或导致意外后果造成伤害。同时,若人工智能学会超越既定规则,或人工智能系统学习如何相互沟通并在没有组织的情况下“共同工作”,人工智能活动可能会减少内控力度。考虑到现行法律法规的规定,采取积极主动的方法将有助于组织在新法规生效时保持灵活。

人工智能治理部分涉及三个要素:

要素3:数据质量

用于构建人工智能算法的数据的完整性、准确性和可靠性至关重要。为了使人工智能成功,组织需要获取大量高质量的数据,即定义明确且标准化格式的数据。但除了在标准化格式(结构化数据)中明确定义的数据之外,人工智能技术可能还依赖于非结构化数据(如社交媒体帖子)。但正如IIA指出的,非结构化数据由于其不断变化和不可预测的特性,通常更难管理,因而有必要开发新的解决方案来管理和分析这些数据。如表3所示。

要素4:数据架构和基础设施

人工智能的数据架构和基础设施可能与组织处理大数据的架构和基础设施相同或相近。它包括以下因素:数据可访问的方式(元数据、分类、唯一标识符和命名约定);整个数据生命周期(数据收集、使用、存储和销毁)中的信息隐私和安全性;数据生命周期中所有权和使用权的角色和职责。

组织应关注软件开发的三个主要领域,以确保人工智能集成的成功。一是数据集成,即在将人工智能整合到组织的应用程序和系统之前,必须集成多个不同来源的数据;二是应用程序现代化,即需要定期更新软件,且更新频率应该加快;三是员工教育,即软件开发人员、项目经理和其他技术人员需要跟上机器学习和技术“堆栈”(运行人工智能需要的软件和组件)的各个方面。此外,应对数据进行协调,以便在输入之前对诸如四舍五入、人口统计和其他变量等细微差别进行标准化,如表4所示。

要素5:衡量绩效

内部审计的定位对于组织衡量人工智能计划绩效的能力至关重要。在规划阶段,内部审计可以提供建立指标的建议,为管理层和董事会提供充分、可靠、相关和有用的信息。但是内部审计不得包办建立或拥有人工智能绩效指标。在已实施人工智能的组织中,内部审计应提供对第一道防线控制和与人工智能相关的第二道防线监督的保证,如表5所示。

三、人为因素

人为因素是指人为错误带来的风险,从而影响人工智能实现预期结果的能力。人为因素部分涉及两个要素:

要素6:伦理学

人类开发的算法可能包含人为错误和偏见(有意或无意),这类算法将影响算法的性能。人为因素应考虑:识别和管理人工智能设计中存在的无意的人为偏差风险;人工智能是否已经过有效测试,以确保结果反映最初的目标;鉴于复杂性,AI技术可以是透明的,以确保人工智能正在合法、合乎道德和负责任地使用。

麦肯锡公司最新的一份报告显示,部分公司将很快使机器学习应用于商业决策。这类程序设置了复杂的算法,以处理大型、经常刷新的数据集。然而,算法偏差是有风险的业务,因为它一旦被低估,便可能有违机器学习的初衷,且难以控制。更重要的是,在业务决策之外,算法偏差可能导致错误,从而引发一些问题。

要素7:黑匣子

黑匣子通常是很复杂的电子设备,其内部机制对用户隐藏或保持神秘。一般而言,它是任何具有神秘或未知内部功能或机制的东西。随着组织的人工智能活动变得更加复杂,黑匣子要素将越来越具挑战性,如表6所示。

IIA的人工智能审计框架将帮助内部审计人员以系统和规范的方式处理人工智能咨询和保证服务。无论组织的人工智能技术和活动是通过内部开发还是第三方开发,内部审计都应准备好向董事会和高级管理层提出建议,协调第一和第二道防线,并为人工智能风险管理、治理和控制提供保证。

(作者单位:中国人民银行赣州市中心支行,邮政编码:341000,电子邮箱:315421032@qq.com)

猜你喜欢

人工智能
人工智能6月大事件
我校新增“人工智能”本科专业
人工智能AI
人工智能之父
2019:人工智能
人工智能
人工智能与就业
数读人工智能
人工智能时代,就业何去何从
下一幕,人工智能!