APP下载

金融数据安全背景下的智能投顾算法黑箱监管体系构建

2022-02-03汪世虎马瑞乾

社会科学辑刊 2022年2期
关键词:黑箱投资者监管

汪世虎 马瑞乾

人工智能技术不断地应用于金融行业,不仅促进了行业发展模式的重大创新,也使得金融数据逐渐成为重要的生产要素。金融数据安全关乎金融行业的稳定发展,也关系到社会秩序和国家安全,从维护金融数据安全的角度分析金融科技在应用过程中产生的监管漏洞,形成解决方案十分必要。人工智能最突出的特点是具有不同程度的工作自主性和动态智能化解决问题的能力,该能力是依靠拥有数以千计的类人工神经元算法,经过不断地深度学习和大规模地处理数据才得以实现。然而,正是由于这些复杂的类神经元,导致设计者很难精确地判断和预测最后的处理结果,也导致算法具有天然的不透明性,产生“算法黑箱”〔1〕。缓解算法黑箱问题的主要方法是确定人工智能监管所需要的最低透明度。目前我国对金融行业的创新发展持谨慎态度,智能投资顾问并没有获得从事全领域金融服务的完全授权〔2〕,那么进行智能投顾算法黑箱的法律监管研究,既要尊重人工智能技术的发展规律,考察算法黑箱产生的一般性问题,又要在充分结合我国金融投资现状基础上思考其特殊性。同时,还要认识到保障金融数据安全的前提是对算法的治理,在法律规制过程中,必须将数据安全作为投资者利益保护的重要内容,而不是仅关注金钱部分的损失。

据统计,截至2020年底,我国智能投顾管理资产规模达到3000亿美元,市场份额占全球18%,用户数量接近5000万,在未来几年中还会呈现平稳增长,这也说明中小投资者在智能投顾理财中参与度非常高。①数据来源参见 Statista:Digital Markets/Fin Tech/Digital Investment,January,2021,https://www.statista.com/,2021-05-23。我国中小投资者在以往股票、P2P平台等投资中皆呈现出抵御风险能力弱、投资决策随机性强的特点,但随着技术的革新、监管制度的完善和自身投资能力的提升,需要进一步分析使用智能投资顾问的中小投资者的真实状态,才能真正做到适当性管理。虽然传统的监管方法在面对投资咨询中算法使用所产生的新问题时,会出现失灵的情况,但是最大限度保护中小投资者利益〔3〕,实现普惠金融,依旧是我国智能投顾算法黑箱法律监管的目标。本文主要分析智能投顾算法黑箱已经出现的法律问题和潜在的法律风险,以及在现行法律体系下所遇到的监管困难,同时结合《证券法》对中小投资者保护的特殊要求、《数据安全法》和《个人信息保护法》在利用算法数据时应该遵守的基本规定,充分借鉴国外算法黑箱监管经验,探究符合我国资本市场发展的法律监管路径。

一、因算法黑箱产生的投资者保护法律困境

算法本质上是不透明的,这种“不透明性”不是指算法设计者没有完全公开或难以公开程序代码,而是一列列代码身后所隐藏的决策标准和算法未来走向的不确定性。〔4〕本节从现行法律责任体系下的责任追究、平台公司对算法的使用过程以及算法发展的不确定性三个方面进行分析。

(一)算法不透明性增加侵权责任承担难度

基于《民法典》规定,智能投资顾问现阶段不能被认为具有独立的法律人格,不能成为民事主体。〔5〕主要原因有两点:第一,其不具备民法上独立的意思表示。程序算法的现行运营过程和结果,都受到人类控制,独立性和自主性达不到民事主体法律要求;第二,其没有民事责任能力。算法没有独立的财产权,无法承担侵权后的民事赔偿责任。因此,目前将智能投资顾问的咨询行为视为经营者法律行为,最有利于投资者权益保护,经营机构作为最后的责任主体。〔6〕然而,程序算法公开内容仅停留在基础公式层面,经营者完全可以在后台进一步调整,产生算法黑箱。在这一过程中非常容易忽略算法深度学习能力,经营者也无法对算法处理海量数据后产生的具体决策内容作出准确预期,即使法律确认了最终责任主体,当决策内容侵犯投资权益时,在因果关系的确认上依旧存在难度,直接结果就是被认定为商业风险或技术风险,从而在客观上造成责任主体隐蔽起来的后果。同时,在侵权责任方式上,损害赔偿范围的确定体现的是对算法决策产生的法律效果的分担问题,经营者应当承担的责任限度也因为算法黑箱陷入困境,还需结合金融信息披露的对其信义义务的要求进行综合判断。

目前,国内外对智能投顾的算法监管严重不足,关键是未建立针对算法黑箱的民事责任制度,无法实现对投资者利益的有效保护。我国仅在2017年时,证监会对没有取得销售基金资质的平台公司进行行政处罚〔7〕,或是对打着智能理财的幌子进行诈骗和非法经营的行为追究刑事责任。②湖北省宜昌市中级人民法院(2015)鄂宜昌中刑初字第00032号刑事判决书。对于智能投顾发展最成熟的美国,也鲜有因为算法黑箱被处罚的案例出现。直到2018年12月21日,美国证券交易委员会(SEC)才对提供自动化投资组合管理服务的Wealthfront和Hedgeable两家公司采取的第一次基于虚假陈述和误导性广告的执法行动。〔8〕从对Wealthfront调查报告中看到,全文没有一处提及算法侵权问题,而仅仅在指责运营商滥用信息优势损害投资者利益。①具体论述详见Investment Advisers Act of 1940,December 21,2018,Release No.5086,Administrative Proceeding File No.3-18949,United States of America before the Securities and Exchange Commission。但是,算法黑箱对金融敏感数据的不当使用以及设计技术性瑕疵导致的决策失误都一直存在于智能投顾领域,侵权行为未能被有力追究。

(二)隐藏于算法中的附加金融服务存在监管真空

单纯的智能投顾商业模式盈利能力弱,加剧了运营商与投资者之间的利益冲突,使得本应客观的投资建议夹杂了其他金融服务。以招商银行的摩羯智投为例,其投资时间1—3年的,低风险的模拟年化收益率在4.04%—5.67%之间,中风险在7.26%—8.01%之间,高风险在9.55%—11.05%之间,与其他平台相比差距并不大。②数据来源参见普益标准:招商银行摩羯智投模拟年化收益率,2020年10月15日,http://www.pystandard.com/index.aspx,2021年3月26日。平均收益率基本符合投资者预期,但对运营商来说压力依旧很大,需要持续性的高成本投入才能兑现承诺。我国几家典型的智能投顾平台公司及其商业模式,因自身具有成熟的金融理财产品运营体系的平台公司占据主流地位,其主要依靠赚取金融产品的销售费用,咨询费用和手续费策略性不被收取或很低,同时设备的投入和研发成本十分高昂,所以单纯提供咨询业务的平台公司很难盈利,长期内无法持续。运营商易借助自身对算法设计和运行的优势,通过抓取有利于销售高附加值的理财产品数据,匹配前期采集的投资者意向数据,最后形成具有强烈导向性的投资咨询建议,或通过增加其中广告投放以增加收益,使得智能算法成为掩盖双方利益冲突的工具。同时,因为算法黑箱的存在,隐藏于其中的附加金融服务披着人工智能的客观结论的外衣,很难受到监管。

算法黑箱提供的个性化附加金融服务是一种偏见性的数据滥用,还存在着数据泄露的法律风险。运营者希望获得尽可能多的数据,促进算法进行深度学习,以便提出更加客观的投资建议,尤其对于财产数据具有较高的私密性,任何处理过程都需要明确授权,但是附加金融服务不会公开,敏感数据是否经过技术性脱敏不得而知,将进一步增加客户个人信息的泄露的可能性。〔9〕投资者在App上成功注册账户后经常会收到以电话、短信等方式的产品销售信息,但很难追踪是在哪一环节中泄露的信息。

(三)算法学习周期性难以适应投资者法律保护即时性

算法黑箱的不透明性掩盖了自身学习的周期性,在面对市场变化时,易出现无法及时提供决策建议的情况。人工智能依赖的是基于几何关系的内化数据机器学习算法,通过分散的方式一起工作来解决问题,这也是算法黑箱无法达到可视化的最重要原因。〔10〕算法深度学习需要源数据的积累过程,同时人工智能创造者也无法完全理解和预测最后的决策结果,所以在设计算法时就已经持稳健态度控制发展速度。〔11〕这样的结果就是机器顾问智能化不足,提供的投资意见两极化明显,过于保守或过于激进使得智能投顾风险依旧很高,人工智能技术还无法满足资本市场发展的要求。

那么,将算法周期性学习诱导的风险作为法定免责事由,投资者将无法得到足够保护。根据算法黑箱和资本市场的特殊性,当其进入金融领域引发系统性风险的可能性仍然很大,甚至无法回避,同时还有可能存在因为算法设计错误或是升级故障而导致投资者损失的技术风险。金融市场出现巨大波动甚至崩盘存在着明显的周期性,高频交易被认为是其中的原因之一或是促成因素。高频交易是一种由算法控制的计算机化交易,其本质上就是一种算法交易,所以人工智能不会降低市场崩盘的风险,甚至可能增加市场崩盘的几率。〔12〕对于免责事由的确定,目前法学界沿用《产品责任法》的规定,要求生产者达到设计时科学技术水平的一般注意义务〔13〕,但是在金融领域中对人工智能的免责应该提出更高要求。

二、维护数据安全下中小投资者保护的特殊要求

智能投顾的目标客户群是中小投资者,其与机构投资者在投资行为和收益目标上都存在明显区别,在股票市场具有强制信息披露要求的情况下,依然无法作出快速反应,那么对具有天然不透明属性的算法黑箱也很难有更深刻的理解。同时,也应该考察保障金融数据安全的特殊性要求。算法处理的数据关乎个人信息安全,影响中小投资者的决策,当大量的金融数据汇集后甚至会影响金融业机构的正常运营,可能产生系统性金融风险,中小投资者利益保护的目标则不再单一化。

(一)投资者交易习惯的特殊性

智能投顾平台属于数字金融平台的一种,投资者具备一般数字金融平台投资人的基本特征。通过对数字金融平台上的客户进行调查,发现投资者具备以下明显特征:18—35岁的男性投资人更愿意选择数字金融平台,风险偏好高于女性;受教育程度高、已婚、健康状况良好的投资人多选择数字金融平台,投资意愿随这些因素的提高而增强;数字金融平台为年收入十万元以内的人群提供了更多的投资机会,同时他们的年支出也集中于十万元以内。〔14〕这说明投资者会充分考虑技术和投资能力,以及当经济能力提升后,如何更好作出投资调整。

数字金融下的智能投顾平台中小投资者的投资习惯不同于一般情况下的股票个人投资者。一方面他们处于社群时代①社群时代:信息流是双向甚至多向的,客户流集兴趣、需求、社会关系导向于一体,数据流开始急速膨胀。用户既是信息的获取者,也是信息的创造者。和流量时代②流量时代:数字平台或数字金融平台上通用的技术与服务逐渐同质化,信息流是网状的且传播非常迅速,客户流很容易在平台间流转且场景导向增强,云计算、大数据、人工智能等技术的发展大大凸显了数据流的价值。,能够通过网络和智能手机有效利用各类数字媒体获取一定的投资信息,掌握投资知识,具备一定抵御风险的能力;另一方面他们对金融服务效率以及个性化服务要求更高。针对这一特点,运营商很有可能利用投资者对金融服务的特殊要求,对人工智能进行过度包装,通过服务来弱化风险。

虽然智能投顾利用人工智能技术大幅度降低了提供投资咨询的人工费用,使得财富管理可以满足各个层次人群的不同需求,但我国人工投资顾问在整个过程中仍然占据重要位置。〔15〕这与美国智能投顾发展呈现不同状态:美国人工智能技术降低了投资者对传统方式的依赖程度,但是我国投资者依旧重视人与人之间的沟通。因此,机器建议和人工建议被放置在同等重要的位置,应该重视人与机器之间的关系。

(二)投资者适当性管理的要求

《证券法》第88条主要规制证券公司在向投资者销售证券产品或是提供相关金融服务时,需要对投资者进行审慎评估其抵御风险的能力,目的是减少投资者不适当的投资,更好地保护投资者利益。投资者适当性规范不足,直接表现是智能投顾风险测评不到位,间接提高了个体投资风险更高的金融产品意愿。〔16〕目前各个智能投顾平台在关于风险评估的算法设计上都显得过于初级,客户投资留痕管理不够,基本没有做到风险动态评估,对投资者适当性管理重视程度不足。

美国金融业监管局(FINRA)针对智能投顾投资者适当性管理作出了特殊要求:第一,智能投资顾问需要以投资者关键信息为核心进行精准画像;第二,要审慎评估投资者的风险抵御能力和投资意向;第三,与投资者进行持续沟通,确认信息的稳定性;第四,对评估的算法进行跟踪评估。通过人工智能算法进行风险评估,需要运营者将法律规定的投资者适当性管理制度作为自己的行为准则落实到投资咨询全过程。

智能投顾运营者应当履行说明义务、风险揭示义务、匹配义务、拒绝义务和管理义务,同时应该区分普通投资者和专业投资者。对投资者进行分类管理,实施差异化保护是维护证券市场良性发展的需要,更有利于集中资源保护中小投资者利益。〔17〕同时当普通投资者与智能投顾平台发生纠纷时,运营商应承担已充分履行适当性管理义务和不存在欺诈、误导等情形的举证责任,这都是对降低智能投顾算法黑箱法律风险的特殊要求。

(三)投资者金融信息需要全生命周期保护

投资者金融信息生命周期指对个人金融信息进行收集、传输、存储、使用、删除、销毁等处理的整个过程,算法的设计和实施要覆盖整个周期的安全保护策略。③参见中国人民银行《个人金融信息保护技术规范》4.3。大数据处理对基础设施、信息技术、操作能力都提出很高的要求,必须对风险进行充分预期,也就是说安全隐患在设立之初就是存在的,因此要对其进行动态监管。在监测过程中数据处理者需对发现的安全漏洞、缺陷进行及时补救,对重要数据进行分类管理和风险评估,并形成解决方案。该方案贯穿数据收集、内容存储、加工分析、处理使用、数据交易、对外公开等全过程。

算法在设计、应用过程中要充分尊重数据生成和持续更新的周期性,保持数据的生命力〔18〕,尤其是智能投顾要实时反馈资本市场变化的投资性数据,以及投资者对产品理解和投资意愿的变化。即使算法黑箱存在天然的不透明性,在监管程序上也必须做到全流程性管理。

由于金融数据的体量过于庞大,算法应对数据进行初步分级和分类管理,对敏感数据做到标签化,增加可识别能力,确保对较高敏感度的数据在各项传输及存储过程中,全量加密,突出精细化管控结果。〔19〕按照法律规定,数据处理方需要获得行政许可,那么行政机关也应承担一部分算法数据源头监管职责,同时算法数据处理部门应主动与行政机关进行沟通,保障法规顺利实施。

(四)投资者知情权保护是算法服务的重点

在算法侵害类型中,算法操纵和算法标签①算法操纵:体现于“算法共谋”“信息茧房”及精准营销等方面,平台利用数据优势影响用户的自由选择,干预其观念、意志的形成,对个人或群体进行支配或操纵。算法标签:算法结合个人历史数据对个人进行风险评估与分类,根据算法应用场景的不同,可能把个人划归进不同的风险群体,贴上诸如“财务风险”“雇佣风险”“犯罪风险”等不同的风险标签。极易出现在智能投顾领域,金融数据被滥用的情况具有极强的隐蔽性,直接的表现是获取算法服务的当事人不知道已经被侵害,而运营商也未被要求进行强制披露和授权。国家网信办在《互联网信息服务算法推荐管理规定(征求意见稿)》中,对算法推荐服务作出规定,要求服务商以显著方式告知用户其提供算法推荐服务的情况,将投资者数据信息使用知情权保护放在重要位置。

智能投顾为了作出更加全面的投资风险评估和精准画像,在采集的各类数据中,有相当一部分属于个人信息,那么必须在个人充分知情并且自愿的前提下才能处理数据。此处的充分知情权应当理解为完全知情,信息处理者需要通过明确清晰的方式,对信息处理主体、目的、方式、类型、期限等作出完全解释,而不是通过非默认勾选征得同意。②《移动互联网应用程序个人信息保护管理暂行规定(征求意见稿)》第6条:“从事App个人信息处理活动的,应当以清晰易懂的语言告知用户个人信息处理规则,由用户在充分知情的前提下,作出自愿、明确的意思表示。”

虽然智能投顾形成最后投资建议的方式呈现多元化,但人工智能算法对信息的处理属于自动化决策,而且其中存在信息推送和商业营销行为,那么在知情权基本保护措施上,又赋予了个人请求说明权和拒绝权。请求说明权是基于算法的潜在风险和产生损害后果的不可逆性,对可能造成重大权益影响的信息处理行为,个人有权要求其进行详细说明,更深层次地维护知情权。拒绝权的行使滞后于算法自动化决策,当不满意处理内容时,给予了个人拒绝的权利,并直接产生法律效力。因此,从投资者保护角度,两种权利倒逼重要数据处理者以更加审慎的态度保护个人知情权,降低了法律风险。

三、智能投顾算法黑箱的法律监管路径构建

(一)提高金融包容性和市场安全性的源头监管

1.制定智能投顾监管框架

一般国家对待金融创新都会持审慎态度,而智能投顾与传统金融业务相比,特殊性体现在人工智能算法的应用,需要通过制定法律法规规制其发展。2017年11月由中国人民银行、银监会、证监会、保监会、外汇局起草的《关于规范金融机构资产管理业务的指导意见(征求意见稿)》第22条中,对智能投顾的金融准入机制、信息披露、模型主要参数报备、投资者适当性管理、风险隔离、交易流程设置、算法程序设计、合规工作、产品宣传、数据安全、责任追究等作出了一般性规定,同时在2018年4月出台的《关于规范金融机构资产管理业务的指导意见》(以下简称《意见》)第23条中予以确认。该《意见》对行政机关实施监管具有重要的指导意义,尤其是明确了算法黑箱很有可能成为规避监管的工具,对强制人工介入也作出要求,但该规则过于笼统,没有实施细则,显然与智能投顾管理的资产规模和可能产生的系统性法律风险对监管的要求不匹配。

FINRA对智能投顾的监管重点为平台底层算法和投资组合部分,同时希望通过现有证券领域法律对其进行规制。〔20〕欧洲银行管理局(EBA)相对比较鼓励金融科技创新,加强了与金融创新者之间的互动,主要监管提高信息透明度部分,应用“沙箱监管”,同时非常注重对新型金融产品和分销产品的治理要求。香港交易所(HKEX)对智能投顾领域的监管,将金融科技创新纳入现有监管体系,并运用大数据、人工智能技术创新监管手段,同时尝试“沙盒监管”技术。行政监管部门有义务主动监管,在合同、交易流程、程序算法设计等方面制定相关标准,夯实主体责任,有效利用金融科技手段促进监管手段的创新。

2.算法的事前审查

智能投顾是一种自动化的投资解决方案,提供投资咨询过程主要包括程序启动、数据评估、信息加工、组合匹配、提出建议、方案调整六大步骤,其中人工智能算法的优势主要体现在后三个部分上。在资产投资匹配过程中,算法非常容易故意引导客户投资顾问所推销的产品,形成利益冲突。在方案调整过程中,交易算法进行自动监控和调整都应该以投资者财富管理目标为基础,但这一过程并没有足够的透明度。

2021年3月26日,中国人民银行发布了《人工智能算法金融应用评价规范》,从安全性、可解释性、精准性和性能四个维度,对金融机构、算法提供商和第三方安全评估机构设计和实施算法技术提出了基本要求。可解释的算法是解决算法黑箱不透明性最重要的部分,以清晰明确为规制目标,便于管理和匹配,在对算法、模型、参数、样本方面都要求具备可解释性,建模过程要实施模型仓库管理、账号日志管理,突出金融行业特点。在评价方法部分主要通过查阅资料、查看系统、访谈人员、系统测试、攻击测试、算法测试和查看算法等方式对算法进行整体评价。

智能投顾的算法事前审查,应该包括审查算法模型的合规性、客户尽职调查适当性和对特殊算法进行必要解释。这种审查是对算法设计最低标准的要求,否则就会出现设计者被迫使用较浅的程序结构应付法律规定的情况。设计者和运营商在实施人工智能算法投资咨询前,应该向监管部门履行算法备案程序,并承诺所有设计已经符合各项法律法规,在设计过程中充分提取并保护了投资者利益的各项关键数据,并对其负责。

3.提升投资者信息能力

维护智能投顾中小投资者利益,监管部门和运营商要主动作为,中小投资者也要提升自身能力。一般情况下认为合格投资者应该具备较强的财务成熟度和承受投资损失风险的能力,然而促进投资者具备合格投资能力的关键并不完全是技术上操作的熟练程度,而是主要取决于获取关键信息的能力,这也是与机构投资者最明显的区别。

对智能投顾应用场景而言,投资者虽然具备了利用移动互联网技术获取信息的硬件条件,但是其对信息的理解能力仍然有限,所以运营商和监管者有义务帮助中小投资者提升获取和处理信息能力。第一,监管机构应该强制要求运营商提供获取投资信息的培训服务,将其作为投资咨询服务的重要组成部分;第二,运营商应该充分利用资金和技术优势,主动帮助投资者获取各类投资的有效信息,同时降低金融产品的营销信息。运营商提供投资者教育服务是存在动力的,一方面投资者能力的提高会直接影响投资产品整体收益率和智能投顾平台的声誉,另一方面运营商也完全可以利用人工智能技术为投资者在获取信息的过程中提供更好的服务。

(二)实现对投资者知情权保障的过程监管

在智能投顾实施过程中,参与主体限于运营商和投资者,那么监管目的则是缓解两者之间因信息不对称产生的利益冲突。目前研究发现,接受通过智能投顾建议的家庭,其经济情况一般较好,同时愿意承担一定金融市场中的风险以获得更高收益〔21〕,监管重心应该放在降低运营主体和算法黑箱产生的非市场性风险上,及时有效提示风险,而不是故意选择低风险性投资组合来掩盖产品风险。

1.对接证券信息披露标准

证券信息披露尤其是股票信息披露制度相对完善,而证券交易和获取投资咨询建议过程通常被投资者认为处于同等地位,因此能否利用证券信息披露的标准规制智能投顾算法,提高算法透明度,成为研究的重点。《证券法》中关于信息披露的相关法律规定主要是为股票公开发行设计的,智能投顾更多偏向私人财富管理,其公共性不强,目标群体就是投资者,因此对算法的信息披露除符合法律的一般性标准外,也要注重其特殊性,否则达不到监管目的。考虑到智能投顾应用人工智能技术,直接披露算法对投资者来说意义不大,主要原因是:第一,算法设计涉及知识产权,运营商具有隐蔽核心算法的权利;第二,数字投资顾问无法全面解释其决策原因;第三,算法治理较强,涵盖内容过多,不可能也没有必要直接披露;第四,投资者对于偏技术性的信息披露不感兴趣。

主动和迭代披露①源于迭代算法。迭代算法:计算机处理问题的一种基本方法。它利用计算机运算速度快、适合做重复性操作的特点,让计算机对一组指令进行重复执行,在每次执行这组指令时,都从变量的原值推出它的一个新值。成为一种可尝试的信息披露方法,该方法改善了信息披露质量,强调机器人顾问与投资者的互动与合作。机器人顾问通过算法程序对投资者各方面投资情况做到基本了解,为投资者量身定制信息披露方案,同时提供信息披露是积极过程,要求投资者反复循环地主动参与和互动,并在随后的决策阶段提供更多的信息。在主动和迭代披露过程中,机器人顾问对投资者接受信息过程进行全程记录,实现对基本信息实施标准格式的披露,对特殊信息进行个性化披露。〔22〕

算法披露的部分还应包括:第一,明确告知投资者人工智能算法承担着管理个人账户的职责;第二,向投资者详细描述用于管理客户账户的算法功能,包括如何生成最后的投资组合,如何进行投资和实施再平衡;第三,对算法的局限性进行详细说明。第三方在线中介机构负责执行对智能投顾平台信息披露程度的监督工作,有助于提高算法透明度。利用在线中介机构对信息披露进行实时监管,包括监管提醒、处理投资者一般性投诉、监管信息及时反馈等等,有助于提高监管效率。

2.投资者数据利用与隐私权保护

智能投顾平台在注重投资收益率的同时,非常关心如何利用数据优势提升金融服务过程中的用户体验,这也产生了如何保障投资者数据安全性和隐私权的保护问题。中小投资者在对自身数据保护方面处于绝对弱势地位,而智能投顾必须依赖投资者关键数据,因此算法在设计时就应该编写相应程序保护投资者数据安全,同时需要限制管理员权力,提高投资者对自身核心数据的掌控能力,降低维权成本。

投资者在提供核心数据时,往往会存在警惕性,但是智能理财为了完成目标很有可能通过格式条款挖掘数据,使投资者对数据失控。对金融数据安全性的监管应主要从四个方面进行规制:第一,金融机构必须在采集信息前,向监管机构和投资者无条件承诺不会私自泄露、滥用投资者信息;第二,金融机构应当对投资者自然信息、身份鉴别信息、咨询信息、关系信息、行为信息、标签信息数据进行分级管理;②参见中国人民银行:《金融数据安全数据安全分级指南》,2020年9月23日,http://www:pbc.gov.cn/tiaofasi/144941/index.htm,2021年3月28日。第三,使用投资者信息必须取得授权,授权方式不得使用格式条款进行强制授权,对涉及隐私信息实施任何共享,即使获取授权还需要给投资者选择退出的机会;第四,金融机构一旦出现信息泄露、滥用行为,监管机构将追究其行政责任,投资者可以要求其承担民事责任,造成严重损失的,追究其刑事责任。

3.附加金融服务的规制

数字创新利用独特的媒介和形式,借助智能修饰语提供的个人偏好算法,正在改变商品和服务的制造、销售和消费方式,使消费者更加注重使用场景的体验感,很容易忽视产品本身。〔23〕智能投顾平台同样通过编辑营销算法,加强对附加金融产品的广告营销,在投资咨询和产品销售之间游走,规避监管。投资者对附加金融服务有选择权、拒绝权、要求解释权和观点表达权。选择权和拒绝权是建立在充分知情权的基础上赋予投资者保护个人权益的重要权利,也是反向对运营商必须提高金融服务质量提出要求。要求解释权和观点表达权实质上是投资者和运营商主动参与算法纠错和修正的过程,发起新的商业行为的最好结果是双向利益,并不是过分强调金融服务风险。

在《九民纪要》第五部分对金融服务提供者销售金融产品时应当履行的适当性义务、告知义务、法律适用以及举证责任作出过具体规定,因此智能投顾也必须遵守。同时针对智能投顾商业模式的特殊性还应该作更加具体规制:第一,运营商自身从事金融产品开发、销售业务的,应当将投资咨询与该业务分离,不能混同;第二,运营商只开展投资咨询业务的,如果与其他金融公司存在合作关系必须进行信息披露,不得为其间接引流;第三,运营商在投资咨询过程中,只要获得来自存在关联关系的金融产品发行人的收益,就应该认定为金融产品销售者,未履行义务造成投资者损失的,应该承担连带赔偿责任;第四,为了在投资咨询过程中实现销售目的,故意在算法设计时降低特定产品风险,与其他产品区分的,应该严厉处罚。

(三)强化对违法违规行为的法律责任追究

1.明确运营商受托责任与信义义务

智能投顾运营商是作为承担法律责任的主体,该责任来自投资者与其建立的委托代理关系,但是因为算法控制的机器人顾问的存在,造成责任认定存在模糊空间,因此应当明确责任范围和认定方法。由于金融行业的特殊性,其注意义务标准应当高于一般从业者义务标准,同时投资者在使用智能投顾前已经对平台存在人工智能技术的基本信任,那么运营商在基本信任范围内要承担可能发生的侵权责任。在违反忠实义务方面,因为多数平台自身运营相关金融投资产品,自我交易或是关联交易也一定存在,所以应主要考察是否存在人为的算法设计侵权。

在美国Goldenberg诉Indel公司一案中,法官裁定完成以下行为是投资顾问承担民事责任的基础条件:第一,为投资者提供的是个性化的投资建议;第二,形成建议的过程需要双方充分协商;第三,该过程是其主营业务;第四,该建议是作为资产投资决策的主要依据;第五,建议内容明确财产价值或是有明确的收益指标;第六,投资咨询过程是有偿的。〔24〕然而,要求投资者与机器人充分互动形成民法意义上的信任关系并不现实,同时选择智能投顾就默认为投资者自身承担了部分由于算法黑箱产生的法律风险,不能就此过分提高运营商的注意义务标准,还要区分人为因素在侵害投资者利益中所占的比重,所以需要进一步确认智能投顾的信义义务标准。

美国在《投资顾问法》中对信义义务的原则性规定同样适用于智能投顾,范围来自投资者授权,核心依旧是公平的信息披露和知情权保障。SEC在2017年公布的《投资者管理指引》中对智能投顾履行的具体义务作出描述:首先,对信息披露义务公平性的要求。投资顾问有责任充分和公平地披露所有重要事实,并采取合理谨慎手段,避免误导投资者,尤其是依靠算法和互联网的商业模式和投资咨询范围的解释。其次,对投资建议适当性的要求。以客户的最大利益为出发点和提供适当的投资建议,投资顾问必须根据客户的财务状况和投资目标,合理地确定所提供的投资建议是否适合客户。最后,实施程序合规性的要求。投资顾问必须每年审查实施的程序是否合规,因为随着算法的升级很有可能导致部分流程违反法律法规。

2.算法问责制

算法问责制产生于限制决策者权力的事前机制和通过结构化的准则和标准的事后机制,确保决策者使用算法时能够以公平和有效的方式行使权力。欧盟在2018年发布的《通用数据保护条例》(GDPR)对研究算法问责制同样具有重要借鉴意义。主要包括两部分:第一是对算法采集数据、利用数据的规制,即规制算法的决策过程;第二是对因算法错误侵害个人权利而应承担的责任,即算法决策的事后审查。

算法决策过程履行正当程序是保证合规性的关键。GDPR第22条规定,数据主体对数据本身拥有各项权利,不受人工智能技术的限制,而数据控制主体有义务采取适当措施保障数据主体权利、自由和正当化利益。该条款可以认为是对算法决策施加正当程序的基本原则。监管机构应该设定监管项目清单,跟踪算法设计者和运营者是否履行各个基本项目。同时,可以增加相应监管措施,包括协助投资者诉讼,对知情者揭露不当行为的举报激励,赋予数据主体注意、同意、纠正和删除的权利,也可以尝试更多系统性的问责模式,例如对算法系统进行设立前影响评估。

算法的不透明性的紧迫问题在于披露法律法规的监管缺位,未能考虑到人工智能时代利益相关者的信息需求。局限性主要指在资本市场驱动的背景下,高级算法作为决策权的主要来源,给公众和公司本身带来了各种风险,单一传统的信息披露方式无法持续地保护投资者利益。因此,不仅要加强对关键信息的披露,提出新的披露原则和最低披露标准,也要求算法设计者和运营商必须增强算法的可解释性,对算法开发负责,同时与监管框架的对其注意义务的要求保持一致。

对于算法责任体系的构建,从以下几点入手。首先,主观方面应该确认过错推定原则,这主要基于算法设计者和运营商对数据强势的控制地位。对于是否可以归因于商业风险或是技术风险,不应过多增加投资者的举证责任,运营商承担证明自己无过错责任。其次,法律责任应该与风险类型相适应。在确定运营商侵权损害赔偿范围时,需要对提供的投资咨询服务的行为标准、费用和成本、利益冲突、本机构的受处分记录以及如何获得更多信息向中小投资者进行全面描述。最后,算法决策的事后审查是行政监管与司法审查的结合。对于考察运营商免责事由,一方面要基于事前对算法服务的基本原理、目的与意图、运行机制的公布程度以及维护投资者知情权等各项权利的程序性措施是否履行,另一方面还要参考运营商是否违反对投资者的承诺事项。执行单纯的司法审查十分困难,对投资者举证责任要求太高,同时基于算法本身的性质,被告具有充足的技术理由可作为免责事由,败诉风险太大,应成立专业的行政监督机构,协助投资起诉,完成举证责任。监管机构处以的行政责任与司法诉讼产生的民事责任的有机结合,才能实现保护投资者利益的目标。

四、结语

数字经济作为一种新的形态已经全面进入生产生活各领域,人工智能技术又是最重要的实现方法,将数据作为载体改变了传统的思维方式,提高了生产效率,在金融行业的应用尤为明显。目前金融数据规模呈现指数式增长,其中包含的大量敏感数据很容易暴露在开放环境中,因此《数据安全法》要求对其进行分类分级管理。投资者的数据是重要的个人信息,《个人信息保护法》的颁布体现了在数字经济下对个人信息保护的重视。同时,为了保障金融数据安全,规制算法黑箱,同样需要《网络安全法》《互联网信息管理办法》等多部法律法规共同努力才能实现。我国对金融业发展强调监管,而对智能投顾算法黑箱的监管体系构建,不仅强调监管还要重视治理,需要政府监管、行业自律和投资者能力提升共同作用。人工智能正处于发展上升期,不确定因素较多,监管制度、方法都会随着技术革新不断地进行修改,而算法黑箱对智能投顾带来的法律风险多数存在隐蔽性,因此需要进行系统性的法律规制,并综合考虑各类影响因素,才能实现安全和发展的平衡目标。

猜你喜欢

黑箱投资者监管
投资者
聊聊“普通投资者”与“专业投资者”
拒绝黑箱
失踪的黑箱
新兴市场对投资者的吸引力不断增强
监管
监管和扶持并行
放开价格后的监管
投资者关注对IPO首日收益率影响几何?
实施“十个结合”有效监管网吧