技术伦理下智能投顾算法治理问题研究
2020-11-18李瑞雪
李瑞雪
(浙江大学 经济学院,浙江 杭州 310000)
一、引 言
引起国内对于技术中立话题讨论的热点事件是 “快播案”,该司法案件引发了“菜刀理论”之争。技术中立本质上为价值中立,属于工具理性范畴。对于鼓励技术创新而言,强调技术中立可以为研发和应用新技术提供宽松的发展空间。而与之相对的概念是技术伦理,则是价值理性的体现。技术伦理是对技术中立的匡正,可以从两个维度进行理解;第一,道德维度的技术伦理,强调道德观念、道德情操灌输到技术研发与应用的市场主体中,表现为科技企业的社会责任;第二,规则维度的技术伦理,即法律伦理,作为一种思想观念,需要落实到法律规范中,成为调整技术市场的强制性准则。目前,学术界关于技术中立、技术伦理探讨的文献主要集中在版权保护领域,且多为探讨刑事责任问题[1-4]。总体而言,讨论的问题过于宽泛,除版权保护外,很少真正落实到具体的应用场景[5-6]。脱离具体应用场景的探讨,一方面可能导致文章无问题意识泛泛而谈,另一方面也可能造成技术伦理陷入泛道德化桎梏。
近些年来,随着我国金融科技创新步伐加快,以算法为核心技术的智能投顾机构应运而生,并且具备爆发式增长的趋势。然而,在智能投顾算法监管方面,现有研究明显不足,普遍缺乏理论性和系统性。大多研究成果仅在智能投顾机构监管框架下,借鉴国外经验,提出若干条算法治理对策建议[7-10]。
本文立足于我国智能投顾市场发展现状,以技术中立理论为逻辑起点,将规则意义上的技术伦理观念分解为具体的操作性原则,并落实到算法治理规范当中,最终为我国智能投顾算法治理提供针对性完善建议。
二、技术伦理:对技术中立的匡正
1.剥离价值的技术中立忽视技术不对称对市场秩序的影响
(1)技术中立本质上为价值中立
通常意义上,技术中立的概念可以从两个层面展开理解[5]。一方面,技术中立是指功能中立,即技术在发挥其功能和作用的过程中遵循了自身的功能机制和原理,那么技术就实现了其使命。另一方面,技术中立是指责任中立,即技术使用者和实施者无需对技术作用于社会的负面效果承担责任,只要他们对此没有主观上的故意。以上两方面的界定,均突显了技术中立的工具理性。从本质上看,技术中立属于剥离了价值观的价值中立。具体到智能投顾算法治理问题上,可以说,算法是智能投顾业务产生的技术逻辑起点,也是其具有核心竞争力的基本保障。
世界知识产权组织在1977年版的《供发展中国家使用的许可证贸易手册》中给技术下的定义为,“技术是制造一种产品的系统知识,所采用的一种工艺或提供的一项服务,不论这种知识是否反映在一项发明、一项外形设计、一项实用新型或者一种植物新品种,或者反映在技术情报或技能中,或者反映在专家为设计、安装、开办或维修一个工厂或为管理一个工商业企业或其活动而提供的服务或协助等方面”[11]。可以说,技术是“可以让企业将信息、数据、人力劳动或经济资本转化为产品或更高价值服务的任何流程。所以,数字化咨询、投资组合的自动再平衡及目标导向的投资工作流程都可以称为技术”[12]。
作为解决一个设计程序或完成任务的路径方法,在本质上看,算法是一系列流程及规则,人工智能按照规则对模型进行求解运算,或者对数据进行分析以寻找函数映射关系[13]。应用到智能投顾业务中,它决定了客户投资政策说明(Investment Policy Statement,IPS)及风险效用方程、资本市场与其模型、组合构建及优化3大战略性资产配置核心模块[14]能否有效发挥作用。因此,算法本身制造了智能投顾产品的系统知识,在性质上属于新兴技术。
同时,本文所论证的算法的概念范畴并非仅仅局限于智能投顾投资决策环节的数据模型,而是将其理解为一种技术手段的实现过程,即“算法不是软件,在最广泛的意义上,它们是基于指定计算将输入数据转换为期望输出的编码过程;这个过程既指出了一个问题,也指出了解决这个问题的步骤”[15]。智能投顾业务全流程几乎都与算法应用相关联,这正是其具有智能性特点的集中体现。具体应用场景见表1。
表1 智能投顾算法应用场景
美国金融业监管局(Financial Industry Regulatory Authority, FINRA)2016年3月发布的《数字化投顾研究报告》显示,金融从业者已经使用数字化投资咨询工具多年。FINRA将投资分析工具定位为“在采取某项投资策略、投资风格之后,能通过模拟和统计分析展示投资结果可能性的互动性工具”。从20世纪90年代末起,可供投资者使用的投资工具范围开始逐步扩大,部分公司开始推出在线资产配置工具。2005年,美国证券商学会 (National Association of Securities Dealers,NASD)颁布的解释文件NASD Interpretative Material (IM) 2210-6 生效,允许经纪交易商将投资分析工具提供给投资者。2008年金融危机后,主要来自于科技行业的新进入者开始提供直接面向消费者的数字化金融工具。这些金融工具逐步开始应用以计算机视觉、大数据、自然语言处理、机器学习、知识图谱、量化投资等为理论和底层技术场景支撑的算法模型,为金融行业带来变革,智能投顾业务也正是在这时开始蓬勃发展。
在技术中立观念统筹下衍生出了算法中立的概念,即强调作为人工智能技术工具产物——算法,只要发挥了自身设定的功能,便实现了其应有价值。并且,算法技术和实践结果也是相互分离的。从鼓励创新的角度看,算法中立可以给予算法的研发和使用者较为宽松的监管环境,但其背后却隐藏着巨大的社会风险,这应引起高度关注。
(2)工具理性主义下技术不对称问题被轻视
在工具理性主义下,技术中立并不关注应用工具的结果对社会产生的影响。然而,算法自身会自主地配置资源。在智能投顾业务中,在投资标的的初始选择和动态调整各个环节中,算法直接影响着投资资金走向。从金融脱媒的视角看,算法技术应是用来消除信息不对称、节约消费者决策成本、提升消费体验的工具,以此促进金融机构的转型升级,但由二进制的计算机代码构筑的新壁垒[16]形成了技术黑箱,产生技术不对称,最终导致投资者资金走向不明、投资安全无法保证。在智能投顾业务中,技术不对称主要表现在各利益博弈主体之间存在技术黑箱。
第一,研发者与使用者之间存在黑箱。智能投顾市场存在技术研发与技术使用分离的现象,即智能投顾机构通过技术外包的方式,委托外部机构开发算法模型。算法研发极具专业性,此类模式下,掌握关键技术的外部机构更占据信息优势。同时,虽然技术实力较强的运营机构往往拥有自己的算法技术团队,但考虑到研发团队与管理团队存在着专业知识屏障,技术人员与承担运营机构经营决策职责的高级管理人员之间同样存在黑箱。
第二,智能投顾机构与投资者之间存在黑箱。从法律关系角度分析,智能投顾机构与投资者之间是委托代理关系,前者接受后者的委托,为其提供投资咨询建议。与传统投资顾问不同,智能投顾机构利用算法模型进行客户画像并匹配与投资者风险承受能力相符合的金融产品。但在此过程中,算法模型是否被应用、是否科学有效却无从得知。同时,当前我国智能投顾市场仍处于销售导向型市场,机构主要利润来自于销售金融产品获得的居间费用,若干家金融机构还自设智能投顾平台,销售的金融产品以母公司的理财产品为主。从逐利性考量,智能投顾机构并不具有通过算法筛选排除不适格投资者的逐利动机。算法极易变成商家销售的噱头,营销手段而非关键技术成为机构竞争的焦点。在技术信息不对称环境下,由于投资者面临不完全信息的约束,同时很多投资者无法支付信息采集和处理成本,只能采取跟随知情者或其他投资者的交易行为,从而形成“羊群效应”,导致市场过度反应[17]。
第三,市场与监管之间存在黑箱。智能投顾市场中主要存在两类主体:一类是新兴市场主体,包括民间金融机构、互联网企业,此类机构在市场兴起初期,数量和投资规模较大;另一类是传统金融机构,近几年来纷纷开展智能投顾业务,发展迅猛,呈现出赶超的态势。据相关数据统计,在A股市场中,至少有11家上市的商业银行和11家上市的证券公司推出了相关业务[18]。而与之形成对比的是,监管方面却显得力不从心。虽然监管科技手段日益创新,但是目前仍未得到广泛应用。对于金融科技市场,依然坚持原有监管手段。目前,仍属于市场单方面主导发展的局面。具体到算法层面,在市场单方面主导的局面下,将会形成算法权力。算法权力从表象上看是一种技术权力,但其背后隐藏着控制算法设计和研发过程的资本权力[19],从而与监管机构形成抗衡,导致无法掌控算法实际应用的情况。
技术不对称负外部性较强,导致智能投顾市场与政府双重失灵,从而引发市场秩序安全隐患。一方面,市场失灵表现在技术中立的形式平等掩盖了实质不平等,市场无法实现自治。智能投顾市场主体之间行为主要依靠合同约束,包括投顾机构和技术外包机构签订的技术合同、与投资人签订的委托代理合同、与理财产品出让转让方签订的居间合同等。其中,委托代理关系中的投资人与掌控算法技术的投顾机构之间并不具有平等的市场地位。在单边市场中,投资人往往只能依据投顾机构单方面制定的格式合同进行维权,自身权益无法得到有效保障。同时,依照侵权法,因算法黑箱的存在,主观过错、损害结果、决策与损害的因果关系均难以证明,侵权责任路径也无法走通[20]。另一方面,政府失灵表现在目前政府监管能力不足。算法及其程序是由研发者塑造的,在此过程中,商业机构的价值观、偏见都会反映在代码上,这些输入披着科学外衣的算法会大量生产分配,带来资源分配不公平等问题[21]。在当前监管资源和技术能力有限的现实下,监管机构很难有效识别和处置算法的技术风险,干预资源分配的能力捉襟见肘。
2.技术伦理准则对技术中立的回应
面对技术中立对社会可能带来的负面影响,针对人工智能、算法合理使用问题,欧美发布的技术伦理准则提供了治理思路。具体内容均包括建立问责制、保护数据隐私、健全救济机制等基本要求。
美国公共政策委员会2017年4月发布《关于算法透明性和可问责性的声明》,对算法进行概念界定,认为算法是计算机和其他智能设备为执行计算、数据处理和自动推理任务而执行的一组独立的分布操作。并且提出了算法透明度和问责性7大基本原则,包括意识原则、获取和补救原则、问责制、说明原则、数据来源原则、可审核性原则以及验证和测试原则[22]。
欧盟委员会则积极推动欧盟在AI领域的合作,以此提升市场竞争力,并确保实现基于欧盟价值观的信任。在2018年4月发布的《欧洲AI战略》基础上,于2018年12月发布了《AI开发和使用伦理指南》草案,并于2019年4月正式推出《人工智能(AI)伦理准则》。该报告从3个基本条件、可信赖AI的基础以及可信赖AI的实现3个方面分析了可信赖AI全生命周期框架,提出了尊重人自主性、预防伤害、公平性、可解释性等4项伦理准则。并且,指出了实现可信赖AI的七大要素,具体包括:第一,人的能动性和监督,人工智能系统应通过支持人的能动性和基本权利以实现公平社会,而不是减少、限制或误导人类自治;第二,稳健性和安全性,可信赖的AI要求算法具备足够的安全性、可靠性和稳健性,以处理所有生命周期内的错误或不一致;第三,隐私和数据管理,公民应该完全可以控制自己的数据,同时相关数据不会被用来伤害或歧视他们;第四,透明性,应确保AI系统的可追溯性、可识别性,包括数据、系统和商业模式,并充分披露AI的能力与局限;第五,多样性、非歧视性和公平性,AI系统应考虑人类能力、技能和需求,并确保可访问;第六,社会和环境福祉,应采用AI系统来促进积极的社会变革,增强可持续性和生态责任;第七,问责制,应建立机制,确保AI系统对其策略结果负责和可问责[23]。欧美技术伦理规则对比见表2。
表2 欧美技术伦理规则对比
三、技术不对称视角下智能投顾算法治理的困境
在工业文明的发展中,人们通常持有“一切问题都是技术问题”的观念,通过技术进步,我们日益成功地克服困难、解决问题,然而,问题解决往往又遇到了另一个问题意义上的解决[24]。在当前全新技术革命时代,人类文明发展离不开技术伦理的回应,技术所引发的负面效应应得到足够的重视。智能投顾本质仍为投资顾问,但算法化的投资顾问带来的技术不对称将会导致生产关系的变革,引发一系列新生的治理难题。
1.多元博弈主体下责任认定存在争论
通常意义上,为了解决技术不对称问题,从实质公平理念出发,应将承担责任的主体规定为技术优势方。然而,站在市场发展阶段视角分析,现实的智能投顾市场情况则较为复杂。
第一,算法在黑箱机器中的运行机制无法得知。可以看到进入开放性系统的数据和输出的结果,但是看不到开放性系统如何组织输入与输出的关系[6]。如此,产生“波兰尼悖论”[25]。在算法应用不成熟的前提下,算法本身是否应该并且如何承担法律责任[26]、是否坚持“投资者风险自担”原则等延伸性问题均存在较多争议。第二,研发与使用分离下,直接与投资者签订委托代理合同的主体为智能投顾机构,即算法使用者。责任认定能否穿透到作为研发者的外包机构、对于外包机构如何管理等问题,监管制度均未提及。第三,《资管新规》仅仅笼统地规定了金融机构承担损害赔偿责任的情形,这导致生产关系中的新兴市场主体面临要么违规经营、要么责任承担无依据的尴尬局面。第四,在研发与应用一体化的模式中,智能投顾机构内部的核心主体包括技术团队和高管团队等。前者掌握关键技术、负责算法研发;后者直接控制公司运营、负责公司经营管理。能否穿透智能投顾机构主体,将长臂规则[27]延伸至内部团队,也是值得探讨的问题。目前,包括新加坡、巴林在内的多个国家均明确了高管的注意义务,相关监管文件均将高管直接认定为算法监督和管理的责任主体。我国现行监管规则并未对此问题做出回应。
2.机构主导下投资者保护存在难题
与美国以机构投资者为主的市场结构不同,我国资本市场以个人投资者为主,中国证券投资者保护基金公司2018年10月发布的2017年度《中国资本市场投资者保护状况白皮书》显示,我国资本市场投资者账户数量共计1.34亿,其中,自然人投资者账户占比为99.73%,非自然人账户占比为0.27%。我国资本市场投资者结构更有利于以服务零售客户为主的智能投顾业务发展[28]。但是,以散户为主的智能投顾市场也带来了新的治理难题。一方面,主导技术应用的智能投顾机构在用户画像等环节,需要大量收集客户个人信息。与机构客户相比,个人客户知识更为欠缺,对于收集数据的必要性、合理性无法自行判断。智能投顾市场中鱼龙混杂,在营销过程中,一些伪智能投顾机构往往借大数据风控之名专门搜集并转卖个人信息,所谓为金融机构导流。面对如此庞大数量级的个人信息数据,如何甄别业务真伪、监控数据使用,均对监管提出巨大挑战。另一方面,技术不对称并非全然是信息失灵问题。在算法技术被智能投顾机构垄断下,以加强信息披露为核心的传统监管方式也出现治理失灵。对于个人客户而言,即使获得算法代码,也无法核实其是否有效。对于智能投顾机构而言,全面披露还会带来泄露商业秘密的风险。
3.市场占优下监管报备形式大于内容
传统普惠金融的概念强调倾斜地保护融资市场中的弱势群体,如三农、小微企业等。而数字普惠金融则更加强调通过提供数字化手段来实现普惠金融。随着近些年来以智能投顾为代表的投资业务在全球的勃兴,数字普惠金融也具有了新意,为投资者提供金融服务也成为其应有之意。如此,为投资者提供算法模型也日益演变为公共服务,无歧视地使用算法逐步成为数字普惠金融的价值目标。然而,目前根据《资管新规》的相关规定,监管机构对算法的主要监管措施为要求智能投顾机构报备人工智能模型的主要参数以及资产配置的主要逻辑。在当前市场领先监管的背景下,报备算法模型措施的形式意义大于实质内容。面对日渐突显公共性的算法模型,仅仅依靠资质审查、形式审查、材料审查的传统监管模式显得捉襟见肘,市场交易秩序混乱时,生产关系主体也无法得到充分、有效救济。
四、技术伦理导向下智能投顾算法治理路径
1.技术伦理准则法律化:遵循三大操作性原则
在美国和欧盟,作为道德维护的技术伦理准则,不具有法律约束力,并不能产生任何新的法律义务,性质上属于倡导性规则。但是基于我国监管规则缺位严重的事实,有必要借鉴美国和欧盟技术伦理的经验,选取重要伦理准则,将其内容法律化,确立为基本法律原则,并确保其具有可操作性,在智能投顾算法治理过程中予以体现。
第一,问责制原则。在技术黑箱存在的前提下,建立问责制原则的意义在于合理分配算法决策对社会所带来的负面影响的法律责任。具体而言,应综合考虑智能投顾市场中各主体实际所处的市场地位,确定各自在算法研发与应用过程中所应遵守的合同义务或法定义务,并明确违反合同义务所应承担的法律后果和法律责任。
第二,透明性原则。该原则总体要求智能投顾算法具有可追溯性和可识别性:一方面,要求数据搜集和使用透明;另一方面,要求算法具有可解释性[29]。对于前者,应确保数据具有搜集必要性、完整性。同时,必须严格管控数据访问权。对于后者,应平衡保护商业秘密,针对技术不对称问题,要求智能投顾机构将算法模型以适当的手段(即投资者可以理解的方式)充分披露给投资人。
第三,救济性原则。该原则强调以公权力对抗技术不对称形成的算法权力,最大限度消除智能投顾算法对市场秩序带来的不利影响。面对算法权力,救济性原则的目标是实现分配正义,即实质正义,而非矫正正义,即形式正义;不仅是事后补偿性原则,也是事前防范性原则。
2.确立分类规制干预方法,明晰算法使用问责制
第一,在算法自身承担责任方面。虽然有学者认为,应赋予人工智能法律人格,让其为自己的侵权行为承担责任[30]。但就目前人工智能在智能投顾中的应用程度而言,仍属于依赖数据集标注的监督学习阶段,还不具有完全独立决策以及承担民事责任的能力。因此,在现阶段,不建议赋予机器人独立承担责任的法律地位,智能投顾算法使用问责制的责任主体不建议规定为算法本身,以免智能投顾机构逃避应承担的法律责任。
第二,在外包技术公司承担责任方面。与智能投顾机构相比,作为算法研发者的外包技术公司占据技术优势。然而,作为商业化、专业化的市场主体,可以通过签订合同、平等协商的方式,分配各自权责,双方依据合同履行约定义务即可。监管机构可以以提供参考性格式合同的方式,为智能投顾市场提供基础性金融服务。监管制度本身应确保其谦抑性,避免越过干预智能投顾市场的边界。
第三,在智能投顾机构承担责任方面。与投资者相比,以盈利为目的的智能投顾机构,占据资源优势,在提供算法服务时,对算法模型具有绝对的控制权,因此,使用算法产生的法律责任也当然应由智能投顾机构承担。考察市场现状,智能投顾机构提供的投资合同均为其单方面制定的格式合同,投资者无法提出自身诉求,传统依靠签订合同的方式约定义务、分配责任的方式存在治理失灵的问题。因此,需要依法明确智能投顾机构的信义义务,通过强制设定法定义务的方式,明确算法使用者责任,并要求智能投顾机构缴纳风险备付金等。同时,建议对由央行、银保监会、外管局等四部委联合发布的《关于规范金融机构资产管理业务的指导意见》进行修改,设定非金融机构型智能投顾机构准入门槛,将其同样纳入智能投顾监管范畴。而对于因外包技术公司的问题导致算法侵权,相应的法律责任同样应规定由智能投顾机构承担。智能投顾机构承担责任后,可再依据与外包技术公司签订的技术合同,主张权益。
第四,在高管、技术团队承担责任方面。虽然高管并不一定掌握算法技术,但是对公司具有控制权。在我国智能投顾市场发展初期,为规范市场有序发展,建议借鉴国外监管经验,压实高管责任,将高管同样确立为信义义务主体,规定其承担部分算法使用责任。如可以借鉴新加坡的相关规定,要求高级管理层对算法进行有效监督和治理,应建立制度和流程,确保具有健全的风险管理文化和环境,具体应采取的措施包括:核准并维护智能投顾算法模型的开发与设计、指定专人负责识别和防止未经授权访问算法程序的行为的产生、保存研发的算法代码等。对于技术团队而言,虽然是算法的实际开发者,但在算法中输入过程中,技术团队仅仅为执行者,属于职务行为,法律责任配置给智能投顾机构更有正当性。
3.以保护投资者为核心,提升算法透明度
在现代销售导向下,占据技术优势的智能投顾机构以销售金融产品为主要利润来源,自身并不具有主动提升算法透明度的利益动因。因此,从规范智能投顾市场角度出发,需要以保护投资者为核心,制定相应监管规则,重点关注算法数据使用、信息披露等与提升算法透明度息息相关的问题,以此平衡各方利益诉求及矛盾。
一方面,合理使用个人信息,限定数据访问权。2017年12月,全国信息安全标准化技术委员会发布《信息安全技术个人信息安全规范》,将用户画像细分为了直接用户画像和间接用户画像。其中,直接用户画像的信息可以形成自然人特征模型,识别某一特定自然人。智能投顾机构算法功能就是通过用户直接画像,实现千人千面。在此过程中,应加大对用于客户直接画像的个人信息保护力度。借鉴欧盟于2018年5月发布的《通用数据保护条例》相关规定,明确“同意”使用个人信息的内涵,即数据主体依照其意愿自由作出的、特定的、知情的、明确的指示。通过以声明或清晰肯定的行为作出该等指示,数据主体表明其同意处理与其相关的个人数据,依法并严格限定个人信息的使用范围。与此同时,可以强制要求设置信息安全管理岗位或安全专员,专门负责制定和执行数据访问权限管理方案。
另一方面,确保算法实现实质性可视化。建议对不同的主体设置差异化的信息披露要求,但总体而言,均重点关注披露的信息是否与实际相符,而并非验证算法是否有效。主要原因在于目前验证算法有效性的比较标准并不明确,算法是否有效应交由市场主体自行判断。面对监管机构,建议借鉴澳大利亚证券与投资委员会于2016年8月发布的《面向零售客户提供电子化金融产品建议》,规定智能投顾机构需要提供适当的文件清楚地说明算法的目的、使用范围和设计(可以使用决策树的方式);提供特定文档,可以测试算法的稳健性;有适当的流程管理算法的使用;能够控制算法,并保存算法使用记录,记录过去7年对算法所做的所有更改等内容。面对投资者,为保证投资者真正了解投资行为,建议以投资者充分理解为标准,规定披露算法的语言应简洁明了,以此对算法的使用作出充分的解释。具体算法可以由行业协会牵头制定信息披露标准,进一步明确对投资者披露算法的内容和方式,保障操作可行性。
4.加强合作规制,增强金融科技监管补救性
合作规制的内涵在不同语境中大相径庭,在互联网金融平台信息规制模式中,主要强调信息规制与行政规制的合作,以及建立各相关主体分工协作的规制框架[31]。而面对技术不对称下的智能投顾市场,合作规制更多的是强调技术规制与行政司法规制的相互合作,为达到预防与补偿兼顾目的,智能投顾市场中各类主体实现合作与博弈。最终,形成良好的监管科技生态系统[32]。
一方面,培育金融监管科技企业,积极发挥第三方市场主体的积极作用。解决技术不对称问题主要通过完善技术手段自身来实现。在智能投顾技术创新方面,市场领先于监管。因此,建议充分利用智能投顾机构的技术优势,政府运用财政、税收手段,激励智能投顾机构与监管部门通力合作,共同组建金融监管科技企业,作为第三方技术评估机构,对报备的算法是否与披露的功能相符、是否可能引发系统性风险进行验证,与监管部门实现算法共治。与此同时,可以借鉴国外的监管经验,设立专业化的创新办公室,设定智能投顾机构申请加入的资格标准,重点关注实质性创新、客户利益、普惠金融、真实需求、背景核实、服务范围、风险缓释等指标,在算法研发和应用过程中增强决策者与创新者之间互动,促进监管机构与智能投顾机构相互学习(见表3)。对于具有较大潜在影响的申请企业,监管机构也可以借鉴英国金融行为监管局(Financial Conduct Authority,FCA)所采取的做法,对其提供个别指导。
表3 创新办公室的一般资格准则[33]
另一方面,推动互联网金融司法机构建设,优化算法治理机制。目前,杭州、北京、广州陆续成立了互联网法院。根据《最高人民法院关于互联网法院审理案件若干问题的规定》,互联网法院将集中管辖全市辖区内应当由基层人民法院受理的11类互联网案件,包括:互联网购物合同纠纷,互联网服务合同纠纷,互联网金融借款、小额借款合同纠纷等。除了继续优化互联网审判流程外,建议互联网法院秉持技术伦理观念,对算法使用合同和民事侵权中涉及的证据规则、技术认定等问题深入研究,逐步将智能投顾业务算法使用纠纷纳入受案范围,为迎接智能投顾业务爆发式增长,提供针对性纠纷解决方案。