APP下载

算法时代金融公平的实现困境与法律应对

2021-06-17王怀勇邓若翰

关键词:公平决策金融

王怀勇,邓若翰

算法时代金融公平的实现困境与法律应对

王怀勇,邓若翰

(西南政法大学经济法学院,重庆,401120)

金融公平的价值理念在我国已逐渐转化为制度文本和市场实践。大数据算法在金融领域的引入,有助于金融社会功能的激发与金融公平价值理念的稳固,并在一定程度上促进了金融机会公平的初步实现。然而,算法自身的歧视属性却背离了金融交易公平的深层诉求,算法效率导向的秉性亦阻碍了金融结果公平的推进,进而对金融公平的充分实现产生了威胁。研究后发现,算法权力的崛起导致了金融机构与金融消费者之间主体能力的进一步失衡,这是算法诸多缺陷得以嵌入金融市场并危害金融公平价值和金融消费者权益的重要基础。因此,应沿着权力约束和权利补强两条路径,通过构建算法测试与验证制度、强化金融教育权、构建替代性金融纠纷解决机制等路径,实现智能金融时代金融机构与金融消费者能力的平衡再造。

算法决策;金融公平;算法权力;金融消费者;金融权利

作为国家之根基与经济之血脉,中国的金融市场制度体系建设经历了从“服务实体经济”到“应对国际竞争”再到“实现社会公平”的理念叠加和认识进化。金融的社会功能逐渐与经济功能并轨前行,“金融公平”的价值元素开始渗入原有的“金融效率”与“金融安全”的二元对立结构之中,形塑为“三足鼎立”的多边制衡架 构[1]。不论是《国务院关于印发推进普惠金融发展规划(2016—2020年)的通知》等顶层设计型文件,还是《中国人民银行金融消费者权益保护实施办法》①等具体规范性文件,均已将“金融公平”的价值理念融入金融立法的具体制度和条款之中,力图促进“金融公平”从“理念”落至“实践”。

大数据算法在金融领域的引入,从“科技”的维度加速了金融社会功能的激发与“金融公平”价值理念的稳固。它通过降低资金融通的交易成本、改善信息失灵、扩张金融网络,能够准确而有效地发现、联通投融资需求者,并实现合理、精准的风险定价和管理,进而改善传统金融体系因成本制约、信息顾虑和对象欠缺而导致的“嫌贫爱富”“担保依赖”和“地缘排斥”等弊病,推动金融向普惠化、民主化转变,向服务广大中小企业和弱势消费者迁移。然而,在“科技推动”的“金融公平化”进程中,诸如“算法歧视”等算法的固有缺陷亦随之嵌入信贷评估、投资顾问、保险定价等金融各领域、各业务之中,在其理性、客观、中立的表象之下,实则有可能对金融弱势群体公平权益施以更加隐蔽、更加精细、更加全面的侵害,从而对“金融公平”形成“科技维度”的新威胁。面对这一新的挑战,金融法应如何进行制度自省、制度自纠和制度自强,以应对智能新时代下的金融不公问题,捍卫“金融公平”的价值地位和理念尊严,无疑成为金融法理论和实践的一项重要课题。基于此,本文试图在分析算法时代实现金融公平所面临困境的基础上,深究问题背后的形成原因,进而从金融法层面提出因应策略,以求找到算法时代“金融公平”在金融制度和金融市场中的理性回归之路。

一、算法时代实现金融公平所面临的困境

“所谓金融公平,是指在金融活动中,各类主体不因自身经济实力、所有权性质、地域和行业等因素而受到差别对待,能够公平地参与金融活动,机会均等地分享金融资源,形成合理有序的金融秩序,并通过金融市场实现社会整体利益的最大化。”[1]金融公平的内涵指涉较为丰富,其不仅关注金融市场中的机会公平与交易公平,更关注金融调节社会财富分配、缓解社会贫富分化的结果公平。具体而言,金融公平首先要求机会公平,即要求金融市场中的每一个参与者,均有机会以可负担的价格获得对应的金融产品或服务,以满足自己的金融需求。换句话说,金融机构不得拒绝给予每一个市场主体获得最基本金融服务的机会。在强调金融产品或服务的可获得性和价格合理性上,它更接近于当前国际上提出的“普惠金融”概念。在机会公平初步实现后,金融公平转向交易公平,即要求金融机构在向市场参与者提供金融产品或服务时,不得基于性别、职业、年龄、种族、肤色、宗教、国籍和婚姻状况等因素而对金融服务需求者予以区别对待。其强调金融产品或服务的待遇公平和条件公平,否则就可能构成金融歧视。如《美国公平信贷机会法》即是金融法追求交易公平的范例,其第1691节规定,贷款人在评估贷款申请时考虑申请人的种族、肤色、宗教或申请人收入是否来源于公共援助项目等因素的行为构成信贷歧视,属于违法行为。更具深远意义的金融公平则是结果公平,其将关注视野跳出微观金融交易本身,转向金融对宏观性社会财富分配的深层次影响,要求金融市场对金融弱势群体予以特别帮助和扶持,防止金融市场内生失灵持续激发“富者愈富,穷者愈穷”的马太效应,并最终导致金融弱势群体的对抗与反弹,造成群体间严重对立和社会经济崩溃[2]。

在算法时代,依托更广的数据来源、更强的解析粒度、更高的运算速度,算法协助金融解决了实现金融机会公平最后一公里的三个关键性问题——信用、风控和成本[3]。在信用方面,算法依托金融消费者支付、购物、社交等数据实施信用评估,不再需要依靠金融机构与消费者的往来历史或抵押品来建立信任基础[4]。在风控方面,算法依托风控模型,广泛收集政策数据、市场数据、场景数据,能准确判断小微金融中的风险概率,并通过大批量业务冲淡损失概率,实现稳定盈利。在成本方面,算法的自动化执行机制使得小微金融中的项目申请、信用评估、项目审批、项目后续跟踪和风险监督管理等事项不受人力资源有限的束缚,实现了高效、精准的小微金融服务。概言之,依托信用、风控、成本的全面突破,算法促进了金融服务从“精英优先的服务”迈向“人人皆可获得的服务”,极大地提升了金融产品或服务的可得性和普惠性。然而,在实现金融交易公平及结果公平层面,算法的功用与其说不尽如人意,毋宁说带来了一些新的难题。对于前者,算法自身固有的歧视属性可能强化性别、身份、年龄、种族、地域等特征对于金融决策的影响,导致金融消费者在待遇、条件方面受到不合理的差别对待。对于后者,算法自身的“效率至上”秉性可能会进一步导致金融业务走入“营利至上”的窠臼,阻碍金融机构社会责任的实现和社会功能的发挥。

(一) 算法“歧视属性”对金融交易公平的 挑战

算法的“歧视属性”具有多种发生源头与表现形式,既有将相关性与因果性混淆导致的“统计性歧视”,也有因设计者主观歧视嵌入算法导致的“主观性歧视”,还有因被“偏见数据”规训而导致的“延伸性的社会结构性歧视”。

其一,算法金融工具在数据学习和分析过程中,可能将相关性误认为因果性,进而导致基于相关性的歧视性决策。算法虽具有发展成为强人工智能的潜力,但终归与人不同。人认识世界、了解世界、思考世界依靠的是理性意识,理性意识可以先天地提供关于因果必然性的知识。换句话说,理性意识先通过感性直观获得关于认识的质料[5],即感觉经验,再凭借知性思维运用量、质、关系、模态等四类知性范畴进一步建立感觉经验材料之间的内在联系,从而获得一种事物或现象定立,则另一事物或现象也必然随之定立的自然因果知识[6]。这种理性意识能力为人所独有,而算法无法获得。算法模拟人理性意识的基础在于大数据技术,后者的认知逻辑为:“首先使用历史数据(或称训练集)归纳出某个类别(或者称之为特征,不管是用分类还是聚类的方法),然后针对一个新来的对象,按照已知的数据特征,将其归属于‘最像’它的那个类中,如果这个类还有其他已知的特征,那么就预测这个对象也具有这种特征。”[7]换句话说,算法对于两种因素或特征之间的联系,更多通过数据的归纳,发现两种因素或特征之间的相关性高(像)还是低(不像),并将这种相关性的高低作为判断因果性的依据。这就为歧视的产生提供了一种可能性,即算法金融工具会将两个相关性极高但不具因果性的因素误认为具有因果性,并据此得出决策。例如,信贷评估算法通过训练数据的学习和归纳,如果发现户籍来自农村地区的申请人贷款违约率较高,就可能在“申请人户籍地”与“违约率高”之间建立因果联系。当来自农村地区的申请人申请贷款时,信贷评估算法可能根据这一特征,提出较高贷款利率、较低贷款额度或要求抵押担保等条件,从而阻碍金融交易公平的实现。

其二,算法金融工具的设计者将自身的主观偏见嵌入算法的代码逻辑,使得算法金融工具“遗传”了算法设计者的偏见认识。归根究底,算法金融工具是金融机构用于降低服务成本、提高服务效益、拓展客户来源的一种“市场竞争工具”,其设计动力来源于金融机构谋取竞争优势和竞争利益的内在欲求。在利益汲取的价值导向下,金融企业需要一个更加可控、与其利益一致的辅助工具,而非真正“中立客观”的独立决策平台。因此,算法设计者在构造算法的代码逻辑时会将自身的价值偏好和经验认识或主动、或被动地“投射”到算法金融工具之中,使算法的行为表征向作为算法设计者主观意志的“轴线”偏离。例如,银行的信用评估算法在评估贷款申请人的信用状况时,可能会对职业为国家公务员的申请人给予较高的信用评分,而给在私营企业上班的申请人给予较低评分,因为国家公务员一旦违约并被纳入失信名单,便会对其考核、任用、奖惩等产生影响,而私企员工此类影响相对较低。此时,依靠工作单位性质评估申请人贷款风险和贷款条件的行为,可能会使得从事某些特定职业的群体受到不合理的差别对待,显然也影响了金融交易公平的实现。

其三,算法金融工具在训练过程中可能受到“偏见数据”的规训而形成歧视性认知。机器学习、神经网络等技术的发展使得算法拥有了似人的认知习得过程,它通过对数据(信息)的接收和理解,自主形成对相关问题(世界)的“经验认知”。然而,正如人从小的生活环境和信息摄入对其后天三观形成的影响一般,算法从无到有的能力培养依赖于算法设计者对其注入的训练数据。如前所述,算法金融设计者在训练算法时能使用的数据包括自有业务、网络记录和向第三方购买的金融消费者交易、表达或其他活动的数据。这些数据不可避免蕴含着金融交易和交往活动中的歧视观念,如证券投资顾问数据中可能会包含给予有社会地位的客户高质量资产配置组合建议,而给予社会地位较低的客户较低质量资产配置组合建议的倾向。又如金融交流平台中投融资者的言论,可能会包含金融产业偏好高资产、城镇用户而排斥低资产、农村用户的现实描述。即使经过筛选,许多“冗余编码”②仍可能会输入算法并“教坏”算法,从而发展成为“社会结构性歧视的延伸”[8],最终导致其从初始便戴着“有色眼镜”看待客户,并根据金融消费者的社会地位、户口、年龄、性别等非合理特征对客户予以歧视性对待,违背金融交易公平的诉求。

因此,算法并未因从属科技而具有“客观中立”的美德,相反其容易混淆因果性和相关性,遗传设计者的“主观偏见”和承继社会观念的“结构性歧视”,并威胁到金融交易公平的最终实现。更令人担忧的是,算法黑箱和算法高效的双重属性使其信息输入和决策输出之间能生成一道常人难以了解和把握的“逻辑隐层”[9],使得算法演绎推理的规则、逻辑和程序难以被具有利害关系的金融决策相对人质疑和干预。这既使得受歧视对待的决策相对人从源头上就缺失了提出申诉、获得救济的信息基础和信息能力,也使得歧视性决策和行为逐渐“隐化”在算法纷繁复杂、风驰电掣、高深莫测的“逻辑黑箱”之中,从而强化了金融歧视的稳固性和威权力。

(二) 算法“效率导向”对金融结果公平的 阻滞

金融结果公平作为一种更深层次、更高位阶的金融公平,其实现不仅需要金融市场中资源供给者的伦理自觉与责任担当,更需要金融法制与政策的深谋远虑与主动干预。当前,为矫正“机会公平”的立法导向与社会群体禀赋不平等间的错位,防范由此产生的“马太效应”,激发金融市场调节社会财富分配、帮扶弱势群体和促进金融福利公平分享的功能,金融法已构建了一定的“反向歧视”制度,以增加诸如农民、低收入者等金融弱势群体获得金融服务的机会,实现矫正后的“结果公平”[10]。例如,《中国银监会关于支持商业银行进一步改进小企业金融服务的通知》(2011)③、《财政部、国家税务总局关于延续支持农村金融发展有关税收政策的通知》(2017)④、《中国人民银行关于对普惠金融实施定向降准的通知》(2017)⑤等规范性文件无不属于金融法“反向歧视”制度构建的立法范本。这些规范性文件通过倡导、激励和约束相结合的方式,对金融机构中资源决策者的价值结构、商业判断和行为向量施加一定的、或潜或明的影响,进而实现金融“嫌贫爱富”本性的适度矫正和金融缓解阶层分化、促进共同富裕功能的有效发挥。

然而,这种矫正模式在面对“算法决策者”时却难以发挥干预效果。算法决策者与人类决策者不同,其“在设计之初就是为了追求经济效益和效率提升”,即“通过数字分析和精准预测带来实在的经济利益”[11]。人的理性意识是“承载着我们内在的所有其他价值”的“对源于自身的意志过程的照明”,它“会感到各种价值和目的”,也“总是知道我们在每一当下时刻的追求”,并“出于我们的本质依据,在持续地、毫无间歇地追求着”[12]。而算法所具有的“理性意志”是去主观化、去伦理化的,是无关自由、平等和人权的只懂得执行预设命令的“机械理性”,它仅“以判断对错开始,并以对错作为终结”,仅“在经济事实之中开始,也在经济事实之中结束”,而不追问这一切背后的意义、价值和目的[13]。因此,蕴蓄着正义、公平等价值理性和德性目的的金融法律难以影响去价值化、去主观理性的算法,算法将在运营者的预设命令和自身的机械逻辑驱动下继续其“精准性识别、高效性决策”的“效率性工作”。而这一切,都造成了算法金融市场中金融内生性歧视的回归和固化。

概言之,如果不施以强而有效的干预,算法金融产品将可能在“风险—收益”的要素衡量和利润估值下,继续为富人提供更可得、更方便、更低价的金融产品和服务,而为穷人提供更苛刻、更昂贵的金融产品和服务,在不断促进金融资本自我增值和金融效益持续攀升的同时,将社会的弱势群体冷漠地抛在脑后,使得金融法“反向歧视”制度的矫正成果归零甚至走向恶化,造成金融经济功能的不断膨胀并逐渐覆盖、侵蚀其社会功能的恶果,最终导致资本财富的循环式集聚和马太效应的螺旋式放大,以及随之而来的社会阶层分化、社会群体撕裂以及社会矛盾激化。

二、算法时代金融公平实现困境之深层原因

金融公平的实现在算法时代之所以面临诸多的新挑战和新困难,究其根本,乃在于算法权力在金融领域的崛起导致了金融权力向资本所有者的“下沉”,放大了金融市场主体间的能力失衡,进而导致金融消费者难以识别、抗衡算法的不公平决策行为,成为单纯的资源被支配方和利益被攫取方。

(一) 算法权力的崛起与金融权力的“下沉”

要对金融领域算法权力的崛起作理论证成,首先需要对金融领域的算法决策是否构成一种“权力”进行论证。从学理上看,“权力”这一概念通常有以下几种含义:①权力是一种可以影响,甚至改变对方行为的强制力量;②权力是一种达到特定目标和获取利益的能力和资源;③权力就是国家政权,是维持统治阶级利益的国家强制力量;④权力是一种约束和规制人的复杂网络和微观社会结构[14]。在这四种含义中,除第三项属于纯粹狭义的国家公权力概念外,其余三种含义都契合了金融领域算法决策的“权力”属性。

首先,金融领域的算法决策是一种可以改变,至少是可以影响金融消费者行为的强制力量。以互联网金融平台的搜索匹配算法为例,其利用金融消费者“注意力资源稀缺”的特点,通过优先推送特定融资项目影响金融消费者的投资选择,或是凭借对金融消费者潜在投资偏好的挖掘,通过金融资产的针对性组合与量身定制,煽动、“诱导”金融消费者作出投资选择。

其次,金融领域的算法决策能够帮助金融机构实现特定目的或获取相关利益。以信贷评估算法为例,信贷机构通过对信贷评估算法的特殊设计和控制,能有效控制信贷资源投放的行业领域、主体身份、地理范围和其他限制,进而实现信贷机构将资源配置给特定主体或特定种类主体的目的,并可从中谋取歧视性利益。而融资者难以通过质疑信贷评估算法的决策程序,影响和矫正决策结果,维护自身的权益。

最后,金融领域的算法构建起了诸如智能投顾等不同的系统架构,形成了一种微观的规训结构和复杂的规训网络。如在智能投顾领域,其依托算法单方构建起一个完整、独立的投资咨询/代理服务系统架构。金融消费者通过“通知—同意”进入系统架构后,行为即受到算法的支配[15],算法会自动收集、挖掘、分析和解读金融消费者的个人数据,并自动推送/执行相应的资产投资组合。在这一架构流程的运转中,金融消费者难以基于自身主观意志作出任何干预,甚至无法作出丝毫质疑,只能被算法架构所规训。此外,随着算法不断应用于金融各业态之中,各种算法系统架构将相互配合,逐渐结成一张规训的网络,金融消费者要么拒绝参与金融市场,要么配合算法网络的规训,无可奈何地被关进福柯笔下的“全景式规训监狱”中[16]。

由此可见,随着算法不断应用、嵌入金融各业态,替代、覆盖传统的金融产品、工具、渠道乃至大部分金融功能,算法开始凝聚出一种“准公权力”。这种准公权力可以影响甚至改变金融消费者的行为,可以通过调配金融资源为金融机构实现特定目的或谋取相关利益,并最终通过微观的、个别的规训关系的集结,编织成一张“准公权力”的规训网络。这种“准公权力”的诞生意味着我国金融治理体制在从以“国家构建”为基础的“单中心治理”向以“国家构建”和“民间构建”相耦合为依循的“共享共建”转型的过程中[17],金融市场中的国家、市场和社会的界限亦在日渐模糊。原本仅盘旋于金融市场中的原则慢慢渗透到国家部门[18],原本仅束缚于国家的金融权力逐步向市场等部门分化,进而实现金融权力的“下沉”和权力主体的“多中心衍变”。

金融领域算法权力的崛起既是金融权力“下沉”的重要契机和载体,亦是金融权力“下沉”的典型表现。它代表着金融市场运作逻辑和治理模式的一种新现象、新特点和新发展,对金融消费者权益维护来说,也意味着一种更加失衡的主体间能力对比关系,以及随之而来的更加不平等的利益剥削和利益支配,包括歧视性的利益剥削和支配。

(二) 权力—权利新格局所导致的权利保护失灵

金融主体的能力会影响市场主体间的力量对比,影响金融活动中的利益博弈进而关系到金融交易进行和金融福利分配的公平程度,而金融法制通过有效的权利赋予和相应的权力保障,能够显著调节金融主体能力,实现能力对比的相对均衡[19]。但算法权力赋能金融资本的新情势对这一理论提出了新挑战,并为金融公平的实现带来了新危机。在传统的金融市场中,金融机构与金融消费者之间是一种“能力不对等”的平等主体间关系,两者间因能力、资源等差异而存在利益侵蚀和利益分配不均衡问题,同时均受到纵向的国家权力规训和约束,国家权力通过权利的赋予和对应义务的施加实现“形式平等”主体间的“实质平等”。算法权力的产生使纵向的权力关系向横向渗透,形成了横向的“权力主体”和“权力受体”,并形成金融机构与金融消费者之间的利益支配和利益剥削关系。金融消费者难以通过原有的权利对抗金融机构的算法权力,而金融监管部门的权力亦受到算法权力的消解甚至腐蚀。

首先,算法权力的“合法依据”压制了金融消费者的权利行使。包括智能投顾在内的部分算法金融类产品,在为金融消费者提供服务前都会出示一份“用户协议”,金融消费者需要在阅读后并选择同意方可享受服务。一旦金融消费者受到算法不合理、不公平的区别对待,算法运营商将凭借“不公平决策由机器算法作出而非运营商作出”和“金融消费者同意授权算法为其作出决策”两项理由使其歧视性决策“合法化”。这使得金融消费者面临两难抉择:要么放弃算法金融类产品和服务的廉价、高效和便利,远离人工智能科技的成果福利;要么签署用户协议,“知情和同意”算法收集、利用其信息,并在受到算法不公平对待时难以要求算法运营者承担责任,救济自己的权益。

其次,算法权力的“隐性规训”消解了金融消费者的权利意识。算法权力对金融消费者的规训是潜在的、难以捉摸的。申言之,算法对金融消费者的信息收集、研判和分析是以“数据”为单位进行的,其最终仅以“信息”的形式向消费者输出相关决策结果,金融消费者仅凭人脑难以对自身的相关数据进行解读,并模拟算法的数据解析进程。因此,即使算法对金融消费者产生偏见或其他不合理认识,金融消费者也无从知晓,亦难以发觉算法输出结果中的不公平问题,也就不会因自身公平权益受损而寻求法律的救济。

再次,算法权力的“黑箱属性”弱化了金融消费者的权利实效。在传统反金融不公的制度对策中,金融消费者的知情权⑥和金融机构的信息披露义务⑦是重要的制度性设计,通过有效的说明并解释决策依据、理由和逻辑,金融消费者容易发觉决策中蕴含的不合理、不公平因素并主动寻求救济。然而,算法权力的演绎、运营环境是一个“黑箱”,其数据的筛选、梳理、建模和解读的流程和逻辑都由算法通过深度学习自主构建,即使是算法设计者和运营商也难以全面把握其决策作出的数据基础、推理逻辑和决策理据。因此,金融消费者靠知情权仅能获得输入算法的数据和输出算法的结果等信息,即使怀疑算法的演绎过程中产生了偏见或其他不合理认识,也因知情权的客观行使不能而难以查证不公平对待的存在。此外,算法权力的“黑箱属性”也会与国家权力形成对抗,金融监管机构难以通过报告义务、现场检查等措施发现算法权力中的不合理认识和不公平对待,金融司法机构亦难以查明算法的决策是否侵犯了金融消费者的公平权益,进而难以发挥平衡主体实力、协调利益分配的应然功能。

最后,算法权力可能与公权力合谋,进一步对金融消费者的公平权益构成侵害和压迫。随着算法应用的不断深化,其逐渐嵌入金融监管与金融司法领域,在强化监管与司法权力实施效能的同时,也将自身的“冷漠、偏见、效率追逐”等缺点渗入监管与司法权力之中,污染监管权与司法权本应具有的“客观、理性、坚守正义”等品质,从而使得金融消费者在金融执法、金融审判中可能受到不公平的对待。

三、算法时代金融公平实现困境之法律应对

面对算法权力侵蚀金融消费者权利和支配消费者利益的新格局、新形势,金融法制的应对模式和应对措施也应因势调整。具言之,应改变传统的着重金融消费者权利赋予和保障的能力衡平思路,构建起以“算法权力制约”与“消费者权利补强”双管齐下的法律治理路径。前者重在通过事前的算法测试与算法验证实现算法权力的“入市前筛选”,保证算法权力主体具备客观、公平等价值秉性;后者通过权利内容和权利救济两个层面的调整优化,实现金融消费者公平权益维护能力的效能补强,最终实现算法时代金融权力—权利格局的均衡再造。

(一) 权力约束路径:算法测试与算法验证的制度构造

算法权力的“隐性规训”和“黑箱属性”等弱化了事中、事后的权力干预和权利救济的实施效能。要实现算法时代金融公平的修正目标,应更多将目光聚焦于算法权力生成和嵌入经济社会生活之前,从源头上对算法的不合理、不公平决策进行干预和防范。算法测试和算法验证即是此种源头治理的有效措施之一,其通过对算法及其权力设置相应的“市场准入”关卡,保证“入场”算法具有“客观公平”的优良秉性,剔除蕴藏偏见等基因的劣等算法,保证金融市场的算法公平。算法测试与验证的制度设计是一个系统化工程,包括算法测试与验证的标准、方法和载体等不同的制度成分和要素,需要分别予以探讨和构建。

1. 算法测试与算法验证的标准设计

科林·斯科特认为,在任何一个规制体系中,标准都具有举足轻重的地位[20]。特别是在调整涉及科学技术问题的规制关系时,标准更是不可缺少的手段和工具。它能为法律规制提供基于科学、技术和经验的依据,也能为规则相对人的行为提供具体的指向[21]。算法测试与验证作为一种“市场准入”型的事前规制手段,亦需要以合科学性、合经验性以及合伦理性的标准作为测试与验证的准据。对此,可借鉴其他国家和地区的相关立法,如新加坡金融管理局发布的《新加坡金融业使用人工智能和数据分析时的公平、道德、问责和透明度原则》(简称《FEAT原则》)提出算法公平应包括合理性和准确性两个方面,其中合理性包括两项标准:①除非可以证明这些决定是合理的,否则不会因为算法作出的决策而系统地使个人或群体处于不利地位;②将某些个人属性作为决策因素输入算法前,应具备合理的理由。准确性也包括两项标准:①算法运营者应定期审查和验证算法决策所使用的数据和模型的准确性与相关性,并最大程度地减少意外偏差;②定期审查算法作出的决策,以便模型按设计和预期运行[22]。中国香港金融管理局发布的《关于被授权机构使用大数据分析和人工智能的消费者保护指引》也要求被授权机构应确保算法决策为用户提供客观、一致、合乎道德和公平的结果,并提出了五项具体标准:①算法决策应遵守相关法规,特别是有关不得歧视的法规;②在无合理理由的情况下,算法决策不得拒绝用户获得基本的金融服务;③算法决策应充分考虑用户的资金实力、个体情况和具体需要,包括他的智能科技素养;④用于算法决策的模型是稳健的,并适当地权衡了所有相关变量;⑤是否可能通过人工干预以矫正歧视性的贷款[23]。

从新加坡和我国香港地区的立法例中可以看出,它们均分别从过程公平和结果公平两个层面设定了算法公平的标准,即都关注算法决策所考量的因素是否合理和算法决策的输出结果是否适恰。前者将算法的黑箱运行过程以数据输入的形式“显象化”,后者不仅考虑金融消费者所享受的服务与他人相比是否公平,还要考虑弱势金融消费者是否能获得最基本的金融服务。此外,虽然我国尚未像美国等国家那样出台专门的、系统性的、可操作的反金融歧视法律,但不排除未来出台相关立法的可能,因此合法性也应作为算法测试与验证的标准之一。

我们认为,算法测试与验证的标准应确定为合法性、合理性、准确性和普惠性等四项要求。合法性要求对算法设计者和运营者施加法规核验义务,即在将算法投入应用前,核验算法内部的推理逻辑和预期结果是否与现行反金融歧视的法律法规相抵触,以保证投入市场后算法的决策能遵循反金融歧视的法律和其他反金融不公的法律。合理性包括过程合理和结果合理。过程合理要求算法设计者和运营者承担数据治理义务,以保证输入算法的数据具有良好的脱敏性和相关性[24],即将代表某些个人属性或特征的数据输入算法,作为算法决策的因素时应存在合理的理由,同时该数据不包含歧视性的标签。结果合理要求算法设计者和运营者确保算法决策不会系统性地使某些人或某类群体陷入不利处境。准确性要求对算法设计者和运营者施加结果承诺义务,即算法设计者和运营者应向消费者承诺算法决策的结果与其预先公布的期望相符,并在出现偏差时具备向消费者解释的合理理由。普惠性要求算法设计者和运营者承担普惠价值编入义务,即应在设计阶段将普惠金融的价值和原则编入算法系统,以保证算法在任何情况下均不会剥夺金融消费者获取基本金融服务的机会。

2. 算法测试与算法验证的方法创新

通过审视算法内部决策是否满足上述标准,可以判定算法设计者和运营者是否违背相应义务,并予以问责和惩戒。其中,合法性要求目前缺乏相应的反金融歧视法律,因而难以确定统一、有效的方法。过程合理可以通过检测算法运营商输入算法的数据予以认定,并凭借相关数据保护法律予以辅助判断。准确性通过比对算法决策结果与预期的相符程度即可确定。普惠性取决于算法是否会在基本金融服务层面作出拒绝性决策。最难确定的是结果合理要求,因为不公平决策的表现形式较为复杂,部分表现形式极为隐蔽,难以被发现和查证。最典型的例证是间接歧视行为,即“表面上完全中立公平,对所有的人一样,但实质上向他人所施加的要求或条件是不合理的或不相干的理由,并对某类人或团体之成员产生了不利影响”[25]。间接歧视行为因用了一个看似中立的关联决策因素(比如购物习惯、社交偏好等)掩盖了另一个具有歧视性的重要决策因素(比如性别、职业或民族),因而披上了“表面中立”的面纱并将“歧视本性”隐藏于“算法黑箱”背后,难以根据输入因素和输入结果的逻辑对应关系而直接查明。

对此,建议借鉴自然科学的基本研究方法,即“控制变量法”来破解这一问题。控制变量法多用于研究多因素(多变量)的问题,以确定哪些因素对该问题的结果没有影响,哪些因素有影响以及影响的程度、向量如何。具体操作方式为:在研究某个因素对问题结果的影响时,只改变这个量的大小,而保持其他变量不变,从而确定这个因素是否影响问题结果,通过对变量的逐个试验和判断,找出影响问题结果的所有因素[26]。将这种方法应用于算法决策的结果测试,即先找出所有可能影响算法演绎、预测和决定的因素,包括诸如资产水平、金融消费记录、数据量度等直接关联因素,以及诸如家庭住址、电商交易记录、受教育程度等间接可能因素,然后在保持其他因素的数据不变的前提下,逐一改变其中某项因素的数据并输入算法,看算法作出的诸如是否授信、利率大小、资产组合情况等决策结果是否一致,以此判断算法的决策结果是否公平。这种方法能够准确、有效检测算法结果是否公平,但前提是需要大量具备客观性、真实性的模拟数据和一个高效、自动化的算法测试系统,这就要求有一个较为适格的测试载体。

3. 算法测试与算法验证的载体选择

算法测试与算法验证的载体选择,可考虑使用虚拟沙盒。虚拟沙盒又叫行业沙盒,最早由英国金融行为监管局于2015年11月发布的《监管沙盒》报告提出,旨在为企业提供“一种能够在不进入真实市场的情况下测试其解决方案的环境”[27]。虚拟沙盒的含义为“一个基于云的解决方案,由行业构建和配置,因而可以为企业的产品或服务定制实验方案,使用行业或企业提供的数据进行测试……然后可以邀请公司甚至消费者尝试其新解决方案”[28]。它的参与主体非常广泛,既可以包括金融监管机构等监管部门,也包括行业协会、交易所等行业自律组织,还包括金融科技企业、金融消费者等市场参与主体。同时,依托于交易所、金融科技企业提供的市场真实数据,以及监管部门、行业协会对数据的脱敏、匿名化和对数据使用的监管,虚拟沙盒得使用真实、客观的市场模拟数据,在完全拟真的虚拟测试环境下进行实验测试,但又不损害金融消费者的个人信息权益。这为算法决策的“控制变量法”实验提供了高效、稳定、权威和适恰的测试与验证载体。因此,本文建议由监管部门、行业协会和交易所牵头,构建中国版的虚拟沙盒,并依托虚拟沙盒开展算法测试与验证工作。

总而言之,算法测试与验证应以合法性、合理性、准确性和普惠性为测试与验证标准,以“控制变量法”为测试方法,以“虚拟沙盒”为测试载体进行制度构造。每一种算法金融服务都应根据国家有关规定,在正式进入市场前在金融监管部门的指导和监督下进行完整、全面的测试。若测试结果符合算法公平的标准和要求,则允许该算法金融服务进入市场推广应用;若测试结果认为该算法金融产品或服务具有潜在的偏见和不公平问题,监管机构应根据具体情况作出责令调整算法或禁止进入市场的决定,以防止算法侵害金融消费者的公平权益,从而维护金融市场的正义。

(二) 权利补强路径:金融教育权的强化与替代性金融纠纷解决机制

面对算法权力对金融消费者的不公平对待,除了通过算法测试与验证制度对算法权力生成进行制约以外,还需要强化金融消费者的权利,包括优化权利内容和强化权利救济渠道两个方面。限于篇幅,本文着重从金融教育权的权能优化和引入替代性金融纠纷解决机制两个方面进行论述。

1. 金融教育权的延展与优化

随着金融产品的嵌套叠加和金融服务的日益复杂,金融业已逐渐远离其服务大众的优良秉性,越来越与大众的认知水平与金融素养脱节。市场需要对金融消费者进行金融知识普及和金融技能培育,以缩小金融机构与金融消费者之间的能力鸿沟,金融教育权因而具有了理论层面的正当性和客观层面的需求基础。2015年11月,《国务院办公厅关于加强金融消费者权益保护工作的指导意见》第一次以国家规范性文件的形式明确了“金融消费者的受教育权”,金融教育逐步落到实处。但随着金融业态从传统金融迈向算法金融时代,金融创新同时是“科技创新”,科技赋能金融的新形势使得金融业态、产品和服务愈发繁杂和尖端,这些将会在很大程度上超出普通消费者的认知。金融教育权也应与时俱进,优化其具体内涵和结构,以实现金融教育权的权能强化并与算法金融新时代接轨。具体来说,可以从教育内容和教育方式两方面着手进行权利优化。

一是教育内容的延展,应增加有关算法金融的相应内容。诸如智能投顾和信用评估算法等低成本、自动化的算法金融服务更多是主打普惠金融市场的,旨在为小微金融消费者提供机器式的“便宜金融”。中高端金融消费者因其人脉、资源和财力优势,需要定制化、个性化和高端化的人力式服务,故中高端消费者与算法金融之间反而有一些距离。这就形成了一种奇怪的金融市场结构:对算法科技具有更强理解度和接受力的中高端金融消费者不需要与算法金融服务有太多接触,而对算法金融一窍不通的小微金融消费者对算法金融服务却有着刚性需求。因此,在社会大众中普及算法金融的教育将成为当务之急。

当前我国金融教育的内容体系大致可分为三部分,即金融市场原理教育、金融交易决策教育、金融消费者权益保护教育[19]。三者都需根据算法金融的发展现状予以相应扩展,特别是增加有关算法公平的教育内容。其中,金融市场原理教育应围绕当前的算法金融市场现状,算法金融产品和服务种类,算法的运营原理、数据来源、推理依据、决策模型等知识展开系统性教育,目的在于使金融消费者对算法金融产业的基础性知识有一个概览性把握。金融交易决策教育应立足于算法金融产品、服务中的不合理、不公平对待问题,围绕这些问题的发生学根源、影响因素、可能后果,算法黑箱的具体情况、产生缘由、潜在危害等知识进行半系统性、半应用性教育,目的在于使金融消费者认识到自身在享受算法金融服务的同时会面临的潜在风险和预期损害,促使金融消费者理性选择交易对象,审慎开展交易活动。金融消费者权益保护教育应重点围绕算法不公平决策的识别方法、个人数据的保护方式、算法黑箱的应对之策、权益救济的渠道和方式等知识进行针对性的应用式教育,目的在于培育金融消费者的私力救济意识和自我维权能力,激发“市场自发规制”在实现算法公平中的作用,实现市场主体间的能力再平衡和利益再协调。

二是教育方式的创新,应引入场景思维,利用算法开展个性化的教育内容输出。克里斯托弗·布施认为,在算法对经济社会的嵌入进程中伴随有一种“普遍的个性化”趋势,即“对个体以及他们的社会关系的无处不在的量化和数据化导致集体类别(例如‘公民’和‘消费者’)的消解,并将重点转移到可量化差异上”[29]。这种个性化趋势不仅反映到经济活动之中,如智能投顾服务的个性化投资理财建议,也逐渐反映到法律实施之中,如个性化的信息披露要求,抑或个性化的金融教育模式。个性化的教育方案设计和教育知识选择有助于实现教育输出与金融消费者需求的内在耦合,降低金融消费者的学习成本并强化培育效能,实现“因材施教”。这一个性化教育输出模式早已有其传播学理论基础,即场景思维理论,其强调打通场景、用户与教育之间的关系,深入抓取金融消费者的内在需求,并以及时、高效、舒适的用户体验为导向,实现教育知识的适配性供给[30]。因此,针对算法金融时代的消费者教育诉求,应以个性化算法实施为技术载体,以场景思维为理论指导,构建起定制化、针对性的金融消费者教育制度模式。

具体来说,一是由监管部门牵头、联合各界力量搭建一个统一的金融消费者教育服务平台,该平台能兼顾和涵盖不同身份、不同属性、不同场景的金融消费者个体;二是要通过平台算法进行消费者需求挖掘,通过数据获取和建模分析发现消费者内在的教育资源、方式等需求;三是依托平台丰富的教育资源库和教育输出渠道,为消费者定制个性化、适配化的个人学习方案,并根据金融消费者的反馈即时调整[30],最终在不断的数据流通、数据联动和数据交互的基础上实现金融消费者教育的动态优化。

2. 金融替代性纠纷解决机制的引入与扩展

由于算法权力的崛起引起了金融机构与金融消费者间主体能力的失衡,算法侵权的私法救济也必然更为困难,具体表现在三个方面:一是算法的“逻辑隐层”使金融消费者举证更为困难。在算法决策过程中,金融消费者可能获得的信息仅有算法的输入数据、输出结果和预设逻辑等基本信息,其缺乏足够的能力和权限获得有关算法的运算过程和动态情况等方面的信息,因而即使金融消费者向司法部门寻求侵权救济,也难以举出相应证据。二是算法的“黑箱壁垒”使得司法裁判人员难以识别和认定算法不公。司法裁判人员由于缺乏相应的专业知识,难以对算法的不公平对待行为进行识别,同时由于缺乏相应的技术能力与手段,亦难以对“算法是否存在对相应消费者的不公平对待”的问题进行认定,陷入“审判不能”的窘境。三是算法歧视的侵权力度通常较小,且与诉讼成本不成比例,这使得金融消费者“利益衡量”后不愿寻求救济或怠于寻求救济,算法不公亦成为金融法制和金融消费者“心中的一根小刺,想拔又懒得拔”。

因此,要通过金融消费者权利补强的方式实现算法权力崛起后的市场主体间利益再平衡,应创新发展更为便捷、高效、契合算法特性的金融纠纷解决机制。我们认为,建立、发展金融申诉专员制度是解决当前困境的可行路径。金融申诉专员制度最早发源于英国,后被澳大利亚、日本等国家和我国香港、台湾等地区引入和效仿。它具有独立、专业、灵活、高效、便捷和缓解司法压力等特点和优势[31],更适宜于解决算法不公平决策所导致的金融纠纷。具体来说:第一,金融申诉专员制度中的“调解和裁决者”是具有相应专业知识和经验素养的申诉专员,相比一般的民商事法官来说更具专业性和针对性,也更能专注于解决算法金融类纠纷。第二,金融申诉专员制度作为一种替代性金融争端解决机制,主要负责解决金额较小、侵权力度较弱的案件,且办案流程相比司法程序更加简洁,更适宜于解决类似于算法不公平决策等小微型侵权纠纷。第三,金融申诉专员制度更注重于对金融消费者进行倾斜性保护。这体现在其启动机制和裁决效力两个方面。前者多由金融消费者向金融申诉专员机构投诉启动,且仅承担少部分案件受理费用,后者亦多偏向金融消费者。例如“英国金融申诉专员制度一旦作出裁决,金融申诉专员将不再审查案件,若消费者接受该裁决,则该裁决对双方发生强制效力,消费者在金融机构不履行裁决的情况下可向法院直接申请执行裁决。如果消费者不接受最终的裁决,可以直接向法院起诉”[32]。这种对金融消费者的倾斜性保护能有效调和算法权力与金融消费者权利二次失衡的能力对比态势,实现算法金融时代金融机构与金融消费者间利益分配的平衡再造。

基于上述优势,引入金融申诉专员制度有助于破解算法时代金融消费者公平权利救济的诸多困境,我国应加快这一制度的研究和法规制定工作,并结合算法侵权的新态势和新特点,作出如下制度安排和创新:一是在金融申诉专员机构中安排一定数量专职负责算法侵权纠纷的金融申诉专员,其应具备相对成熟的人工智能技术知识、金融专业知识和法律专业知识,有能力、有权限对算法的基础架构、运作逻辑和其他信息进行查询、观测和识别,并认定算法金融服务中的不公平对待行为,从而作出公正的调解和裁决。当前很多院校已逐渐开展的计算法学人才培养计划或“人工智能+法学”人才培养计划即为此种金融申诉专员岗位的设立提供了丰富的人才资源基础。二是金融消费者的举证责任安排。鉴于金融消费者难以打破算法黑箱的藩篱和隐蔽决策的面纱,导致收集算法不公的相关证据存在困难,故金融消费者的举证责任应限定为“证明存在区别对待”即可,即金融消费者仅需证明涉纠纷算法金融服务对他和相似金融消费者作出了区别性的决策输出结果,且他认为这种区别性结果输出损害了他的应得利益(例如更高的利率、保费或次优的投资组合建议)。三是金融申诉专员识别和认定算法侵权的基本方法和工具。鉴于算法黑箱的客观存在、算法不公平决策的隐性生成以及算法运营者商业秘密保护的主观诉求,金融申诉专员很难通过直接性的“嵌入式观察”发现和认定算法侵权问题。此时,可借鉴“控制变量法”并依托于“虚拟沙盒”,构建“数字模拟下的控制变量实验机制”,即将涉纠纷算法放入“虚拟市场(譬如虚拟股市、虚拟融资市场等)”进行反复实验。这种实验机制在算法金融市场中具有较强可行性,伴随金融市场的不断电子化和虚拟化,金融市场本身的运作即是围绕数字化、数据化的“货币”进行运转,只要输入相对客观、合理的模拟数据,便可准确再现算法在真实金融市场中的决策行为。

四、结语

算法金融产品和服务的诞生代表着“金融的复杂性”与“科技的复杂性”开始产生耦合效应,其结果并非是“双倍的复杂性”,而是“几何倍数的复杂性”。这就使得金融产业在拔向一个新高度的同时,也酝酿出诸多前所未有的、难以解决的问题,算法决策不公即是其中一种。从个案来看,算法的不公平对待并非特别严重的侵权行为,其导致的金融消费者利益受损有时可能微乎其微。然而,随着算法金融服务打开了普惠金融的大门,算法的不公平决策亦如“游丝”一般,逐渐渗入金融社会的每一个角落,侵蚀着每一位金融消费者的利益,并逐渐对金融公平形成“千里之堤、溃于蚁穴”式的摧毁效果。因此,重视金融市场中的算法公平问题,即是重视我们来之不易的金融普惠和金融公平成果,而这不仅需要法学界,更需要计算机科学界、经济学界等的通力合作,通过积极的研究和能动的制度设计,切实防范算法决策不公对金融公平的威胁。本文所提出的权力制约路径和权利补强路径,以及具体的算法测试和验证制度、金融教育权优化方案、金融申诉专员制度,即是对这一问题作出的一次理论尝试,期望能获得“抛砖引玉”的效果。更加系统性、具体性的制度如何构建,与其他领域的算法问题是否需要统一立法规制,抑或仅通过专项立法进行规定等诸多问题,尚待之后进一步的研究。

① 《中国人民银行金融消费者权益保护实施办法》第十四条规定:“银行、支付机构应当尊重社会公德,尊重金融消费者的人格尊严和民族风俗习惯,不得因金融消费者性别、年龄、种族、民族或者国籍等不同实行歧视性差别对待,不得使用歧视性或者违背公序良俗的表述。”

② 即受保护的分类中的数据恰好被编码在其他数据中的情况,参见崔靖梓:《算法歧视挑战下平等权保护的危机与应对》,载《法律科学》2019年第3期,第37页。

③ 《中国银监会关于支持商业银行进一步改进小企业金融服务的通知》第七条规定:“对于小企业贷款余额占企业贷款余额达到一定比例的商业银行,在满足审慎监管要求的条件下,优先支持其发行专项用于小企业贷款的金融债,同时严格监控所募集资金的流向。”

④ 《财政部、国家税务总局关于延续支持农村金融发展有关税收政策的通知》第二条规定:“自2017年1月1日至2019年12月31日,对金融机构农户小额贷款的利息收入,在计算应纳税所得额时,按90%计入收入总额。”第三条规定:“自2017年1月1日至2019年12月31日,对保险公司为种植业、养殖业提供保险业务取得的保费收入,在计算应纳税所得额时,按90%计入收入总额。”

⑤ 《中国人民银行关于对普惠金融实施定向降准的通知》规定:“根据国务院部署,为支持金融机构发展普惠金融业务,着力缓解小微企业融资难、融资贵问题,提高金融服务覆盖率和可得性,为实体经济提供有效支持,中国人民银行决定将当前对小微企业和‘三农’领域实施的定向降准政策拓展和优化为统一对普惠金融领域贷款达到一定标准的金融机构实施定向降准政策。”

⑥ 《国务院办公厅关于加强金融消费者权益保护工作的指导意见》第三(四)条:“保障金融消费者知情权。金融机构应当以通俗易懂的语言,及时、真实、准确、全面地向金融消费者披露可能影响其决策的信息,充分提示风险,不得发布夸大产品收益、掩饰产品风险等欺诈信息,不得作虚假或引人误解的宣传。”

⑦ 《中国人民银行金融消费者权益保护实施办法》第八条:“银行、支付机构应当落实法律法规和相关监管规定关于金融消费者权益保护的相关要求,建立健全金融消费者权益保护的各项内控制度:……(四)金融产品和服务信息披露、查询制度。……。”

[1] 冯果. 金融法的“三足定理”及中国金融法制的变革[J].法学, 2011(9): 91-101. FENG Guo. The “Three—legged Theorem” of financial law and the reform of China’s financial law system[J]. Law Science, 2011(9): 91-101.

[2] 王颖, 曾康霖. 论普惠: 普惠金融的经济伦理本质与史学简析[J]. 金融研究, 2016(2): 37-54. WANG Ying, ZENG Kanglin. On the ethic basis of inclusive finance by analyzing the history of economics and policy[J]. Journal of Financial Research, 2016(2): 37-54.

[3] 刘元兴. AI算法歧视在普惠金融中的悖论、阻碍与解决方案[EB/OL]. (2018-06-21) [2020-11-11]. https://legacy. iyiou.com/p/75121.html. LIU Yuanxing. The paradox, obstacle and solution of AI algorithm discrimination in inclusive finance [EB/OL]. (2018-06-21) [2020-11-11]. https://legacy.iyiou.com/p/ 75121.html.

[4] SAHAY R, ALLMEN U, LAHRECHE A, et al. The promise of fintech: Financial inclusion in the post COVID-19 Era, IMF working papers [EB/OL]. (2020-07- 01) [2020-11-22]. https://www.imf.org/en/Publications/ De-partmental-Papers-Policy-Papers/Issues/2020/06/29/ The-Promise-of-Fintech-Financial-Inclusion-in-the-Post- COVID-19-Era-48623.

[5] 邱文元. 康德和因果问题的解决[J]. 山东大学学报(哲学社会科学版), 2010(1): 123-128. QIU Wenyuan. Kant and the solution of the problem of causality[J]. Journal of Shandong University (Philosophy and Social Sciences), 2010(1): 123-128.

[6] 俞吾金. 康德两种因果性概念探析[J]. 中国社会科学, 2007(6): 29-40, 204-205. YU Wujin. Two Kantian concepts of causality: A discussion[J]. Social Sciences in China, 2007(6): 29-40, 204-205.

[7] 张玉宏, 秦志光, 肖乐. 大数据算法的歧视本质[J]. 自然辩证法研究, 2017(5): 81-86. ZHANG Yuhong, QIN Zhiguang, XIAO Le. Discriminatory of big data algorithm[J]. Studies in Dialectics of Nature, 2017(5): 81-86.

[8] 王焕超. 如何让算法解释自己为什么“算法歧视” [EB/OL]. (2019-06-13) [2019-12-5]. http://finance.sina. com.cn/stock/relnews/us/2019-06-13/doc-ihvhiews8657619.shtml. WANG Huanchao. How to get algorithms to explain why they have the traits of discrimination [EB/OL]. (2019- 06-13) [2019-12-5]. http://finance.sina.com.cn/stock/ relnews/us/2019-06-13/doc-ihvhiews8657619.shtml.

[9] 许可. 人工智能的算法黑箱与数据正义[N]. 社会科学报, 2018-03-29(6). XU Ke. The algorithm black box and data justice of artificial intelligence[N]. Social Sciences Weekly, 2018-3-29(6).

[10] 王迁. 论“歧视”的法律概念——兼论“男领导不得配女秘书”的合法性[J]. 法学, 2004(8): 32-42. WANG Qian. Comments on the legal concept of “discrimination”: Concurrently discuss the legitimacy of “male leaders are not allowed to have female secretaries”[J]. Law Science, 2004(8): 32-42.

[11] 崔靖梓. 算法歧视挑战下平等权保护的危机与应对[J].法律科学, 2019(3): 29-42. CUI Jingzi. Crisis and response of equal rights protection under the challenge of algorithmic discrimination[J]. Science of Law (Journal of Northwest University of Political Science and Law), 2019(3): 29-42.

[12] 格奥尔格·西美尔. 叔本华与尼采[M]. 莫光华, 译. 北京: 商务印书馆, 2019: 46-51. SIMMEL G. Schopenhauer and nietzsche[M]. Trans. MO Guanghua. Beijing: The Commercial Press, 2019: 46-51.

[13] 冯泽华, 黄政宗. 金融科技的哲学追问——现象学棱镜下金融科技的主体性问题及其批判[J]. 南方金融, 2019(5): 3-12. FENG Zehua, HUANG Zhengzong. Philosophical questioning of fintech: Subjectivity and criticism of fintech under phenomenological prism[J]. South China Finance, 2019(5): 3-12.

[14] 俞可平. 权力与权威: 新的解释[J]. 中国人民大学学报, 2016(3): 40-49. YU Keping. Power and authority: New perspectives[J]. Journal of Renmin University of China, 2016(3): 40-49.

[15] 张凌寒. 算法权力的兴起、异化及法律规制[J]. 法商研究, 2019(4): 63-75. ZHANG Linghan. Algorithm power: Rise, alienation and regulation[J]. Studies in Law and Business, 2019(4): 63-75.

[16] 米歇尔·福柯. 规训与惩罚——监狱的诞生[M]. 刘北城, 杨远婴, 译. 北京: 生活·读书·新知三联书店, 2012: 232-234. MICHEL FOUCAULT. Discipline and punishment: The birth of prison[M]. Trans. LIU Beicheng, YANG Yuanying. Beijing: SDX Joint Publishing Company, 2012: 232-234.

[17] 马长山. 法治中国建设的“共建共享”路径与策略[J]. 中国法学, 2016(6): 5-23. MA Changshan. The path and strategy of “joint construction and sharing” of the construction of China ruled by law[J]. China Legal Science, 2016(6): 5-23.

[18] 杨典, 欧阳璇宇. 金融资本主义的崛起及其影响——对资本主义新形态的社会学分析[J]. 中国社会科学, 2018(12): 110-133, 201-202. YANG Dian, OUYANG Xuanyu. The rise and influence of financial capitalism—A sociological analysis of a new form of capitalism[J]. Social Sciences in China, 2018(12): 110-133, 201-202.

[19] 袁康. 主体能力视角下金融公平的法律实现路径[J]. 现代法学, 2018(3): 180-193. YUAN Kang. The legal realization approach to financial justice under the capability perspective[J]. Modern Law Science, 2018(3): 180-193.

[20] 科林·斯科特. 规制、治理与法律: 前沿问题研究[M].安永康, 译. 北京: 清华大学出版社, 2018: 66. COLIN SCOTT. Regulation, governance and law: Addressing current challenges[M]. Trans. AN Yongkang. Beijing: Tsinghua University Press, 2018: 66.

[21] 柳经纬, 许林波. 法律中的标准——以法律文本为分析对象[J]. 比较法研究, 2018(2): 188-200. LIU Jingwei, XU Linbo. The standard contained in the law: Taking legal text as the object of analysis[J]. Journal of Comparative Law, 2018(2): 188-200.

[22] Monetary Authority of Singapore. Principle to promote fairness, ethics, accountability and transparency(FEAT) in the Use of Artificial Intelligence and Data Analytics in Singapore’s Financial Sector, pp.7-8 [EB/OL]. (2018-11-12) [2019-12-26]. https://www.mas.gov.sg/ publications/monographs-or-information-paper/2018/feat.

[23] Hong Kong Monetary Authority. Consumer protection in respect of use of big data analytics and artificial intelligence by authorized institutions, p.2[EB/OL]. (2019-11-05)[2019-11-24].https://www.hkma.gov.hk/media/eng/doc/key-information/guidelines-and-circular/2019/20191105e1.pdf.

[24] Hong Kong Monetary Authority. High-level principles on artificial intelligence, p.2[EB/OL]. (2019-11-01) [2019- 11-24].https://www.hkma.gov.hk/media/eng/doc/key-information/guidelines-and-circular/2019/20191101e1.pdf

[25] 金俭. 歧视与平等机会的法律透视[J]. 南京师大学报(社会科学版), 2005(6): 53.56. JIN Jian. A legal analysis of equality of opportunity and discrimination[J]. Journal of Nanjing Normal University (Social Science Edition), 2005(6): 53.56.

[26] 陆军, 张善贤. 应用控制变量法要有理可据、有章可循[J]. 物理教学, 2012(8): 31-33, 55. LU Jun, ZHANG Shanxian. There should be laws and regulations to go by when using the control variables method[J]. Physics Teaching, 2012(8): 31-33, 55.

[27] TSANG Chengyun. From industry sandbox to supervisory control box: Rethinking the role of regulators in the era of fintech[J]. University of Illinois Journal of Law, Technology & Policy, 2019(2): 355.

[28] Financial Conduct Authority. Regulatory Sandbox, p.12[EB/OL].(2016-11-09)[2020-2-22].https://www.fca.org.uk/publication/research/regulatory-sandbox.pdf.

[29] 克里斯托弗·布施. 个性化经济中的算法规制和(不)完美执行[J]. 王艳, 等译. 环球法律评论, 2019(6): 5-19. BUSCH C. Algorithmic regulation and (Im) perfect enforcement in the personalized economy[J]. Trans. WANG Yan, et al. Global Law Review, 2019(6): 5-19.

[30] 王怀勇, 邓若翰. 互联网金融消费者教育制度研究[J].南方金融, 2017(11): 77-83. WANG Huaiyong, DENG Ruohan. Research on the consumer education system of internet finance[J]. South China Finance, 2017(11): 77-83.

[31] 沈伟, 沈平生. 我国证券纠纷调解机制的完善和金融申诉专员制度合理要素的借鉴[J]. 西南金融, 2020(5): 3-16. SHEN Wei, SHEN Pingsheng. The perfection of China’s securities dispute mediation mechanism and the reference of the reasonable elements of the financial ombudsman system[J]. Southwest Finance, 2020(5): 3-16.

[32] 杨东. 金融申诉专员制度之类型化研究[J]. 法学评论, 2013(4): 77-83. YANG Dong. Typed study on system of financial appeal commissioner[J]. Law Review, 2013(4): 77-83.

The implementing dilemmas and legal countermeasures of financial equity in the algorithm age

WANG Huaiyong, DENG Ruohan

(School of Economic Law, Southwest University of Political Science and Law, Chongqing 401120, China)

The idea about the value of financial equity has been gradually transformed into institutional text and market practice in China. The introduction of algorithm for big data in financial business helps to stimulate the social function of finance, to stabilize the idea of financial equity, and to promote the initial realization of equity in financial opportunity. However, the discrimination embedded in the algorithm departs from the demand of equity in financial transactions, and the efficiency-orientation of the algorithm hampers the development of equity in financial effect, putting the full fulfillment of financial equity in jeopardy. The present study finds that it is the emergence of algorithmic power that furthers the imbalances between the capacity of financial institution and that of financial consumers, embedding the defects of algorithm into financial market and jeopardizing the idea of financial equity and financial consumers interests. Therefore, the implementation of the idea of financial equity should simultaneously follow a parallel approach of restricting powers and strengthening rights. To be more specific, an algorithm test, classification and certification system should be established, the right to education of financial consumers strengthened, and an alternative financial dispute resolution introduced so as to realize the rebalance of the capacity of financial institutions and that of financial consumers in the AI finance era.

algorithmic decision; financial equity; algorithm power; financial consumers; financial rights

10.11817/j.issn. 1672-3104. 2021.03.001

D912.28

A

1672-3104(2021)03-0001-14

2020-10-06;

2020-11-23

国家社会科学基金重点项目“创新社会治理背景下社会企业法律规制研究”(18AFX018);2018年重庆市人文社科规划项目“关联企业破产法律问题研究”(2018BS116);西南政法大学2019年度学生科研创新项目“金融科技的算法风险及其规制路径”(2019XZXS-005)

王怀勇,四川成都人,西南政法大学经济法学院教授、博士生导师,西南政法大学金融创新与法制研究中心研究员,主要研究方向:企业法、金融法;邓若翰,四川乐山人,西南政法大学经济法学院博士研究生,主要研究方向:金融法,联系邮箱:406760231@qq.com

[编辑: 苏慧]

猜你喜欢

公平决策金融
公平对抗
怎样才公平
为可持续决策提供依据
笨柴兄弟
何方平:我与金融相伴25年
决策大数据
决策大数据
诸葛亮隆中决策
央企金融权力榜
民营金融权力榜