甄别与防范:数字时代下的算法风险
2022-02-05樊书钰
樊书钰,张 馨
(新疆财经大学 法学院,乌鲁木齐 830012)
一、问题的提出
由于技术扩展路径的多元化,不同领域之间的破壁融合导致“算法”概念的应用场景逐步扩大。社会进程的不断推进中,算法定义从数学与计算机科学领域下的“一种用自然语言描述解决问题的过程”①,延展出新的内涵,各类界定观点,莫衷一是。毋庸置疑,算法的实际应用为人类生活带来了极大便利,然而算法拥有机器学习的同时,也裹挟了人类的价值判断,立足于数字时代的大背景下,人类决策与机器判断间的交互作用与影响致使将算法定义为“人类通过代码设置、数据运算与机器自动化判断进行决策的一套机制”②更契合现实前提。算法的多维度应用也使得算法成为人类决策过程的重要一环,甚至人类社会的运行模式因算法而重构,而算法因自身特点导致其应用过程产生的风险也初见端倪。
其一,确定可知的数据是算法的核心,强调算法所需数据的充足性与有效性,缺乏数据和缺乏有效数据都会导致算法运行与决策受限。一般而言,算法模型架构越大,产生可行结果所需的数据就越多,因此足够的数据是算法作用得以充分发挥的首要条件。此外,精准把握算法对象关系中的关键变量以保证数据的质量是在海量数据中避开干扰项、提取价值因素的枢纽。然而人机交互形态下,人类参与呈现出“双刃剑”的效果,可能导致数据选取更为精确也可能致使数据选取带入非理性色彩而削弱数据确知性。其二,算法的高时效性衍生出其竞争力的判断条件,即何者能够更出色地消除延迟,在最少的时间内完成最多的任务,便能在诸多算法中脱颖而出占据竞争市场中的优势地位。[1]以金融业为例,算法改变了投资者的交易方式,通过使用先进的计算机工具和算法进行股票和证券快速交易的高频交易(HFT)逐渐成为主流。然而,高频交易更依赖于算法的时效,买卖速度上几微秒的差异就可能造成无法估量的损失。其三,目前学界对于算法是否可解释的争论依然存在。2018 年欧盟《通用数据保护条例》(下称:GDPR)提出了透明度原则,要求与处理个人数据有关的任何信息和通信都易于访问和理解,并使用清晰明了的语言。简言之,作为数据主体的每个人都有权了解其个人数据是如何被收集和处理的。这就要求算法提供者根据用户个人数据的输入使用简明扼要的语言向用户解释显示的输出,以证明算法决策的准确性,而当算法设计需要在准确性和可解释性之间进行权衡时,两者往往不可兼得。决策树、最近邻等简单且可解释的模型准确性欠佳,高准确性需要诸如深度神经网络、随机森林等复杂且难以解释的模型进行支撑。尽管目前运用的算法模型大都采取可解释的模型使其决策的可解释性不可被完全否定[2],但无论是出于对算法决策准确性的追求,或是为了避免过度强调算法可解释导致其过度简化的风险,亦或是人机交互发展的最终形态可能是人类无法控制的自主算法,多数算法更趋向于拥有不可解释的特征。这就意味着大多数用户的理解力与算法表现形式间的鸿沟无法跨越且越拉越大,一旦达到算法表现形式超出专业人员认知的阶段,后果更加不堪设想。总括而言,数字时代下,算法不断拓展适用范围之际,其引发的多重风险愈加显著。
算法风险作为算法应用过程中一个不可回避的话题,预防风险形式的优劣与算法红利的高低成正比。目前学界对算法风险的研究,大多数学者以点为切口,将算法风险进行不同划分,针对所研究的算法风险进行对应规制,深入挖掘算法风险预防路径。袁康认为可从算法的可信任构建层面入手进行算法风险的预防与规制[3];赵学刚、马羽男强调算法偏见是算法决策过程中的重大风险,应从算法偏见角度研究算法风险的解决路径[4];叶明,郭江兰细分了算法价格歧视的不同风险情境,指出了对于该类风险规制的现行法律供给不足并提出了相应的完善对策[5];周围从算法共谋的竞争隐忧入手探讨了其与反垄断法的拓展适用问题并提出了规制共谋风险的合理性框架[6]。依托互联网技术而至的数字时代致使算法风险的预防若仅仅从某一方面进行考量难免有所不足,因此在厘清算法自身特征后,基于机器学习与人类决策互相作用的现实基础赋予的从人机交互角度入手进行算法界定的合理性,运用系统性思维从多个方面审视算法风险,或更能实现对算法风险内在原因的深度解析并进行针对性的风险甄别与预防。
二、算法的复合风险甄别
(一)算法偏见
算法作为人工智能、区块链等高新技术的运行基础与逻辑起点,高效率特征使其在多个领域逐渐代替人类对社会中的诸多事物进行决策,但不可否认其在运行过程中会出现偏差。例如,Google曾使用算法进行过排除限制竞争行为,侵犯了其他经营者的合法权益。具体地,Google利用“专业搜索算法”(specialized search algorithms)提供“购物比价”服务,消费者通过进行特定操作观看其提供的不同商业网站的商品展示并按需消费,而商业网站的显示顺序,又通过以网站链接与质量判断其优劣的Page Rank算法完成,当 Google Shopping的业务进入欧洲市场后,Google便私底下将自己旗下的产品排除在 Page Rank算法等网页排序算法的筛选之外,直接将产品置于消费者使用购物比价服务时肉眼所及的明显位置,从而实现不正当竞争。[7]学界将此种“算法设计者或所有者通过调整参数得到想见结果”③的情形称为算法偏见。运用算法进行决策时,若发生偏差形成“应然”与“实然”之间的逻辑断层,那么按照自动化程序推演计算进行的决策,不仅无法达到预期的良计算,反而会造成严重的不良后果。寻根溯源,算法偏见产生的原因归结于两点,一是“心理特征”,即数据选取体现的价值判断;二是“身体特征”,即算法“黑箱”导致的审查不能。
1.“心理特征”
数据为算法动态化决策的基础要素,有学者将技术层面算法偏差的产生归因于数据偏见与算法设计偏见。然而从事实角度出发,不论是因数据本身存在潜在偏见导致数据在输入环节产生偏颇,又因算法模型的构建阶段未设定合理纠正程序致使在大量运算过程中按此逻辑累积偏差所形成的数据偏差,[8]还是将数据进行类型化处理或影响各种变量数据及其权重设置的算法设计偏差,因两类偏差体现出的皆为“数据选取隐含的价值判断”。人在自身能力、社会风气以及文化教育等多重因素的综合影响下会对事物做出基本的判断,该种判断本身无法避免。究其根本,上述两种偏差所显示出的都是“选取何种数据放入算法决策”与“选取多少数据放入算法决策”的问题,其本质上是算法设计者或算法所有者,亦或是二者对其想要达成结果的一种价值判断。因此选取数据的不可避免性,就意味着隐形或显性价值判断嵌入算法的必然性,进而导致因算法“非中立”带来的算法偏见风险。
2.“身体特征”
用户及相关方除单纯的数据输入和输出外再无法触及算法运行中内部隐含原理、逻辑与操作的问题即“算法黑箱”,也是人类无法避免算法偏差的另一重要原因。虽然算法能够按照预设的过程客观执行每一个步骤,但人类行为在算法设计、部署和应用方面的影响却难以避免。技术不完备的客观规律下,设计者自身偏见、社会风俗或文化差异等价值选择注入算法执行程序,会造成算法决策或输出结果延续此种固有偏见。[9]算法非透明化的运算过程会使得社会中的个体通常只能得到算法决策的结果,无法审查算法产生结果的过程,进而加剧算法风险。
(二)算法歧视
“歧视”早在人工智能诞生前便普遍存在于人类社会,作为认知过程的副产品,其产生沿袭了独特的社会发展逻辑。人类在认知世界的过程中,通过对事物进行类型化区分并以此分割事物间的界限,强调同一类型事物间的相似性,赋予个体集体认同感。出于集体自尊与自我认同提升的需要,群体总是倾向于将褒义印象赋予自身,将贬义印象赋予外群,产生对外群的偏见,而个体的行为意向又因囿于群体内部而受群体影响,导致个人将认知层面的偏见外部化于社会生活中,形成被法律所规制的“歧视”。[10]随着智能化算法带来越来越多的红利,“歧视”并未内消于算法决策之中,反而在社会生活中逐渐凸显,而人类歧视与算法歧视之间的差异性,使得算法歧视拥有别于人类歧视的特征,导致算法歧视的规制难度更大。
1.高度隐蔽性
属于计算机语言的算法,首先因其专业化程度较高,导致了普通客户通常无法真正地理解算法的运行;其次,算法本身决策过程的不公开或受商业秘密、国家秘密等原则保护的特征导致算法不透明。[11]最终因信息不对称导致个人对于可能具有差别或带有歧视意图的决策结果只能被动接受,无法准确识别算法歧视。[12]
2.主体广泛性
主体广泛包含责任主体广泛与影响主体广泛,与算法歧视的责任产生主体和结果影响主体相对应。一方面,虽然内含歧视的算法设计往往是算法歧视结果产生的主要原因,但是由算法设计者承担所有算法歧视的责任并不适当。因为算法决策的实现与相关的数据输入有紧密联系,错误数据的来源有输入端口或机器学习中获取的信息,这些数据可能是无意输入,可能是算法运用者受利益趋势提供,也可能是机器学习时对固有信息的异化理解,因此算法歧视的出现就成为了多方主体共同作用的结果,相应地对其规制也需要多方主体一并发力[13]。另一方面,互联网平台拥有的巨大辐射能力使得算法歧视结果发生后,受歧视影响的人数多于传统歧视结果影响人数。加之以算法为基础的产品在金融、法律、文化、医疗等方面的应用,导致算法能更快渗透到人类社会的方方面面,而使用此类产品的个体都成为了潜在的被算法歧视对象,增加了算法歧视影响主体的人数。
3.个体差异化
算法歧视中最能体现个体差异化特征的例子是“大数据杀熟”。在小数据时代,高额的信息获取成本致使经营者只能根据有限信息,预估消费者整体的购买需求进行定价。然而在大数据时代,基于海量的数据分析,经营者利用算法模型可以实现对每一个消费者消费偏好的精准定位,绘制独立的用户画像,带来“千人千面”的人机交互体验,[14]再针对个体的消费需求,制定差异化价格,实行算法价格歧视,侵犯消费者的合法权益。
(三)算法共谋
传统经济视角下的共谋,是指互为竞争关系的经营者为获取市场优势共同实施的利润最大化战略,共谋各方通过抬高市价、减少供应等方式达到减少甚至消除竞争、提高市场进入壁垒的目的。共谋分为显性和隐性两种形式,显性共谋(explicit collusion)的发生以经营者间存在客观协商和明示合作关系为前提,并形成垄断协议。相比之下,隐性共谋(tacit collusion)所涉及的经营者间可能并不存在直接互动,无需达成正式的垄断协议即可产生限制或排除竞争的目的。[15]理论上,数字时代市场透明度高、集中度高、准入门槛低的特征更易形成相对公平的竞争环境,然而实际上,复杂算法的崛起颠覆了传统共谋发生与市场环境的相关关系,算法共谋所致的垄断问题逐渐显露。
1.隐性共谋使垄断协议难以界定
2016年Ezrachi和Stucke按照共谋形式的层级,由低到高确定了算法促成共谋的四种场景,分别为信使(Messenger)、中心辐射式(Hub and Spoke)、预测型代理人(The Predictable Agent)以及电子眼(Digital)④,越高阶者越难以被察觉到垄断的痕迹。信使场景中算法仅扮演“信使”角色,是延伸人类意志的辅助,人类依旧是共谋的主体,算法仅负责执行。因此,此种形式的反垄断行为,现有法律框架足以将其囊括,而其余三种场景都含有隐性共谋色彩,中心辐射式场景和预测代理人场景以不同的方式借助算法对市场变化做出反应,前者基于不同行业的经营者使用同一定价算法使其起到协调价格的“枢纽”作用,后者则基于各企业单独开发的算法以可预测的方式快速取得优势竞争地位。当定价算法变得足够复杂后会脱离人类主体进行自主学习,并找到协调价格的路径。在这三种场景中,无论是开发者、经营者的无心之过亦或有意为之,最终都产生了垄断行为,但由于无直接交流、难以判定垄断协议的存在,现行法律无法对其进行规制。
美国《谢尔曼法》第1条和欧盟竞争法第81条第一款的适用都表明了共谋的确定需要固定价格、产量限制、联合抵制等协议的存在[16],《中华人民共和国反垄断法》(下称:《反垄断法》)也明确将达成垄断协议包含至垄断行为中,并将垄断协议定义为“排除、限制竞争的协议、决定或者其他协同行为”⑤。无庸赘述,不同国家对限制竞争行为违法构成要件的规定都离不开垄断协议的存在。然而尽管不同法律都在垄断协议认定中给予一定的拓展空间,即“协议”并非完全基于经营者间沟通交流的书面或口头约定,其他能够证明经营者间存在限制竞争意图的证据一旦予以认定也属于协议范畴。但实践中“协议”的认定仍以经营者间是否存在直接互动或意思联络作为标准[17],在定价算法引领的隐形共谋中,人类主体无需进行互动甚至无任何人为价格操纵的证据留存,各国反垄断执法缺少证据而无法对算法共谋进行有效规制。如此一来,若垄断协议的概念在理论和实践中不加以突破,算法共谋所致的垄断行为会在市场中愈演愈烈,使得市场公平竞争遥不可及。
2. 自主学习算法使垄断责任难以划分
中心辐射式和预测型代理人的共谋形式并未完全脱离人类主体的存在,由于应用或开发特定算法的决定依旧由经营者做出,算法不能成为最后的“决策者”。若垄断协议得以明确拓展并在实际中发挥作用,那么只要上述两种场景中存在经营者间的反竞争意图,就足以构成垄断责任。对于自主学习算法则不然,尽管电子眼场景的发生可能遥遥无期,但其一旦成真就意味着算法拥有了决策地位,主导着共谋的发生。此时,在只有反竞争的结果却没有证据留存的情况下,何者应当承担垄断责任?算法自身无法作为违法主体,责任按理应当由开发者或使用者承担。然而在自主学习算法下,开发者和经营者可能并无共谋意愿,甚至在共谋发生后仍不明所以。
目前各国法律大都将垄断责任归于经营者。欧盟国家对于做出反竞争行为的经营者处以高额罚款,此外经营者根据诉讼结果支付损害赔偿;在美国除损害赔偿、高额罚金外,经营者还面临个人监禁的刑事责任。《反垄断法》第四十六条根据是否实施垄断协议规定了经营者的不同法律责任,并依据情况确定罚款及处罚的力度。虽然目前还没有经营者因算法的自主行为承担责任的案例,但早在1996年,Billings便指出:“自动化只是人类操作者可利用的众多资源之一,他们保留了自动化和整个系统的管理与指导责任。”⑥于自主学习算法而言,人类主体在选择开发与应用定价算法的同时就默认保留了相应的责任承担,就算抬高市价的行为与其无关,也应追溯到开发者或经营者。按照此种倡导,主体日后选择算法进行定价时就必须谨慎,人工定价更能排除共谋风险,而当算法定价成为常态后,经营者本身的趋利性使其为不落后于市场平均水平不得不选择定价算法。市场趋势、自身发展与法律风险的矛盾逐渐显露且无法平衡,自主学习算法所致的垄断责任划分成为难题。
三、算法的三层规制
(一)本体维度:为开发者注入算法公平理念
宏观层面上,公平是每一个现代社会追求的目标,经济上分配的相对平等、法律上权利与义务的对等均是其显著表现。只有同行业同水平的薪资标准相对明晰并被大多数劳动者知悉才可在后续发放时评判公平与否、只有公开出台的法律法规中明确了不同社会角色承担的义务与拥有的权利才可保证公平的存在,因此究其根本,公平的内核离不开“客观”与“高透明度”。于算法领域而言,目前已有企业和政府做出尝试,将公平理念纳入指导以算法为要素的人工智能相关工作的原则中。微软早在2014年启动了FATE项目,确定了公平、问责、透明和道德的原则。政府层面,欧盟于2019年4月发布的《可信人工智能伦理指南》中明确了伦理准则和技术稳健性,新加坡个人数据保护委员会(PDPC)2021年1月发布的《人工智能治理框架模型》确定了“AI所作决定应是可解释、透明并公平的”为指导原则⑦。在企业和政府将公平确定为指导原则的基础上,以算法开发者入手从源头注入公平理念也尤为重要。
其一,为保证客观、减少算法偏见与算法歧视的存在,可以设定算法开发者的进入门槛并组织建立专业测试团队以实现针对预投入使用算法的公平度测试。为开发者设立门槛是对数据进行预处理以切断数据不公平来源的有效事前措施,根据易导致算法偏见与歧视的敏感属性设计出针对算法开发者群体、以公平理念为核心的准入测试,只有合格者才能入选,尽可能排除有明显性别、年龄、种族、特殊群体歧视、道德理念偏差的人员参与到算法开发中,尽可能消除由个人主观意识所造成的不公平争议。在完成开发工作后、算法投入使用前,可交由算法公平度测试团队进行一定量的“使用模拟”,根据模拟结果的平均值进行算法公平度测算,若显示出算法偏见或歧视倾向则对开发者的公平理念弱点进行及时补足。公平度标准的设立可由测试团队自行设立,由于1∶1的极致公平难以实现,在公平度标准设立时可根据实际设定5%-20%偏差率,即0.95∶1.05到0.8∶1.2间。以招聘算法为例,设定候选人除性别外学历、年龄、技能等其他条件完全相同的情况,设定20%的偏差率,若100次模拟中超过60次的结果输出为某固定性别,则需通知开发团队使其进行调整后再次模拟,以达到两性别输出比例高于2∶3并无限趋于1∶1的公平度标准。另外可以考虑引入第三方审计,对算法正式实施运行后的情况进行定期检测,及时发现对算法公平产生消极影响的要素并及时处理调整以实现算法公平最大化。
其二,为保证高透明度、削弱算法不可解释的特性,开发者将支持算法输出结果的关键值进行适当公开并加以解释是可行之道。目前学界普遍支持以及在欧美法中已经法定的算法解释权并非有效行径,现行以欧盟GDPR为代表,通过立法肯定算法解释权的方式在必要性与可行性上都有待考量。[18]赋予算法可解释权不仅会产生较高的解释成本使该措施在执法层面上的落地成为空中楼阁,而且使算法易于理解的后果可能是结果准确性的降低。因此,排除立法赋权途径,开发者无需过度关注算法所含编码、运行程序等专业性较强的技术细节,而是可以公开与算法结果联系紧密的输入数据中的关键因素,并以易懂的方式向涉及其中的人类主体说明并解释其中存在的联系以及可能受到的影响。以定价算法为例,开发者可将用户最近搜索词条、购买产品、回购次数等用户数据的重要组成部分作为关键因素向用户作出说明解释,并阐明各要素作用于“个人画像”的比重。
(二)法律嵌入:细化法律条文与责任划分
2020年3月18日,工业和信息化部办公厅关于印发《中小企业数字化赋能专项行动方案》的通知中,提出“鼓励发展算法产业和数据产业”⑧。随后国家又陆续出台多项政策支持算法发展,算法产业及相关建设虽方兴未艾,但算法“阴暗面”亦不容小觑。合理的法律制度构建成为化解算法风险的有效途径之一。《电子商务法》《反垄断法》等法律规定确已达到部分风险规制效果,但算法偏见、算法歧视、算法共谋因场景不同而存在的规制困境,使得法律制度嵌入算法风险治理的具体途经亟待深度挖掘。
法律予以规制的基础是行为对法益的侵害,算法偏见、算法歧视与算法共谋造成的损害结果,按照损害主体与利益范畴的不同,可划分为公民基本权益的损害与特定主体利益的损害。一是,公民基本权利的损害。《宪法》对人的价值的肯定,规定公民享有的基本权利。而算法偏见的产生逻辑,致使数据输入的非客观性,算法黑箱遮蔽了非中立元素通过不同途经进入算法运行过程并对算法决策产生影响的流程,进而固化社会中存在的不公,损害了公民的基本权利;二是,特定主体利益的损害。数字社会中,算法歧视导致的歧视性后果与算法共谋产生的排除与限制竞争效果,不仅损害了特定消费者的知情权、自主选择权与公平交易权等消费者合法权益,亦形成不易察觉的贸易壁垒,侵犯拥有竞争关系的经营者的利益,而损害结果的类型不同,意味着普遍适用的法律条款在无具体细则支撑的情况下,应对不同场景的损害后果很难做出针对性预防,因此细化法律条文是预防算法风险的必然要求。
预防算法风险的法律条款不胜枚举,《关于平台经济领域的反垄断指南》强调禁止因算法产生的差别待遇;GDPR的默认隐私原则为算法嵌入公平、正义的理念;《消费者权益保护法》更是明确消费者享有的各项权益。实践中,面对算法决策侵犯特定主体利益的个案,算法所有者享有的天然信息优势,加之算法决策的黑箱,消费者往往因处于信息劣势,导致举证困难。又因部分法律规则的执行能力不强,法律实施的效果较差,进一步弱化了消费者或经营者的受保障程度。[19]因此在法律层面,重构算法规则,明确具体规则的贯彻落实可以使算法使用者的权利得到有效救济。一方面,应当从法律层面落实算法公开的具体规则,算法公开制度应当立足于数据参数选取原因以及有特定指向的决策体系等有意义的内容进行公开与解释,真正提高算法透明度,[20]并具象化预防算法风险的特别规定,譬如,在《反垄断法》中将算法共谋明确纳入界定垄断协议时所指的“协同行为”范畴。另一方面,进一步加强监管机构的责任强度,加大执法力度。具体地,加重处于优势信息一方的算法运营平台在个案时的举证责任,将“举证责任倒置”规则引入算法风险类案件中,扭转个案中算法使用者的信息劣势地位,保障双方平等的诉讼权利。当机器自主学习给用户造成损害时,企业经营者和算法设计者对于算法参数选取、功能设置等的知晓度相较用户而言,明显处于信息优势地位,因此若仍依“谁主张谁举证”的举证规则,用户很大可能会陷入举证不能的窘境。为此,若在法律明确“面对机器自主学习给用户造成的损害,由企业经营者和算法设计者承担举证责任”,且二者对于损害应当承担的责任根据实例交由法院按比例进行适度划分,或能更有效地保护用户的正当权益。
(三)多元治理模式:推动算法所有者实现自我规制
突破传统监管结构,从执法部门与社会主体双重维度出发,构建国家与社会双轨并行的监管路径,已经成为算法风险预防的应然之举。多元治理模式对算法风险的有效规制亦是推动算法所有者自我规制目的实现的重要途经。
1.执法部门动态监管
合理的监管方式与有效的监管手段利于执法部门建立完备的算法监管体系,实现高效监管。首先,无法预测的算法风险与动态的算法运行过程,决定执法部门对算法监管的形式,应当采取复合的动态监管模式,而定期与不定期相结合的审查方式对及时发现算法风险具有关键作用。执法部门应当联合行业协会定期对算法所有者所使用的算法是否造成影响市场秩序的不良后果进行审查,并将审查结果予以公开,提升执法部门的监管权威性。并辅以不定期审查的监督形式,对企业使用的算法进行抽样排查,减少算法风险的产生。其次,执法部门的监管手段,应当结合具体案件合理选择,有限干预市场运行。例如,“凤凰新闻”就曾被相关执法部门“约谈”,要求其平台的算法设计中提高信息质量的比重。[21]该种有别于传统禁令、禁止等处罚方式的监督手段,能够有效避免执法行为对市场主体自主经营活动的侵害,亦能减少算法风险侵犯消费者或经营者权益现象的发生。最后,执法部门的监管工具应与时俱进,引入以“算法”预防“算法风险”的可行之路。数字时代下,算法出现在人类社会治理的多领域,金融领域基于算法的自动交易系统广泛用于股票、证券、期货等各个方面;体育领域基于算法可通过分析运动员历史训练数据组合出最优队伍;医疗领域基于算法可以评估新生儿出生时的状态。算法多场景运用的红利昭示人类在社会治理中使用算法工具的必然。因此执法部门的监管工具选择需从三方面考量:一是,需要结合社会背景顺时代之潮;二是,可结合执法部门在监管环节运用算法已有尝试的经验之谈。目前税务机关将作为典型信任算法的区块链应用于电子发票领域已是成功实例⑨,反映出算法在监管环节的作用发挥可有效降低纳税争议风险;三是,需深入考虑执法部门在监管环节可能因算法的体量过大而面临监管不力困境。故而,设立一款特有算法以监测“算法风险”的产生,利用算法严格的自执行程序或能弥补人为监管的不足,进一步强化执法部门监管力度。特有算法的运行模式如下所示:首先特有算法本身应具备可追溯特点,该特点不仅便于后期取证,而且利于实时监测及时发现风险频发的薄弱处并进行对应整改。特有算法可利用多个参数设置以评判A算法是否具有算法风险。一是A的参照数据范围;二是A主要的应用领域;三是A是否符合法律法规的强制性规定;四是A出现风险时的反馈渠道。通过对上述参数的评测,实现对A算法的全链条监督,维护算法的信用生态。
2.社会主体可评估算法制度的建立
算法模型对算法风险的遮蔽,导致社会主体往往还未意识到算法风险,便遭受了损害结果。而算法风险所体现的对个体基本权利保护的冷漠,使得多数为专业知识所限的普通民众在技术压制下“任人宰割”。强化算法治理中的风险预防,必须将社会主体纳入监管主体的重要一环,因此算法风险影响评估制度的构建便亟待完成。
算法风险影响评估制度,是指在专业机构对算法可能产生的潜在风险进行评估后,再由用户对算法是否造成不良影响的个体体验感进行反馈,执法部门再针对用户反馈对算法审查并进行相应处罚。第一,专业机构需要对算法事前进行风险高低评估再决定该算法是否投入使用,风险较高的算法应将算法风险评估报告予以公开披露,[22]保障专业机构评估活动的公正与透明;第二,用户对算法进行体验感反馈,该反馈应当在特定区域以时间为序予以披露;第三,执法部门应当定期审查用户反馈风险较高的产品,核查后若确存在算法风险,执法部门应予以严厉处罚,保障用户的合法权益。
算法决策应用场景的逐步扩大已然成为社会发展的大势所趋,但算法风险依旧存在并显现出规制难题。算法偏见、算法歧视以及算法共谋所引发的无意或隐性的对人类价值与权利的漠视,其背后不仅是算法模型自身的瑕疵,亦有价值判断的影响加持,更有人类认知脚步无法追及科技发展的无奈。算法设计者、算法所有者、算法使用者、执法部门作为影响算法动态决策过程中的重要主体,要从根本上预防算法风险,务必要将四者纳入规制风险的关键环节,从本体规制、法律规制以及监管规制三个维度出发,为算法的良性发展提供健康的内外部环境,从源头到事后构建全过程、体系化的算法规制机制,以杜绝算法风险的发生。
注释:
①参见[美]塞奇威克、[美]韦恩:《算法》,谢路云译,人民邮电出版社2012年版,第1页。
②参见丁晓东:《论算法的法律规制》,载《中国社会科学》2020年第12期,第138-159页。
③参见梁志文:《论算法排他权:破除算法偏见的路径选择》,载《政治与法律》2020年第8期,第94-106页。
④See Ariel Ezrachi, Maurice E Stucke. Two Artificial Neural Networks Meet in an Online Hub and Change the Future ( of Competition, Market Dynamics and Society),UniversityofTennesseeCollegeofLaw, 2017.
⑤《中华人民共和国反垄断法》第三条规定和第十三条分别规定。
⑥See Billings, C.E. Human-Centered Aircraft Automation: A Concept and Guidelines.NationalAeronauticsandSpaceAdministration,AmesResearchCenter, 3(1996).
⑦See De Cremer, D. What does building a fair AI really entail? Harvard business review. https://hbr.org/2020/09/what-does-building-a-fair-ai-really-entail. Last visit on 26 November 2021.
⑧参见中华人民共和国中央人民政府. 工业和信息化部办公厅关于印发《中小企业数字化赋能专项行动方案》的通知(工信厅企业〔2020〕10号)http://www.gov.cn/zhengce/zhengceku/2020-03/24/content_5494882.htm. 最后访问日期:2022年1月26日。
⑨参见国家税务总局广东省税务局.广州推出全国首个“税链”电子发票区块链平台.http://guangdong.chinatax.gov.cn/gdsw/wwggdt/2018-06/27/content_0300aa26c5704959af029d345310a395.shtml. 最后访问日期:2022年1月26日。