APP下载

论算法风险的行政规制路径

2022-11-26宗雪萍戴丽斯

电脑与电信 2022年4期
关键词:规制算法

宗雪萍 戴丽斯

(江西理工大学法学院,江西 赣州 341000)

1 引言

随着人工智能与大数据的迅速发展,算法已经渗透到社会经济、生活及治理的运作,深刻地影响着社会组织形式和人类行为模式。以大数据分析形成的算法不是完全客观、中立的技术,其对信息的掌握、诱导与决策的隐蔽性,容易引发各种法律及事实风险。有必要将算法技术纳入预防治理范围,以应对算法对传统规制体系提出的挑战。

2 算法发展及技术成因

人工智能时代下,算法处理数据的类型与方式不断迭代革新,依靠机器深度学习、数据分析等新型技术串联起一张完整的技术网络。人类生活中接触的短视频推送、手机导航、自动驾驶技术,都需要这张网络予以辅助。甚至在金融、司法、行政等领域,算法接手人类给予的权利,指导人类行为决策和决定信息真实性。在此背景下,算法技术逐渐脱离了工具化的范畴,能够利用数据学习并进行深度自我发展,从而形成自动化决策。[1]可以说,算法(Algorithm)是为解决一个特定问题或者达成一个明确的结果,而对数据进行分析、计算和求解的操作程序。其运行的前提是数据信息,算法实质上是建立在数据填充的基础上,通过一系列计算步骤得出运算结果。运算结果与逻辑设计、基础数据、推理假设等环节直接相关。[2]通过对算法基本运行原理的了解,进一步探究其潜在技术风险的成因。

一是智能算法的深度学习能力。传统算法是由人为编写算法的整个过程,其外在表现模式为“输入+逻辑=输出”,在清晰的程序逻辑下,要求执行相应的输入便会产生期望输出,使得行为与结果具有预期可控制性。而智能算法的深度学习能力表现为,设定的结构化逻辑规则在与事实结合的使用过程中不断推导出新的逻辑规则。既有以及新的逻辑规则成为下一次运算的基础,在重复过程中不断更新、强化,实现解决复杂难题的目的。[3]

二是算法自动化决策的失控性。尽管算法设计来源于人类的编写,但关于算法接近深度学习这一目标及程度深浅的呈现,却是常人无法参与的未知地带,自然也造成其推理过程与决策原因对于人类处于“黑箱”之中。当算法代替人类决策却不被其所了解,而后果由使用主体被迫承受,便会造成法律公平性的失衡。现今数据驱动下的算法以智能应用形式嵌入社会生活之中,逐渐成为人类的权利代理者,实现对社会规则的干预、塑造与引导。若算法解释不能像法律一样受到质询与监管,由技术黑箱所导致的失控性将会不断扩大。[4]

3 探究算法安全面临的挑战

3.1 行政规制体系不足

算法技术的应用会在社会诸多领域引发各种风险,当不同风险叠加一起时,便呈现出较高的复合性。以利用互联网智能算法来实现系统驾驶的自动驾驶汽车为例,常见的风险有道路交通事故风险、网络安全风险、数据信息安全风险等。实际场景中,黑客为了获取、转卖隐私信息,会采取侵入并破坏网络系统的手段,造成网络安全风险与数据信息安全发生了重叠。面对算法高复合性风险的特点,我国行政规制体系显得有些不敷应对。传统行政组织结构表现为以部门为分割的外在形态,要求根据行政事务种类划分为不同的部门,旨在以明确的分工来促进行政管辖的专业化。在中国情境下,政策执行在纵向与横向的动态关系,构成了我国治理体系的条块特征。[5]“条”关系中的行政部门以具体职能为导向,表现为机械的纵向结构与单一化的服务内容,在跨领域的治理难题上存在不足。因此,算法引发的多领域风险打破了行政职能前后分割的线性关系,混淆了部门责任归属范畴。按照过去各司其职的理念,不同部门缺乏沟通及业务互助,将难以规避算法风险。

3.2 算法权力

掌握算法的企业或组织利用在数据处理和深度学习算法上的技术优势,把控社会资源及信息的配置,来引导公众意识和决策,便会形成一种新型的权力属性——算法权力。与国家强制性权力不同,算法权力是一种内在化、广泛化的权力关系,表现为公众及组织的引导与操控。当这种非政府力量在运用中发生偏离,加重实质与形式的不平等,便会形成算法权力异化的现象。[6]典型的即是算法偏见,主要指算法在数据收集与使用的过程中,因包含人类的隐含价值观念而使得输出表现有失公平的现象。算法偏见来源于三个方面:一是数据样本的偏见。人类社会制度、习俗、思想等差异,造成人工智能的原始数据样本带有歧视色彩;二是研发技术偏见。研发人员容易将价值判断、研发理念渗透到设计过程,使程序算法吸纳个人偏见;三是后天学习形成偏见,作为学习型技术的算法易因后续吸纳的数据存在偏见,而导致学习结果偏离轨道。[7]

在实践中,算法技术对人的影响体现为利用人们形成的技术习惯依赖,算法技术可以揭示、诱引甚至操控公众的意志选择,对人们价值观造成“联系-依赖-作用”的线性影响路径。这种依赖于大规模的集成数据形成的算法,靠传感器、系统分析和智能终端汇总社会个体和群体的生活状况、个性特征,将分散的价值观集合成公意,从而强制执行。[8]如资本与技术的结合,会将资本自身观念与部分现实选择性呈现,引导公众及社会组织的价值选择,加剧社会固有偏见与歧视风气。一旦缺乏必要的监管,算法规则便会隐匿传统规范与道德的约束,催生出制度羞辱,消弭人的尊严与价值。可以说,面对大数据时代的信息洪流,算法容易被利用来加深人们信息技术控制、处理信息的依赖。

3.3 算法黑箱

“黑箱”是未知的存在,指人类既不能从外部打开,也不能观察其内在结构的系统。而“技术黑箱”具有可认知性,指一部分人可以认识到内在技术知识,但仍有部分人不能认识到。[9]放在人工智能情境中讨论,具体表现在以下两方面:一方面,人工智能的软硬件、控制器等零件研发过程较为分散,通常由不同公司的少数研发人员负责。即使研发人员能认识到自己设计的零件知识,却难以理解整个算法的运行原理。另一方面,普通人通常会根据说明书或协议,实现简单的操作功能。出于专业知识的匮乏,很少有人去深究算法技术逻辑,因而无法认知到算法风险。从风险的自治与管制的理论角度出发,个体应当在对某个事物有足够的认识,能够进行风险评估与避免处理,才被认为具有自担风险的可能。作为囿于信息不对称性的劣势一方,无法知悉自身信息数据被抓取、处理的细节,也就很难对黑箱行为造成的损害结果进行取证。再者,掌握算法逻辑的开发者出于对自身利益的考虑,通常会利用商业秘密保护的规定来规避责任,为算法规则的隐秘性提供看似合法的依据,造成司法认定责任主体的困难,使得现实主体的责任承担难以落至实处。在以上双层因素制约下,缺乏有法可据的主体为算法的“黑箱行为”买单。

4 域外有关算法立法规制

美国未来学家雷·库兹韦尔(RayKurzweil)预测2045年将是人类科技“奇点”1奇点一词来源于数学的Y=1/X函数曲线上X=0的点。雷·库兹韦尔创作的《奇点临近》(The Singularity Is Near)提出,我们现在14年相当于过去一百年的技术进步,未来7年就相当于现在的14年,总有一天,人类一秒钟的技术进步将超过之前上万年所做的一切,这就是摩尔定律。科技会随着发展呈现指数型增长,最终到达某个极限。而人工智能使得人类生活发生巨大改变的临界点就称为奇点,并预测2045年将是人类科技奇点的到来时间。的到来时间,而算法技术的发展即是关键推动因素。[10]然而,国外算法技术的运用并非一帆顺风,诸如微软聊天机器人Tay事件;AI预测犯罪引发歧视风波;机器人误伤少年等不良影响使得各国着力探索算法技术规制路径。

基于大数据形成算法,算法又构成人工智能核心要素的理念,在对数据的治理上,欧盟生效的《通用数据保护条例》(以下简称《条例》)要求,应在算法设计起始的代码中加入数据保护步骤,即是“经安排的数据防护”。[11]该条例不仅规定了基本个人信息的保护,还将保护范围扩大至基因数据、社交兴趣等生物识别性数据,同时将数据权利创设细分为访问权、修改权、限制处理权、反对权等类别。针对算法解释,《条例》开发了监督与自律一体的数据保护官(DPO)的模式,DPO必须由具备计算机专业知识,能够熟悉且能阅读算法的人担任,旨在增强算法与数据的透明性、可解释性。而美国则从解释权模式来规制算法风险,《算法责任法案》(Algorithmic Accountability Act)即要求有关企业自行审查算法歧视,就决策过程中可能对消费者产生不准确、不公正的影响,作出高风险自动化决策系统影响评估报告,以促进算法的可解释性。[12]同时,各国政府还牵头成立行政审查机构,运用国家权利进行监管、审核及处罚等执法工作。美国联邦贸易委员会、欧盟数据保护委员会、日本个人数据保护委员会自成立,便处理了近年来跨国互联网公司有关数据、算法的侵权案件。

5 算法规制的行政方案设计

5.1 行政治理结构:多元化协同共治

在算法复合性风险特征下,社会治理对象与诉求呈现多样化与复杂化的形态,单一化职能部门已很难作出具体应用下的规制任务。库伊曼提出的治理与共治概念,为传统行政组织结构革新提供借鉴思路。2库伊曼(J·Kooiman)和范·弗利埃特(M·VanVliet)认为“治理并非通过外部力量强制创造出结构或秩序,其发挥作用需要进行统治及相互发生影响的多种行为者的互动……没有任何一个部门能够拥有解决多样、动态、复杂问题的全部信息,也没有一个个体行动者能有全部知识与能力去发挥工具的有效性……共治作为治理方式之一,是处理复杂多变的社会治理问题下,最为合适的转变方式”。[13]本文基于智能时代的规制体系,提出多元化协同共治理念并从以下三个方面展开:

一是治理主体的多元化。从行政内部出发,必须明确阶段不同但具有联系的职能的详细性、可问责性,以避免部门间相互推诿责任。对于传统职能可以覆盖的领域仍然遵循旧规,若存在传统职能无法包含或者涉及之外的项目,可根据规制目标指向的不同部门通过规章制度来协同、配合。如何兼顾不同的风险目标,需要考虑算法涵盖的不同领域的实践,从而进一步详细规划。从行政外部来看,行政机构可以通过增加参与治理主体范围来寻求外援,将授权机构、公共管理组织等纳入体系,同时注重律师、技术专家等人才在团队中的占比。

二是组织关系的协调动态性。探寻规避算法多样化风险的真值条件,首先要实现治理组织的地位平等,避免“一言堂”等集权化管理的弊端,注重决策过程中体制外的社会组织的参与性。其次要产生协同动机与激励机制,算法技术带来巨大经济效益的背后,也成为国家间暗自较量的科技实力象征。而企业出于提高经济效益的目的,必然会扩大算法技术的应用领域。最后是行动上的协同共步,规制算法风险整体结构下的子系统之间的关系并非一成不变,也会根据实践进程的变化或突发情况而改变目标手段,以期提高工作效率。[14]

三是制定共治的运行准则。为预防机构涣散或个人主义决策,法律需要完善算法规制的组织规范与行政程序要求,以明确机构的性质与职责。尤其是成立目的、利益导向各异的社会组织,要详细列明有关其责任范围与权利界限等条文。举例而言,与公益性慈善组织不同,有关自动驾驶交通事故人身或财产类保险公司,主要通过将保费资本资产投资来获得收入,用以支付保单确定的保赔金额,虽然具备风险控制与分摊的性质,但本质上是以投资高额回报对应较低保费的商业营利组织。对此,政府应作出强制性规范或鼓励性社会号召,以使各组织将风险放在同类目标这一互助的基础上运作,才能实现多方共同完善算法领域风险的缺陷。

5.2 双轨道路径:算法内容规制与算法结果审查

(1)算法内容规制

算法数据及算法决策包含的偏见,本质上都是执行算法内容的结果。相比于大数据的不确定性,法律规范中明确的价值理念更能提供衡量标准。因而,可以关注将法律语言引入算法程序逻辑的路径,实现以算法技术规制算法。[15]要做到法律语言程序化,应从多个维度推进。首先推进研发人员与法学家的共同合作,设计出合乎法律公正与技术可能的算法规则。毕竟,对于计算机研发人员来说,开发反歧视算法并非难事,关键在于如何理解法律对非法歧视的定义,这就需要法学家参与算法开发过程,提出专业性法律意见。其次政府应规定法律禁止性技术以推动科技创新。以嵌入技术为例,经过预定算法下单词嵌入技术的处理,在特定计算环境的显示结果中容易使歧视明显扩大,导致新的歧视观点与社会不公平现象。[17]政府可罗列算法技术禁止的具体情形,以国家强制力反向推动算法技术的进步。最后,设立白名单企业评估算法高风险系统机制。毕竟,客观、统一的传统技术规制在算法领域面临诸多障碍,行政人员也存在知识不足的缺陷,而企业对自身研发算法的认知程度更高,更能把控算法技术造成的不良影响,这是规避算法风险的曲线救济途径。

(2)算法结果审查

为完善企业自我监管的不足,应依法成立专门的算法审查机构。该审查机构的主要任务是对应用领域中的算法进行审计,确保风险系数达到安全标准可控范围内。若审计面临无法获得代码的情形,可运用有关学者提出的四种算法审计的模型,分别是非侵入性用户审查( Noninvasive User Audit)3非侵入性用户审查:例如,如果用户同意回答关于他们在网上做了什么的问题,或者(更彻底地)同意分享他们所有的搜索查询和结果,那么从概念上推断出一个平台的算法操作的一些有用的东西是可能的。、抓取式审查( Scraping Audit)4抓取式审查:研究人员可能会向平台发出重复的查询并观察结果,这些查询可能和网页请求一样简单。、傀儡替代审查( Sock Pup-pet Audit)5傀儡替代审:本质上是一项经典的审计研究,使用计算机程序冒充用户,通过创建虚假的用户账户或编程构建流量。和联合审查( Collaborative Audit) 。6联合审查:用雇佣用户代替计算机程序进行测试。[17]此外,算法审查机构还应辅之以两项工作:一是建立数据分类管控中心,将算法囊括的数据进行分级筛选、脱敏的精确保护。其中,涵盖宗教、民族、犯罪情况等具有可识别性的数据视为个人敏感信息,由国家公权力给予强制性的特别保护,此类数据在国家部门人口普查、追踪犯罪等职务工作时才可被访问;不具有可识别性的信息则视为一般性数据,可以进行跨平台共享,提供给企业、普通用户访问、抓取,实现数据的分享与利用。二是实行算法登记备案以及定期审核制度。在算法商业化领域,有“美团”外卖服务平台为扩大利益而操纵算法以实现市场垄断目的,被市监管局处以行政罚款的案例。若企业基于商业秘密不向社会公布算法或算法逻辑,则要求义务人向知悉的监管机构或自律组织备案,以促使企业更加谨慎地开发、完善算法系统。同时也有利于审查机构评估与理解算法技术、加强监管职能。

5.3 黑箱规避:完善算法救济与透明机制

基于对算法问责主体缺失的认知,应建立以保障基本权力为中心,涉及算法相关主体责任分摊的救济机制。这要求行政规制确立公平公正的思想基础,以保障公民生命、财产安全等基本权利为目标,确保受到算法危害的社会群众有反馈、救济、质询的渠道。具体而言,应要求算法开发、运营方完善应急处理方案,尤其是针对危害性算法应用实体的终止使用与回收,或是消灭侵害公民正当权益的算法程序等系列流程,使得公众能够有空间有对象地寻求救济。考虑到算法风险对财产、甚至生命的威胁,政府可以鼓励保险公司开发新型算法保险种类与理赔方案。同时,通过使用规模、涉及主体等因素确定相关问责主体,根据风险共摊的原则,以算法保险的强制性将保额合理分配于各主体,从而保证被侵权者的受偿权。此外,行政部门应明确算法问责的安全标准,如算法应用范围及限制条件等,对于不达标的企业可在国家信用系统予以公示,并要求企业定期公布算法安全报告直至达到合格标准。如果存在企业违反算法规定的情况,确保所制定适用的处罚规则得到适当和有效的实施。行政处罚应当注重有效、相称、具有劝阻性,即特别考虑到小型供应商和初创企业的利益及其经济可行性。

关于算法黑箱的规避,还应注重规制过程中的算法透明措施。对于算法应当披露的信息分为两类:一是程序代码、参数等专业信息;二是外在表现、结果告知等非专业信息。专业信息只需录入算法审查机构以便进行备案、掌握,这类信息不具有公布的现实意义,既存在商业秘密、知识产权被窃取的风险,又不具备被公众所知悉的可解释性。非专业信息弥补了外部解释有效性弱的问题,因为其解释目的并非分析算法原理,而是将合理算法预设与结果对公众予以告知,以使受决策影响者在了解规则后行动,规避不利后果。同时,为促进算法逻辑可解释性,将伦理道德渗透于逻辑规则是规避黑箱行为的有效途径。为此,政府应明确算法工程技术人员标准,要求技术人员定期参与技术伦理课程与考试,将科技伦理、思想建设等技术素质作为考核因素,把伦理要求渗入产品开发到运作的全流程。同时鼓励开发伦理工具,从技术上寻求为顾客提供透明性、公平性、可解释性算法伦理服务的途径。

猜你喜欢

规制算法
网约车平台责任条款的识别方法——基于解释进路的正当规制
国际主流轧差算法介绍:以CHIPS的BRA算法为例
控制股东滥用权利规制的司法观察及漏洞填补
哪种算法简便
Travellng thg World Full—time for Rree
中国社会组织自我规制的原因浅析
完善地方政府行政作为法律规制的思考
学习算法的“三种境界”
算法框图的补全
算法初步知识盘点