APP下载

我国算法风险及其治理研究综述

2024-03-05曹艺萱

信息安全研究 2024年2期
关键词:算法

李 欣 曹艺萱

(中国人民公安大学国家安全学院 北京 100038)

技术变革引发社会变革.数智时代,算法不断推动人类社会形态的演化,但大数据杀熟、深度伪造、隐私泄露等算法乱象也时有发生,算法风险治理已迫在眉睫.2022年3月,《互联网信息服务算法推荐管理规定》的施行,使算法监管有规可依,然而监管政策的落地尚面临重重挑战.在技术变革与政策推进的双重背景下,本文对国内算法风险及其治理相关研究展开系统性回顾,以综述形式梳理归纳算法风险类型、形成机理与治理策略,对于推动我国本土算法风险治理体系建设具有重要意义.

目前,学界对于算法以及算法风险的概念尚未达成统一定论.从计算指令序列、人机交互的决策过程,到构建社会秩序的理性模型,伴随技术与时代的更迭,算法的内涵也渐趋丰富.综合已有学者观点,本文中的算法风险主要指算法技术的不确定性所招致的可能性后果.这种可能性潜藏在人类社会各个领域,通常表现为某种不利影响,如算法共谋、算法滥用、算法杀熟等.此外,鉴于“算法是人工智能的核心”这一观点已成为学界普遍共识,大量社会科学研究已将二者混同使用,因此本文将部分与算法风险治理无实质性差异的人工智能风险治理相关文献纳入研究范畴,力求更加全面地展现该领域研究现状.

通过从知网检索到的CSSCI及北大核心期刊主题相关发文数量,我国算法风险及其治理研究论文发表趋势如图1所示,大体可划分为3个阶段:1)萌芽阶段(2015—2017年).该阶段国内算法风险相关研究刚刚起步,发文数量较少,呈现零星、分散的特点,主要体现对于大数据、人工智能算法以及社会数智化转型的展望与忧思.2)升温阶段(2018—2019年).随着算法应用的广泛铺开,算法风险治理受到学界高度关注,发文数量大幅拉升,研究主要以集中于社会各领域算法风险、算法责任等为主题.3)高潮阶段(2020年至今).2020年以来,我国算法风险治理研究迎来高潮,学者们开始着眼于更为细化的算法风险以及其形成机理与权力运行机制、算法监管方案与治理体系构建等研究,整体展现出方兴未艾的繁荣景象.

图1 我国算法风险及其治理研究论文年度发表趋势

1 算法风险分类与表征

相较于人脑思考与决策,算法客观理性、精准高效等优势大幅提升了决策效率与准确度.然而,算法风险始终与便利相伴相生,伴随其应用根植于社会各个领域,并不断滋生出新的风险形态.

1.1 法律司法领域

算法引发社会空前变革的同时,也冲击着法律的秩序与规则.吴汉东[1]率先提出人工智能引致的法律问题框架.在此框架下,学者们就人工智能与算法的法律主体人格[2]、民事权利与责任[3-4]、刑法适用[5]、司法裁判[6]等议题展开探讨,算法风险研究也随之深入.一方面是算法自身归责难题,对于算法失误所招致的损害,如在自动驾驶汽车事故责任认定上,传统法律体系的应对表现出明显的滞后[7],被侵权者所能主张的法律救济亦因算法归责的难题缺乏有效进路.另一方面是算法嵌入司法风险,马长山[8]指出,算法虽能在一定程度上推进司法“形式正义”的实现,但却无补于“实质正义”的维护.司法程序中的算法嵌入也会带来技术权力侵蚀司法权力、算法决策弱化法官地位的风险[9],可能导致司法裁判中效率导向与公正导向的失衡,甚至损害司法公正.

1.2 政治治理领域

在政治治理领域,已有研究主要聚焦于政治生态风险和社会治理风险2大议题.政治生态风险方面,汝绪华[10]认为,算法对于民主选举、公投的操纵早已屡见不鲜,真伪难辨的政治性新闻传播引致群体极化风险.社会治理风险方面则主要分为3类视角:1)技术赋权视角下,算法嵌入社会治理带来了技术赋权与约束机制的不对等,公民权利让渡于算法权威形成“算法利维坦”[11];2)自动决策视角下,算法自动化决策运用的泛化使其在行政决策中的地位由辅助性工具走向依赖性手段,甚至取代人为决策[12],削弱了行政主体的自由裁量权;3)行政正义视角下,本应依法作出的行政裁决转由代码组成的算法替代完成,算法“统治”执法消解了法治政府的根基,与此同时,算法行政的信息壁垒对行政公开原则的侵蚀,致使公众难以对自己的合法权益主张救济[13].

1.3 信息传播领域

算法驱动着传播范式的变革,传播领域学者主要从社会群体和用户个体双重视角对算法风险展开论述.在社会群体视角下,传播的公共性面临被算法消解的危机,取而代之的是政治、资本与技术多重权力操纵下的社会偏见循环[14].彭兰[15]提出,社会阶层或将随着人们被算法的“精准”定义而逐渐固化,“强者愈强、弱者愈弱”的马太效应也随之放大.而在用户个体视角下,算法推荐机制使用户接触的信息范围不断窄化,成为“信息茧房”中的“算法囚徒”[16],个体认知被算法所分化,主流意识形态面临被削弱的风险.随着深度合成技术迅猛来袭,Deepfake,ChatGPT等人工智能自动生成内容(AI generated content, AIGC)商业应用为信息生产方式带来几近颠覆式的变革,虚假信息传播愈演愈烈,公民财产安全与隐私权利面临严峻挑战[17].算法自动生成内容在知识生产与传播领域引发学术诚信、署名权争议等诸多现实问题,其背后所蕴涵的科技伦理风险同样值得审视[18].

1.4 商业经济领域

算法在商业领域的大规模应用逐渐演化出算法价格歧视与算法共谋2大风险.算法价格歧视主要体现为“大数据杀熟”,即经营者利用信息不对称,通过大数据收集与算法技术分析实现对用户的差异化定价[19].算法共谋则可分为信使类、轴辐类、预测类及自主类4种类型[20-21],其中自主类算法共谋因算法具备自主学习能力,具有更强的隐蔽性与更大的监管难度[22].根据部分学者观点,上述2种风险在本质上均属于算法平台垄断风险[23],然而算法的黑箱特性与自主决策能力使得传统垄断规制效果大打折扣,甚至出现“失灵”现象[24],监管供给表现出明显不足,严重损害平台经济市场竞争秩序与良性发展.

在数字经济时代,人类对算法效率的过分倚重也埋下了巨大的社会隐患.除前述价格歧视外,基于算法的身份性偏见与歧视已然侵入各个领域,加剧了社会群体间的不平等.首当其冲的便是就业领域,人类社会所固有的性别、年龄、种族等歧视因素经代码化处理嵌入雇佣决策算法,无疑侵犯乃至剥夺了部分群体的平等就业权[25].同样出于效率优先的价值导向,以外卖为典型代表的平台企业借助算法实现对于劳动者的精准化管理和控制,其背后隐藏着平台经济模式下的资本操纵[26].平台企业为追求商业效率或经济利益,过度收集、滥用甚至转卖用户信息的行为屡见不鲜,隐私侵犯与数据泄露事件频发,对数据安全乃至国家安全造成严重威胁[27].

2 算法风险本质及溯因

算法风险表征虽因领域不同而各有侧重,但仍表现出相当程度的共性特征与共有成因.马长山[28]从伦理、极化、异化、规制以及责任5大方面对算法风险展开分析.苏宇[29]指出,算法风险主要源自设计失范、算法缺陷、信任缺失、防御薄弱以及监管机制不健全等具体原因.综合已有研究观点,算法风险主要可归于算法黑箱、算法歧视以及权力异化3大维度,众多学者分别从上述维度对算法风险成因进行了深入阐释,可由此归纳出算法风险形成机理,如图2所示.

图2 算法风险形成机理

2.1 算法黑箱

仇筠茜等人[30]指出,算法通过预先设定规则或自主学习方式,对输入数据进行处理和运作,使得人们难以真正知晓这一复杂过程的运行状况,“算法黑箱”由此产生.算法规则的封装隐藏了算法设计缺陷,赋予了损害过程与结果隐蔽性,并极有可能导致算法问责的失效,可信算法的建构面临重重挑战[31].

目前学界已对算法黑箱的成因开展了一系列研究,美国学者Burrell[32]的“三因素论”受到国内学者的普遍认可:第一,算法本身具有保密性质,算法研发或控制者缺乏将其对外披露的意愿;第二,算法技术壁垒的客观存在,使得非专业人员难以理解算法的运行逻辑与真实内涵;第三,算法的自主学习特性导致其运行过程变得极其复杂,甚至超出算法设计人员所能感知的范畴.

2.2 算法歧视

歧视问题在人类社会中由来已久,而算法的应用使得这一传统问题展现出更强的复杂性与隐蔽性.郑智航等人[33]从生成机制维度,将算法歧视归为偏见代理型、特征选择型与算法杀熟型3种基本类型.刘友华[34]则从权益保护维度,将其划分为损害公众基本权利类、损害竞争性利益类以及损害个体民事权益类等不同类别.

综观已有研究,算法歧视根源主要有三:一是源自人类自身偏见;二是源自输入数据偏差;三是源自算法自主学习过程.第一,算法由人类所设计,其与生俱来便继承了标签式分类、范畴化认知等局限,加之研发者价值理念、固有偏见乃至主观恶意的嵌入,算法歧视的产生也就无可避免.第二,正所谓“偏见进,偏见出”,原始数据的质量、规模以及数据处理流程中的偏差,都有可能引发小样本数据被噪声化处理、敏感性数据未被有效保护等问题,从而导致歧视性结果的生成.第三,算法所具备的自主学习能力,使其对已有偏见进行无意识的强化与放大,开启算法偏见与歧视的无限循环,往往更难以被感知和预测[35-36].

2.3 权力异化

高效、客观、智能等“算法理性”特征,为算法嵌入社会治理提供了广阔发展空间,并由此催生出算法权力这一概念.作为一种泛权力,算法权力实质表现为对于社会主体思想与行为上的引导和操控,以此实现对于社会治理模式的逻辑重构[37].究其来源,算法利用其海量数据处理、深度自主学习等能力优势,以嵌入方式实现对于社会权力运行的持久性掌控[38],从而衍生权力异化风险.

从宏观社会层面讲,在技术类企业主导算法研发与大数据运作的格局下,资本受利益驱使,依仗技术门槛与场域优势实现算法操纵与数据滥用.对算法自动化决策的依赖可能导致“影子官僚”“屏幕官僚”出现[39],公权力被算法俘获,政府公信与程序正义遭受质疑,在一定程度上消解着司法公正、政治正义与社会平等,甚至存在逐步演化出数字信息鸿沟,加剧算法霸权的可能[40].而在微观个体层面,公民个体知情权、隐私权等部分合法权利让渡于算法权力,信息获取渠道、思想意识形态为算法所框定,人的主体地位面临严峻挑战[41].

关于算法风险的类型及其成因,学界向来众说纷纭.然而各种风险归根结底都离不开有关算法黑箱、算法歧视以及算法权力三者的讨论.算法黑箱隐含算法偏见、催生算法权力,并凭借其独有的隐蔽性加剧了偏见循环与权力异化[42],通过算法依赖、算法失误、算法操纵、算法共谋等风险中介引发各类风险.算法黑箱因此成为算法风险生成的根本肇因,这也是算法风险治理之中枢所在.

3 算法风险治理路径

面对各类风险的侵袭,算法治理成为亟待解决的社会性难题,学界从不同视角对此展开了持久而深入的探赜.综观众多治理方案,可归纳出技术规制、权责规范与生态优化3条治理路径,其框架如图3所示:

图3 算法风险治理框架模型

3.1 技术规制路径

算法风险本质上属于技术风险,因此理应从技术层面实现风险的规制,以数据保护保障信息安全,以算法透明治理算法黑箱,以审查评估推动算法合规.

1) 数据保护.作为算法的燃料,数据的滥用或泄露无疑是算法风险的关键诱因.从数据收集、流转、处理到删除,学者们就数据保护的具体措施展开了广泛的讨论.在数据收集方面,明确数据权利主体,遵循“最小目的”“明示同意”等原则,保障数据主体知情权,避免数据侵权与滥用[43].在数据流转方面,设立数据溯源机制,实现数据流转与运作全流程留痕,以此化解算法决策失误归因归责难题[44].在数据处理方面,实行数据分级制度,针对不同等级数据采取特定保护措施,推进数据安全监管制度[45].在数据删除方面,“被遗忘权”“删除权”等概念的引入,为数据与算法治理提供了合理进路[46].参考他国做法设置机构内部数据保护专员,亦可通过强化数据安全责任的方式化解算法风险的生成.

2) 算法透明.“黑箱”的封装使得算法风险难以被感知、控制和化解.因此,学界围绕“算法透明”这一理念展开激烈争论,以期破解黑箱难题.批判派指出,算法透明具有天然缺陷,其正当性、可行性与必要性均存在瑕疵[47].而支持派认为算法透明不仅可行,且能有效增进算法可理解性与可责性[48].具体而言,算法透明可落地为设置算法解释权、履行告知义务、参数披露、源代码公开等实施方案[49].张凌寒[50]率先提出应通过法律途径设立算法解释权以控制算法自动化决策风险,使得算法解释权这一概念备受关注.欧盟《通用数据保护条例》所构建的算法解释权框架,为算法治理体系的建立提供了制度样本[51].美国则针对不同领域设置了场景化算法解释要求[52],上述2类规制方式为我国本土化算法解释权的构建提供了启示和借鉴.在已有学者研究基础上,丁晓东[53]就算法解释权的争议与困境展开阐释,提出基于信任关系的算法解释权制度构建.

3) 审查评估.行业标准的制定与审查制度的施行是算法风险治理的关键路径.相较于伦理标准,技术标准具备更强的可操作性.张欣[54]认为,算法相关标准的设立能够削弱算法的“黑箱化”设计倾向,从研发源头对算法风险施以有效控制.在明确算法监管标准的前提下,许可[55]基于我国算法治理制度现实,对算法备案制度的内涵、意义、内容以及范围作出了较为详尽的阐释.算法影响评估是算法审查的核心环节,相较于封闭合规型评估制度,开放反思型制度在促进算法透明、程序正当、社会审查等方面均更具优势[56].

3.2 权责规范路径

算法的技术性风险可通过技术规制加以化解,但其应用所衍生出的各类社会问题,引发了社会主体间权利、权力与责任关系的扰动与失衡,因此有必要通过权责规范路径施以治理,以法律规制完善制度设计,以算法问责倒逼算法负责,以权利救济保障各类法益.

1) 法律规制.算法冲击下,传统法律治理模式亟需更新与转型,以充分提升算法治理效能.汪庆华[57]认为,中国、美国与欧盟在算法法律规制模式上各有侧重,分别呈现出分散式立法、司法判例规制以及数据源头治理3类形态,不同法域中算法法律规制模式虽各有千秋,但与具体应用场景相结合为其共性特征,采取场景化的规制路径可有效破解机械应用传统算法规制模式所引发的困境[58].在前述研究基础上,“渐进式”立法与“顶层式”立法并行的治理模式被提出,为算法规范化发展提供完善的法制保障[59].

2) 算法问责.多数学者对于算法在当前发展阶段并不具备独立的责任主体地位这一观点持肯定态度,因此刺破算法的“面纱”,面向算法实际控制者实施问责成为当前算法治理之关键.建立网络平台算法问责制度,可有效避免算法实际控制者以“技术中立”等理论为借口规避应有责任,同时也可作为实现算法场景化规制的重要渠道[60].肖红军[61]立足社会责任视角,指出从起初的责任否定观、道德算法观,再到“可信赖的算法”观以及“负责任的算法”观,算法责任观的迭代标志着社会主体对于算法及其责任本质的认知演变,引领了算法应用的发展走向.

3) 权利救济.作为公民权利救济重要渠道的私益诉讼,在算法侵权责任的判定上却不尽人意,受侵害者常常面临诉讼成本过高、举证压力过大、技术认定复杂等诸多难题.此时,公益诉讼、集体诉讼以及举证责任倒置等制度的介入可显著提升受侵害者与算法控制者博弈的能力,充分保障受侵害个体的合法权益[62].此外,针对推荐算法所引致的权利侵害,建立便利畅通的反馈与维权渠道不失为快捷有效的救济途径.目前,《互联网信息服务算法推荐管理规定》已明确要求算法推荐服务提供者设置用户申诉、投诉入口并建立处理反馈机制,维护公民合法权益[63].

3.3 生态优化路径

算法本身及其与各领域相互交织的复杂性,决定了单靠技术规制与权责规范无法最大程度发挥风险治理效能,必须加快构建向上向善的算法生态格局,形成“伦理引导—技术改进—算法优化—素养提升”的算法发展正反馈长效机制,以伦理规范拨正价值取向,以技术研发纵深风险防御,以素养教育强化算法驾驭.

1) 伦理规范.伴随人工智能介入社会程度不断加深,算法所孳生的伦理困境也愈益凸显.世界各国虽就人工智能算法的基本伦理达成一定共识,提出了《阿西洛马人工智能原则》与欧盟《可信人工智能伦理指南》等伦理准则,但具备普适约束力的伦理规范在短期内尚难落地.对此,可从微观层面出发,创设人工智能算法伦理评估审查标准体系,借助“伦理审计”等手段反向核查算法是否存在伦理偏误,以达绳愆纠谬之效[64].

2) 技术研发.算法技术研发作为算法风险产生的关键环节,对于推进算法妥善应用与安全运行具有重大战略性意义,已有研究主要关注2大主题:一是机制优化.为防范技术权力异化风险,政府部门应充分享有政务系统算法研发主导权,通过对核心算法与数据资源的掌控实现对于算法权力的制衡[65].二是技术改进.左卫民[66]提出,从技术层面实现算法的改进,应从算法的准确性、科学性、透明性以及歧视性4个方面充分加以考虑,使得算法技术更好服务于我国现实需要.

3) 素养教育.面对算法的全方位渗透,算法素养成为识别、防范与抵御算法风险之要端[67].就算法使用者而言,算法素养通常指用户群体对算法运作逻辑的认知水平、对算法现实存在的感知程度以及对算法所致影响的判断能力.为避免算法对于人类主体地位的侵蚀,提升人类与之共存所需的辖制力,算法素养教育的社会化普及势在必行.具体而言,可从技能、知识、思维、动机和认知5大层面综合提升社会公众的算法素养能力,助推数字鸿沟的弥合,从而为算法时代技术风险的化解提供新的方向[68].

4 结 语

本文基于对已有研究的梳理,对算法风险形态进行场景划分,厘清了不同领域算法风险的基本内涵;深入剖析算法风险成因,阐明了算法风险形成的底层逻辑;最后对算法风险治理策略进行系统归纳,创造性地提炼出我国算法风险治理框架关系模型.研究表明,我国算法风险治理研究虽已取得较为丰硕的成果,但仍存在研究内容趋同、微观研究薄弱、系统研究缺位等不足.未来可从融合理论实践、推动学科交互、加强系统研究等方向进一步深入探索,加快构建符合中国国情、具有中国特色的算法风险综合治理体系.

猜你喜欢

算法
基于MapReduce的改进Eclat算法
Travellng thg World Full—time for Rree
进位加法的两种算法
基于CC2530的改进TPSN算法
基于BCH和HOG的Mean Shift跟踪算法
算法初步两点追踪
基于增强随机搜索的OECI-ELM算法
一种改进的整周模糊度去相关算法
一种抗CPS控制层欺骗攻击的算法
Wiener核的快速提取算法