算法审计客体论
2024-09-11郑石桥
【摘要】要科学地建构算法审计制度, 必须正确地认识算法审计的各个基础性问题, 算法审计客体是重要的基础性问题之一, 本文聚焦于此。在资源类委托代理关系中, 代理人在履行其承担的经管责任时使用了算法, 因此, 代理人承担的经管责任中包括了算法责任。在许多情形下, 代理人使用的算法是由专门的算法开发者开发的, 并且由专业的机构负责算法营运, 算法使用者、 算法开发者和算法营运者成为算法使用者所使用算法的共同责任主体, 因此, 三者都成为算法审计客体。本级政府与算法监管部门的关系中, 算法监管部门的法定职责中包括算法监管, 因此, 算法监管责任履行情况也就成为针对这些部门的重要审计内容, 算法监管部门也就成为算法审计客体之一。
【关键词】算法;委托代理关系;算法责任者;算法监管责任者;审计客体
【中图分类号】 F239.44 【文献标识码】A 【文章编号】1004-0994(2024)17-0081-5
一、 引言
随着人工智能的广泛使用, 作为其“灵魂”的算法已经深入人们的工作和生活中, 算法提高了工作效率效果, 也便利了生活, 但是, 算法的不当及缺陷也带来不少的负面问题, 因此, 人们在享受算法之利时, 也需要防范算法之恶, 算法治理就是应对算法之恶的制度体系, 算法审计以审计固有功能在算法治理体系中发挥独特作用。然而, 算法审计要真正发挥作用, 必须正确地认识算法审计的各个基础性问题, 在诸多的算法基础性问题中, 本文专门讨论算法审计客体, 也就是算法审计究竟审计谁。
现有文献中, 算法审计客体的研究还处于起步阶段, 相关的研究呈现碎片化, 且未能贯通经典审计理论。本文以算法委托代理关系为切入点, 贯通经典审计理论, 从学理上阐释算法审计客体, 以深化人们对算法审计客体的理论认知, 并为建构和完善算法审计客体相关制度提供理论参考。
二、 文献综述
算法审计客体的核心问题是算法审计究竟审计谁, 围绕这一话题, 少量文献直接论及算法审计客体, 与此相关的是一些文献关于算法责任者的论述。
(一) 关于算法审计客体的直接论述
现有文献中, 直接论述算法审计客体的较少, 即使如此, 还是存在多种观点, 本文分别称之为算法行为观、 算法责任单位观。算法行为观认为, 算法审计客体是算法相关行为。张旭(2022)认为, 算法治理的对象是使用算法提供服务的行为。由于算法审计是算法治理体系的组成部分, 这意味着算法审计客体也是使用算法提供服务的行为。陈雄燊(2023)认为, 算法审计对象包括被审计单位的算法研发与应用活动。算法责任单位观认为, 算法审计客体是算法责任主体。张涛(2024)认为, 实施算法审计的主体应当独立于算法系统的设计者、 使用者、 运营者等主体。这表明, 算法系统的设计者、 使用者、 运营者等责任单位是算法审计客体。此外, 王兆毓(2023)认为, 算法审计对象包括算法全生命周期。当然, 对算法生命周期的各个阶段进行审计, 其审计客体要么是该阶段的算法责任单位, 要么是该阶段的算法行为, 所以, 这种观点可以归结于算法行为观和算法责任单位观。
(二) 关于算法责任者的论述
现有文献对算法责任者有两种观点, 本文分别称之为算法全部主体观和算法使用者观。算法全部主体观认为, 算法使用者、 算法开发者、 算法营运者和算法监管者都应承担算法责任(张凌寒,2019;苏宇,2020)。算法使用者观认为, 算法责任的承担者是算法使用者, 并不包括其他算法相关单位(刘颖和王佳伟,2021;任颖,2022)。
上述文献表明, 算4dQ0DjvpPe2qSO3+gdcjTw==法审计客体的研究还处于起步阶段, 关于算法审计客体的直接论述中, 算法行为观认为算法审计客体是算法相关行为, 这是将算法审计内容作为审计客体了, 混同了审计客体和审计内容。算法责任单位观认为, 算法审计客体是算法责任主体, 从方向上来说, 这种观点是正确的, 但是, 现有文献未能基于算法委托代理关系来分析算法责任主体, 因此, 未能贯通经典审计理论。基于算法责任者的论述, 如果算法责任者作为审计客体, 算法使用者观下的审计客体就是算法使用者, 很显然是不恰当的, 而算法全部主体观则将各类算法责任者都作为审计客体, 其方向是正确的, 但是, 未能贯通经典审计理论。整体来说, 关于算法审计客体还是缺乏一个贯通经典审计理论的系统化的理论框架。
三、 理论框架
在经典审计理论看来, 审计客体是资源类委托代理关系中的代理人, 也就是经管责任的承担者(郑石桥,2021), 但是, 算法责任者较为复杂, 为了阐释清楚算法审计客体, 必须厘清算法责任者, 为此, 需要按顺序阐释以下问题: 算法委托代理关系, 算法责任者的厘清, 算法本身能否成为独立的算法责任主体以及算法审计客体。
(一) 算法委托代理关系
算法所涉及主体的基本情况如图1所示。很显然, 各种关系中的主体之间都存在信息不对称, 因此, 根据信息经济学, 这些关系都是委托代理关系, 具有信息优势的一方是代理人, 具有信息劣势的一方是委托人。虽然都是委托代理关系, 但是, 这些关系中的算法权责安排不同, 因此, 委托代理关系的性质也不同, 审计需求及审计客体的存在性也不同。
关系1是典型的资源类委托代理关系, 在这种关系中, 委托人为代理人提供资源, 并明确了代理人使用这些资源所要履行的职责。在这种关系中, 存在合约不完备问题, 代理人具有信息优势, 许多情形下代理人与委托人存在激励不相容问题, 同时, 环境会影响代理人责任履行的结果, 并且这些环境因素还经常变化, 在上述这些条件下, 代理人对委托人承担了最大善意使用所接受的资源来履行所要求的职责的责任, 这种责任就是经管责任(也就是受托责任)。特殊之处在于, 代理人在履行其经管责任时使用了算法, 算法的状况对代理人经管责任履行情况产生重要影响。在许多情形下, 代理人本身并不具备开发和营运算法的能力, 需要借助专业机构来开发和营运算法, 因此, 算法是由算法开发者、 算法营运者和算法使用者共同决定的。根据经典审计理论, 在资源类委托代理关系中, 为了应对代理人的代理问题和次优问题, 需要建立治理体系, 审计是其中的成员, 既然如此, 当然也就存在审计客体①。
关系2是算法使用者与算法相对人之间的关系, 这种关系是二者之间有经济活动, 但是, 这种经济活动是以算法为平台来开展的。通常来说, 经济活动的双方应有完备的合约, 任何一方面的违约行为, 都可以通过司法诉讼来解决。由于二者是基于算法来实施经济活动, 基本的原则是, 如果算法相对人不同意算法使用者提供的算法, 则双方就不会发生经济活动, 如果同意, 则就视同算法相对人同意算法。当然, 即使算法相对人同意算法使用者提供的算法, 算法也必须符合国家颁布的算法相关法律法规。整体来说, 关系2是合约类关系, 这种关系中, 解决矛盾的最有效方式是司法诉讼, 并不存在审计需求, 当然也没有审计客体②。
关系3是算法开发者与算法使用者的关系, 算法使用者委托算法开发者开发算法, 算法使用者可以显性或隐性地要求算法开发者开发的算法符合以下要求: 不存在违反国家有关算法的法律法规的合法性问题, 不存在违反公序良俗的伦理性问题, 不存在不能有效完成任务的效率效果性问题。算法使用者可能无法对上述要求进行验收, 但是, 一旦出现这些问题, 都视同算法开发者违约, 都要承担责任。因此, 从这个意义上来说, 算法使用者和算法开发者之间的合约是完备的, 二者的关系仍然是合约类关系, 根据经典审计理论, 这种关系中不存在审计需求, 当然也就没有审计客体③。
关系4是算法营运者和算法使用者的关系, 由于算法使用者对算法并不专业, 而算法营运者是专业的, 也许算法使用者与算法营运者无法就算法的营运达成详细的具体条款, 但是, 算法使用者可以要求算法营运者对算法的不恰当营运承担责任。如果因为算法营运出现问题, 则算法营运者应该承担责任, 在这种要求下, 算法使用者与算法营运者之间实质上就存在完备合约了, 它们之间的关系就是以完备合约为基础了, 这种关系就是合约类委托代理关系, 由于不存在合约不完备问题, 这种关系中不存在审计需求, 当然也就没有审计客体了。
关系5、 关系6、 关系7是政府设立的算法监管部门对算法开发者、 算法使用者和算法营运者的监管关系, 在这种关系中, 监管方只能按相关法规的规定来实施监管, 而被监管方也必须按相关法规的要求接受监管, 其性质是监管类委托代理关系。由于算法相关法规发挥了类似完备合约的作用, 因此, 这种关系的性质与合约类关系很相似, 根据经典审计理论, 不存在审计需求, 当然也就不存在审计客体④。
关系8是本级政府与其设立的算法监管部门之间的关系, 政府授予该部门算法监管的法定职责, 并为其提供履行这种法定职责的资源, 这种关系的性质是资源类委托代理关系, 委托人和代理人之间存在信息不对称、 激励不相容、 合约不完备和环境不确定等问题, 根据经典审计理论, 这种关系中存在审计需求⑤。
(二) 算法责任者的厘清
代理人在履行其经管责任时使用了算法, 算法对代理人经管责任履行情况有重要影响, 因此, 代理人需要对算法承担责任, 这种责任是经管责任的组成部分, 简称算法责任。但是, 如果代理人本身并未开发算法, 而是由算法开发者来开发, 并且, 算法使用者本身也可能并不营运算法, 而是由专业机构来营运算法, 那么, 算法开发者和算法营运者是否也要承担算法责任呢?答案是肯定的, 算法开发者和算法营运者也要承担算法责任, 二者与算法使用者同是算法共同责任者。下文将分析共同承担责任的原因。
人工智能系统可以作为一种产品, 不当的算法是人工智能系统的产品缺陷, 算法责任类似于产品质量责任, 张欣(2019)认为可借鉴产品责任的相关规则, 借助司法裁判以个案视角逐步探索确立算法责任的合理边界。《中华人民共和国侵权责任法》和《中华人民共和国产品质量法》都要求相关责任主体对产品缺陷承担责任。就人工智能系统中的算法来说, 算法使用者委托算法开发者开发算法, 在合约中可以显性或隐性地要求算法开发者开发的算法符合以下要求: 不存在违反国家有关算法的法律法规的合法性问题, 不存在违反公序良俗的伦理性问题, 不存在不能有效完成任务的效率效果性问题。由于算法的复杂性及算法使用者本身的专业技术能力限制, 在算法移交时, 算法使用者可能无法对上述条款进行验收, 但是, 如果算法在使用中出现这些问题, 则可以视同算法开发者违约, 同时也表明算法这种产品的设计或制造存在缺陷, 算法开发者要承担责任。当然, 人工智能系统是一种特殊的软件产品, 不当的算法可以作为软件产品缺陷, 算法责任类似于软件产品责任, 唐林垚(2020)认为技术开发方对算法妨害负有主要责任, 该责任仅当其证明公共滋扰是由于算法运营商的不当使用或拙劣修改而造成时才能得以免除。
以上讨论了算法开发者的责任, 从产品责任角度来说, 算法营运者就是产品的操作者, 如同机器设备的操作人员, 如果因机器设备操作不当而导致事故, 则操作人员当然也就应承担相应的责任, 算法营运者也不例外, 如果算法的负面后果是由于算法营运不当而导致的, 则算法营运者作为算法的操作人员也要承担操作不当的责任。
算法使用者委托算法开发者开发算法, 委托算法营运者营运算法, 是人工智能系统的实际拥有者, 类似于产品的所有者, 对于产品所带来的负面问题当然要承担责任。所以, 整体来说, 算法使用者、 算法开发者和算法营运者都要对算法承担责任。那么, 如何承担责任呢?基本的原则有三条: 一是责任归属原则, 算法使用者、 算法开发者和算法营运者应当根据其在算法中的角色和职责来确定责任; 二是过错责任原则, 如果算法出现问题, 需要考虑的是谁存在过错, 如果算法开发者和算法营运者能够证明他们在算法设计和运营过程中没有过错, 那么他们可能不会被追究责任; 三是比例责任原则, 在某些情况下, 如果算法使用者、 算法开发者和算法营运者都对算法问题负有责任, 那么他们将根据各自的责任大小来分担责任(钱玉文,2017)。
基于以上分析得出的结论是, 算法使用者、 算法开发者和算法营运者是算法的共同责任者, 他们基于责任归属原则、 过错责任原则和比例责任原则承担算法责任。与此相关的两个问题是: 算法监管者是否是算法责任者?算法相对人是否也是算法责任者呢?
首先, 算法监管者是否是算法责任者。如果认同算法责任类似于产品质量责任, 则算法监管部门就是产品质量监管部门。《中华人民共和国产品质量法》第八条规定: “国务院市场监督管理部门主管全国产品质量监督工作。国务院有关部门在各自的职责范围内负责产品质量监督工作。” 因此, 质量监管部门在产品质量出现问题时是有责任的, 它们应当通过有效的监督和管理来确保产品质量, 保护消费者权益。算法监管责任也与此类似, 政府设立的算法监管部门对算法监管承担主管责任, 排查算法安全问题, 督促各单位利用算法加大正能量传播、 处置违法和不良信息、 整治算法滥用乱象, 有关主管部门(如工业和信息化部门、 公安部门、 国家市场监督管理部门)在规范互联网信息服务算法应用、 保护用户合法权益、 维护社会公平公正方面也承担责任。因此, 整体来说, 承担算法监管责任的政府部门也是算法责任主体, 只是其承担的责任是算法监管责任, 这不同于算法使用者、 算法开发者和算法营运者的算法责任。
其次, 算法相对人是否也是算法责任者。如果认同算法责任类似于产品质量责任, 则算法相对人的责任类似于消费者的责任, 算法相对人是算法消费者。《中华人民共和国产品质量法》第二十二条规定: “消费者有权就产品质量问题, 向产品的生产者、 销售者查询; 向市场监督管理部门及有关部门申诉, 接受申诉的部门应当负责处理。”该法并未明确消费者在质量事故中的责任, 所以, 通常来说, 在产品质量事故中, 消费者通常不需要承担任何责任。当然, 消费者在购买商品时, 仍然需要履行一定的检查义务, 以确保商品没有明显的缺陷。然而, 这并不意味着消费者需要承担产品质量问题的责任。如果产品存在隐蔽缺陷, 消费者在使用过程中发现问题, 仍然可以向销售者或生产者索赔。需要注意的是, 在实际案例中, 如果消费者的损害是因为其不当使用, 且存在重大过错, 消费者自身可能需要承担一定的责任。但是, 如果产品本身的缺陷是导致损害的主要原因, 那么生产者和销售者应当承担主要责任。对于算法问题, 算法使用者使用的算法是由算法开发者开发的, 由算法营运者营运的, 算法相对人只是在与算法使用者发生的经济活动中被动“消费”了算法, 对于算法的设计、 开发、 营运不发挥任何作用, 当然也就不用承担算法相关的任何责任。那么, 算法相对人是否有可能存在算法使用不当, 从而也要承担一定的责任呢?本文认为, 人工智能系统中的算法应该是智能的, 要具有容错性(fault tolerance), 在遇到错误输入或操作时, 仍然能够正常工作或采取适当措施以确保系统安全和稳定的能力, 至少不会因为这些错误而导致更严重的问题或损害。如果仅仅因为算法相对人的错误操作就出现较严重的负面问题, 则可以认为这是算法本身存在缺陷, 也就是算法没有容错性, 因此, 即使在此情形下, 算法相对人仍然不需要承担算法责任。
(三) 算法本身能否成为独立的算法责任主体
2016年, 欧洲议会的 “机器人法”立法建议报告指出, 从长远来看要建立机器人的特殊法律地位, 以确保至少最复杂的自动化机器人可以被确认为享有电子人(electronic persons)的法律地位(郑戈,2018)。沙特阿拉伯则在没有相关立法的情况下于2017年授予一家香港公司生产的机器人索菲亚以公民身份并向“她”发放了护照(郑戈,2018)。不少研究性文献赞成算法本身作为算法责任主体。司晓和曹建峰(2017)认为, 有些人工智能在运作过程中对他人造成损害, 应承担相应的责任, 比如特斯拉的无人驾驶汽车造成交通事故, 无人驾驶汽车本身可作为责任主体。梁志文(2017)认为, 人工智能生成的内容有的已经达到“作品”的独创性高度, 如果不明确这些利益的归属, 将有大量的“无主物”在社会上漂浮, 而赋予人工智能主体资格是一个可行的方案。王利明(2018)认为, 人工智能机器人已经逐步具有一定程度的自我意识和自我表达能力, 可以与人类进行一定的情感交流。陈吉栋(2018)认为, 可运用拟制的法律技术, 将特定情形下的人工智能认定为法律主体。郭少飞(2018)认为, 应当设立新的法律主体类型“电子人”。苏宇(2019)指出, 算法规制正在超越传统上由人类权利义务关系形成的法律关系框架, 而将法律关系延伸到算法本身。唐林垚(2020)认为: 智能机器人就是传统委托代理关系中的代理人, 算法运营商和技术开发方则是传统委托代理关系中的被代理人; 智能机器人和算法运营商应当被视为客户的“共同代理人”; 当智能机器人因算法决策致使客户蒙受损失时, 算法运营商、 技术开发方和智能机器人对外应当承担连带责任, 连带责任的内部份额则根据各自责任大小确定。
当然, 也有不少的研究性文献反对算法本身作为算法责任主体。龙文懋(2018)认为: 无人驾驶汽车发生交通事故, 应该属于产品责任问题, 在原有的产品责任框架下完全可以解决; 将人工智能拟制为法律主体不具备可操作性。郑戈(2018)认为, 如果机器人对人造成了损害, 最终承担责任的始终是机器人的“主人”, 因为机器人不可能有独立的收入, 机器人无论以何种方式承担责任, 最终的责任承担者都是人, 这使得其法律人格显得多余和毫无必要。刘颖和王佳伟(2021)认为: 算法只是服务于其控制者(开发者)以达到特定目的的工具; 明确了算法的工具属性和人的主体性, 因而须由算法控制者(开发者)承担责任。田野(2022)认为, 表面来看算法是计算机所为, 不过稍加检视即可发现躲在算法幕后实际控制的仍旧是人, 算法不过是人类的代言人。Raji等(2022)认为, 算法本身不能被追究责任, 因为它们不是道德或法律代理人, 但设计和部署算法的组织可以。蔡星月(2023)认为, 算法规制的真正对象不应落脚于算法, 而应揭开算法的面纱, 穿透算法去规制算法背后的种种力量。
本文认为, 如果认同算法责任类似于产品质量责任, 则算法本身就无法成为独立的算法责任主体, 从逻辑上来说, 算法是人工智能系统的核心组成部分, 人工智能系统作为产品, 当然无法对其质量事故承担责任; 从可行性来说, 承担产品质量责任的基础是财产赔偿, 没有财产权就无法进行财产赔偿, 当然也就无法承担产品质量责任, 在算法没有财产权之前, 如果因为算法而导致的赔偿只能由算法使用者、 算法开发者、 算法营运者根据各自的责任来赔偿, 则实质责任主体就不是算法, 而是实际承担赔偿责任的主体。当然, 在人工智能未来的发展中, 其本身能否享有财产权, 这是现在难以有定论的问题, 从目前来看, 这种可能性不大。因此, 本文的结论是, 至少从近期来看, 算法本身不是独立的算法责任主体。
(四) 算法审计客体
基于以上分析, 可以得出的结论是: 关系1、 关系8中存在算法审计需求, 当然也就存在算法审计客体; 算法使用者、 算法开发者、 算法营运者、 算法监管部门都是算法责任主体。那么, 算法审计客体有哪些呢?在经典审计理论看来, 资源类委托代理关系中的代理人是审计客体(郑石桥,2021)。图1所示的算法委托代理关系中, 关系1和关系8是资源类委托代理关系, 这些关系中存在算法审计需求, 这些关系中的代理人便是算法审计客体。
关系1是典型的资源类委托代理关系, 代理人在履行其承担的经管责任时使用了算法, 因此, 代理人承担的经管责任中包括了算法责任, 代理人成为算法责任的承担者之一, 因此, 成为算法审计客体。但是, 在许多情形下, 代理人使用的算法是由专门的算法开发者开发的, 并且由专业的机构负责算法营运, 算法使用者与算法开发者、 算法营运者之间通过隐性或显性的合约对算法开发和算法营运进行了约定, 但是, 由于算法本身的复杂性, 算法使用者难以基于这些条款进行一次性验收, 只能通过使用中是否存在负面问题来检验算法是否达到约定的要求。在这种合约背景下, 算法开发者、 算法营运者也就成为算法使用者所使用的算法之责任主体之一, 算法使用者、 算法开发者和算法营运者成为算法使用者所使用算法的共同责任主体。而这种算法又是服务于代理人履行其承担的经管责任的, 要审计代理人经管责任履行情况, 必须涉及其履行责任所使用的算法, 这就必然会对算法责任者进行审计。所以, 算法使用者、 算法开发者和算法营运者都成为算法审计客体。
关系8是本级政府与算法监管部门的关系, 算法监管部门的法定职责中包括算法监管, 这种责任可以称为算法监管责任, 这种监管责任的履行状况对整个社会的算法向善有着积极的意义。因此, 本级政府通过审计机构对作为其代理人的算法监管部门进行审计时, 将算法监管责任履行情况作为重要的审计内容, 这也属于广义的算法审计, 算法监管部门也就成为广义的算法审计客体。
四、 结论
算法审计以审计固有功能在算法治理体系中发挥独特作用, 科学建构算法审计制度是算法审计真正发挥作用的前提, 而算法审计制度自信的基础是正确地认知算法审计的各个基础性问题, 在许多的算法审计基础性问题中, 本文聚焦算法审计客体。
算法相关的委托代理关系共有8种主要情形, 合约类委托代理关系和监管类委托代理关系中不存在算法审计需求, 资源类委托代理关系中存在算法审计需求, 当然也就存在算法审计客体。
关系1是典型的资源类委托代理关系, 代理人在履行其承担的经管责任时使用了算法, 因此, 代理人承担的经管责任中包括了算法责任。但是, 在许多情形下, 代理人使用的算法是由专门的算法开发者开发的, 并且由专业的机构负责算法营运, 算法使用者、 算法开发者和算法营运者成为算法使用者所使用算法的共同责任主体, 所以, 三者都成为算法审计客体。
关系8是本级政府与算法监管部门的关系, 算法监管部门的法定职责中包括算法监管, 这种责任可以称为算法监管责任, 因此, 算法监管部门也就成为广义的算法审计客体。
【 注 释 】
1 ~ ⑤ 关于算法审计需求的详细分析,请参阅拙作《算法审计需求论》(郑石桥,2024)。
【 主 要 参 考 文 献 】
蔡星月.以算法规制算法[ J].华中科技大学学报(社会科学版),2023(4):111 ~ 117.
陈吉栋.论机器人的法律人格——基于法释义学的讨论[ J].上海大学学报(社会科学版),2018(3):78 ~ 89.
陈雄燊.人工智能伦理风险及其治理——基于算法审计制度的路径[ J].自然辩证法研究,2023(10):138 ~ 141.
郭少飞.“电子人”法律主体论[ J].东方法学,2018(3):38 ~ 49.
梁志文.论人工智能创造物的法律保护[ J].法律科学(西北政法大学学报),2017(5):156 ~ 165.
刘颖,王佳伟.算法规制的私法进路[ J].上海大学学报(社会科学版),2021(6):12 ~ 32.
龙文懋.人工智能法律主体地位的法哲学思考[ J].法律科学(西北政法大学学报),2018(5):24 ~ 31.
钱玉文.论我国产品责任归责原则的完善——以《产品质量法》第41、42条为分析对象[ J].中国政法大学学报,2017(2):84 ~ 91+161.
任颖.算法规制的立法论研究[ J].政治与法律,2022(9):98 ~ 111.
司晓,曹建峰.论人工智能的民事责任:以自动驾驶汽车和智能机器人为切入点[ J].法律科学(西北政法大学学报),2017(5):166 ~ 173.
苏宇.算法规制的谱系[ J].中国法学,2020(3):165 ~ 184.
苏宇.论算法规制的价值目标与机制设计[ J].自然辩证法通讯,2019(10):8 ~ 15.
唐林垚.人工智能时代的算法规制[ J].中国社会科学文摘,2020(5):117 ~ 118.
田野.平台用工算法规制的劳动法进路[ J].当代法学,2022(5):133 ~ 144.
王利明.人工智能时代对民法学的新挑战[ J].东方法学,2018(3):4 ~ 9.
王兆毓.生成式人工智能视阈下算法审计的制度构建与路径创新[ J].网络安全与数据治理,2023(8):6 ~ 12.
张凌寒.算法规制的迭代与革新[ J].法学论坛,2019(2):16 ~ 26.
张涛.通过算法审计规制自动化决策[ J].中外法学,2024(1):261 ~ 279.
张欣.从算法危机到算法信任:算法治理的多元方案和本土化路径[ J].华东政法大学学报,2019(6):17 ~ 30.
张旭.基于人权标准的算法治理新思路:企业算法合规义务[ J].人权研究,2022(2):87 ~ 104.
郑戈.算法的法律与法律的算法[ J].中国法律评论,2018(2):66 ~ 85.
郑石桥.审计基础理论[M].北京:中国人民大学出版社,2021.
郑石桥.算法审计需求论[ J].财会月刊,2024(16):77 ~ 82.
Raji l. D., Smart A., White R. N., et al.. Closing the Al accountability gap: Defining an end-to-end framework for internal algorithmic auditing[EB/OL].https://arxiv.org/abs/2001.00973,2020-01-03.