APP下载

环境决策算法化衍生风险及其法律规制

2023-05-30赵一丁陈亮

中国人口·资源与环境 2023年3期
关键词:法律规制风险

赵一丁 陈亮

关键词 环境决策;算法化;风险;法律规制

AI时代,作为解决特定问题而采取的确定且有限的步骤,算法迅速内嵌生态环境领域,且借助计算机模型对环境大数据进行自动收集与分析,以辅助环境决策,从而提升决策效率。由此,该研究将环境决策与算法深度适应与融合的过程,描述为“环境决策算法化”。然而,大的灾难几乎并列[1]。环境决策算法化惠泽环境保护的同时,亦衍生风险。目前,关于环境决策算法化衍生风险的规制研究,国内外学界尚未有涉及。学界对于算法的规制研究颇多,但多侧重宏观性的探讨,场景化的微观研究凤毛麟角。技术存在的意义在于应用,脱离应用场景的算法将沦为无生命的代码符号。因此,以环境决策算法化为特定场景的规制研究,具有深刻的实践价值与现实意义。该研究以环境决策与算法的互动为切入点,阐明环境决策算法化带来的双重效应,探究其衍生风险的根源,从技术与制度层面,分别提出针对性对策,促进算法在环境决策中的健康应用。

1 环境决策算法化的双重效应

技术上最伟大的胜利与最大的灾难几乎并列,其表象为技术带来生产力进步的同时,不乏伴随技术持有者对他人或社会利益的侵蚀。环境决策算法化场景下,此种技术上的“胜利”与“灾难”,表现为环境决策算法化的双重效应。

1. 1 效应之一:提高环境决策效率

根据西蒙(Simon)的决策理论,人类在认知能力有限、信息能力不足的情况下,依靠有限的认知做出有限理性的判断,不存在最优决策的可能。即,决策者拥有“信息”的多少与处理“信息”程度,决定决策的“质量”与“速度”。

1. 1. 1 提高“数字密集型”范式

范式(Paradigm)一词,由库恩[2]提出,指“一个成熟的科学共同体在某段时间内所认可的研究方法、问题领域和解题标准的活水源头”。可以说,范式是一种公认的模型或者模式。环境决策的范式从“经验”到“理论”,再到依靠定量分析的“计算”,每一种范式的诞生,除范式本身的发展外,往往依托外部环境的推动。

AI时代,算法崛起,催生“数据密集型”决策范式。与传统范式不同,“数据密集型”范式借助算法,将数据丢进巨大的计算机中去,只要有相互关系的数据,统计分析算法可以发现过去的科学方法发现不了的新模式、新知识,甚至新规律[3]。作为环境决策的新范式,“数据密集型”范式从数据范围到决策手段,均有显著变化,促使环境决策产生质的飞跃。一方面,生态环境数据体量扩充。遥感技术(RS)、地理信息系统(GIS)、全球定位系统(GPS)的广泛应用,为全方位、全过程地收集生态环境数据提供了可能。从数据规模来看,生态环境数据量也已从TB级别跃升到PB级别[ 4]。例如,目前中国林业大数据中心[ 5]数据量已超过1 PB,气象部门需要永久保存的数据目前约有4 PB~5 PB, 年增量约1 PB [6]。全球地面气象站监测网络集成了不同国家不同地区的实时天气观测数据,共包含100多种数据来源和35 000个气象站点[7],其主要获取参数包括云量、气压、风速、风向、温度、可见度、降水等。收集范围从“局部”向“全面”转化,必然带来充盈的生态环境数据体量。另一方面,生态环境数据的分析更趋客观。传统决策范式以人的经验或直觉确立目标,继之以定向分析。这种以目标驱动决策,“假设”到“验证”的过程,极具主观性。“数据密集型”决策范式则不设“假设”或“目标”,而是根据海量大数据,通过计算得到前所未知的信息或规律。算法对环境大数据迅速分类、删减、整合,实现对数据的客观分析,有利于环境决策的精确与公正。

1. 1. 2 “算法自主性”提高决策之率

除决策效能提高外,环境决策算法化的另一优势在于決策速度的提升,这主要得力于算法自主性。大数据时代,算法逐渐脱离了纯粹的工具性角色,而有了自主性和认知特征,甚至具备了自我学习的能力[8],逐步代替人类进行决策。然而,具体到生态环境领域,算法所呈现的并非绝对意义上的自主决策,也并非完全是单纯的系统性逻辑规则与数学模型,更多体现为通过算法自主性开发与建模,实现辅助决策。比如,算法系统自动收集环境大数据,且自动分类与整理,提取数据特征,衍生多种决策树,输出数亿条指令,瞬间生成相应的评估或预测,以辅助环境决策。可以说,除决策环节仍保留人的价值因素外,其余各环节很多被自动化的机器覆盖。因此,借助算法的自主性,环境决策的目标定制、方案设计、方案评估等步骤受到压缩和简化,传统人工干预的时间成本减少,环境决策之“率”得以提高。

正面效应的描述,更好地阐释了环境决策与算法之间的关系。显然,算法已渗透环境决策的运行,并处于决策的核心。数据场景、方式手段、决策程序等要素的显著变化,推动“效”与“率”的提高,环境决策的深度与广度得到极大的延伸。

1. 2 效应之二:增加衍生风险

海德格尔[9]认为,技术是一种解蔽方式,一切解蔽亦即真理的秘密[10]。然而,除揭示真理外,技术的颠覆性创新本身就是一种新的遮蔽,阻碍人类对技术的客观认识,进而形成新的风险,甚至最高意义上的风险。算法解蔽生态环境,助力环境决策的同时,亦衍生风险,主要有二:一是,算法所固有的技术风险。二是,算法内嵌环境决策过程中,二者碰撞出的具有场景化特征的新风险。为勾勒完整的风险轮廓,谋求整体层面的风险规制,该研究对上述二风险进行统一描述。

1. 2. 1 政府信任危机

根据委托-代理理论,政府信用主要体现为政治代理人履行契约的程度[11]。可以说,信用是国家公信力的维持物。AI 时代,算法介入环境决策的同时,政治信任成本增加,少数公职人员以权谋私、懈怠行政有了空间,因此,引发政府信任危机。

(1)环境决策失准。环境数据涉及环境质量数据、污染排放数据、个人活动数据等,且各数据时刻变动,趋势不一,总计可达几十亿条。环境大数据需要强大的算力予以支撑。然而,现有的算力并无法满足环境大数据的处理需求。因而相较其他领域,环境大数据失准概率较高,以环境大数据为基础的环境决策失准率亦极高。为此,政府所付信用成本是极大的。

(2)环境信息造假。亚当·斯密(Adam Smith)认为,个人在一定约束条件下的社会活动中,每个人都是“理性经济人”,即通过成本收益分析获取自身利益最大化。毋庸置疑,政府官员个人也是现实经济关系制约下的,与社会中其他人没有本质区别的个人[12]。因此,部分政府官员在追求公共利益最大化的同时不乏实现自身利益最大化的行为。不论算法在环境决策应用中何等优质高效,当具有不良的使用目的时,即表现为政府权力堕落。

(3)决策者怠政。算法以大数据为基础,通过严谨的计算模型推理,得到的相关结论无论从形式上还是过程上都表现得更为客观与精准。长此以往,人类习惯性地将思考交给算法,无条件地信任算法。如此,对算法的过度依赖,可能会降低人类自身学习的能力。环境决策过程中,自身学习能力的降低主要表现为怠政。人类在决策环节形式上的主导无法掩盖算法成为实质决策者的真相。尽管认识到存在其他选择的可能,环境决策者仍然更倾向以算法的判断作为决策的依据。实质上,怠政现象并非来源于对算法技术的完全依赖,以算法为怠政的借口才是根源。

信息经济学角度分析,环境决策失准是信息不确定性引发的政治信任成本提高。而环境信息造假与环境决策者怠政却是典型的机会主义行为,尽管在短期内可以获得部分利益,但长期的环境信息不对等必然造成劣币驱逐良币的“柠檬市场”。此时,公众辨识环境决策的成本过高,往往自动简化判断,对环境决策保持一律的怀疑态度,给政府带来难以逆转的信用危机。

1. 2. 2 環境非正义加剧

20世纪80年代,环境正义运动(Environmental JusticeMovement)发端于美国,主要目的是实现国家之间、地区之间、人与人之间,环境资源的平等分配,环境风险与环境责任的公平承担。当下,环境决策算法化给环境正义的实现带来了新的挑战,即环境非正义加剧,主要表现为环境信息资源的不平等分配与环境责任的不公平承担。

(1)专业壁垒倍增,形成看不见的非正义分配。算法与环境决策的互动,衍生双重壁垒,即算法壁垒与环境数据壁垒。一方面,算法技术的复杂性和精确性推动了算法专业槽的出现[13],而专业槽在设计者之间与公众之间形成认知壁垒。据华北电力大学、北京信息科技大学、吉林大学、武汉科技大学、江苏大学在智能环境监测领域研究显示,从机构性质看,高校占比97%[14]。算法总是蕴含着价值判断[15],其设计、研发者必然将个人价值取向植入算法,干扰分配正义。另一方面,与其他领域中数据的直观、易懂不同,环境数据种类繁多,标准不一。例如,世界卫生组织(WHO)的PM2. 5标准为小于10 μg /m?,而中国的标准却是小于75 μg /m?。此外,环境数据涉及高度的科技背景,抽象且深奥,对其掌握与甄别需要深厚的专业基础。诸多环境数据对于非专业的民众来说,无异于“无用信息”。这种无法跨越的双重专业壁垒,使得环境信息资源的分配看似公平,实则分配不均。

(2)资本导演的“算法偏私”,左右环境信息资源的分配。公权力与技术背后的资本结合,产生了辅助环境决策的算法系统。然而,资本却悄然成为决策的核心。相比政府,掌握算法的设计、开发者及其背后的资本更易获得最新的环境数据。例如,智能手机通过应用程序实时测定细微粉尘,监测大气污染。应用程序背后的私营公司最先掌握环境数据,便于将有利于自身利益的环境数据报告给环境行政机构,左右环境资源的分配,侵害公众环境权益,加剧环境非正义。

(3)预警性算法的应用,可能引发环境责任不公平承担。与其他领域相比,预警性算法在环境治理中的应用更为广泛。例如,地震灾害预警系统、饮水安全监测预警系统、雨量监测预警系统等。除此之外,预警性算法还可以识别最有可能违反环境法治的企业。但是,只有原始的环境数据统计准确,预警性算法才能正确无误,如果原始的环境数据统计不准确,预警性算法将对企业造成极其不公的后果。它们会成为无辜的“污染嫌疑人”,这显然有违公平原则[16]。

1. 2. 3 环境保护公众参与权悬置

公众参与制度首要价值目标在促进环境保护决策的科学化、民主化,为民主理论在环境管理活动中得以延伸提供制度保障[17]。不可否认,从实践层面考察,中国环境保护的公众参与取得了一定成效。但仍存在公众参与形式有限、公众参与程度不足等一系列公众参与权落实不力的问题。AI时代,算法强势介入环境决策使得落实不力的环境保护公众参与权直接过渡至悬置状态。

(1)公众参与程度低。知情权是公众参与的前提[18],直接影响公众参与的程度。环境决策算法化语境下,环境知情权难以落实,主要表现有二:一是,公众“不想知”。生态环境内涵繁杂,变化速度不一。如,土壤变化极慢,需要几年甚至几十年,方能发现。持续性的关注,公众极易陷入“关注疲累”。大气环境则瞬息万变。未待公众参与,部分信息已过时无效。“缓慢”与“瞬时”的特性使公众极易陷入“不想知”的窘境。二是,公众“不能知”。借助强大的算力,算法运行具有瞬时性。公众尚不知发生了什么,辅助性的评估或预测已被算法系统瞬间生成。几乎无法参与的公众,从“不想知”沦为“不能知”。此外,陈述与申辩程序日益萎缩。自主算法缩减了环境决策程序,虽高效快捷,但听证环节的缺失,使得公众从“主体”主动参与决策退化为“客体”被动接受决策。某些程序要素对于一个法律过程来说是最基本的、不可缺少、不可放弃的[19],公众陈述与申辩权利的萎缩,致使环境公众参与程度低下。

(2)环境侵权救济效率低。为防止权力滥用,法律赋予公民环境侵权救济的权利,即受害人在其环境权益受到侵害时,通过司法和行政途径实现排除妨害,获得损害赔偿的一种救济活动。然而,作为公众参与最后的保障,环境侵权救济面临“架空”的风险。政府及相关环保部门过度依赖算法,使得环境决策责任涉及算法设计者、算法适用者、行政决策者,甚至算法自身。追责过程中,法律制度意义上的行为——责任逻辑被切断,法律因果关系面临重构的危机。过错责任人难以定位的情况下,算法设计者、行政决策者极有可能以技术自主错误为借口,排斥程序正当的合理诉求,以逃避责任。

与危机不同,风险难以感知。只有达到一定阈值时,风险方转为危机。环境危机一旦出现,将导致严重的财产、健康损失,且多不可逆。因此,环境决策算法化的衍生风险,不容忽视。

2 环境决策算法化衍生风险的内在逻辑

环境决策算法化的正面效应,源自人类对生产力提升的不懈追求。而负面效应(即衍生风险),有其内在逻辑。风险源为何?这个问题的探析,有利于我们提出正确的应对之策。

2. 1 环境决策公开性与算法不透明性的对立

“公开为原则,不公开为例外”,环境决策具有应然的公开性。一方面,环境决策的公开是环境知情权保障的需要。公民有权获取、知悉与自身环境权益密切相关的环境信息[20],如相关的法律法规、环境决策等。世界八大公害事件后,公众的环境保护意识进一步提升。域外各国和地区陆续以立法的形式确立了行政机关关于环境信息公开的义务,以保障公民的知情权。其中,具有代表性的是美国的《信息自由法》和欧盟的《奥胡斯公约》。另一方面,环境决策的公开是“阳光政府”的需要。国家权力天然具有膨胀和堕落的倾向。布兰代斯[21]认为“阳光是最好的消毒剂”。控权逻辑指引下,为保障公民权利,增加国家机关的可问责性,必须将国家权力置于阳光之下,接受公众的监督。作为环境信息公开不可忽视的内容,环境决策的公开不仅是公众参与环境治理的前提性权利,也是环境决策合法性的保障。

与环境决策的公开属性相反,不透明是算法的常态,即算法的“黑箱”属性。从不同角度看,算法“黑箱”具有不同的表现形式。其一,技术缺陷下的“黑箱”。人工智能输入的数据和其输出的答案之间,存在着我们无法洞悉的“隐层”[22]。可以说,无论输入数据与输出结果何等透明,算法在二者之间是如何运作的,无人知晓。其二,符号代码的“黑箱”。从算法的运行流程来说,整个过程涉及庞大的数据材料和繁复的计算方法,并以计算机代码的形式呈现[23]。如,很多代码是用Python计算机编程语言所编写,并非能够被公众所理解的自然语言。公众一般不具备理解代码与认知算法的专业素养。这种知识盲区在算法与公众之间形成一种隔离,也就是所谓的符号代码的“黑箱”。即便代码公开,对于公众不过是“无效信息”。其三,作为保密信息的“黑箱”。为保护技术持有者的经济权利与政府治理的效率,法律赋予技术企业与政府对特定代码不予公开的权利。实质上,是个人利益与公共利益之间的衡平。

无论何种形式的“黑箱”,均遮蔽了算法的运作,人们无法了解环境决策各环节的运作方式,也就无法对其提出质疑或者抗议。可以说,“黑箱”成為逃避“公开”的保护伞。算法不透明性对环境决策公开性的不断蚕食,加剧了二者的内在张力,环境决策算法化的衍生风险成为必然。

2. 2 环境决策风险性与算法自主性并存

较之其他行政决策,环境决策具有鲜明的“风险性格”。一方面,环境问题带有浓厚的科技背景。环境问题在因果关系的认定上亦格外困难,时常牵涉到科学上的极限,无法立即给予一个肯定的答案,以作为认定责任或采取相对措施的依据[24]。此外,几乎所有的环境论题都是从具体的科学研究中产生出来的[25],如土壤污染、全球气候变暖等。这种浓厚的科技背景,使得环境决策不得不涉及科技水准的考量。囿于人类的“有限认知”与科学的不确定因素,依据概率估算的环境决策,只是一个风险决策,其日后被证明是错误或偏差的可能性极高。另一方面,环境问题的跨期性,决定了环境决策的高风险。环境问题对人类的影响多有时滞性,需经年累月方可察觉。例如,尚未探寻臭氧层之前,人类根本不知道氟氯化碳(CFC)是导致臭氧层消耗的始作俑者。空气中二氧化碳的浓度增加,短期内不会引起即时效应,但若长期如此,则会产生温室效应。这种慢性的过程,直接导致人类无法确定环境负效应会何时显现,环境决策不得不决策未知。

AI时代,算法在诸多领域的角色已从“辅助工具”向“决策主体”转化。但就环境决策领域而言,算法尚任“辅助角色”,决策主体仍为人,决策环节所嵌入的仍是人的价值因素。尽管如此,目标制定、信息调查、方案评估等环节,算法依旧具备自主实现特定计算的功能。也就是说,决策的前置环节均由算法主导。囿于认知的狭隘,决策者对于算法自主行为的对错,难以甄别。最终,来自算法的数据结果或评估结论直接左右“人的决策”。这种环境决策者与算法之间看似利用与被利用的关系,实则早已被算法自主性颠覆,决策权柄隐性转移。这意味着,算法自身的不确定性风险被引入环境决策。从内部角度看,算法于前端环节的自主计算过程无法被人工干预,处于计算自由的算法拥有恣意计算的权力。从外部角度看,如上文所述,算法自主性缩减了决策步骤,行政正当程序亦被省略,算法自主行为几乎无外部约束。此外,决策权柄的隐性转移必然引发传统法律规则的失灵,即招致“谁的过错,谁来负责”的诘问。

“自主性”的嵌入,成为“决策革命”的转折性标志,推动环境决策效能的升级。然而,正如帕加罗[26]所言,机器人的行为在其他领域似乎也是风险源和潜在威胁。环境决策风险性与算法自主性的叠加,引发“扩大效应”,增加了环境决策的不确定,使得上述诘问成为无解的方程。

2. 3 环境决策社会性与算法资本性的矛盾

作为人类生存的根基,环境是典型公共资源(Com?mon Resource),具有浓厚的社会属性。环境是不可分割的统一整体,A地环境的变化可能会影响B地的环境,当代环境的变化可能影响未来的环境。因此,环境污染的主体与承受环境污染行为后果的主体常不一致。以莱茵河污染事件为例,瑞士的桑多斯公司仓库起火,引发钢罐爆炸,大量的硫、磷、汞等毒物排入莱茵河,其污染范围并不限于莱茵河,甚至破坏了大西洋的生态环境体系。表面看似“无关”的环境事故中,公众却扮演着“绝对弱势群体”的角色,不得不为污染者的行为“买单”。这种环境污染的负外部性行为,系属典型的“公地悲剧”。实际上,“公地悲剧”的根源之一在于“公地”对每一个人而言是没有价值的,不必去为获取付费[27]。越来越多的经济主体,在从事经济活动时,为追求利益最大化,将环境污染或损害成本向社会转移,公众成为环境问题的最终承受者。因此,环境决策必须考虑他人利益,将社会公共利益的保障作为衡量决策良莠的重要标准,而非单维度的经济利益。

AI时代,科技乌托邦(Technological Utopianism)理念再次兴起。相信科学技术必定可以实现物质丰裕、秩序合理、自由正义与社会和谐的人类梦想[28]。但事实是,某些老练的法人实体可能正在利用这些算法为自己谋利[29]。多数算法虽由专业人员设计,但其研发、生產、经营所需的经费皆由大型资本企业承担。可以说,大型资本企业作为算法技术的控制者,天然具有资本理性。马克思认为,“资本来到世间,从头到脚,每个毛孔都滴着血和肮脏的东西”;“当利润达到10%的时候,他们将蠢蠢欲动;当利润达到50%的时候,他们将铤而走险;当利润达到100%的时候,他们敢于践踏人间的一切法律;当利润达到300%的时候,他们敢于冒绞刑的危险”[30]。由此,算法必然披着“技术中立”的外衣,隐匿自身的单向逐利性,谋求资本利益最大化。

20世纪是全球规模环境破坏的世纪[31],经济的发展惯以环境的破坏为代价。环境决策社会性与算法资本性不乏冲突,其实质是社会公共利益与个人利益的矛盾。环境决策算法化语境下,算法将资本利益诉求植入环境决策各环节,左右决策的方向与结果。显然,算法资本属性的扩张,势必侵蚀环境决策的社会属性,公众环境权益遭到无情的碾压。社会公共利益与个人利益的失衡,极易产生“强者愈强,弱者愈弱”的“马太效应”(Matthew Ef?fect),衍生不可预知的风险。

综上分析,可以从宏观层面将环境决策算法化的衍生风险认作是环境决策与算法互动过程中负效应的一种释放。然而,细化到具体的风险,实则是环境决策与算法本质属性的矛盾。

3 环境决策算法化衍生风险的法律规制

透过上述逻辑分析,规制环境决策算法化衍生风险的关键在于调和环境决策与算法本质属性的矛盾。环境治理的目的决定了环境决策的部分固有价值,不可因算法的应用而放弃。因此,根据内在逻辑的分析,提出针对性的规制路径,对环境决策与算法本质属性进行适当的“扬抑”,调和二者之间的矛盾,促进算法在环境决策的健康互动。

3. 1 环境决策算法化的公开与透明

破解“黑箱”是规制环境决策算法化衍生风险的有效手段之一。但是,环境决策涉及国家秘密、商业秘密、个人隐私等合法权益。因此,对于环境决策公开性的扶助,不可绝对。在“ 公开”与“ 不公开”之间,应把握适当的“度”。

3. 1. 1 设立统一的公开原则

中国环境信息公开制度一直践行“公开为常态,不公开为例外”的原则,而且划定了国家秘密、商业秘密、个人隐私公开红线。即便如此,掌握算法的行政机构与大型资本企业仍存在以国家秘密、商业秘密为由,拒绝公开算法的可能性。这种“一刀切”,严重干扰了的风险会将“公开为常态,不公开为例外”的原则。

环境信息公开原则下,算法决策的同时,其自身及运行的相关信息势必面临“公开”与“保护”的取舍,本质上,实属利益的衡量。同一算法系统可应用于多个生态环境系统,一旦算法有误可能影响到整个环境领域的决策,产生多米诺骨牌效应(Domino Effect)。这种弥散化的损害效应直接威胁人类的生命健康安全。国家秘密、商业秘密、个人隐私保护的是经济利益时,较之生命健康利益,其价值位阶,显然更低。

环境信息的公开不仅是正当程序的需求,而且事关公众的生命健康。为此,在保护国家秘密、商业秘密、个人隐私的基础上,我们要进一步提出社会公共利益优先公开的原则。例如,与公众生命健康具有利害关系的环境决策均应对其应用算法及决策过程予以公开。

3. 1. 2 创设算法可解释权

算法自主性衍生的决策风险,在于算法可解释性的问题。基于公共环境知情权,如果政府不能解释其行政决策或行为,就不该使用算法,公民有知晓决策理由的权利。然而,碍于技术壁垒,即使公布深度学习的所有代码,公众也无法得知算法如何以及为何得出相应的结果。为此,该研究主张采取“反设事实解释”,赋予公众算法可解释权,即不是要求公开技术源代码,而是要求公开算法自主行为的要素及权重。

3. 1. 3 扩充公开的内容

虽说,追责制度能够倒逼环境决策部门内部职能的厘清与整合,提高决策效率并使算法设计者或开发者对算法的设计与应用更加审慎。但是,建立追责制度的前提是提高透明度。因此,除上述算法技术透明度的提升外,决策内容透明度的提高亦不可忽视。

(1)环境决策类型化与场景化的公开。辅助算法与自主算法交叉应用在不同场景的不同环境决策环节,公众无法辨析哪些场景的哪些决策环节是由政府主导,算法辅助;哪些场景的哪些决策环节是由算法自主。拘泥于特定算法类型的分类分级不敷适用[32],法律追责链条折断被无形。为此,有必要立足特定场景,将环境决策分为辅助行为与自主行为,且明示公众。这种矛盾特殊性的显性梳理,有助于增强环境决策的针对性,定点环境责任主体,分化风险。正如如果不研究矛盾的特殊性,就无从确定一事物不同于他事物特殊的本质,无从区分科学研究的领域[33]。

(2)设立环境公示制度。环境执行是环境决策的落实,更是环境决策的保障,其透明度直接影响决策执行力。为实施“阳光”执行,增强执行透明度,畅通救济渠道,有必要针对环境执行的相关信息进行公示。例如,环境决策中,凡有时限要求的,应在时限届满前公布执行结果;重点决策的执行应实时公布执行进展,将风险扼杀在执行之中。顺延至环境决策的监督,公示亦不可或缺。针对公众的举报、投诉,相关部门应公开回复,且禁止概括性回复,需具备说明性的理由。

3. 2 环境决策算法化的重监管与严问责

对于人工智能的规制,欧盟《人工智能白皮书》提倡“重监管”,对技术的设计开发以及应用流程均有严苛的要求。与欧盟不同,美国《人工智能应用监管指南》更侧重于“轻监管”,弹性规定较多,为人工智能应用设置提供了更宽泛的生存空间。环境损害不可逆,算法风险尚不可估算。因此,针对环境决策的风险性与算法的自主性,该研究采取一并削弱的态度,适用“重监管,严问责”的理念。

3. 2. 1 重监管

“算法为王”的环境治理,政府对于智能算法的依赖,无以复加。加之,环境一旦受损,难以复初。鉴于此,监管制度的构筑应从“重”。

(1)算法的“重监管”。第一,设立算法许可机制。算法设计、开发者应向有关部门提出申请,经审查批准,下发许可证后,方可设计、开发有关生态环境的应用算法。将监管移至“孕期”,从源头削弱技术风险。第二,构建算法审计监督制度。设立数据保护官(DPO),专门监控企业内部算法的运行,其审计监督的内容包括但不限于算法运行的合法性、歧视性、效率性。苗头性、典型性环境问题的相关决策,其所应用的算法系统应予以重点关注,确保2年一次轮审。此外,数据保护官(DPO)必须每半年向行政审计机关提交一次审计报告。

(2)环境决策的“重监管”。第一,环境决策备案制度。经审议的环境决策将其适用算法的名称、研发者、开发者、应用领域、算法类型、算法自评估报告、决策者、特定环境示意图、各方案可行性分析报告等相关信息作为备案内容。算法透明最激进的主张,莫过于公开源代码[34],而该研究未将源代码的公开纳入备案内容。出于审慎,环境备案旨在监管机构对环境决策的风险性认知,非技术性探知。因此,将算法数据组、算法模型性能、算法设置逻辑等涉及商业秘密、专利权的内容排除在外[35]。第二,加重执行监管力度。首先,构建环境决策目标责任制度。通过签订责任书的方式,明确主要责任者与责任范围,规避多头执行衍生的责任推诿,具体落实环境决策。其次,设立定期定量考核制度。上级机构定期定量考核执行机构对环境决策的落实,以免环境决策沦为空中楼阁。最后,构筑限期执行制度。对于执行不力的环境决策,采取限定执行时间、执行内容及执行效果的强制性行政措施。第三,监察监管者。“监管俘虏论”认为,监管者自身也是一个有着独立利益的理性经济体,在监管的过程中,监管者可能会被收买或屈服于利益集团的政治压力,最终导致监管效果偏离公共利益最大化目标[36]。为及时纠偏,提高环境决策效能,应强化政治监督,加强纪委的日常监督、派驻监督、巡视巡察等。

3. 2. 2 严问责

行政视域下,环境决策、执行、监管等任何一个环节,皆有可能衍生环境决策算法化风险,其人为因素居多。然而,环境问题,一旦失足,覆水难收。鉴于此,责任机制的构建应从“严”。

(1)问责主体的明确。如上文所述,环境决策运行中,决策环节的前置步骤均由算法自主计算、推理、判断。从这个意义上看,传统决策者中人的主体性被削弱。不仅如此,由于“人的决策”以前置环节中算法的自主计算、推理、判断为依据,决策权柄早已实际转移至算法手中。这种隐性的决策主体更换,让我们疑惑是否应该将算法视作法律责任主体,承担决策责任。然而,现行法律并没有赋予算法自主系统法律主体地位,其法律性质的界定仍在工具范畴,并不具备法律责任的承担能力。因此,算法的设计者、开发者都应当对算法决策造成的环境损害后果承担责任。

(2)采用严格责任原则。法律因果关系的认定是一个可能性的推断过程。算法可解释权的设立成为“行为—责任”法律逻辑链条的重要连接点,提高了因果推断的准确率。并非所有的算法都可以作出可理解性的解释,无法判定因果的情况居多。相关责任主体常以“算法过错”为借口,推脱责任。因此,有必要扯下技术的“外衣”,以社会公共利益为圭表,不过分追求因果推断的无暇,适用无过错责任原则。简而言之,算法设计者、开发者、环境决策者,均对负向后果承担法律责任。为防止“规制俘获”,环境决策的执行、监管行政机构适用过错原则,在执行或监管不力时承担相应的法律责任,且从重处罚。

3. 3 环境决策算法化的公众全面参与

权力本身具有天然的扩张性、腐蚀性并极易控制和异化,没有约束的权力必然任性[37],必须对其进行有效的监督。作为外部监督方式之一,公众参与是限缩权力的有效路径。赋权公众,全面参与环境决策算法化的运行,削弱算法的自主性与资本性,预防规制俘获,保障公众环境权益。

3. 3. 1 公众全面参与的算法

算法的“诞生”,往往携带“算法歧视”“算法偏好”等固有技术弊端。算法治理实践中,一定程度的公众参与被视为构成有效治理的核心要素。显然,环境决策算法化衍生风险的规制,不仅需从源头着手,还应着重在算法“诞生”过程中公众的全面参与。如此,设置算法影响评估机制,即对自动化决策系统的应用流程、数据使用和系统设计等内容进行系统评判,明确该系统的影响水平和风险等级,不失为一个好的选择。

生态环境领域,相关算法的应用,直接关系到公众的环境权益。为确保算法的健康诞生,该研究主张公众代表直接参与算法影响评估。首先,演示环节。算法设计者需向算法专家、环境专家、环境决策者、公众代表演示算法系统的应用及相关功能性介绍。其次,评估环节。算法专家、环境专家、环境决策者对应用算法的公正性、可问责性、透明性进行分析、评估,包括算法可代替方案分析、可能受到重大影响的环境领域的详细说明、算法系统作用于特定生态环境的功能性解说等。碍于技术壁垒,公众代表虽不评估,但可通过提出问题,表明诉求等方式参与评估。最后,反馈环节。算法影响评估制度中,虽不强求公布评估文件和流程信息,但须公布评估结果的核心概要。公众或公众代表对评估结果提出质疑或建议时,评估机构须在法定期限内作出回应。如此,公众以全周期视角进行参与,确保评估的每一阶段、步骤、环节都有良好的风险信息交流。公众的全程监督有助于算法设计者周密的谨慎的设计算法,降低算法设计者和开发者后期不断将设计复杂化、黑箱化的概率,提高算法系统的源安全性。

3. 3. 2 陈述與申辩程序的落实

环境决策过程中,算法自主计算、推理、判断等行为,致使陈述与申辩程序约减。由此,应有目的、有步骤地落实陈述与申辩程序。其一,将“事前告知”作为算法决策生效的前提。在传统告知内容的基础上,还应包括:①决策的方式:算法辅助决策或算法自主决策。②具有提出算法可解释权的权利。③具有选择人工决策的权利。当事人若未收到相应的权利告知,应视为算法决策无效。其二,完善陈述与申辩程序。部分环境事件取证难、搜集慢、内容复杂,应延长当事人陈述与申辩的期限。此外,赋予当事人选择人工决策的权利。无法进行人工决策的,应当向当事人说明影响决策的重要因素,以便当事人有针对性地申辩。例如,关于企业超标排污的行政处罚,通过企业的陈述与申辩,行政机关无充分证据证明算法自主行为具有正当性时,企业有权申请延缓或撤销该行政处罚,以减轻算法自主性对企业的不良影响。

3. 3. 3 电子监督平台

“互联网+信息化”是环境决策与决策的执行及时正畸的有效手段。电子监督平台实行动态管理,按照算法类型与环境场景,及时更新环境决策及其执行状况,公开接受公众的质疑与反馈,须在限定时间内回复公众。此外,建立电子监督档案,对决策重大失误、执行不力、监管不善的主要责任人制作个人档案。

4 结 语

AI时代,算法以弥散性的方式内嵌环境决策各环节,其实质是制度与技术的深度互动。由于本质属性的不同,二者在融合过程中,势必滋生矛盾,衍生难以确定的风险。但风险的存在并不意味着对算法赋能环境决策的否决。相反,接受环境决策算法化,同时对其衍生风险进行法律规制。法律制度虽贵在稳中求进,但面临算法技术引发的决策革命,应秉持预防原则,未雨绸缪,而非按图索骥。可以说,从法律规制角度讨论环境决策算法化的衍生风险,本质上,是一种将风险局限于法律框架之内的努力。单维度的算法风险分析固然有意义,但这种以领域为界限的研究进路极易忽略算法内嵌环境决策的场景化风险,割裂了制度与技术的互动。为此,本研究立足生态环境与AI的交叉领域探讨,力求勾勒完整的风险轮廓。与此同时,将风险内在逻辑的探寻聚焦于环境决策与算法本质属性的碰撞,通过剖析二者对立、叠加、互斥的关系,提出场景化的规制路径。实际上,规制路径的构建,无非是对环境决策与算法背后利益的适度取舍,以便在二者本质属性之中选择性地“帮扶”与“压制”,其最终目的是调和二者本质属性的矛盾,促进算法在环境决策领域的健康运行。

猜你喜欢

法律规制风险
共享经济环境下空间共享的定性及法律规制
探析网络预约车类共享经济平台的法律保护
商业预付卡经营行为的法律规制
我国网络经济中不正当竞争行为的法律规制
我国著作权集体管理组织垄断行为的法律规制
论企业社会责任的法律规制
我国P2P网络借贷的风险和监管问题研究
浅析应收账款的产生原因和对策
中国经济转型的结构性特征、风险与效率提升路径
互联网金融的风险分析与管理