APP下载

中国人工智能算法法律体系的构建

2023-01-25陈筱贞

产业与科技论坛 2022年22期
关键词:规制责任人工智能

□陈筱贞

2021年全球人工智能秩序治理加速推进,一是在人工智能整体立法与场景类型化立法方面均有成效,二是立法基本完成对信息、数据的保护,开始进入人工智能算法核心区。2021年4月欧盟公布《欧盟人工智能法案(草案)》,6月美国参议院通过《美国创新与竞争法案》,成为全球人工智能治理的重要成果。同时场景立法迅速推进,5月德国联邦委员会通过《自动驾驶法》、8月英国针对自动驾驶修订《公路法》,人脸识别禁用行动在世界多国获立法支持……我国在个人信息与数据安全保护立法密集颁布后,算法作为重要环节开始被纳入各种层级立法的具体条款,以回应大数据杀熟、算法歧视、信息茧房、智能驾驶问责等一系列新发难题。但法律规则仍零散不成体系,整体架构和立法路线并未清晰。我国专家学者在算法治理环节、算法评估机制构建有较深入的探索,在场景化规制趋势方面也形成了共识,但如何将这些成果纳入一个完整立法系统,如何架构彼此之间的逻辑关系,是立法需要回答的宏观问题,也是立法的总领和开局。尽管在相关零散立法颁行后,才追溯这个起点问题,但对中国算法法律体系架构的构建,这是第一逻辑。

一、人工智能算法崛起的两极

人工智能兴起于电子商务与智慧城市两个场域,世界各国算法实践与研究均落地于电子商务的有序繁荣与城市管理的高效与正义。以技术催生业态的繁荣生长,以大数据带动算法演进,电子商务与智慧城市成为算法崛起的两极。算法在商务与政务两个标志性领域不断推广与交互融合,使得法律规制面临新的逻辑与问题。

(一)电子商务。我国在人工智能商业布局方面走在世界前列,人工智能高速发展以率先实现商业运用为引领,算法实际上承担了网络空间的日常治理。根据商务部电子商务和信息化司《2020年网络零售市场发展报告》,2020年全国网上零售额11.76万亿元,比上年增长10.9%。2021年国家统计局数据显示,一季度全国网上零售额达2.81万亿元,同比增长29.9%。同时同城零售、社区团购、生鲜到家、新零售门店等数字化模式,共同推动电商加速渗透。大规模运维所需的人工智能将被集成到业务运营的几乎每个领域。主要体现在推荐引擎、智能分拣、趋势预测、智能客服等环节,其中算法模型与决策应用渗透商业利益逻辑,消费者弱势端的权益遭遇显性与隐性的剥夺,难实现救济。从贸易活动角度分析,电子商务可以在多个环节实现,包括电子商情、电子贸易、电子合同等,信息流、商流、资金流和部分物流可通过平台算法运行完整地实现。除了买家、卖家外,还有银行金融机构、政府机构、认证机构、配送中心等机构的加入,由于参与电子商务中的各方在物理环境上互不谋面,自动化算法的安全可信成为关键。

(二)智慧城市。在数智经济发展战略中,智慧城市成为经济转型、产业升级、民众幸福感提升、城市可持续发展的新引擎。根据前瞻产业研究院《2020年中国智慧城市发展研究报告》,我国推进智慧城市建设以来,住建部发布三批智慧城市试点名单,合计计算科技部、工信部、国家测绘地理信息局、发改委所确定的智慧城市相关试点数量,我国智慧城市试点数量累计已达749个。智慧城市是城市数字化、信息化之后的高级阶段,是中国城市发展转型的主要方向。智慧城市通过多维感知、全局洞察、实时决策、持续进化等方式,帮助城市运行管理者在复杂局面下快速作出更优决定,人工智能算法成为智慧城市强大信息处理能力的支撑。智慧城市日益庞大的“算法权力”,引发公共管理和国家安全风险隐患,备受各界关注。算法治理的多米诺骨牌效应接踵而至:从个人信息到数据安全,从算法评估到算法问责,从国家立法到地方规制和行业自治,学术探讨与立法实证都在力图勾勒出算法法律体系的应然轮廓和应有逻辑。

二、中国算法立法直面的重点问题

人工智能发展的三大支柱包括技术研发、应用推广与秩序法治。技术和应用提速后,虚拟数字孪生世界与现行经济社会治理模式、法律架构规则互动共生出透明、公平、正义、秩序等一系列新的挑战。聚焦人工智能大规模应用的电子商务与智慧城市两大领域,我国算法立法需要解决以下焦点问题。

(一)算法治理政商分离抑或合一?算法是否存在商用与民政的分水岭?考量的三个维度:一是数据来源与权属;二是算法模型与逻辑;三是算法运营与应用领域。算法生态链包括信息数据、算法公式、应用投放三个主要环节,如果三个环节均存在商用与民政的明显区分,则考虑遵循各自的特殊价值与逻辑分离治理,反之则采合一模式。

首先,电子商务与智慧城市都是纵横交织相互作用的系统,参与主体包括政府、企业和个人,在信息化与城市化的高度融合的特质下,信息、数据与应用泛在互联。数据来源虽可溯源,但我国强调操作性规制,经合法采集和同意协议,脱敏后的数据进入数据池与云平台,在开放共享与自由流动的环境下,商用与民政属性不断转换会导致同质。其次,算法模型与逻辑基于特定算法目标和价值伦理,商用与民政确有较大不同,但对于通用算法,如递推算法、分治算法、动态规划、贪心算法、回溯法等不同领域均可适用。最后,实证观察科技运营公司正通过战略合作为智慧城市提供着全方位的运营(如IBM与深圳、昆明、宁波等城市签订战略合作协议),或者成立“城市大脑有限公司”(如杭州)由市国有企业控股,社会企业和研发团队参股,面向市场公司化运营。平台出于商业利益,积极地通过各种方式协助政府的大规模数据收集与处理,通过法律授权、后门、买卖、外包甚至数据交易等方式,使得算法与数据在公私主体之间自由流动,公私界限日益模糊。于是商业领域与公共部门的权力很难简单二元划分,由算法引起的公私二元界限模糊使得算法治理更适宜选择以平台为核心的政商合一为主导的模式。

(二)算法生态三要素规制不可缺一。信息、数据与算法是人工智能算法生态中的三要素,数据是算法的原材料,数据的价值在于其中蕴含的信息,算法对两者进行分析、处理,并经决策系统导出应用。我国人工智能相关立法进程,从网络与平台,到信息和数据资源,立法均已基本完成,现开始探索人工智能运行逻辑的核心区“算法”的法律建构。我国《网络安全法》(2017)、《电子商务法》(2019)、《网络交易监督管理办法》(2021)在网络运营环境方面有较好的规制和维护;在信息数据标准化方面有《信息安全技术个人信息安全规范(2020版)》《大数据标准化白皮书(2020版)》《人工智能安全标准化白皮书(2021版)》。同时基本形成了个人信息保护、数据保护的立法,《个人信息保护法》和《数据安全法》均已发布,《个人信息保护法》第24条、第55条、第73条针对自动化决策的定义、透明度、算法解释、算法推送、算法评估做了初步规定,为算法体系化规范做了铺垫。但算法的系统化法律规制仍处于滞后状态。对信息、数据的保护并不能解决自动化算法的价值嵌入与模型设计等向善问题,最终通过算法输出的应用结果还是面临失控风险。

(三)权利空窗与算法责任悖论。算法是一系列解决问题的清晰指令,代表着用系统的方法描述解决问题的策略机制。对算法的法律性质,我们持产品抑或行为规则立场,在法律非赋格算法时代,算法并非法律主体,就无算法权利可言,严谨意义上应该是“算法上的权利”,或“基于算法的权利”。在“算法可责”的现实呼声与立法探讨中,无论“算法权利”,还是“基于算法的权利”,都面临于法无据的风险。算法责任在权利和义务并未经立法构造好的情形下,先行酝酿,这种实用主义路径有悖传统法律逻辑,却在大数据时代和智能时代越来越被追随,类同于个人信息和数据的保护立法。或许中国不会法定信息权或数据权的类型,但侵害责任已清晰立法并成体系。算法应走上先规制责任,再建构权利的路线,这是法理逻辑与法律功能对抗后的有效选择,也是法律工具于科技发展、国家利益的一种时代实证。算法环境中若有权利设计,应包括:知情权、选择权、解释权、参与权、异议权、求偿权。

(四)过程主义与结果主义。算法规制的策略可划分为两大类:一是基于结果主义的事后问责;二是强调过程控制的事前规制。结果主义认为,从应用结果问责倒逼算法过程自觉正当,可以规避算法透明和算法解释的复杂技术,避开过程规制的高成本。过程主义认为,算法在互联网环境里瞬间、大规模与不可逆,没有事前监管可能会有难以挽回的损失,仅事后问责不足以实现算法的安全与救济。况且算法权利还处于立法空窗期,问责程序的起点还未有立法明确,包括权利人适格、具体权利内容等,加上算法侵害不易被感知,因果关系辨析也更为复杂。同样的规制目标,采行政部门与行业管理在算法过程监管更为实效。2021年3月中国人民银行发布了《人工智能算法金融应用评价规范》,其中第6部分“安全性评价”对算法的依赖库、可追溯性、内控机制提出具体和描述性的标准和要求。第7部分“可解释性评价”,涵盖建模准备、建模过程和建模应用。通过标准化规范构建,使针对算法“黑箱”的立法在一定程度上成为可能。同时,事后问责行政规制的尝试也正在开启。2021年7月国家市场监管总局发布《价格违法行为行政处罚规定(修订征求意见稿)》,其中针对广受关注的“大数据杀熟”,规定在没收违法所得基础上,可并处上一年度销售额最高5‰罚款。过程主义与结果主义结合,对于算法立法更为安全有效,从局部行业示范到推广,需要渐进探索。从行政问责到民事问责的完善,也必走赋权之路。

(五)超越国际立法经验的中国逻辑。算法评估监管和算法问责在国际上已有欧盟、美国、加拿大、德国等国先行经验,但各国对权利、安全和发展的博弈有所不同,算法战略目标存在差异。尽管联合国、国际协会、国家联盟及产业联盟等层面均有人工智能规则陆续出台,但数据全球化立法与数据本地化立法的对峙已然成型,新一轮立法管辖权冲突正悄然升级,算法技术化立法规制也同时打上国家利益的烙印。中国算法立法应充分借鉴国际立法经验,实现算法通行治理的有效性,同时要更符合人工智能在中国社会发展中的战略目标和应用边界,创立国家发展利益优位的法律体系与规则。

三、中国算法法律体系的建构与逻辑

(一)数字孪生观下的规则创新。当前数智中国建设已步入“数字孪生时代”,数字空间正在通过物理模型、传感器更新、运行历史等数据,实现对现实空间的复制、互动和超越。美国学者劳伦斯·莱斯格认为,网络空间和物理空间一样,都存在着四种力量,分别是法律、市场、社群规范和架构[1]。市场与社群的自动调整效应会投射于算法的主体自觉,而架构和法律需要我们探索设计。算法作为虚拟世界人工智能运行的核心规则,要将现实社会法律原则和规则嵌入其模型和逻辑,实现“法律即代码”的规训。同时兼容算法运行与决策的技术特性,创设新规则。

1.算法法律关系新解构。弱人工智能算法非主体人格阶段,算法是一种策略机制,应界定为应用中的工具属性,于此展开法律关系结构分析。算法从设计到应用再到执行的整个流程涉及众多的主体,包括算法设计者、算法应用者、用户、监管者以及受直接或间接影响的第三人,这些主体基于算法这一连接点建立的社会关系可以被称作算法法律关系。基于算法自动化决策主体的复杂性、效应的长期性,以及参与因素的多样性,有必要将“负责任”的算法制度目标置于一个覆盖算法自动化生命周期的框架内。即从设计、部署、运行到结果应用的整个算法自动化决策流程中,对相关责任主体的权利与义务均予以一定的法律控制。针对数智化战略下迅速搭建的各种应用场景,构建的各种新型关系,行业立法和地方立法正尝试从行政责任和刑事责任设立规制,而民事关系的梳理还未统一。如《电子商务法》《人工智能算法金融应用评价规范》《价格违法行为行政处罚规定(修订征求意见稿)》《道路交通安全法(修订建议稿)》等行业立法;《杭州城市大脑赋能城市治理促进条例》《浙江省平台企业竞争合规指引》《深圳经济特区人工智能产业促进条例(草案)》等地方立法,均有算法行政责任规范或刑事责任提及。接下来我们需要侧重商榷算法民事法律关系,包括主体适格和权义内容,具体涉及设计方、运用方(与否运用方连带责任)、用户(合同关系、侵权关系或消费关系)。只有直面法律关系,算法责任才得以系统化合理建立。

2.算法责任新样态。康德在推动逻辑学从传统形式逻辑走向现代辩证逻辑的过程中,提出样态观包括可能与不可能、存在与不存在、必然与偶然等三组逻辑判断。算法是一种人机交互场景下决策的新形态。在算法技术下,人类可以通过代码设置、数据运算与机器自动化判断进行决策,这个过程人机共同参与,既有人的决策又有机器的自动化决断,算法责任会出现超越人们已有认知的样态。

(1)“黑箱”化的算法伤害。算法“黑箱”是输入和输出之间的运算过程不透明的一种隐喻空间。以普遍使用叶贝斯算法为例,用若干给定的点连线组成图形,从而表示事件之间的因果推导关系。该算法规范运用商业活动和医疗诊断系统,消费者和患者可能无从知晓指令的运算过程,无法得知结果的正当性但在特定情势下又别无选择[2]。不可信算法应用风险责任如何分配目前并未形成共识,但算法歧视、价格杀熟、信息茧房等伤害成立已获确认并陆续纳入法律调控。对算法应用致害,目前可以纳入产品和服务责任范畴,例如自动驾驶汽车责任、金融智能投顾责任等。算法透明制度在逐步建立,“黑箱”不可知并不能切断因果关系而免责。

(2)平台责任的政商分离。平台是算法的使用者与控制者,各国都加强了算法造成危害结果后对平台的问责,“西班牙谷歌案”等一系列司法判例,以及一些行政处罚案都表明了平台算法还有从设计阶段问责的倾向,它有义务减轻算法可能带来的任何负面影响或者潜在危害。平台责任应区分设计者责任、运营者责任与应用者责任。在算法治理政商统一的模式下,智慧城市平台责任最具代表性。智慧城市行政管理者与技术服务商职责和身份不同,在法律责任上的适格与承担也必然不同。我国智慧城市运行于城市大脑平台,运行模式可以是政府与企业合股,也可以是政府向企业外包,还可能作为驾驶舱或项目在总包下进行分包。那么算法责任该如何安排?如果政商责任合一,从行政管理法律关系上比较容易确定,政府一方先对外承担责任,然后再向科技企业追偿。但追偿是一个结果叵测的事情,掌握海量数据、上下游信息以及核心技术的科技企业,已在数据信息战略资源上占据绝对优势,如果法律责任居次,不利于警戒企业自律,极大可能滋长信息、数据、算法安全事件或事故,且后果不可逆转。所以,建议算法责任政商分离,在协议约定基础上,立法强化各自职责和业务规则,在问责流程及责任安排上各负其责,不选择连带方案。

根据算法在政务平台的功能,责任主体的确定可分为以下几种情况:一是在算法辅助政府决策场景中,行为最终由代表政府意志的主体作出,承担责任的主体是政府机关,而非算法技术。二是在算法自主决策场景中,因算法错误导致决策侵害了行政相对人的合法权益,应当承担责任的是算法设计企业,技术价值中立在此不能成为抗辩的理由。三是因算法设计违背价值伦理或运维违反技术操作规程,导致算法错误,政府机关可以要求算法设计者或运维者承担责任。四是平台企业因行政机关授权具有公共事务职能滥用行政权力而滥用市场支配地位的,应承担法律责任。平台责任方式包括停止使用有技术瑕疵的算法,赔偿对人身、财产造成的损害,恢复名誉并消除不良影响等。

(3)算法透明并非责任豁免。辨析算法责任的因果关系很大程度上回溯于算法透明中的算法解释与算法评价备案。无论是欧盟GDPR的算法专条还是美国的《算法问责法案》,其中的算法透明度、可见性、评估、认证等制度均充分体现了算法风险预防型流程监管的加强趋势。如果算法履行了透明义务,是否可以豁免算法责任?过程正义是否就能实现结果正义?由于算法是批量、大规模、系统性的决策,效果会放大,自动化数据轨迹的原始记账性不可更改导致影响难以撤回,所以算法将监管和审查的对象从具体信息前移至算法的开发与部署,是实现算法结果正义的程序性保障。由于算法可能发生的实时变化,以及算法运行的有关因素并非都可控,算法透明并不一定完全能实现结果正义。我国算法评估和审计制度在构建和推广进程中,如果算法透明义务的履行可以豁免结果责任,那么是用透明度的制度设计博弈算法技术的精深和嬗变,这并非法律能够胜任,也不是法律本义。如果透明就可以免责,算法结果责任也会随算法评估的普适而逐渐失去意义。算法透明并不能豁免算法责任,它是从前期可以过滤、减少算法伤害的法律程序和技术,尽管成本高却效益深远,不能功利地绕开或取缔。完整的算法责任体系应包括事前责任(伦理嵌入、透明与备案)、事中责任(运维监控、透明与备案)、事后责任(停止并赔偿威胁或损害)。

(二)国家伦理立法下的地方立法规程化与场景规制行业化。

1.算法伦理国家立法。2017年7月国务院发布《新一代人工智能发展规划》提出人工智能监管制度构建分三步走的部署,当下应进入第二步阶段,即建立人工智能法律规范、伦理规范和政策体系,形成对人工智能安全评估和管控的能力。人工智能核心算法既有归一性又有差异性和成长变化性,国家立法作出算法伦理顶层设计,能促使利益共同体根据需要形成一系列的立法原则和规范体系。立法伦理为算法确立基本的编程规则和价值优先顺序,使其符合法律内在道德性的要求,宏观调控公平正义等价值目标的实现。伦理具体可分为社会伦理、行业伦理、区域伦理。2019年科技部发布《新一代人工智能治理原则——发展负责任的人工智能》,强调了和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理等八条原则。确立人工智能产业多元主体协调共治的治理机制,划定行为底线,有效地从上位法预防风险。随着人工智能算法性能不断提升,算法伦理可持续调整完善,或上升为效力更高的法律形式,以适应人工智能算法普适背景下人类主控社会秩序的持续需要。

2.算法地方立法规程化。基于人工智能产业促进政策各地有所不同,算法立法由地方落地完成,能细化国家伦理立法的要求和流程。省市级地方立法可以在法律授权下根据当地重点领域和产业进程拟定规则,如2020年10月27日通过的《杭州城市大脑赋能城市治理促进条例》、2021年8月24日发布的《浙江省平台企业竞争合规指引》、2021年7月14日发布的《深圳经济特区人工智能产业促进条例(草案)》。地方立法能本土化实现具体规范,有效落实执行,包括政府监管职能与治理机制、分级监管与分类规制、行业自律与企业自治、禁止行为与社会监督、风险评估与追溯机制等方面。如《深圳经济特区人工智能产业促进条例(草案)》第68条规定了市人民政府设立人工智能伦理委员会,并规范了其对算法歧视、智能滥用等重点领域开展监测与研判等五方面职责。第71条规定了分级监管,高风险的人工智能应用采事前评估和风险预警的监管模式;中低风险的人工智能应用采事前披露和事后监控的监管模式。第72条规定了算法的分类规制,根据人工智能算法运用涉及的不同领域进行分类规制,对于公共决策领域以及涉及公共利益的商业领域,算法应采取公众可理解的方式进行算法说明。把算法规制作为人工智能发展的一个核心组成进行规范,符合国际通行做法。我国目前地方立法发布草案的范例也还屈指可数,期待北京、上海、深圳、杭州等数智高地成为领跑者,以立法促进算法有序发展,实现算法具象化的负责与可信。

3.算法场景规制行业化。对于人工智能与未来法治研究而言,专家共识应当准确把握算法规制的场景化特征与原理,根据不同场景与情形对算法进行规制,以实现可信赖与负责任的算法决策。场景化规制是实用主义起点,也是归属。它建立在合理的算法治理系统下,这个系统的建构,包括三方面。规制体系应包括:主体自觉(平台自治、算法伦理)、监管机制(职能部门、全过程、监管结果应用)、法律控制(赋权、问责)。算法作为新型的人机交互决策,会被不同的主体运用,内嵌于不同场景和处理不同的问题。中国信息通信研究院互联网法律研究中心主任方禹、中国政法大学大数据和人工智能法律研究中心主任沈伟伟等专家都主张算法场景化规制思路,但分类的标准并未清晰。笔者主张场景化规制采行业化路径,既符合场景类型化特质,又与行业管理部门分工相协调,并且在实务中已有尝试。如中国人民银行颁布《人工智能算法金融应用评价规范》调控金融投顾、市场监督管理总局发布《价格违法行为行政处罚规定(修订征求意见稿)》调控价格歧视、公安部发布《道路交通安全法(修订建议稿)》规制自动驾驶责任等。从场景应用重点行业试点开始,逐步推及更多应用领域。

(三)算法法律体系与我国既有法律体系的补强衔接。我国算法法律体系应呈“一基两翼”模式,以国家伦理立法为基础和指引,以地方立法和行业立法为“两翼”,同时融入我国现有法律体系,相互补充补强,协调适用。考虑避免重复立法,在《民法典》《个人信息保护法》《数据安全法》等已有的相关规定,可以同样适用。针对算法赋权和算法责任,可以新增特别条款。既能延续又能增强我国现有法律框架体系,也符合算法融入社会生活的未来法治观。例如《消费者权益保护法》对消费者权益的保护与救济规则,在算法消费中仍可以适用。《电子商务法》对BtoC算法的规制如第18、40、77条,《反垄断法》(修正案)与《国务院反垄断委员会关于平台经济领域的反垄断指南》对BtoB算法的规定,均可以实现相应监管效能。算法行政责任的规制先于民事责任已有地方试点颁行,如《济宁市智慧城市促进条例》(2017)、《杭州城市大脑赋能城市治理促进条例》(2021)、《浙江省平台企业竞争合规指引》(2021),可在其上位法的法律法规中进一步对应具体责任,协调完善并推广。《刑法》可考虑扩展相关原罪名或新增算法罪名,适用于如危及国家安全、民事与行政法律责任不足以震慑、大规模影响严重的情形,具体触刑标准有待进一步探索论证。

四、结语

中国数智化进程走在世界前列,人工智能、法学、管理学、社会学等领域的专家学者们倾力探索,努力搭建符合中国社会发展和国情需要的算法法律体系,实现人工智能立法的完整逻辑。立法探路者考虑通过法律规则和法律价值,影响技术价值的建构,最大限度地衡平科技发展与社会秩序。我们今天使用的算法正在进化,风险与发展如影随形,算法立法应秉持中国特有的治理逻辑与立场,在不断完善的进程中为智慧中国向导,实现算法时代的安全、正义和秩序,提升中国国家竞争力。

猜你喜欢

规制责任人工智能
主动退市规制的德国经验与启示
使命在心 责任在肩
每个人都该承担起自己的责任
2019:人工智能
人工智能与就业
共享经济下网约车规制问题的思考
浅谈虚假广告的法律规制
数读人工智能
下一幕,人工智能!
期望嘱托责任