APP下载

生成式人工智能企业社会责任治理的依据和路径

2023-02-06鲁斯齐

中国流通经济 2023年12期
关键词:合规人工智能责任

鲁斯齐

(复旦大学法学院,上海市 200438)

自生成式人工智能问世以来,全球掀起了人工智能赛道的竞争。有机构预测,大模型将深入各行各业,每年可为全球经济创造2.6 万亿到4.4万亿美元的价值。[1]各国政府及超政府组织正积极采取行动,在平衡人工智能人权保护风险、国家安全风险、人类存续风险的同时,抢抓其带来的产业升级机遇,争夺在全球数据规则与标准制定中的领先地位。2023年6月,欧盟针对通用人工智能增设《人工智能责任指令》(AI Liability Directive)、《人工智能法》(AI Act)等以风险预防和责任追究为主要内容的监管标准,以此落实人工智能企业责任。这些监管标准采用了与数据监管和个人信息保护相似的监管思路,试图通过采取以强制性立法为核心的自上而下监管规则输出竞争战略,赢得全球竞争。

与此同时,美国开始实施自下而上以自愿性承诺为核心的市场规则输出竞争战略,企图以企业作为切入点,鼓励企业自愿承担社会责任,坚持行业最高标准,通过美国人工智能头部企业及其在人工智能底层技术和科技创新生态系统中的影响力辐射全球其他参与方。2023 年5 月、7 月、9月,美国分三轮召集多家处于人工智能创新前沿的人工智能企业①,并获得了这些企业的自愿承诺。这些公司认为,企业应承担社会责任,致力于负责任的人工智能,遵循安全、有保障、可信任三原则。

反观我国,目前的监管主要聚焦于自上而下的竞争战略布局,试图通过模仿和超越欧盟《通用数据保护条例》(General Data Protection Regulation,GDPR),以更严格的监管来产生中国规则和标准,实现对欧盟模式的取代[2]。受市场规模限制,单凭以他国跨国企业为主要传播途径的欧盟模式难以产生理想效果。相反,利用我国算法企业和数据市场综合优势,通过企业社会责任进行协同治理,能促使自下而上的市场驱动战略与自上而下的监管驱动战略形成互补关系,共同引领负责任的人工智能向前发展。不过,在制度设计上,尽管2023 年7 月10 日国家互联网信息办公室等七部门发布的《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》)要求对生成式人工智能服务实行包容审慎和分类分级监管,其他政策文件也多次倡导企业承担社会责任、参与敏捷共治,但目前法学界关于人工智能治理的研究主要基于自上而下的监管治理视角,鲜有研究基于企业治理视角对生成式人工智能为何以及如何承担社会责任进行探讨。

如何发展负责任的人工智能已经成为全世界共同关心的议题,生成式人工智能企业社会责任治理在当今时代具有重要意义。本文从企业角度出发,深入探讨生成式人工智能企业承担社会责任的现实需求、理论基础和制度建设的体系化路径,在理论层面为大模型技术爆发以来的人工智能治理提供新的理论逻辑,在实践层面为全面构建落实人工智能企业社会责任治理制度提供体系化方向和路径。

一、社会责任缺失下生成式人工智能企业的治理危机

(一)失位:技术风险泛化导致的制度供给不足

算法的不可解释性让人工智能技术成为影响人类的算法黑箱,超越了人类现有的知识范围。这种不可解释性主要意味着两个方面的不确定性风险:一是技术本身带来的不确定性风险;二是相关产品与应用创新爆发、功能交叉、场景分散带来的人工智能产业的不确定性风险。这些均会导致治理对象、治理环境、治理目标的不断变化,需要对生成式人工智能治理方案进行不断调整。然而,算法黑箱内外的信息不对称会导致监管者和被监管者共同无知。共同无知意味着监管者和被监管者均难以准确把握算法技术创新应用过程中可能出现的风险以及引发风险的原因[3],会导致技术风险泛化与制度供给不足之间的紧张关系。这具体表现为以下两对矛盾:

1.利益诉求多元性与制度供给有限性之间的矛盾

2022 年11 月30 日ChatGPT②问世后,巨大的产业升级机遇和违法风险同时涌现。《暂行办法》提出,国家要坚持发展与安全并重、促进创新与依法治理相结合的原则。自此,效率和安全成为我国人工智能治理新一阶段的目标。在追求效率和安全双目标的情况下,技术治理的制度供给要考虑多维需求:既要满足企业增加利润和创新试错的需求,又要满足公众对隐私保护、安全保障、平等对待的需求;既要防止专有制度过于严格,限制先进技术与知识传播,阻碍行业内差异化技术能力发展,形成专有性陷阱,又要防止专有制度过于宽松,放任风险在不同主体间传播,甚至形成系统性风险。

然而,我国监管能力和监管资源有限,多元目标与制度供给之间关系紧张,导致我国企业社会责任制度供给出现市场化倾向。也就是说,我国在人工智能研发、运营过程中主要采用基于商业自利逻辑的制度供给方案,没有建立负责任的研究与创新制度体系。比如,外卖平台采用以纯粹商业利益为导向的算法规则,通过牺牲外卖骑手的安全不断缩短最佳送餐时间,这种缺乏社会责任的效率评价机制已经构成对利益相关者合法权益的侵犯。再如,在2021 年的人工智能软件使用明星形象创设虚拟人物构成侵犯人格权案中,某款智能手机记账软件利用算法鼓励用户上传相关图文,通过侵害他人人格权实现软件核心功能[4]。

2.风险动态流动性与硬法僵化性之间的矛盾

目前我国的法律制度供给主要由硬法构成。生成式人工智能爆发以来,传统场景下的产品和应用纷纷接入应用程序编程接口(Application Programming Interface,API),“生成式大模型+辨识型小模型”的商业模式使数据安全风险和算法安全风险动态流动于人工智能产业链各个环节和各类主体。面对技术风险的不断变化,以封闭性、单向度、强制性为基本特征的硬法范式难以有效防范风险扩大,难以及时回应社会诉求。风险动态流动性与硬法僵化性之间的矛盾主要有三个方面的表现。一是调整时间上的滞后性。一方面,随着技术的发展,人与生成式人工智能的关系不断变化,对此硬法很难予以及时回应,会使新的社会现象面临于法无据的境地;另一方面,正式制度制定程序复杂,新旧法之间转换成本高,制度调整经常滞后。二是调整范围上的有限性。以国家强制力为保障的硬法并非适用于所有的社会关系和风险类型,完全依靠硬法规范不仅会导致法治资源紧张,而且会压缩社会创新空间。三是调整方式缺乏灵活性。追求普遍性、整体性的硬法规范难以兼顾特殊时空条件下的公平正义。

(二)失衡:技术资源集中导致的企业权责不均

生成式人工智能企业以数据采集为基础,控制人们对世界的感知和数字身份的产生,直接影响算法的设计,以算法运行为主要工具,直接作为行为规范影响人类的行为。在人工智能时代,数据和算法已然成为新的权力生产要素。数据权力和算法权力既具有建构数字社会关系、维护数字空间秩序的重要功能,也存在权力扩张和滥用的风险。传统互联网平台头部企业基于雄厚的资金实力、科技实力以及原有应用场景下积累的海量用户数据,率先完成智能化转型,成为人工智能头部企业。人工智能头部企业,一方面,可基于自身在数据和算法方面所拥有的独特技术优势,内生出部分权力;另一方面,可通过为国家治理提供技术辅助而外获部分权力,成为新的权力中心。若责任革新不能匹配权力流动,内生权力与外源权力加持下的人工智能企业很容易对社会产生侵害。

1.内生权力加持下企业对私人利益的侵害

内生权力加持下企业对私人利益的侵害主要表现为企业在资本逻辑下利用算法优势对利益相关者剩余价值的压榨、对用户意思自治空间的侵犯。前者具体表现为“产消合一”背景下用户无酬劳动产生的数字剩余价值和零工经济下众包劳动产生的数字剩余价值。在资本权力算法化的推动下,由数据和算法构成的数字资本形成了数字壁垒,促进了对用户和劳动者的进一步剥夺。后者具体表现为数据收集过程中的霸王格式条款、服务使用过程中的差异化定价、以用户画像和算法推荐为基础的消费引导、侵犯消费者福利的算法合谋等。当人工智能应用成为日常生活所必需的基础设施时,用户只能通过牺牲自治空间来防止自己被数字社会抛弃。

2.外源权力加持下企业对公共利益的侵害

随着人工智能向各领域深度渗透,政府在治理过程中也开始运用大数据技术和算法决策系统对社会进行精准监管,以提高公权力运行效率。比如,在新冠疫情防控期间,各地政府委托微信平台和支付宝平台开发健康码应用程序,通过手机收集阳性患者行踪轨迹并实现精准定位。此外,公权力在借助人工智能企业提升行政效率的同时,也与企业分享传统上仅由国家和政府专享的公权力。比如,政府在利用企业开发的智能平台处理政务时,后台产生的大量数据也会被企业俘获。然而,需要注意的是,少数掌握外获权力的人工智能企业可能会利用数据和算法方面的优势,在资本逻辑驱动下对国家治理和社会管理的过程进行干预和操纵。比如,剑桥分析(Cambridge Analytica)公司就曾利用脸书(Facebook)③泄露的5 000 万条用户信息,通过人工智能分析技术预测用户政治倾向,并基于此精准投放政治广告,最终对2016 年美国总统大选产生了影响[5]。目前,我国人工智能与政府合作方面的法律尚不完善,责任监督程序和链条尚未完全建立,因此极有可能产生侵害公共利益的事件。

(三)失调:技术伦理滞后导致的社会生态动荡

企业缺乏社会责任导致社会不仅要面临技术本身带来的风险,而且要面临技术风险溢出带来的社会性风险。企业社会责任缺失下的风险外溢有以下两个方面的表现。

1.自主决策能力受损下互动系统的失调

随着生成式人工智能技术的崛起,算法权力和数据权力对人的主体性构成严重威胁。人与技术互动时,人的认知功能、判断功能等会逐渐弱化,人的地位会逐渐边缘化,这在较大程度上受自动化算法决策结果制约。比如,通过搜索引擎的竞价排名操纵人类决策,通过新闻媒体平台的虚假新闻推送污染人类知识来源。算法权力和数据权力对人类认知和判断能力的影响,会从根本上侵蚀人类自主决策能力,甚至对人类主体性构成潜在威胁,弱化人与技术互动过程中人类的支配力。

2.新兴技术滥用下社会秩序的失范

企业具有天然的逐利性。在缺乏社会责任引导的情况下,很多企业秉持利益最大化原则,在制度灰色地带,通过算法开发、设计、部署与应用实施商业营利行为,引发新型社会风险。这具体表现为算法系统对劳动者剩余价值的压榨、人工智能机器对人类员工的替代、自动化决策对用户意思自治空间的侵犯、人工智能生成内容对未成年人意识行为的塑造等。比如,2017 年,美国卢卡(Luka)公司开发了聊天机器人雷普利卡(Replika),但受商业利益驱动未设年龄验证机制,非法收集处理个人数据,对未成年人保护造成了实质危害;2019 年陌陌公司推出的ZAO 换脸软件应用深度伪造技术,在商业逻辑下强制收集用户人脸数据,且未对用户敏感信息进行有效保护,助长了侵犯人格权、诈骗勒索等违法犯罪行为;2016 年美国总统大选期间,推特(Twitter)利用水军机器人模仿人类写作、发帖、讨论、转发,传播虚假新闻和煽动性信息,吸引点击流量,干扰了民众大选投票和正常政治秩序。

二、生成式人工智能企业社会责任治理的理论逻辑

面对社会责任缺失下生成式人工智能带来的失位、失衡、失调的治理风险,有必要在一定的制度场域内打造一个公共治理场域,由各类社会责任治理主体共同实施相应的企业社会责任治理机制,规制、规范、影响企业社会责任认知理念和管理实践,进而有效约束企业机会主义行为[6]。根据企业社会契约理论,企业应对为自身生存提供条件的社会承担责任,社会应对企业发展承担责任。由于每个与企业订立显性或隐性契约的利益相关者都会以某种形式为企业发展提供某种资源,所以企业应承担社会责任以满足各利益相关方的利益。在传统社会,物质资本所有者、人力资本所有者、债权人等利益相关者之间进行土地、劳动、资本、技术等生产要素的交换。在数字经济时代,数据成为新型生产要素,数据所有者、技术开发商、技术服务提供者等利益相关者加入价值链,与企业形成新的契约。2020 年3 月30 日发布的《中共中央国务院关于构建更加完善的要素市场化配置体制机制的意见》提出,要加快培育数据要素市场。人工智能企业与国家、社会、公民签订的社会契约可作为企业承担社会责任和回应公共利益诉求的基础。

(一)显性契约:基于正式制度的社会责任依据

科斯(Coase)[7]认为,合法权利的初始界定决定着资源配置的有效性和资源配置过程中的交易成本。也就是说,制度是决定交易成本的关键。国家通过法律规范、相关政策等正式制度安排为人工智能企业提供充分的发展空间,允许人工智能企业享有一部分技术权力,人工智能企业通过技术置换权力形成新的权力中心[8]。因此,人工智能企业作为显性契约的签约对手方,要履行应尽的社会责任。也就是说,企业组织通过与国家达成契约合意而获得合法性。

1.基于法律契约的社会责任依据

为推动人工智能产业发展,国家通过以公权力保障的正式制度为企业发展保驾护航。企业作为法律契约的对手方,理应承担相应的社会责任。

第一,数据是人工智能应用的基础。为推动人工智能产业发展,国家通过法律制度安排将公民通过让渡数据换取便利服务的非正式社会契约,转化成国家公权力支持的正式社会契约(即法律契约),降低企业获取和利用数据的交易成本,人工智能企业作为正式社会契约的当事人应履行应尽的社会责任。目前,我国已经出台多项规范性政策文件,对数据产权、交易流通、收益分配、安全治理等数据市场化体系进行规定,鼓励企业在合法合规的前提下充分利用数据资产。比如,2022 年12 月印发的《中共中央国务院关于构建数据基础制度更好发挥数据要素作用的意见》要求,推动建立企业数据确权授权机制,建立健全个人信息数据确权授权机制,建立健全数据要素各参与方合法权益保护制度,尊重数据采集、加工等数据处理者的劳动和其他要素贡献,充分保障数据处理者使用数据和获得收益的权利;2021 年9 月1 日起施行的《广东省数字经济促进条例》、2022 年1 月1 日起施行的《深圳经济特区数据条例》和《上海市数据条例》、2023 年1 月1 日起施行的《四川省数据条例》均规定,自然人、法人和非法人组织对其以合法方式获取的数据,以及通过合法处理数据而产出的数据产品和服务依法享有相关权益。再比如,《暂行办法》指出,对生成式人工智能服务实行包容审慎和分类分级监管,推动公共数据分类分级有序开放,扩展高质量的公共训练数据资源。相对于2023 年4 月11 日国家互联网信息办公室公布的征求意见稿,《暂行办法》明显放宽了对生成内容以及训练数据真实性、准确性、可靠性的要求,体现了立法者对现实技术的包容,减轻了服务提供者在生成内容上的责任。

第二,算法是人工智能发展的引擎。为促进人工智能创新,我国积极为算法研发提供创新空间,并对其生成内容进行保护。在研发环节,考虑到人工智能技术创新需要试错空间,若企业仅在内部研发或应用人工智能技术而不对外提供服务,则不受《暂行办法》监管。在尚未立法明确规定人工智能生成内容受知识产权法保护的情况下,考虑到企业为研发大模型所付出的高额成本,我国司法实务界仍为通过法律保护生成内容留出了空间。在北京菲林律师事务所诉百度百家号著作权侵权案中,法院虽然认为只有自然人创作完成的独创性作品才可获得版权保护,并因此否定了人工智能直接且独立生成作品的版权保护可能性,但同时也指出可以通过竞争法等方式对人工智能生成内容的相关权益(如竞争性权益)进行保护[9]。此外,2020 年新修正的《中华人民共和国著作权法》通过兜底条款的开放式作品认定方式,为人工智能技术发展催生的新客体预留制度空间。

2.基于政策契约的社会责任依据

国家通过政策性制度安排为人工智能产业发展提供资源支持。其一,在宏观战略层面,国家对人工智能产业进行倡导。2015 年7 月1 日发布的《国务院关于积极推进“互联网+”行动的指导意见》将“互联网+”人工智能列为11 项重点行动之一,首次提出要培育发展人工智能新兴产业。“十三五”规划纲要、“十四五”规划纲要将人工智能作为重点新兴领域。此后,科学技术部、教育部、工业和信息化部等按照党中央指示,持续对人工智能领域进行战略部署。其二,在中观法治层面,国家通过《暂行办法》中的原则性条款和具体规定,对生成式人工智能产业进行政策鼓励和法律支持。《暂行办法》从生成式人工智能服务的技术研发、基础设施建设、市场参与、资源投入、产业扶持等方面提出了多元化、多层次的鼓励方案。其三,在微观实践层面,国家通过试验区、先导区等对人工智能产业进行创新支持和沙盒监管。2020 年9 月29 日科学技术部印发的《国家新一代人工智能创新发展试验区建设工作指引(修订版)》提出,到2023年,布局建设20 个左右试验区。截至2021 年12月,我国已经建立了17 个国家新一代人工智能创新发展试验区[10]。2022 年以来,各地陆续出台相关政策,推动人工智能产业落地发展。比如,2022 年9 月5 日,深圳市人民代表大会常务委员会公布《深圳经济特区人工智能产业促进条例》;2023 年5 月30 日,北京市人民政府发布《北京市加快建设具有全球影响力的人工智能创新策源地实施方案(2023—2025 年)》和《北京市促进通用人工智能创新发展的若干措施》;2023 年5 月30 日,上海市发展和改革委员会发布《上海市加大力度支持民间投资发展若干政策措施》,支持民营企业广泛参与数据、算力等人工智能基础设施建设。基于以上国家为人工智能产业发展提供的支持,人工智能企业作为政策契约的当事人理应履行应尽的社会责任。

(二)隐性契约:基于非正式制度的社会责任依据

在显性契约之外,还有部分无法通过正式制度安排或者正式制度安排成本极高的隐性契约。这种隐性契约由社会中各利益相关方的共同意识、习惯、内部规则、社会性交换、对未来的期待等交织组成,往往会涉及道德伦理和公序良俗。也就是说,企业组织通过与社会达成隐性契约合意而获得合理性。在人工智能时代,隐性契约主要基于人类命运共同体的科技伦理共识和人工智能企业与社会之间的共生共创共识。

1.基于伦理契约的社会责任依据

人权是人类社会文明的准则,是国家合法性的标准,是我国宪法与国际法律条约的基石,由此人权就成为人工智能伦理准则的伦理底线,成为事关人类命运与未来的核心价值准则[11]。以人权法则为基础的人工智能伦理准则,是一种普遍主义的价值观念。以不损害人类利益、不取代人类为前提发展人工智能,应该成为企业和社会的共同伦理准则。ChatGPT 的自主学习能力和规律总结能力预示了通用型人工智能的发展趋势,人工智能已经开始挑战人类作为独立个体的自主性、自由意志和自我决定能力。面对人工智能的跃迁式发展,各国正积极开展以人权和伦理为进路的应对办法。2016年,英国发布《机器人技术和人工智能》(Robotics and Artificial Intelligence)报告。2018 年,法国公布《法国人工智能发展战略》(French Intelligence Artificielle)。2019 年,美国签署《美国人工智能倡议》(American Artificial Intelligence Initiative)。2023 年,我国提出《全球人工智能治理倡议》。该倡议提出,发展人工智能应坚持伦理先行,明确人工智能相关主体的责任和权力边界,充分尊重并保障各群体合法权益;应坚持以人为本理念,以增进人类共同福祉为目标。至此,以人类命运共同体为关键、以人权准则为核心的科技伦理共识,已经成为企业与社会之间伦理契约的重要内容。

在人类命运共同体的科技伦理下,人工智能企业在发展过程中依然会不可避免地牺牲一部分利益相关者的利益。比如,人工智能企业会在服务过程中向用户提出无法拒绝的数据收集“霸王条款”;外卖平台会通过算法控制骑手的工作时间和工作方式。但为推动人工智能发展创新,各国对此基本都采取了包容性的监管策略。因此,人工智能企业更应以不断改善人类福祉为己任,弥补自身在发展过程中对人权的侵犯。

2.基于信任契约的社会责任依据

人工智能企业之间已形成相互依存、损害连带的共生关系,共生共创共识成为企业之间的隐性契约。基于商业信任契约,生成式人工智能企业与作为其利益相关者的上下游供应商要相互承担社会责任。

在“生成式大模型+辨识型小模型”的商业生态圈中,企业可以通过选取不同的业务活动并在其中扮演特定角色,与生态圈中的其他主体进行交易,而由此可以衍生出很多不同的商业模式。在数据共享、算法开源的大环境下,生态圈里的企业之间形成了一荣俱荣一损俱损的共生关系。数据一旦受到污染,相关损失将由生态圈成员共同承担。数据污染包括非人工智能生成内容带来的污染和人工智能生成内容带来的污染。其中,前者是指,当包含大量偏见和歧视性内容以及侵犯名誉和隐私等的数据使用不当或者存在人为故意“数据投毒”时,大模型训练会导致某些刻板印象被进一步强化或者得出错误结论;后者是指,当人工智能生成内容被作为语料训练大模型时,会产生“递归的诅咒”[12],导致模型崩溃④和灾难性遗忘⑤现象的发生。而这两种现象不仅会在利用本体生成数据进行大模型训练时产生,而且会受其他模型生成数据影响。可见,只有所有人工智能大模型企业都给生成内容做好标记,才能防止数据污染,否则就会出现文本多样性丧失、内容准确性下降、模型微调效果受损等后果。这种共生关系形成了企业之间的商业信任契约,企业应对作为其利益相关者的上下游供应商承担社会责任。

三、生成式人工智能企业社会责任治理的现实逻辑

ChatGPT 问世后,巨大的产业升级机遇和违法风险同时涌现。对此,我国一方面要抓住产业升级良机,在全球人工智能竞争中占据优势地位;另一方面要进行有效监管,防范未知风险。在传统科技治理方案失灵之际,2019 年6 月17日,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,要求人工智能发展相关各方遵循敏捷治理、开放协作原则,以更好协调发展与治理的关系,共建人类命运共同体。因此,企业应以高度的社会责任感和自律意识共同承担法律责任和伦理责任。

(一)技术跃迁背景下政府失灵对企业敏捷共治的需求

在传统社会中,政府作为公民权的唯一担保人,为保护个人公民权、社会权、政治权等权利提供相应的福利和制度保障。然而,人工智能技术跃迁背景下,政府在监管资源和监管信息方面均处于弱势地位。政府传统职能的局部失灵使之丧失了公民权唯一担保人的地位。在此情况下,企业公民理论认为,拥有更多监管资源、监管信息、监管能力的企业有必要辅助国家进行公民权的补充管理,特别是在政府管理缺失和管理乏力的领域承担相应的社会责任[13]。因此,企业应在敏捷共治框架下主动承担社会责任,通过多方共治和动态沟通应对政府治理失灵带来的挑战。

1.监管能力匮乏下政府对企业自我监督的需求

随着生成式人工智能技术不断发展,其对社会结构的渗透度、风险在不同主体间的传播度、多重风险叠加后的复杂度日益上升。这意味着,在监管方案上,政府不仅要兼顾具有张力的多元目标,而且要结合现有条件和未来演化趋势进行综合判断。然而,面对人工智能技术的破坏式创新,政府监管和治理经验不足,无法全面有效地识别和防范风险。在政府管理缺失和管理乏力的领域,企业理应在政府失灵时承担起对企业公民权的补充管理责任。

企业作为人工智能技术的开发者、运营者、使用者,不仅拥有技术发展的第一手资料,而且与用户直接对接,比政府更具备治理优势。企业可利用技术优势和专业知识进行自我监督管理,主动弥补市场机制缺陷,从源头上识别和防范风险。《暂行办法》第五条明确规定,支持企业及科研专业机构等在生成式人工智能技术创新、数据资源建设、转化应用、风险防范等方面开展协作。2023 年7 月,美国开放人工智能研究中心(OpenAI)宣布,将在接下来的四年里将20%的算力资源用于人工智能监督模型研发,促使人工智能与人类实现价值相匹配,确保人工智能安全[14]。

2.监管信息匮乏下政府对企业主动反馈的需求

生成式人工智能技术发展时间短,更新快。面对新业态,受技术信息不对称影响,政府监管方案的出台往往滞后于人工智能企业的发展变化。人工智能具有自我学习和不断变化的特征,其性能和行为即使在监管机构进行评估和监管的过程中,也可能发生变化。算法演化过程的动态性、应用方式的多样性使以特定时间特定事实为评估依据的命令控制型监管模式面临失灵,监管机构无法及时捕捉监管方案实施效果与动态并采取相应的调整和应对措施。

自我规制者往往比政府更接近被规制对象,更易获得有关规制效果的反馈信息,且能够基于内部信息优势进行治理创新。因此,可以通过授权企业进行自我规制来缓解政府与企业之间的信息不对称程度,形成动态可调整、灵活可适应的多元主体治理结构。应积极利用企业作为人工智能技术研发者和应用者的信息优势,充分尊重一线研发人员专业判断,不断进行沟通、反馈和规则迭代,以此达到创新与安全的最佳平衡点。

(二)全球竞争背景下国家与企业战略共赢的需求

目前,中美欧三足鼎立的全球数字地缘版图已初现端倪[15]。欧盟形成了以跨境数据传输规则为核心、以数据本地化为手段、基于数据优势的规则输出策略。美国形成了以巨头数字企业技术标准为核心、以技术脱钩化为手段、基于算法优势的规则输出策略。随着中美技术竞争的加剧和美欧战略合作的加强,巩固本国数字主权、削弱他国数字主权成为大国竞争的战略目标。成功进行规则输出是维护数字主权的重要途径。以国别为单位的政府管制面临数字经济全球化带来的传统法律移植失灵问题。在这样的局面下,企业作为全球公民,能够通过承担社会责任突破地域和文化界限,为本国规则超越国界发挥作用提供可能。通过促使企业承担社会责任,能够实现国家规则输出和企业市场扩张的双赢。一方面,跨国企业可通过标准合同主动规范全球价值链上的东道国市场及利益相关者;另一方面,跨国企业可通过在东道国推行内部行为标准,实现公司内部规范的全球传播。

1.国家对突破布鲁塞尔效应与扩张数据主权的需求

在数字空间中,算力、算法、数据是衡量数字技术的核心指标。金晶[2]认为,突破布鲁塞尔效应的关键在于扩大我国数据市场规模,可通过增加我国贸易机会、扩大我国贸易规模,促使跨国企业优先选择我国市场,增强我国规则制定权。然而,笔者认为,对我国而言,尽管尚不具备类似欧盟的特殊市场规模,但兼具算法与数据综合优势,可利用美国对数据市场的需求和欧洲对美国数字巨头的忌惮,通过促使企业承担社会责任实行差异化应对策略。也就是说,我国既可基于国内数字平台巨头企业算法优势,通过美国模式对包括欧盟和发展中经济体在内的国家和地区进行私人法律移植,也可基于国内海量用户产生的数据优势,通过欧盟模式对所有来华科技企业进行监管规则输出。除单方面采用“基于GDPR、超越GDPR”(更严规则)[2]的规则输出策略外,还可同时采用美国模式的规则输出策略作为补充。与其被动等待他国跨国企业基于我国市场规模对标我国法律,不如主动通过我国跨国企业的域外经营实现本国规则的域外输出。这既有助于突破以一国市场规模为前提的布鲁塞尔效应,也有助于通过我国跨国企业的域外经营实现我国数据主权的扩张,打造以中国价值观为核心的全球数字技术生态环境。

2.企业对获得消费者认可和投资者青睐的需求

对跨国企业本身而言,可通过承担社会责任获得消费者认可和投资者青睐,进而实现企业利益和国家利益的双赢。

第一,获得消费者认可。在数字社会,负责任的人工智能成为消费者和其他利益相关者关心的首要议题。人工智能企业可以通过在算法可控、数据安全、算力环保等方面积极履行社会责任,树立良好企业形象,获得消费者对企业产品和应用的认可和信任。这既能帮助企业获取“社会经营许可”,在市场上赢得竞争优势,也能帮助企业获得更多用户数据,优化人工智能算法模型,实现可持续发展。此外,在进入域外市场时,积极履行社会责任有助于企业获得域外消费者的认可和支持,实现双赢。

第二,获得投资者青睐。企业的社会责任表现会对市场竞争产生影响。在进入域外市场时,积极履行社会责任有助于企业得到域外消费者认同,进而得到域外投资者垂青。波夫(Boffo)等[16]的研究表明,勇于承担社会责任的企业更有可能获得投资者青睐。人工智能产品既改变用户感知世界的方式,也改变用户在世界上的行为方式和彼此间的互动方式,甚至对消费者产生一系列负面影响。企业在消费者隐私保护、避免算法歧视、充分解释算法等方面履行社会责任的表现,会影响消费者选择,进而影响企业绩效和投资者判断。因此,以较高标准承担社会责任有助于企业形成竞争优势,获得投资者青睐,实现可持续发展。

四、生成式人工智能企业社会责任治理的具体路径

区别于自上而下的政府监管策略,自下而上的企业社会责任治理强调企业与政府、社会与国家间的互动关系,提倡通过构建软性规范和激励措施来引导企业自发形成“逐顶竞争”。在推动生成式人工智能企业承担社会责任的过程中,从国家层面看,应提倡构建软法硬法协同治理的综合网络;从政企合作层面看,应积极构建企业自我规制与政府监管衔接互动机制;从企业层面看,应优化落实董事会结构和合规管理制度。

(一)制度供给:构建软法硬法协同治理的综合网络

企业社会责任多层次内涵与软法硬法协同治理范式具有天然的吻合性。硬法底线治理回应企业社会责任的最低要求,软法协同治理回应企业社会责任的向善愿景。在硬法层面,对企业社会责任的监管应做到有法可依、有法必依、执法必严、违法必究,将硬法作为底线治理的依据。在软法层面,对企业社会责任的监管应主要通过社会回应机制来鼓励和引导企业自愿将社会责任融入自身经营管理核心战略,以软法作为协同治理的框架。

1.硬法底线治理落实法律责任

第一,明确生成式人工智能企业社会责任的入法范围。入法范围涵盖法律规则和法律原则。法律规则作为对人工智能企业的底线性义务要求,是推动企业承担社会责任的关键路径。法律原则作为沟通强制责任与道德伦理的桥梁,可赋予法律规范应对技术跃迁式发展的灵活性,为软法治理提供法律依据。目前,《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》《关于加强互联网信息服务算法综合治理的指导意见》《暂行办法》等法律法规已对人工智能底层的算法安全、算法备案以及数据权属、数据保护、数据安全等进行了具体的制度规定,企业社会责任和科技伦理方面的规定大多属于倡导性法律原则。2023 年5 月31日,国务院办公厅印发《国务院2023 年度立法工作计划》,预备提请全国人大常委会审议人工智能法草案,在其后续制定过程中,可进一步聚焦企业科技伦理审查义务、训练数据合法性判断标准、自动化决策法律责任分配、人工智能生成内容权属等方面。

第二,避免人工智能道德伦理的法律化。《暂行办法》提出,要完善与创新发展相适应的科学监管方式。然而,人工智能道德伦理的法律化会遏制企业的创新发展。因此,在立法过程中应保持对企业行为的谦抑性。比如,《暂行办法》针对生成式人工智能内容的真实性,谦抑地将禁止生成内容限定为虚假有害信息,而非虚假信息。该规定并没有将伦理要求上升为法律要求,而是在明确保护社会公共秩序这一底线的同时,保护和支持大模型技术的发展创新。此外,在司法裁判和行政执法过程中,科技向善不能作为行政行为评价、司法裁判和生成式人工智能服务提供者合规的直接依据。对于超越法律责任的内容,应充分尊重企业的营利性特点。如有必要,可通过法律解释及漏洞补充使科技向善的基本原则得以贯彻,或者通过调整公司内部治理结构和内容来激发企业承担社会责任的内生动力。

2.软法协同治理激发伦理责任

第一,推进自愿性团体标准治理。与政府标准相比,团体标准对技术和市场的反应速度更快,制定程序更简易,覆盖面更广。一方面,团体标准能够补足政府标准的制度空白;另一方面,团体标准之间能够形成“逐顶竞争”的良好态势,通过市场机制优胜劣汰,不断提升标准的质量水平。

第二,积极制定行业自治性契约,使之成为企业社会责任的软约束。行业组织既可以作为企业社会责任的监督者,又可以作为企业社会责任的倡导者。与指导性标准纯粹的指导意义相比,自治性契约实现了行为标准、评价体系与奖惩措施的结合,具有软约束的效果,能以更灵活的方式弥补公共监管的不足。此外,行业组织处于生产第一线,能以更充分的信息、更及时的手段对国家规范的缺失、薄弱、紊乱进行填补或补强[17]。为发展行业自治力量,政府可在合理范围内对行业组织进行政策扶持,引导其吸纳企业会员,加强国家标准之外的行业标准研究。

第三,以人工智能赋能企业社会责任个性化软法定制。随着人工智能的发展,数据收集和利用能力不断提升,使个性化立法成为可能。可基于对企业以往社会责任支出水平、支出项目以及盈利水平、利益相关方满意度等因素的数据化分析,构建针对该企业的个性化监管方案,在股东利益、企业利益、社会利益之间寻求最佳平衡,实现精细化立法。借助基于大数据分析的企业画像,能对企业主体进行更细致的划分,进而对不同企业应承担社会责任的轻重进行具体判断,形成有针对性的个性化监管方案。与“一刀切”的传统监管方案相比,个性化软法定制方案可避免一般监管逻辑少数服从多数的弊端,更具科学性、针对性、合理性。

(二)政企合作:构建企业自我规制与政府监管衔接互动机制

目前,我国对数据、个人信息、算法以及人工智能的规制主要表现为基于行政法规和刑法的威慑性处罚。根据现行法律规定,一般行政处罚的罚款数额远远高于刑事处罚的罚金数额,如2022 年7 月21 日国家互联网信息办公室就对滴滴公司处以了80.26 亿元的巨额罚款[18]。从事前角度看,企业违法违规给市场和社会造成的风险远超其自身承受能力;从事后角度看,高额的行政处罚意味着更高的事后社会成本⑥,尽管能起到威慑作用,却无法从源头上减少企业违法行为,甚至会使罚款成为企业经营成本的一部分。而通过行政合规制度建设,能将外在的监管约束内化成企业内在的治理需求,实现企业自我规制与政府监管规制的有效衔接。行政合规制度不仅能从源头上纠正企业行为,促使企业探索解决问题的最适宜方案,而且能在一段时间内对企业进行持续性监督,确保企业将合规方案内化于治理架构和日常研发运作。在美国,已经出现了针对人工智能企业的行政合规案例。2022 年,美国司法部要求元(Meta)公司开发能够消除个性化广告中算法歧视的治理工具,以此换取和解诉讼[19]。元公司通过开发方差衰减系统(Variance Reduction System),减少广告投放中基于性别和种族差异的风险,从源头上规避违法行为带来的风险。具体而言,企业自我规制与政府监管衔接互动机制的构建可从以下两个方面入手:

1.明确企业内部监督机构

企业内部监督机构对企业内部生态系统健康运行具有重要作用:一方面,在违规事件发生之前,负责企业内部合规事务的日常运营;另一方面,在违规事件发生之后,负责对接监管机构,按照监管机构要求对企业进行整改。为明确企业中负责内部监督、对接行政合规整改的机构,可结合企业具体情况,搭建以首席合规官为核心的单层结构或者“合规委员会-首席合规官”双层结构。对于合规管理难度小、业务简单、合规风险低的企业,可以搭建单层结构。在单层结构中,需要明确首席合规官的高管地位,设立首席合规官与董事会之间的直接沟通渠道。对于合规管理难度大、业务复杂、合规风险高的企业,可以搭建双层结构。在双层结构中,合规委员会专门负责协助董事会加强合规管理体系建设,对首席合规官进行指导和监督,化解企业中合规事项与商业事项之间的潜在利益冲突;首席合规官负责执行企业合规计划中的具体事项。

2.细化行政责任减免激励措施

目前,我国企业行政合规治理主要由公权力主导。在合规激励不足的情况下,企业合规很可能演变成仅追求最低合规要求的纸面合规,甚至被作为一项经营成本。因此,有必要构建一套行政合规治理的激励措施。具体而言,行政合规整改措施的细化可分事前、事后两个环节展开:其一,在事前环节,应确认有效合规计划减免企业行政责任的效力,并进一步细化合规计划的有效性标准。对企业合规计划有效性的判断应结合企业自身经济条件、商业模式等因素进行具体分析。对于建立有效合规计划的企业,在内部员工违法行为可能引发合规行政责任时,可相应减轻或免除其行政责任。其二,在事后环节,应充分肯定企业在监管机构执法过程中的配合行为,若企业能够及时有效采取补救措施(如积极修补技术漏洞、惩戒违规违法人员、完善合规管理体系等)防范风险进一步扩大,可通过达成行政和解协议的方式,要求企业限期进行合规整改,对整改后达到行政合规要求的企业终止行政调查。

(三)微观落实:构建多元化董事会结构和合规管理制度

1.构建多元化董事会结构

第一,在组织结构上,可设立科技伦理委员会,以弥补当前董事会在科技伦理监督资源方面的不足。企业可设立一个由伦理专家、技术专家、法律专家、商业战略专家组成的人工智能伦理委员会[20]。该委员会独立于现有职能部门,作为专门委员会参与企业决策。该委员会主要负责以下工作:一是建立内部伦理审查机制,并将之嵌入公司决策。生成式人工智能能够处理跨域任务,具有良好的通用性和泛化性,偏误和风险一旦出现,就会弥散蔓延至整个产业链条。因此,应将监管介入节点前置,在设计阶段嵌入基础伦理原则,在运营应用阶段进行常态化伦理审查,以确保通用模型输出结果更符合人类价值观。目前,我国阿里巴巴集团已成立科技伦理治理委员会,引入了七位外部顾问委员,提出了以人为本、普惠正直、安全可靠、隐私保护、可信可控、开放共治六大科技伦理准则[21]。截至2016年,美国董事会中设置技术委员会的企业占比已经达到6%[22]。微软(Microsoft)、谷歌(Google)、国际商业机器(IBM)、深度思考(DeepMind)、索尼(Sony)等企业均设立了人工智能伦理委员会,主要负责评估人工智能伦理问题,主动制定相关内部政策。二是建立投诉举报反馈机制。人工智能伦理委员会可作为直达董事会的独立信息传递渠道,受理举报投诉信息,积极响应用户诉求,畅通投诉举报反馈机制。在传统的经理层结构中,信息可能会被过滤或扭曲,导致问题无法及时得到解决。通过独立沟通渠道,员工和用户可直接向董事会反映问题和意见,不必担心遭受上级不当对待或欺凌。通过独立于经理层的沟通渠道报告有违科技伦理的行为或潜在风险,有助于监督上级不当行为,加快企业对违法行为的反应速度。

第二,在人员结构上,可要求一定比例或数量具有交叉学科背景的专业人士入驻董事会,以弥补现有董事会成员在科技伦理监督知识方面的不足。2018 年9 月30 日,中国证券监督管理委员会公布修订的《上市公司治理准则》,其第二十五条提出,应鼓励董事会成员的多元化。该规定表明,我国以规范性指引的形式鼓励董事会吸纳技术专才,尊重技术专业判断与决策。科技伦理审查在本质上属于跨学科实践,需要整合伦理学、信息科学、心理学、认知科学、人类学等学科知识,共同设计能够化解科技伦理困境的方案,确保用户权益最优化。对于人工智能专业董事的任职资格,可由监管部门通过开展人工智能算法考试考察,并在考试通过后对其进行持续性督导,以促使其长期专注于技术监督[23],此外还可通过对其他领域的证书(计算机能力等级证书等)进行选择性认定来确认其任职资格。

2.完善多层次合规管理制度

合规管理制度作为企业内部系统与社会系统的耦合点,可将外源性规范转化为内生性规范,将倡导性法律原则和伦理道德转化为内部控制的自我约束。可通过事前控制,使法律、监管、道德等方面的要求贯穿从底层规划、设计、获取、构建、部署、开发到发布、保存、访问等的人工智能技术完整生命周期,以确保最终获得适当、合法、道德上可接受的产品。

第一,在组织架构上,设立数据合规官,在企业内部建立覆盖式连贯一体的监督链。建立自上而下、由外到内的“股东大会→董事会→首席合规官→部门经理→岗位负责人→业务执行人”监督链,对不良行为实施全过程监管[24]。采用这种自上而下的方法确保全面的监督和责任,使组织能够识别和纠正任何偏离道德和法律标准的行为。

第二,贯彻全流程管理,将人工智能伦理风险评估与控制贯彻到每一个环节。在产品和服务开发设计环节,基于人工智能治理特点,优化产研集成产品和服务开发流程,在各关键阶段进行伦理风险和个人信息影响评估,在系统设计之初就将向善需求嵌入其中,使之成为系统运行的默认规则,而非事后补救。科学应用设计者道德想象与扩展的建设性技术评估、预期性技术伦理方法、价值敏感性设计、劝导式设计等多种负责任的算法设计方法[25],贯彻以人为本的设计(Human-Centered Design,HCD),从用户的需求、兴趣、能力出发,通过与人类直接接触来评估和理解人类,提供易于理解且符合社会价值观的可用产品和服务[26]。在与第三方客户互动方面,搭建能与客户充分交流的“了解你的客户”(Know-Your-Customer)客户管理流程,在合同签订、产品运维等过程中面向客户和合作伙伴积极践行人工智能伦理与合规流程[27]。

五、结语

负责任的人工智能是全世界的共同追求,生成式人工智能企业社会责任治理在当今时代具有重要意义。为化解人工智能带来的伦理风险和道德困境,企业和政府要共同承担人工智能治理责任。在迈向敏捷治理的过程中,企业应切实保持开放协作共治,以高度的社会责任感和自律意识,共同承担法律责任和伦理责任。通过企业社会责任进行协同治理,能促使自下而上的市场驱动战略与自上而下的监管驱动战略形成互补关系,共同引领负责任的人工智能向前发展。如何激励企业承担应尽的社会责任,如何激发社会各利益相关方可持续发展的内生动力,事关未来,意义深远,亟待解决。未来,还要对本土化国情下企业与政府互动共治的具体路径进行深入探讨,进一步厘清企业在敏捷治理中的角色、职能和责任。

注释:

①先后对美国政府作出自愿承诺的人工智能头部企业包括谷歌(Google)、人本(Anthropic)、微软(Microsoft)、开放人工智能研究中心(OpenAI)、亚马逊(Amazon)、曲变(Inflection)、元(Meta)、奥多比(Adobe)、科希尔(Cohere)、国际商业机器(IBM)、英伟达(Nvidia)、帕兰提尔(Palantir)、卖力(Salesforce)、规模智能(ScaleAI)、斯泰普力(Stability)等。

②ChatGPT指生成型预训练变换模型(Chat Generative Pretrained Transformer),是美国开放人工智能研究中心研发的一款人工智能技术驱动的自然语言处理工具,能用于问答、文本摘要生成、机器翻译、分类、代码生成和对话等。

③脸书(Facebook)是美国的一家社交媒体公司,2021 年10月正式更名为元。

④模型崩溃现象反映的是一种代际退化过程,模型生成的数据污染下一代模型的训练集,导致它们误解现实。

⑤灾难性遗忘是指,神经网络在学习新信息时,可能会忘记之前学过的内容,并导致模型失去其先前的能力。

⑥对公司施加极高的罚款具有实际的后期成本:人们可能失去工作岗位,公司可能被迫破产。

猜你喜欢

合规人工智能责任
使命在心 责任在肩
对企业合规风险管理的思考
每个人都该承担起自己的责任
外贸企业海关合规重点提示
GDPR实施下的企业合规管理
2019:人工智能
人工智能与就业
数读人工智能
下一幕,人工智能!
期望嘱托责任