APP下载

人工智能创作物信息披露问题的著作权法规制*

2022-12-17王影航

中国科技期刊研究 2022年21期
关键词:著作权法算法创作

□文│王影航

近年来,人工智能(artificial intelligence,即AI)在创作领域的运用日渐增多。AI机器人在新闻写作、文学创作、图片生成、视频与音乐制作等方面所生成内容的创造性不亚于人类作品,甚至由此衍生出“AI创作”(AI creation)的概念。[1]在学界与实务部门普遍认为AI创作物不属于人类作品的情况下,如何识别AI创作物与人类作品,已成为不容忽视的重要问题。[2]现实中,随着AI创作软件走向应用端,AI创作物信息披露缺失的情况越发严重。眼下,已有司法判决注意到这一问题。在菲林律所诉百度网讯公司一案中,原告并未披露涉案内容是由AI创作的,而法院认为人工智能使用者有义务在创作物中添加软件标识,标明“系软件自动生成”,否则有悖诚信原则。[3]在学界,人工智能创作物的识别及其相关信息披露问题却鲜有学者予以关注。有学者曾反思道,人工智能创作物因信息披露缺失而实际上受到著作权保护,是当下举证规则造成的现象,但没有提出具体的解决对策。[4]事实上,从保障版权市场秩序与有关产业安全效益的层面出发,除了在创作物上添加软件标识,AI软件研发者或者使用者是否应承担更多的信息披露义务?除了AI研发者与使用者,是否还有其他主体诸如AI创作物的传播者、利用者,应履行与其合法权益相匹配的信息披露义务?相关主体未履行信息披露义务必须承担怎样的法律责任,如何保障相关主体高效便利地履行信息披露义务?这些问题仍有待进一步探索。

一、AI创作物信息披露的应然范围与规制依据

与传统人类作品相比,AI创作物所涉及的主体信息、技术信息与行为模式更加复杂。[5]从人工智能法律治理的基本趋势与强调现代性风险防控的风险社会理论出发,AI创作物在发布时应当予以披露的信息至少包括以下两大类:

1. AI创作物识别性信息:基于著作权法区分规制AI创作物与人类作品之需

国际知识产权协会(AIPPI)于2019年的调查显示,区分AI创作活动与人类创作行为,合理有差异地规制AI创作物与人类作品,同时在AI创作物内部根据人类干预程度的高低进行区别保护,系当下世界各国关于AI创作物权益保护的主流观点。[6]在AI创作物与人类作品的外观高度相似的情况下,进行区分保护的前提是具有足够的信息识别两者。因此,立法者应当对AI创作物识别性信息的披露进行必要的规制,这是著作权法落实诚实信用原则以及维护版权市场交易秩序的必要举措,也是基于分配正义的要求合理甄别与规范不同创作高度的AI创作物的应有之义。值得注意的是,从AI创作物内部出现区分保护趋势的基本要求出发,AI创作物识别性信息的范围,不能限于“创作物源于AI”的简单标志,而要结合甄别与规范AI创作物的需要予以扩大与细化。具体而言,AI创作物识别性信息至少包括以下两类:

一是外观识别性信息,包括但不限于AI创作物的特定标志以及其他突出提醒创作物标志的信息。AI创作物外观识别性信息的披露目的,在于区分权利外观高度相似的AI创作物与人类作品。考虑到AI创作技术的飞速发展以及人类社会的天然惰性与趋利性,若AI创作物外观识别性信息不纳入强制披露的范围,或发生一些潜在问题,如某些单位或个人为了谋取有关内容的“作者”之名以及相关利益而修饰AI创作物,不仅可能以“滥用作品侵权之诉”的形式干扰他人对AI创作物的合理使用,还可能以“批量低成本生产”的优势反向打压其他自然人创作的积极性,进而影响版权市场秩序的稳定以及著作权法所倡导的文化繁荣。

二是权益识别性信息,包括但不限于AI创作软件信息、创作物权属声明、权益管理信息以及其他反映人类独创性干预的相关信息。AI创作物权益识别性信息的披露目的,在于区分人类干预程度不同的AI创作物,从而决定赋予相应创作物以何种形态的法律保护。从AIPPI的调查结果来看,对于人类具有独创性干预的AI创作物,各国基本承认其保护的必要性,并尝试给予其接近狭义著作权或者邻接权的保护;而对于不具有人类独创性干预的AI创作物,各国基本认为应不予保护或给予较弱的保护。在我国的司法实践中,北京知识产权法院曾基于人类干预不足而认定AI创作的检索报告不属于人类作品,并从激励论出发将相关权益赋予AI使用者;深圳市南山区人民法院则基于研发者的深度干预,认定AI撰写的新闻稿属于法人作品,其著作权属于组织创作的单位。[7]由此可见,有关人类干预程度等权益识别性信息的披露,对于保障AI创作的基本秩序极为重要,应当创设规则识别AI创作物在生成过程中的人类干预程度,以实现区别保护与规范的目的。

2. AI创作物技术性信息:基于防控AI创作现代性风险之需

AI的创作活动相比于人类创作行为,增加了更多技术性的内容,相应会产生更多技术上的风险。当下,AI技术受到纯理性开发思维的影响,在应用过程中已经出现过系统性歧视、大规模抄袭的事件。例如,美国法院曾利用智能算法COMPAS评估罪犯的犯罪风险,但是该算法所出台的报告被证实含有对黑人的系统性歧视;德国科学家曾利用AI软件批量复制名人画家风格的产品,并因此陷入了抄袭纠纷。[8]有学者反思到,AI算法决策模型是一个表达高度趋同、有利于偏见生成的模型。[9]故而有理由怀疑,AI创作技术在推广应用中可能出现新的、危害更大的技术风险,包括但不限于由于算法决策导致的大规模隐私泄露、AI严重打压自然人创作、AI创作内容威胁公共安全等。这些风险是典型的现代性风险,往往后果是难以预料的,亟需提前防控。[10]从风险社会理论上来看,除了识别性信息,我们还需要足够的关于AI创作物的技术性信息来化解潜在的技术风险。

根据风险社会理论,由于新的技术解决方案会造成新的不确定性后果,因此现代性的技术风险是无法通过技术本身的发展来解决的,只能通过有效的信息披露与公众监督予以对抗和化解。[11]2019年年末,一款使用深度伪造技术(DEEPFAKES)的AI换脸软件“ZAO”火爆全网,其下载量迅速攀升。但是直到发布后的第三天,“ZAO”才因存在大规模侵犯肖像权、泄露用户隐私、公共事件“造假”等风险而被强制下架。[12]此案例警示我们,忽略AI创作物技术性信息披露问题,可能错过提前规制的时机,从而放任AI创作过程之中可能出现的诸多风险。立法者应对AI创作物技术性信息的披露做出必要的制度安排,来保障社会公众或其他监督主体对AI创作技术风险的有效防控,进而实现AI创作技术“造福于民”的最终目的。

从AI创作原理及其风险防控要求出发,AI创作物技术性信息至少要包括以下两部分的内容:一是数据性信息,包括AI创作物所涉数据的来源与使用信息。因为AI创作活动可能涉及一些未脱敏的个人信息或侵权内容。若缺乏必要的监管与限制,AI对这些数据的使用可能会引发大规模的侵权现象。二是算法性信息,即AI创作物赖以生成的算法代码及其技术效果。缺乏监管的AI算法可能装进了过度的商业资本追求、价值偏好和不公正因素,进而侵蚀大众权益。[13]虽然,AI创作物所涉数据与算法等技术性信息的披露,必须考虑披露成本与效益之间的平衡问题,但是从技术原理上看,数据与算法是AI创作软件的核心与基础,同时也是AI侵犯他人权益或引发技术风险的根源。[14]AI创作物所涉数据与算法等技术性信息的披露将为规制AI技术提供更合理的操作空间——社会公众、技术监管部门乃至司法机关可以在此基础上发挥各自的作用,对AI技术所产生的外部效用进行评价,并对有关数据的使用与算法的运行进行提前管控与实时监督。

二、我国著作权法与网络内容治理相关规定的规制挑战

AI创作物信息的披露价值随着AI技术及其法治理念的发展不断延伸,业已涵盖了维护数字时代版权市场秩序与防控智能技术风险等多个维度。然而,面对AI创作物信息披露主体的不作为或故意隐匿行为,我国著作权法与网络内容治理领域相关规定存在一定程度的适用争议或立法滞后问题,具体体现在:

1.著作权法关于作品信息披露与保护规定的适用争议

我国著作权法是通过“署名权”“权利管理信息保护”等相关规定,来解决作品传播过程中识别性信息披露与保护问题的。但是,在AI创作物生成与传播的情境下,不能机械地适用著作权法的相关规定。

一方面,在AI创作物是否属于作品及其权属未定的情况下,无法确定行使署名权或禁止他人破坏权利管理电子信息的适格主体。由于我国已有司法判决认定AI创作物不属于人类创作的作品或制品,[15]从解释论的角度出发,AI创作物之上的识别性信息不属于著作权法所保护的作者署名或作品权利管理电子信息。若一些用户去除AI创作物之上的识别性信息,能否参照著作权法的相关规定予以规制,尚不明确。

另一方面,著作权法的相关规定属于赋权性规范,仅赋予权利主体以署名权或禁止他人破坏权利管理电子信息的权利,而不要求其履行任何强制性信息披露义务,容易导致一种事实上的“道德风险”:一旦“真实的信息披露(署名)”将导致某些内容的保护力度下降甚至被排除在保护范围之外,那么违背诚信原则的、不真实的信息披露情况(署名)必然会大量出现。[16]换言之,机械地适用著作权法的相关规定,反而引发版权信用的危机。

2.网络内容治理相关规定针对性不足

除了著作权法领域相关法律法规,我国涉及AI创作物信息披露的相关规定还分散在《网络出版服务管理规定》《电子商务法》《网络信息内容生态治理规定》等网络内容治理文件之中。但是,这些规定同样无法全面回应人工智能创作物识别性信息与技术性信息披露缺失的问题。

一方面,网络内容治理相关规定强制披露的信息范围没有明确涵盖AI创作物权益识别性信息与技术性信息。我国《网络出版服务管理规定》明确要求对网络出版物实行标识管理,但是没有规定AI创作物如何进行标识。另一方面,网络内容治理相关规定通常将披露义务主体限定为“网络运营者”或“网络服务提供者”,无法涵盖AI创作物生成与传播全链条上所有相关义务主体。我国《电子商务法》关于“电子商务经营者应全面、真实、准确、及时地披露商品或服务信息”、《网络信息内容生态治理规定》关于“网络服务提供者发布信息不得损害他人合法权益”的强制性规定,可在电子商务、网络内容服务等特定情境下回应AI创作物部分信息缺失的问题。但在这些规定中,信息披露义务主体是网络运营者或网络服务提供者。一些上传AI创作物的用户以及在AI创作物基础上进行演绎创作的用户,理应披露有关创作物的外观与权益信息,却明显不属于“网络运营者”或“网络服务提供者”。又如,理应披露技术性信息的AI研发者,除非同时从事网络运营或网络服务,否则难以被认定为“网络运营者”或“网络服务提供者”。可见,对于AI创作物信息披露问题,网络内容治理相关规定往往存在规制主体范围过窄的局限性。

三、我国著作权法构造AI创作物信息披露制度的具体对策

鉴于AI创作物与人类作品之间的相似性与密切联系,以及著作权法保障版权市场秩序的立法宗旨,笔者认为可通过完善我国著作权法的相关规定,就AI创作物信息披露问题进行合理全面的规范。具体而言,可逐步采取以下对策。

1.增设AI创作物专规,明确相关主体信息披露义务内容

由于AI创作物的生成与传播是一个多主体参与的过程,参与主体不仅包括作为潜在权益主体的AI研发者、使用者,也包括AI创作物的传播者、消费者等受益主体,因此,我国宜在《著作权法》或相关行政法规中增设专项规范,重点厘清并完善涵盖AI创作软件研发者、使用者以及创作物传播者的信息披露义务体系。

第一,明确AI使用者对AI创作物识别性信息的披露义务。AI使用者,作为现行判例所认定的AI创作物权益所有者,根据分配正义的基本法理应当承担区分AI创作物与人类作品的义务。建议在前述AI创作物专规中规定“AI使用者在发布AI创作物时应当披露有关AI创作物外观与权益的基本信息”。这些信息不仅应包括“由AI创作产生”的标志及其提醒信息,而且包括AI创作软件版本信息、权益所有者信息与权属声明、AI创作时间与基本方式、AI创作物后续使用条件等权益性信息。前者,可以简称为AI创作标志;后者则类似自然人作品的权利管理电子信息,也可称为AI创作物的类权利管理电子信息。AI使用者履行上述信息的披露义务,必须使得AI创作物与人类作品区分开来,同时让创作物传播者、后续消费者乃至司法审判机关得以判断有关创作物中的人类干预程度,并可以与AI创作物的权益所有人取得联系。

第二,禁止AI创作物的传播者(包括有关演绎产物传播者)删除或改变AI创作物的AI创作标志与类权利管理电子信息。可以参照我国《著作权法》关于保护作品权利管理电子信息的有关条款,在有关AI创作物专规增设以下内容:任何人对外传播AI创作物,不得删除或改变原AI创作物的AI创作标志与类权利管理电子信息;在AI创作物的基础上进行演绎而创作出新的作品或其他创作物(以下简称“演绎产物”),必须表明该产物经由AI创作物演绎而来,并在其有关权利管理电子信息中保留原AI创作物的AI创作标志与类权利管理电子信息。如此规定,有利于保障AI创作物识别性信息在传播过程中的完整性与可接触性,帮助社会公众或监管部门追溯原AI创作物,从而对AI创作物的利用与传播行为进行合理的监督与规范。

第三,基于AI创作物技术性信息的风险防控价值,还可进一步规定AI研发者对于AI创作物技术性信息披露义务。国际计算机协会美国公共政策委员会(USACM)和欧洲委员会(EUACM)意识到AI创作算法与数据的信息披露与规制问题,在2017年发布了《算法透明性和可问责性声明》,要求算法的构建者对数据的收集进行描述;同时表态强调了算法透明性与可解释性的重要性,鼓励有关组织和机构对算法程序及其决策过程进行解释,以保证算法运行结果的合理性与科学性。[17]以此为鉴,我国可以就AI创作物技术性信息的披露义务做出明确的规定。第一,可要求研发者通过合理的方式披露AI创作软件的算法代码及其技术效果。这些信息的披露,不仅有利于发挥 “白帽黑客”(White-hat hacker)等民间团体以及专业监管部门的力量,及时发现算法代码的缺陷,挖掘有关技术的潜在漏洞与风险,而且有利于社会公众第一时间发现软件运行效果的异常,进行及时反馈。第二,可要求研发者披露并说明AI创作所涉数据的来源与使用信息,具体包括研发者收集和使用数据的目的、规模、方式、范围、类型、期限等。当然,前述AI技术性信息的披露,难免涉及企业商业秘密保护问题,也必然增加研发者开发利用有关AI创作软件的成本。因此,我们强调AI创作物技术性信息的披露方式应当是合理有效的,必须以符合比例原则的目的合理性、信息相关性、最小负担性为标准进行规定。其中,目的合理性是指AI创作物技术性信息的披露方式必须明确合理地以识别AI创作物、规避AI创作技术风险为目的;信息相关性,是指经要求披露的信息必须与前述目的密切相关,一般不存在笼统公开AI创作物所有技术性信息的情况;最小负担性,是指在同等条件下,要选择对履行披露义务的单位或个人负担最小的披露方式。[18]一般而言,只要求研发者在软件备案或登记时向主管部门的专业监管机构上报相关算法代码与数据库信息,并接受主管部门组织的安全评估和合规审查;确需向广大用户公开有关技术性信息的,研发者可在软件许可使用协议或隐私协议中以相对集中、明显的方式告知用户相关算法代码的查询方式与技术效果以及相关数据信息的溯源方法与使用规则。

2.细化披露瑕疵责任,确保信息披露义务条款的有效履行

在明确AI创作物相关方信息披露义务的基础上,我国还应当进一步明确AI使用者、研发者以及AI创作物传播者在有关信息披露存在瑕疵的情况下应承担的法律责任,通过法律的强制力保证相关义务条款的实施效果,具体如下:

第一,若发布AI创作物时,没有完整地披露AI创作标志与类权利管理电子信息,导致其他主体无法识别该创作物的,应剥夺AI使用者因他人认知错误而谋取的不当收益。情节严重的,可进一步追究AI使用者的其他法律责任。建议比照专利权无效制度的规定,在AI使用者存在披露瑕疵的情况下,因其恶意行为给他人造成的损失,包括但不限于以AI创作物“作者”为名要求他人支付的版权许可费用或侵权赔偿费用,AI使用者应当予以赔偿;AI使用者的恶意行为损害公共利益的,可以由相关行政管理部门依照有关法律、行政法规的规定记入信用档案,并予以公示,同时根据情形采取禁止其继续使用AI创作软件乃至没收违法所得、处以行政罚款等措施;构成犯罪的,可依法追究其刑事责任。

第二,若AI创作物的传播者删除或改变AI创作物的AI创作标志与类权利管理电子信息的,应该承担相应的违法责任。建议比照我国 《著作权法》第五十三条关于侵害作品权利管理电子信息的有关责任条款,对AI创作物传播者的披露责任作出如下规定:故意删除或改变向公众传播的AI创作物的AI创作标志或类权利管理电子信息的,或者向公众提供明知或者应知未经许可而被删除或者改变AI创作标志、类权利管理电子信息的AI创作物及其演绎产物的,应当根据情况承担停止侵害、消除影响、赔礼道歉、赔偿损失等民事责任;同时损害公共利益或构成犯罪的,依法追究其行政或刑事责任。

第三,对于未充分履行技术性信息披露义务的AI研发者,应要求其按情况承担产品暂时下线、侵权赔偿等法律责任。具体而言,若AI研发者没有合理理由而拒绝披露或故意不公开部分AI创作软件的算法代码与技术效果或相关数据来源与使用信息的,经利害关系人的有效通知仍无法提供合理理由或拒绝披露的,应承担产品暂时下线的法律责任;若研发者的披露瑕疵行为对他人权益造成实际损害的,应承担相应的侵权损害赔偿责任;情节严重或影响到国家安全、经济运行或社会稳定的,应承担相应的行政责任乃至刑事责任。当然,考虑到算法黑箱效应存在的可能性与合理性,若出现AI研发者不可预见的技术风险,只要研发者满足尽责披露的条件,可免于承担相应的法律责任。

3.加强配套机制建设,建立健全相关技术辅助与专业监管机制

为了保障信息披露义务条款的实施效果,有关部门还应当充分考虑AI创作物信息披露及其监管活动的技术难度与实施成本,尽快建立健全配套的信息披露技术辅助与专业监管机制。

第一,必须认识到一个事实,即除AI研发者之外,其他AI创作物相关方,通常不具备进行信息披露的技术条件。即使在AI创作图片中添加“系AI生成”这一简单的标志,广大社会公众在缺乏技术辅助的前提下根本无法完成。因此,在实施披露义务条款之前,我国应当建立AI创作物信息披露的技术辅助机制,以解决相关方履行披露义务的技术瓶颈,从而降低AI创作物信息披露义务条款的实施成本。具体的技术辅助措施包括:确定AI创作标志的统一标识,开发添加AI创作标志与类权利管理电子信息的免费软件或公益服务平台,或将添加AI创作标志与类权利管理电子信息的插件纳入AI创作软件设计的国家标准或行业标准之中等。

第二,推动建立专门的AI技术监管机构,以提升AI创作物技术性信息监管的专业性与可操作性。毕竟对于普通公众而言,即使其获悉AI创作物所涉算法与数据等信息,也会受制于算法的专业性与数据的海量性而无法实施有效的监督。[19]因此,建议建立一个专门的、能够对AI技术做出专业评判和反馈的监管机构,并配以合理的监管程序与机制,从而提前防控AI创作算法作恶抑或AI创作大规模侵权的风险。具体而言,可在国家工信部门或出版主管部门中内设AI创作技术监管机构,并授权该机构依照前述AI创作物信息披露义务条款,为AI创作软件设定市场准入标准,例如要求有关软件的算法与数据必须符合一定的安全标准与信息公开标准才能进入应用市场。在AI创作软件信息披露备案的基础上,该机构可依职责或利害关系人的申请对AI创作技术的作用机理以及技术风险进行更为主动、深入的监督和审查,甚至要求AI研发者披露更多的技术内容,例如要求研发者对算法运行流程进行更为深入的解释。在保护技术秘密的前提下,该机构有权进行更为专业、安全的审查,甚至根据审查结果对有关单位或人员做出责令整改、行政罚款等处理决定。

四、结语

AI创作物纠纷案件的出现,不仅带来了AI创作物权益归属的难题,而且警示我们要注意AI创作物的甄别、规范与风险防控问题。我国著作权法应尽快构建AI创作物信息披露制度,在AI创作物进入市场之前有效规避可能由其引发的版权信用崩塌、AI大规模侵权等危机,从而更好地应对AI技术进步给现有法律制度带来的冲击和考验。

注释:

[1]郭艳.人工智能创作物著作权制度难题及破解[J].中国出版,2018(12)

[2]李琛.论人工智能的法学分析方法——以著作权为例[J].知识产权,2019(07)

[3][15]参见北京菲林律师事务所诉北京百度网讯科技有限公司著作权侵权纠纷案,北京互联网法院民事判决书(2018)京0491民初239号。

[4]王迁.论人工智能生成的内容在著作权法中的定性[J].法律科学(西北政法大学学报),2017(05)

[5]Peter K. Yu,Artificial Intelligence, the Law-Machine Interface, and Fair Use Automation[J].72 Ala. L. Rev. 187 (2020)

[6]AIPPI, Summary Report: Copyright in artificially generated works[EB/OL]. http://114.247.84.87/AIPPI/ztyj/jy/201911/P020191113500640412670.pdf

[7]参见深圳腾讯公司与上海盈讯科技有限公司著作权权属、侵权纠纷、商业贿赂不正当竞争纠纷案,广东省深圳市南山区人民法院民事判决书(2019)粤0305民初14010号。

[8]许可.人工智能的算法黑箱与数据正义[N].社会科学报,2018-03-29

[9]曹博.算法歧视的类型界分与规制范式重构[J].现代法学,2021(4)

[10]吴汉东.人工智能时代的制度安排与法律规制[J].法律科学(西北政法大学学报),2017(5)

[11][德]乌尔里希·贝克.世界风险社会[M].吴英姿,孙淑敏,译.南京:南京大学出版社,2004:77-81

[12]任然.“ZAO”被屏蔽:无视用户隐私权利值得反思[N].新京报,2019-09-02

[13]马长山.人工智能的社会风险及其法律规制[J].法律科学(西北政法大学学报),2018(6)

[14]Harry Surden,Machine Learning and Law[J].Washington Law Review,2014.89(1)

[16]田小军.AI创作物的法律保护不容忽视[EB/OL].https://www.tisi.org/?p=12656.

[17]Association for Computing Machinery US Public Policy Council(USACM), Statement on Algorithmic Transparency and Accountability[EB/OL]. https://www.acm.org/binaries/content/assets/public-policy/2017_usacm_statement_algorithms.pdf

[18]参见《个人信息保护法》第六条关于个人信息处理时如何落实比例原则的有关规定。

[19]李训虎.刑事司法人工智能的包容性规制[J].中国社会科学,2021(02)

猜你喜欢

著作权法算法创作
新《著作权法》视域下视听作品的界定
哪种算法简便
众议新《著作权法》 版权保护覆盖面扩容,期待相应细则出台
《中华人民共和国著作权法》与《日本著作权法》之法条差异
Travellng thg World Full—time for Rree
进位加法的两种算法
根据问题 确定算法
《一墙之隔》创作谈
创作随笔
创作心得