APP下载

生成式人工智能作品的版权风险与规范

2024-10-20刘晓林

传播与版权 2024年18期

[摘要]生成式人工智能作品本质上是人类利用技术设备创作完成的作品,因其独创性而具有可版权性。但由于人工智能服务提供者的数据来源不合法和算法的不透明,生成式人工智能在数据收集阶段存在侵害著作权人复制权和发表权的风险,在数据输出阶段存在侵犯著作权人改编权和署名权的风险。避免侵权风险的发生需要相关部门降低机器输入阶段的保护门槛,并严格规范输出阶段。相关部门须针对生成式人工智能作品重新界定“实质性相似”的标准,明确其学习和利用他人作品属于“合理使用”的范畴,并给予著作权人同意或者拒绝其作品纳入机器学习的权利,人工智能服务提供者应为著作权人“知识付费”以维护著作权人的权利。

[关键词]生成式人工智能;可版权性;侵权风险;合理使用

一、问题的提出

当前,生成式人工智能主要应用于思考型对话、媒体内容生成、智能化办公等领域,是相比于传统劳动力效率更高的新生产力工具[1]。独创性标准是可版权性判定的关键要件,“差异性”即“独创性”,生成式人工智能生成的内容由于使用者的创作行为体现了不同的审美选择和个性判断,构成著作权法意义上的“作品”。生成式人工智能在作品生成过程中需要使用大量数据,再加上其算法透明度较低以及使用者的不当行为,因此极易引发侵犯他人著作权等问题,相关部门需要对他人作品的版权进行保护,防止侵权行为的发生。

二、生成式人工智能作品的属性

我国学界围绕人工智能生成内容的法律属性虽然进行了讨论,但是尚未形成一致观点,然而 多数学者还是依据“客观主义标准说”认为人工智能生成内容构成著作权法意义上的“作品”。人工智能生成物具有可版权性,并且判断其作为作品的标准只应当单纯的考虑是否符合著作权法的独创性表达以及作品是否具有可复制性[2]。

(一)生成式人工智能作品具有价值

随着科技的进步,人工智能生成内容涉及范围越来越广泛,价值也越来越高。传统的作品之所以能够受到著作权法的保护,是因为其是人类的独创性智力成果,这也是著作权一直被视为一种财产权而被各国司法制度践行的原因。2018年10月,一幅名为Edmondde Belamy的画作在佳士得拍卖会以43.2万美元的价格成交,这是全世界首幅被拍卖的人工智能创作的画作。在新闻、文学、游戏、药物开发等领域,人工智能通过解析复杂的数据所产出的内容不仅能够创造经济价值,还能够解决社会问题,满足人类的各项需求,在本质上与人类的“作品”并无差异。

(二)生成式人工智能作品因其独创性而具有可版权性

著作权法明确了判断作品构成的要件包括智力成果、表现形式、可复制性和独创性。独创性是判断任何形式的智力成果是否具有可版权性的关键标准[3]。只有当作品具备独创性时,才能受到著作权法的保护,因此独创性是相关部门认定作品属性以及判断人工智能生成作品是否构成作品的重要考虑因素。人工智能生成作品是否具有独创性在我国学界引发了较大的分歧,很大一部分原因在于我国的著作权法以及《中华人民共和国著作权法实施条例》等并没有对独创性作出明确的规定和解释。

“独创性”可以分解为“独”和“创”两个基本内容,理解为“独立性”和“创造性”两个基本要素。独创性认定的第一个方面是作品是否独立创作。作品一旦创作完成,就成为独立的客观表达,也只有这种独立存在的客观表达才能被其他人所感知[4]。第二个方面是作品的内容表达是否具有创新之处。独创性所要求的创造力水平极其低微。独创性不同于专利法规定的新颖性,哪怕一部作品与其他作品非常相似,只要这种相似性是偶然而非复制的结果,那么它仍然具有独创性。可见,尽管各国的“创造性”标准不同,但是创造性的门槛本身不高,体现在“存在客观可识别的差异”,用户对生成词的选取体现了一定的审美选择和个性判断。总之,只要人工智能生成的内容与既有作品不构成“实质性相似”,我们即可将其视为作品[5]。综上所述,生成式人工智能作品具有可版权性,符合著作权法中作品的定义,因此可以作为著作权的客体受到保护。

三、生成式人工智能引发的版权侵权风险

(一)生成式人工智能在数据收集阶段存在侵犯复制权及发行权的风险

生成式人工智能在数据收集阶段使用未经授权的作品会对著作权人的复制权造成实质侵害。生成式人工智能在数据收集阶段所使用的数据涉及范围广,并且数量巨大,其想要获得作品的全部授权难以实现,因此容易引发大规模的侵权。生成式人工智能在数据收集阶段未经他人许可复制他人作品的行为固然已经满足了侵犯他人著作权的要件,但并非所有的复制行为都会最终成立侵权。

我国著作权法第二条规定:“中国公民、法人或者非法人组织的作品,不论是否发表,依照本法享有著作权。”在已发表的作品外还存在着创作者尚未公开的作品,生成式人工智能的数据来源广泛,其在数据收集的过程中将创作者储存于电子设备中未发表的作品公之于众,则会侵犯著作权人的发表权。凡是著作权法规定的各项专有权利(如复制权、发行权等),生成式人工智能在未经获得许可,并且没有法律规定的其他合法使用途径情况下实施了如复制他人作品、向他人提供作品的原件或者复制件等相关行为,即可被认定构成“直接侵权”[6]。

(二)生成式人工智能在数据输出阶段存在侵犯改编权及署名权的风险

在司法实践中,判定侵犯著作权一般需要满足“接触”和“实质性相似”两个条件。改编权即改变作品,其构成要件主要分为行为上利用了原作品的独创性表达以及结果上创作出具有独创性的新作品两个方面[7]。独创性是著作权保护人类作品的核心特征,也是生成式人工智能作品具有作品属性的关键标准,生成式人工智能生成内容的过程并不是直接将数据库的数据通过使用者的指令进行简单的复制,而是基于使用者的创作要求,通过算法进行反复的学习和训练后产出的内容,体现一定的创造性,甚至生成结果会远超使用者的预期,这个加工修改的过程会侵犯著作权人所享有的原始作品的改编权。生成式人工智能具备超强学习能力,再加上“创造性”门槛要求不高,其通过学习和比对,可以轻松地规避作品“相似性”的问题,著作权人侵权取证的难度也随之增加。

一方面,生成式人工智能在生成内容的过程中会使用数据库中多种类型的作品数据,无论是人工智能服务提供者还是使用者都无法对数据库中原始作品数据的利用程度进行判断,著作权人的署名权在这一过程中受到严重侵害。另一方面,使用者由于并不知道生成内容已经涉嫌侵权,将该内容发布在各种平台上用以分享或者获利,这种行为也会侵害著作权人享有的信息网络传播权。

四、生成式人工智能的侵权风险规范路径

(一)针对生成式人工智能作品重新界定侵权“接触+实质性相似”标准

在司法实践中,对侵犯著作权的判定,相关部门一般需要采取“接触+实质性相似”的标准以判定侵权是否成立。生成式人工智能在数据收集阶段接触作品这一条件已然具备,因此其生成内容是否侵犯著作权的判断标准在于“实质性相似”。由于生成式人工智能具备自主学习能力,能够生成与原作不一样的作品,这对相关部门认定生成内容是否构成抄袭、剽窃造成困扰,而相似性的判断标准又因为主观性过强而无法具象化。相关部门采用一般人标准或者专家标准作为判断标准都会产生抽象的个体化差异、增加司法成本或者标准过高等问题,因此其需要寻求判断标准客观化的新路径。生成式人工智能的发展为重新界定“实质性相似”提供了新的思路:人工智能服务提供者在算法中提前设定好与原始作品的数值比对标准,利用相关技术对两者的相似之处进行客观评价,实现“一案一比”。这样一方面能够节省人工和实践成本,提高司法效率;另一方面,能够将“实质性相似”判断标准客观化,实现案件审理的公平正义。

(二)明确“合理使用”范畴,著作权人拥有“准入—退出”的权利

所谓“合理使用”,指在符合法定情形的条件下,可以不经著作权人许可并不向其支付报酬而使用其作品,我国著作权法第二十四条规定了13种合理使用的情形。生成式人工智能的主要用途在于模仿并生成新的作品,如果超出了所谓“合理使用”的范畴,则须承担相应的侵权责任。生成式人工智能数据来源具备合法性的难点在于传统的“一对一授权模式”难以满足其庞大的数据应用需求。生成式人工智能复制学习的行为虽然已满足了侵犯复制权的表面要件,但是否具有侵害性还需要相关部门结合复制后的行为进行判断。基于此,法律需要明确规定生成式人工智能对他人作品的学习、研究与欣赏属于法律许可的范围。

相关部门应给予著作权人“准入—退出”的权利,原始作品的著作权人有权决定是否将其作品纳入生成式人工智能的数据库。著作权人若不准予其作品被纳入生成式人工智能的数据库,无论生成式人工智能在数据收集阶段还是在输出阶段使用了著作权人的作品的行为均构成侵权;如若同意,人工智能服务提供者需要进行“知识付费”,并对原始作品著作权人进行作品署名。保证数据来源的合法性是生成式人工智能作品能够进入市场的前提。相关部门应兼顾人工智能服务提供者、使用者以及相关著作权人的利益,从激励创新以及保护著作权的角度来保障生成式人工智能的发展。

(三)明确人工智能服务提供者的法律义务

国家互联网信息办公室等七部门于2023年7月10日颁布《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》)。《暂行办法》要求人工智能服务提供者应当遵守法律、行政法规,尊重社会公德和伦理道德,应当尊重知识产权。人工智能生成内容涉及文本、图片、音频等,因此人工智能服务提供者应当承担相应的内容审查和过滤义务,检测和屏蔽训练数据和用户生成内容中的非法信息,采取各种技术措施进行识别和过滤,解决权利救济的滞后性问题。“通知—删除”规则源自美国在1998年出台的《千禧年数字版权法》,规定网络服务提供者收到著作权人的侵权通知后,迅速移除侵权内容即可免责,但由于人工智能生成物具有生成简易和传播快的特性,因此该规则无法使权利得到切实保护。人工智能服务提供者应当建立完善的投诉举报机制,利用显著标识提醒使用者在合理范围内利用生成式人工智能生成内容,采取有效的维权措施排除侵权行为存在主观上的过错。

(四)摒弃“一刀切”管理,实行分级分类监管

鲜有人工智能服务提供者披露生成式人工智能在训练阶段所使用的数据的来源。生成式人工智能之所以在数据收集和输出内容方面存在问题在于数据获取缺乏有效监管。《暂行办法》第3条虽然提及对生成式人工智能实行分级分类管理,但是未有具体的治理方案,相关部门如坚持“一刀切”管理反而不利于人工智能的发展。欧盟通过的《人工智能法案》中对人工智能的风险划分为不可接受风险类、高风险类、有限风险类、低风险类,相关部门也应当根据生成式人工智能对用户、社会的影响程度和产生风险大小对人工智能实行不同程度的监管。人工智能服务提供者应当明确各类风险分级标准,并对自身所提供的服务进行登记备案,得到相关部门的许可后进入市场,并且在此过程中强调人工监督和明确算法透明义务。

五、结语

生成式人工智能利用算法汇总海量数据并基于人类指令产出内容,为人类的生活和工作提供了便利。《暂行办法》虽为司法实践提供了问题解决思路,但在促进人工智能发展的同时,法律的制定、监督体系的建立以及化解侵犯他人作品版权风险需要各主体参与其中,在生成式人工智能侵权责任的规范上形成合力,探寻出路。

[参考文献]

[1]曾颖.美国DISA将ChatGPT等生成式人工智能列入技术观察清单[J].互联网天地,2023(02):58.

[2]梁志文.论人工智能创造物的法律保护[J].法律科学(西北政法大学学报),2017(05):156-164.

[3]蔡琳,杨广军.人工智能生成内容(AIGC)的作品认定困境与可版权性标准构建[J].出版发行研究,2024(01):67-74.

[4]孙玉荣,刘宝琪.人工智能生成内容的著作权问题探究[J].北京联合大学学报(人文社会科学版),2020,18(01):86-91.

[5]张凌寒,郭禾,冯晓青,等.人工智能生成内容(AIGC)著作权保护笔谈录[J].数字法治,2024(01):1-26.

[6]罗施福,孟媛媛.人工智能与著作权制度创新研究[M].武汉:武汉大学出版社,2022.

[7]詹爱岚,田一农.生成式人工智能机器学习中的著作权风险及其化解路径[J].电子知识产权,2023(11):4-14.

[作者简介]刘晓林(1999—),男,山东胶州人,山东科技大学文法学院硕士研究生。