人工智能数据输入行为之版权法路径
2024-03-07谢欣瑜
摘 要:ChatGPT的出现颠覆了人类对以往传统人工智能的认知,其特别之处在于能够对大量摄取的数据“改头换面”,具有类似“洗稿”的能力,还能联系上下文与人类顺利进行对话等。我们无法阻止科技的发展带来的新事物的热潮,法律滞后性特点使其规定无法全面应对新式AI潜在的各种风险,导致ChatGPT这类生成式人工智能处于既不违法也不合法的尴尬“灰色”境地。AI无偿摄入原作者数据用作商业行为却不付出相应代价不仅会对原作者带来替代性威胁,还会引发大规模失业现象,因此,通过扩大适用“法定许可”方式,不仅能够提高授权效率,还能够维护原著作权人一定的经济利益,再通过扩大网络服务提供者的权利职能和责任担当,加之扩大政府监管权力,能够完善具体措施的可行性。
关键词:ChatGPT;洗稿;法定许可;网络服务提供者
一、ChatGPT的技术变化
ChatGPT作为一种大型预训练语言模型,是一种基于深度学习的自然语言处理模型,它可以通过模拟人类对话的方式,为用户提供定制化的信息服务。所谓ChatGPT,全称是Chat Generative Pre-trained Transformer,即生成式预训练变换模型。在其使用的Transformer模型架构中包括了注意力机制,用于分析情感分析任务,这能够让模型更加关注输入序列中的重要信息,更好地捕获到上下文的相关信息,防止丢失重要的信息,有效提高文本情感分析的准确率、提高模型的表现[1],使ChatGPT的表现更加“接近”人类。
截至2023年3月来看,GPT运用的技术并不稀奇,其他类型的人工智能其实早已开始使用:如AlphaGo,它和ChatGPT的相似之处是它们都运用了神经网络技术来处理并预测结果。ChatGPT是基于上述提到的Transformer模型来生成类人文本,AlphaGo运用的则是卷积神经网络和循环神经网络的组合来分析并预测最佳的破解方式,它们也都运用了深度学习技术来处理和理解大量的数据等。
既然如此,为何如今的ChatGPT掀起如此波澜?首先,其使用了深度学习处理自然语言的大型语言模型来破译人类的自然语言,增加了人类与机器沟通的效率。从前人与机器之间沟通需要编码来让机器理解其中的含义,当有了语言模型,机器无需编码而是通过自身翻译且执行的方法来理解人类。其次,其模型参数急剧增加。GPT-3的参数量就已经高达1750亿[2],这能让它在不进行微调的情况下,仅利用小样本甚至零成本就能在下游任务中超越其他模型。最后,对于文字性的答案,很难像AlphaGo那样以赢为好,以输为不好的明确规范,即非好極坏的游戏规则来界定,而一定需要人类的反馈才能达到较好的效果。因此,为了使ChatGPT的回答能更“像”人类,OpenAI在最初训练它时就加入了人工反馈的强化学习(Reinforcement Learning with Artificial Feedback,简称RLHF):它通过雇用几十名员工,来对内容进行标记,在人工反馈的强化学习和修正中,形成符合人类回答的最终结果。其实,这也能够改善预训练语言模型的缺陷:不可控性以及偏见性。然而,ChatGPT在人工反馈的强化学习的运用仅在一方面,还有许多技术过程是未通过人类标注而成的,由于该模型是在大量数据收集后的模型上训练出来的,没有人能够保证收集的大量数据中是否会存在不当内容,因此,其就像一个黑盒子,与完全由人工规则来控制的专家系统不同,无人知晓所生成的内容是否会有种族歧视等。
ChatGPT属于表达型机器学习(Expressive Machine Learning)模型,它产出的内容会威胁到原著作权人。机器学习分为非表达型机器学习与表达型机器学习,非表达型机器学习的生成物不是在著作权法意义上的作品,在此不做讨论,表达型机器学习指的是使用一种灵活的模型来对数据进行建模和预测的机器学习方法。与传统的机器学习方法相比,表达型机器学习方法通常可以更好地处理非线性、高维和结构化数据,并具有更高的预测精度。但是,表达型机器学习模型通常需要更多的数据和计算资源来训练和优化,且模型的解释性较差,难以理解模型的预测过程和结果。因此,其需要海量的他人作品进行训练,并且训练结果有一定的不可预测性,这种允许表达型人工智能毫无限制地大量消费作者版权数据的行为,可能会导致作者群体地位的边缘化[3]。由于ChatGPT收集并使用的底层数据都是免费获取的他人作品,因而在不被授权的情形下,这种随意使用并且运用在商业范畴的行为应当构成对于原作者知识产权的侵犯。
二、ChatGPT数据收集行为的版权问题
(一)ChatGPT所收集的数据并非全部获得授权
作为一个AI模型,ChatGPT所产生的文本是通过收集大量的文本数据训练得来的。大量数据集能够使训练效果达到最优性,更加接近人类的说话方式。尽管它现在还无法完全模拟人类的情感和心理状态,也不具备人类脑力和思维能力,但它会尽力通过自然、流畅的对话和语言表达方式来与人交流,也可以运用语言技巧来回答问题,以及模仿人类的言谈举止。
然而,这些投喂给ChatGPT的数据并不一定是都经过授权的。其存在着多个分支,截至2023年3月,较流行的分支主要有两种,二者的主要区别在于数据来源有些许不同:第一个分支的数据截至2021年9月的官网原版ChatGPT,其数据来源是人工灌输的固定数据,因此它的数据不仅对于用户来说具有时效性,还具有人工自行选择摄取数据的特点。第二个属于更“新”的新一代分支,是ChatGPT与搜索引擎Bing相结合的New Bing,其不仅包含之前人工灌输的固定数据,还能够获得Bing搜索引擎的最新互联网信息数据支持,具有实时性的特点,因此,这可以说是有了一种“主动学习”的能力。首先,对于人工自然选择的固定数据而言,它的训练数据集包含TB级别的海量互联网文本数据:代码、诗歌、法律文件、自然对话等都是这些数据的一部分,由于OpenAI并未对外公示所使用的数据来源,因此相关训练数据库是否均获得授权还存在疑问[4]。其次,虽然搜索引擎本身“抓取”网页的行为有其合理性,但这并不代表与搜索引擎结合后的ChatGPT使用搜索引擎数据进行训练的行为同样合理,两者之间有着本质的区别。搜索引擎的服务机制是为了提供原始数据链接,且抓取数据行为都被原网站所允许(不允许的会通过反爬虫协议予以制止,在未强行爬取情况下不会对原权利人的权利造成损害),而ChatGPT是通过自身生成内容的形式来提供服务并且获得商业利益的,对于创作结果未落入公共领域的原作者来说并不知情自己的作品被其使用,也谈不上“同意”。当问到ChatGPT它所得到的文本数据是否获得授权时,其回答也是模棱两可,其指出底层数据的部分出处网站,并提到“这些数据的使用是被给予公开授权的,因为它们在互联网上是公开可用的。”但事实上,这两者并无实质因果关系,在网络公开的文本并不代表就可以随意使用。正如前文所说,搜索引擎抓取数据与AI抓取数据有着本质的不同,即便是出于作者的本意公开自己的作品,也不能代表授予网络其他用户使用权,擅自使用必然侵犯其权利,因此,像ChatGPT这样获取他人作品用以自己的商业行为并因此攫取大量利益的行为似乎并不合理。
(二)ChatGPT数据收集行为未必违反现有版权法规定
ChatGPT主要在“输入”与“输出”两个阶段可能会涉及到版权的相关问题。在“输入”阶段,AI公司实际复制了该作品,并当作训练数据投喂给ChatGPT,该过程由于满足该侵权条件,可能侵犯到原作者的复制权。所谓复制权,是指以印刷、录音、录像、翻版、数字化等方式将作品制成一份或者多份的权利[5]。像ChatGPT这样的大规模预训练模型,需要对互联网大量未被授权便获取到的文本数据进行信息挖掘和内容理解,通过“复制”并输入的方式“投喂”给它进行训练,由于大量的数据未被授权,且训练时不对外公开,过度借鉴原作者不知情且未授权的数据,可能会导致侵权的后果。然而,尽管该行为能够满足“接触+实质性相似”要件,但由于该行为属于在人工智能深度学习的“输入”阶段,并非“输出”阶段,并未对某一具体作者造成不合理的利益损失,也未对某一原作产生替代性知识信息而造成直接竞争关系,因此,其获取数据的“输入”行为是否真的侵犯原作者的复制权、是否违反现行版权法的其他规定,这尚未有定论。
那么,在“输出”阶段,ChatGPT的生成物又是否会构成侵犯他人的版权呢?思想与表达二分法与“接触+实质性相似”是判定是否侵犯版权的重要标准。思想与表达二分法被用来区分版权保护客体的界限,使版权的权利范围具有一定的可预期性,在仅保护表达而不保护思想的版权法中,ChatGPT对大规模数据“洗稿”而非对某一作品进行“洗稿”的行为很难认定是对原作者的侵权,因为该“洗稿”行为所包含的数据量之大以及通过改变原作品的表达规避掉了版权法对表达的保护,从而使得人工智能洗稿行为的违法性更加模糊[6]。除了思想表达二分法,还有对“接触+实质性相似”的判断。其中,判定是否“接触”的事实行为较易掌握:原作者的作品创作在先。而“实质性相似”由于没有一个确定的公式及标准,因此难以判断。在美国法院的认定方法中,较多使用的一种方法叫做“抽象-过滤-对比测试法”,其包含了抽象、过滤以及对比三个步骤,首先将作品中思想的部分抽离,其次将两部作品中相同并且不受版权法保护即属于公共领域的部分过滤掉,最终对比两部作品留下的表达部分,结合独创性标准来判断是否构成“实质性相似”。结合ChatGPT,其生成文本中包含了海量他人作品,可以说是成功“洗稿”后的结果,即便按照三步法抽离后进行对比,也难以真正地将海量作品拼接的结果认定为侵权。
(三)ChatGPT数据收集行为的合理性存疑
既然基于版权法现有的规定,无法将ChatGPT的行为明确规定为违法,那么本文接下来将结合法律的应然性并且通过对该行为的定性来论证其行为是否应当合法,以及在不合法的情况下法律是否应将其行为规定为“合理使用”。
ChatGPT如今肆意收集他人数据的行为理应不合法:首先论述法律的应然性。在社会的初始阶段,人们基于“应当如何”的认识便产生了法律,因此,“AI公司使用了他人的辛勤劳作的作品并获得了利益就应当付出相应的代价”——这种观念有其合理性与“公意”性,并能体现平等与正义价值。立法原则的伦理根基是理性,理性精神在合理性、“公意”性等方面有所体现。所谓合理性,是指法律应当有健全的判断力,要明智且理智,具体到AI与原作者的关系,如今的人工智能利用原作者作品而无需付出任何代价的行为就违反了合理性,违反了立法原则的理性精神。同样地,大量艺术家对AI公司提起集体诉讼,美国版权商也集体反对训练类似ChatGPT这类AI的不收费行为[7],而版权法中却没有相关的规定能够满足版权商的需求,这就说明了如今的版权法已经难以满足集体的公共利益即“公意”性,无法合理调整主体之间的法律关系,也就无法实现平等原则的权利义务一致性的特点,其获得了大量的利益却不付出应有之代价的行为违反了法律价值中的平等原则,更是破坏了法律价值中的正义标准。其次论证ChatGPT“免费”收集他人数据并用作“商业”行为的不合法性。所谓“著作权侵权行为”,是指未经著作权人的同意,又无法律上的根据,擅自对著作权人的作品进行使用以及其他非法手段行使著作权的行为[8]。一是ChatGPT行为的性质应当构成“著作权侵权行为”。如果AI使用了未经授权的作品,结合上述著作权侵权的概念,不管搜索引擎中的数据原本是不是正版,其“使用”的这个行为本身就都会是违法行为。二是对其输入的大量网络作品的本身进行定性。由于在互联网中随处可见大量盗版“作品”,人工智能无法得知其摄入的作品是否为正版,因此可能获取到大量本身即未授权且没有法律根据的文本,对该违法“作品”进行再次转化。该转化结果的其中一种可能性是将此行为规定为合理使用的情形之一,摄入盗版转化后的结果能够变成所谓的“正版”,人工智能公司或者使用者能够获得版权;另一种可能性是人工智能公司与使用者都无法获得版权,即变成所谓的“公共作品”。但无论是哪一种可能,对于著作权人与整个社会而言都会带来不利影响。这种种矛盾的结果在如今的版权法还没有被清晰地界定下来,需要立法者严加考量再做决策。
因此,ChatGPT肆意收集数据的行为也不应被纳入到“合理使用”的范畴之中。一是无论是现行《中华人民共和国著作权法实施条例》第21条,还是现行《著作权法》第24条,均明确规定合理使用“不得不合理地损害著作权人的合法利益”。由此可见,人工智能编创行为适用著作权合理使用制度的情况,将限定在“不得不合理地损害著作权人的合法利益”的范围内。然而,ChatGPT的“洗稿”输出行为既高效又低成本地对大量原作者的作品进行“改头换面”后产生替代性知识产品的行为所造成的损害远大于普通知识产品竞争带來的竞争损害,对原始素材的知识产品市场带来巨大冲击[9]。因此,该行为已经对著作权人的合法利益造成不合理的损害,无法将该行为规定为“合理使用”行为之一。二是根据帕累托标准即效益的提高对各方必须都有益,以损害某一方利益来改善他方利益的方式是无效益的。合理使用只有对作者和使用者都有利时才是“合理”,反之会因缺乏“经济合理性”而无效益[9]。然而,在ChatGPT的模式下,除了对于资本家和少量工作者而言有效益,对于作者以及绝大多数的普遍公众而言并非有益。假设人们都是“理性人”,每个决策者作为不同的社会角色都会有自己“理性”的考量:对于资本家而言,由于ChatGPT能够提升一定的工作量,少数人就可同时完成原本属于多个人的工作,那么资本家或许会为了节省成本而辞退其他人;对于少量被录用的工作者而言,也会选择使用AI作为辅助工具,因为这不仅省时省力,还能同时完成多份工作获得更多报酬。由此看来,最终的结果可能就会是:资本家少支出了人工成本;使用AI辅助完成工作的人获得了多倍工资。对于他们双方而言,或许得到了利益,获得了“正向”的结果,但对于整体社会而言,或许也会带来负面的结果:失业人口会增多。因此,对于使用者来说,只有资本家和拥有工作机会的人能够从中获利,大多数因人工智能而失业的人并不会获取利益;对于原著作权人来说,正如上文所述,既没有获得相应的报酬,还会产生替代作用的竞争效果。因此,若将其吸收大量数据学习转化新“作品”的行为纳入到合理使用,必定会造成绝大多数创作者不愿再继续产出优质作品,而去依靠人工智能的生成物来实现自己的利益追求的结果。结合到上述帕累托标准,这种损害原作者和社会利益来改善资本家和少数工作者利益的方法必定是非效益的,因为这并未产生对各方都有益的结果。并且,著作权的目的是“激励”作者能够继续产出优质的作品,而不是“打击”作者的信心,而ChatGPT创造的底层数据库都是使用的前人所创造出的作品,其本身的创作也仅仅只是基于过去的作品不断重复迭代变换形式而已,长此以往,也很难会有创新型的思想与表达。综上所述,ChatGPT收集他人数据的行为不应当被规定为“合理使用”。
(四)禁止/放纵ChatGPT收集数据的不利影响
只能在收集的数据中无限循环的机器是无法创造出真正的新东西的,ChatGPT的“伪”创作行为实质是“洗稿”行为。因为当前它所使用的各种模型与技术并没有打破目前数据库中的数据,也没有创造出全新思想的能力。当然,随着数据量大到一定程度,ChatGPT越来越接近人脑的智慧时,或许能够从量变引起质变的方式来达到人类思维的高度,又或者产生了新技术革命,人类走向新征程时,不仅会达到人脑思维相当的程度,甚至可能超越人类。但就目前而言,ChatGPT必须基于一定的规则才能得以训练,其中人工反馈的强化学习也必须由人类来告诉它什么是好,什么是坏,它的回答也无法超出限定范围的答案。
虽然ChatGPT目前是“伪”创作行为,但随着其发展的势不可挡以及使用人数的急剧增加,一味地禁止或随意地放纵ChatGPT收集数据都会阻碍社会的发展。反公地悲剧理论是基于公地悲剧理论而提出的指排他权数量的增加和分散化会抑制智力资源利用的效率,致使后续研发或者下游创新受到阻碍[10],尽管它输入他人数据并通过“洗稿”的方式产出大量对原作者产生可替代作品的行为并非完全合理,但ChatGPT继续收集数据生成相应的作品是科技发展的必然,一味地禁止必定会阻碍社会整体的发展,造成反公地悲剧。想使人工智能得到进步,海量数据的输入是其进行学习创作输出产物的前提,如今ChatGPT等AI已经在人类生活中占领一席之地,能够通过它来写论文、做法律文书等等一系列内容,可以预见的是,将来它就像人类的一支“笔”,作为一个强大的工具,没有人会拒绝使用它来提升自己的工作效率,因此,ChatGPT等各类生成式AI的行为无法被禁止。同样地,要求AI公司必须得到每一位作者的授权许可也同样会造成反公地悲剧。如今是一个用户生成内容(User Generated Content)时代,互联网上创作出的作品纷繁复杂,面对如此庞大的数据量,依次寻找到作者并得到许可的代价无疑是巨大的,这不符合经济领域中的成本效益原则,若逐一进行授权使用,势必会造成市场失灵。然而,随意地放纵该行为由于会对原作者产生替代作用同样会对社会造成不利影响。如今ChatGPT的产出速度就已经是人类所远远无法匹及的,由于机器力太过强大,人们在作品产出速度与工作量方面根本无法与之相比拟,其出书的数量以及速度足以将人类独自产出的作品淹没并进行竞争,作为养料的人类也没有得到相应合理的报酬,这将极大地打击作者的创作激情,长此以往必定会对人类生活也产生巨大威胁。
三、加强版权法对ChatGPT收集数据行为的规制
(一)扩展适用法定许可制度
所谓法定许可,是指不经过著作权人的同意,只要对著作权人给予合理的报酬,即可使用其作品。在今天这样一个用户生成内容的网络时代,人们所产出的作品过于庞杂,作品的数量之大,逐一许可的成本过于高昂,导致人工智能公司逐一获得著作权人的授权许可是难以实现的。法律当然需要顺应社会的现实需要而不断发展,但同时法律也要保持自身的稳定性,不能朝令夕改[11],合理解释之后适用新技术带来的新的行为方式或许是一种比较好的选择。因此,通过扩大适用法定许可这种无须逐一许可的行为,既能节省成本,又能提升授权效率,作者能得到相应的激励,从而产出更加优秀的作品,人工智能也能获得足够多的数据进行训练,提升算法能力。对于各方来说,无疑是公正且效率的,也或许是最为合理的一种方式,因此也能够符合帕累托标准。
(二)增强网络服务提供者的权利职能和责任担当
现在的著作权授权模式已悄然从集体管理组织到网络服务提供者的管理而改变。由于集体管理组织难以实时检测到网络中存在的侵权现象,导致运行效率不高,著作权人和使用者在实践中更多通过直接缔约这种在域外发达国家看来更为低效的方式来完成海量授权。但在数字技术的帮助下,授权许可原本在权利信息传递和合同履行监督等方面产生的交易成本被有效控制。因此著作权人与网络服务提供者之间的直接许可,已成为颇具“中国特色”的数字化作品交易机制[12],这其实也是公众的选择。
现行法律中对于网络服务提供者给予了各种义务的同时,其实也提供给它们相应的权利。如在《中华人民共和国民法典》第1195条规定了“通知-必要措施”规则;《中华人民共和国网络安全法》第47条规定了网络服务提供者应当承担信息的监管义务;《中华人民共和国电子商务法》第38条明确了电子商务平台经营者负有对平台内经营者的资质资格进行审核的义务,以及在平台内经营者侵害消费者合法权益时,负有采取必要措施的义务等[13]。这些规则在某一程度上给予了网络服务提供者进行社会监管与救济的权利,鉴于此,由网络服务提供者来监管人工智能随意获取数据,侵犯他人著作权的行为,可谓是高效方便,也是更易被接受的方式之一。
具體操作方面,网络服务提供者应当做到:首先,每一位作者在上传作品时,要设置一个点击按钮选择是否为原创,若是非原创作品,应当指明来源的按钮,写出转载出处,并将转载出处设置相应的链接,可供网络服务提供者高效寻找到原作品;若为原创作品,网络服务提供者应当进行记录。其次,在作品被征用为人工智能的底层数据之一时,应当先告知该网络服务提供者,网络服务提供者应当找到并通知相应的作者并给予相应的费用,通知的标题应当是通过《您的作品可能成为AI的底层数据,请您确认报酬》。再次,对于以往已经发表的作品,人工智能公司应当及时通知网络服务提供者采用的数据作为数据库的来源,在精确到具体的作者用户后,通知用户及时与网络服务提供者的客服取得联系,并得到相应的报酬,毕竟,随着现在互联网技术的提高,想要精确到作者其实并不难。最后,对于生成物的展示,人工智能公司必须将该生成物所引用的相应的作品列出。
对于以上的授权,没有其他机关进行监管,是很容易形成垄断行为的,因此,法律必须要予以规制,政府也要实行监管制度。一是由于在如今,用户注册时或与平台签订的服务协议时,网络服务提供者提供的格式条款存在着很多名义上以平等自由为基础,实则充斥着大量约束用户行为与免除网络服务提供者责任的内容,因此对于格式条款的订立以及实施,政府应当起到监督作用并制定一系列条款规则,强行要求网络服务提供平台予以采纳。二是对于人工智能给予每一位作者的报酬,应当由政府规定好具体数目,每个平台都应当采取一致的规则,否则将会产生市场乱象。三是对于网络背景下的著作权侵权行为,应当有具体侵权责任的规定,否则,若没有相应侵权成本的责任规定,难以产生有力的效果,只有在侵权成本够高,授权成本够低的情况下,移动互联网环境下的规范著作权市场才能真正形成,新兴商业模式方可发展。
四、结语
新兴的ChatGPT技术,在给人类带来便利的同时,也产生了许多法律漏洞,因此,其各种行为需要进行界定来规制。本文详述了ChatGPT这样的新型AI特点,以及它们需要大量收集底层数据才能更加精确地产出相应的结果,特别是在与搜索引擎Bing结合后,底层数据数量之庞大使人难以预料,若一味地禁止这种行为,必定会对于社会产生不利的影响,造成反公地悲剧,相反,一味地放纵这种免费收集数据转而进行商业运作的行为,不仅会对作者产生不利影响,对整个社会也必定会产生不利的后果。由于我国著作权法对新技术未作出相应的规定,导致该行为是否违反法律存在疑问,但将人工智能无偿收取他人作品而用作商业的行为引入到合理使用也缺乏合理性条件,因此应当通过法律解释学来扩大采取法定许可制度,给予作者相应的利益,完善其存在的合理性。由于现在是每个人都可以在互联网平台上生成内容的时代,网络服务提供者已然在网络环境中产生不可替代的作用,因此,网络服务提供者应当担任起人工智能公司与著作权人之间桥梁作用的重任,但在授予它权利的同时也必须通过政府来规制这一扩大的权利,否则会产生权利滥用的效果。
美国学者迈克斯·泰格马克曾说过:“如果我们在交给强大的智能机器基本伦理标准之前,在某些标准上达成了共识,那一切就会变得更好。”[14]在2023年4月11日,国家互联网信息办公室关于《生成式人工智能服务管理办法(征求意见稿)》公开征求意见的通知[15],其中也涉及到对生成式人工智能的知识产权监管问题,可以看出我国也一直在努力跟上科技的洪流,渴望达成相应共识。总之,新一代人工智能已产生,人类要采取积极的措施面对,一定要在人工智能“之上”,而不能在其“之下”。
参考文献:
[1] 王婷,杨文忠.文本情感分析方法研究综述[J].计算机工程与应用,2021,57(12):11-24.
[2] 王海宁.自然语言处理技术发展[J].中兴通讯技术,2022,28(2):59-64.
[3] 卢炳宏.表达型人工智能版权合理使用制度研究[J].现代出版,2019(4):60-63.
[4 ] 李昀锴. ChatGPT内容商业使用的法律风险及应对 [EB/OL].[2023-02-14].https://ahlx.pkulaw.com/lawfirmarticles/ddb7d880bf7
eb96630a1222c17163b0bbdfb.html.
[5] 吴汉东.知识产权法[M].北京:法律出版社,2022:203
[6] 张凌寒.深度合成治理的邏辑更新与体系迭代——ChatGPT等生成型人工智能治理的中国路径[J/OL].法律科学(西北政法大学学报),2023(3):38-51.
[7] 新智元. OpenAI因版权被多方状告,作家集体起诉,抗议ChatGPT训练侵权 [EB/OL].[2023-07-10].https://baijiahao.baidu.com/s?id=1771016178720767281&wfr=spider&for=pc.
[8] 吴汉东.知识产权法[M].北京:法律出版社,2022:275.
[9] EDWARD L.Technological Fair Use[J].Cal. L. Rev,2010(83):22,61
[10] 刘强.人工智能对知识产权制度的理论挑战及回应[J].法学论坛,2019,34(6):95-106.
[11] 王迁.如何研究新技术对法律制度提出的问题?——以研究人工智能对知识产权制度的影响为例[J].东方法学,2019(5):20-27.
[12] 熊琦.移动互联网时代的著作权问题[J].法治研究,2020(1):57-64.
[13] 钟晓雯.算法推荐网络服务提供者的权力异化及法律规制[J].中国海商法研究,2022,33(4):63-72.
[14] [美]迈克斯·泰格马克.生命3.0——人工智能时代人类的进化与重生[M].汪婕舒,译.杭州:浙江教育出版社,2018:444.
[15] 中国网信网.国家互联网信息办公室关于《生成式人工智能服务管理办法(征求意见稿)》公开征求意见的通知 [EB/OL].[2023-04-11].http://www.cac.gov.cn/2023-04/11/c_16828542754
75410.htm.
作者简介:谢欣瑜(2000- ),女,山东科技大学文法学院硕士研究生,研究方向为知识产权法。