人工智能生成内容信息披露机制构建研究
2024-05-29陈俊凯
陈俊凯
(厦门大学知识产权研究院,福建 厦门 361005)
0 引言
随着40余年来最具革命性的ChatGPT等新一代大语言模型的实际应用[1],人工智能生成内容 (AI-Generated Content,AIGC)成为继专业生产内容 (Professionally-Generated Content)和用户生产内容 (User-generated Content)之后的新型创作模式,它将全面驱动内容生产方式的变革[2],ChatGPT也因此成为历史上增长最快的消费级应用程序[3]。相关预测显示,2025年AIGC将占所有数据产量的10%[4]。但是,AIGC的广泛应用对社会信任体系和作品市场造成较大冲击。首先,生成式人工智能可以大规模生成中等到高质量虚假信息[5],降低了虚假信息生成与传播的门槛,加剧公众对于共享信息的不信任。其次,AIGC在形式上已然具备人类创作外观,其大规模产出和不真实 “署名”行为将严重冲击作品市场秩序,对人类的创作活动构成挑战。公众对AIGC来源的判断需要依赖内容公开者的明示,美国版权局发布的 《关于包含人工智能生成材料作品的著作权登记指南》明确要求,登记申请人应当明示相关内容创作过程中人工智能的使用情况[6]。公众自行辨别内容来源及可信度的能力有限,故构建面向公众的AIGC信息披露机制有助于提升AIGC的透明度与真实性,是生成式人工智能安全可控发展的重要保障。
为了应对生成式人工智能带来的挑战,全球主要国家和地区不断加强信息披露机制建设。例如,欧盟 《人工智能法案》中专设生成式人工智能规制条款,要求模型训练者披露利用受版权保护作品的情况。中国陆续出台 《互联网信息服务深度合成管理规定》 《生成式人工智能服务管理暂行办法》等管理规范,就AIGC信息披露提出具体要求。但是,现行规范主要关注服务提供者的信息披露义务,相关披露举措较为简略,难以贯穿AIGC全生命周期。相较于AIGC权利归属、侵权责任承担等议题,学界对于AIGC信息披露的关注较为有限,部分研究主要围绕3个方面展开。①在人工智能治理的宏观研究中,将信息披露作为贯彻人工智能治理 “透明原则”的重要制度,关注AIGC信息披露的必要性[7];②将信息披露作为生成式人工智能治理的基础性工具,纳入数据、算法透明义务体系构建[8]以及实现虚假信息风险规制的应对举措范畴[9];③对生成式人工智能所涉信息进行类型化分析,并提出具体信息披露措施,实现对AI创作物的甄别与风险防控[10]。总体而言,现有研究已注意到AIGC信息披露的工具性价值,但相关讨论较为碎片化,且多作为附属性举措展开分析,对于AIGC信息披露的目的指向、构建的具体维度以及体系性的实施方案关注较为有限。基于此,本文在审视现行AIGC信息披露方案的基础上,分析现阶段信息披露形式及其披露内容的不足,并结合AIGC不同技术阶段信息披露目的,围绕披露内容、披露方式以及保障举措提出建议。
1 AIGC信息披露的现行规定及其挑战
现行规范提出以显著标识附随为核心的信息披露举措,但该模式下所披露的信息较为有限,且对于服务提供者以外的其他主体规制明显不足。
1.1 现行方案:显著标识附随模式
尽管尚未有法律就人工智能生成内容 (AIGC)信息披露作出系统性规定,但是 《生成式人工智能服务管理暂行办法》 《互联网信息服务深度合成管理规定》 《互联网信息服务算法推荐管理规定》 《网络音视频信息服务管理规定》等管理办法设置以显著标识附随为核心的信息披露措施,明确了AIGC信息披露的主体、标识设定与流通,以及责任承担等内容。在AIGC信息披露主体方面,基于主体责任的规制路径,AIGC信息披露主体以相关产品服务提供者为核心。 《互联网信息服务深度合成管理规定》第16、17条与 《互联网信息服务算法推荐管理规定》第9条第1款 (下文分别简称 《深度合成管理规定》与 《算法推荐管理规定》)明确生成式人工智能服务提供者负有根据不同场景主动标识或者向使用者提供标识工具的义务。在标识形式上,AIGC标识模式弱化了关于标识附随形式的硬性要求,强调相关使用者应当以明显方式标注AIGC。结合 《深度合成管理规定》所列举的视频、音频、文字等人工智能生成内容形式看,该 “显著标识”基本上可以涵盖视觉、听觉等不同的呈现场景,便利生成式人工智能服务提供者根据不同场景进行标注,如服务提供者于相关图片、文本或视频中标注与人工智能生成内容 (AIGC)相关的字样即符合该规定。但是,未统一标识形式也增加了公众的识别成本。因此,相关标准化组织公布了 《生成式人工智能服务内容标识方法》,就文本、图片、音频、视频4类生成内容提供标识实践指引,明确显式水印标识和隐式水印标识的标识方式及标识信息[11]。标识流通与责任承担方面,现行规范禁止任何组织和个人采用技术手段删除、篡改、隐匿深度合成标识,并针对服务提供者与技术支持者设置具体责任条款。
虽然现行规范提出通过标识形式说明生成内容的来源,但是实践中不乏对AIGC进行 “署名”的案例。例如,网易有道公司和电子工业出版社合作出版的 《极简区块链》中文版图书以 “网易有道AI翻译”为 “译者”署名,微软公司开发的聊天机器人小冰创作的诗集 《阳光失了玻璃窗》署名 “小冰”等。在现行著作权法框架下,人工智能并非适格作者,相关署名行为本质上仍是一种标识形式。因此,以相关人工智能模型的名义进行 “署名”并不产生法律效力,实践中相关 “署名”行为更多起到权益宣示作用,而非指明具体内容创造者。
1.2 披露内容:现行标识模式承载信息有限
《深度合成管理规定》第17条要求采用显著标识的方式向公众提示深度合成情况,但是 《深度合成管理规定》并未明确人工智能生成内容 (AIGC)应披露信息的具体范围。从现行管理规范用语以及相关标准化组织出台的技术标准看,现行标识附随模式仅是说明相关内容的AI合成属性,难以充分应对虚假信息的生成与传播。此外,随着AIGC大规模应用,不可避免地出现生成内容二次加工、AIGC跨平台传播与使用等需求,现行仅用于说明AI合成属性的标识模式显然无法有效规制上述使用情形,不利于AIGC跨场景利用与信息内容治理。例如,在AIGC二次加工或者利用过程中,相关使用主体需要获知相关AIGC的具体来源,从而寻求相关主体的授权,现行标识模式难以准确、及时提供相关来源信息。在责任承担方面,AIGC关于著作权、人格权的侵权风险较高,相关被侵权人需要追溯参与AIGC制作以及流通主体。与AIGC相关主体包括服务提供者、使用者或初始传播者、跨平台传播者等,上述主体可能需要对不同阶段的AIGC侵权行为承担责任,AIGC标识模式显然难以承载上述主体及其行为的具体信息。尽管现行规范要求存储生成内容日志信息,但日志信息并非集成于AIGC载体之上,而是服务提供者基于监管需要采取的特定性信息留存措施,对于被侵权人或公众而言,信息披露作用较为有限,难以在事前、事中产生具体的规制效果。在使用环境方面,现行AIGC标识模式更侧重于数字传播场景,但随着人工智能适用范围的不断扩大,相关AIGC亦可能用于实体传播,前文所述的 《极简区块链》等即是例证。现行标识体系下,相关标识是否可以有效附随AIGC全生命周期,是否可以适用于实体环境,以及实体环境中如何准确披露相关信息等跨场景的应对措施尚不明确。
1.3 披露主体:忽略非服务提供者的披露义务
在现行生成式人工智能产品应用场景中,AIGC生成以及传播阶段涉及不同主体。在生成阶段,出于免责与信息来源标识的考量,相关生成式人工智能服务提供者往往在输入端显著位置向使用者明示生成内容可能存在不准确性或不当性,同时大语言模型需要对于生成内容进行显性或者隐性标识,从而确保生成过程符合相关法律规范的要求。由于该阶段涉及的主体仅为服务提供者以及使用者,不具有公开性,因此实现信息披露的目的较为容易。在传播阶段,公众并非相关生成活动的参与者,在未准确标识的情况下难以知悉生成内容的来源,实现信息披露目的难度较大。特别是OpenAI等AIGC服务提供者于使用条款中明确将生成内容的权属归于使用者[12],这进一步鼓励AIGC使用者扩大运用场景,并向不确定的第三人传递。传播阶段涉及较多主体,主要包括服务提供者、使用者以及传播平台。除了服务提供者在生成阶段的标识行为将直接影响到传播阶段AIGC信息披露的准确性外,使用者在向其他平台或个人传播生成内容时,是否正确披露相关信息,以及相关平台在展示用户上传的AIGC时,是否正确标识都直接影响到AIGC信息披露效果。但是,现行标识规则对于服务提供者以外的其他主体信息披露义务的规制明显不足。 《深度合成管理规定》明确任何组织和个人均不得采用技术手段删除、篡改、隐匿深度合成标识,据此可以明确AIGC使用者及传播平台等主体负有不破坏标识的义务,但 《深度合成管理规定》等设置的责任条款主要针对深度合成服务提供者与技术支持者,并不涉及AIGC使用者、传播平台等其他主体的删除或不合理标识行为,规制力度有限。尽管部分规范基于主体责任的规制思路,提及相关主体主动标识义务,如 《算法推荐管理规定》第9条第1款明确算法推荐服务者负有主动标识义务, 《网络音视频信息服务管理规定》第12条强调网络音视频信息服务提供者发现非真实音视频信息时,应在以显著方式标识后方可继续传输该信息。但是,上述规定是针对算法推荐、网络音视频信息服务场景的具体规制举措,现行规范尚未涉及上述场景以外的平台,这显然不利于向公众有效传递相关AIGC的重要信息。
2 AIGC信息披露的目的考量及类型化信息
人工智能生成内容 (AIGC)涉及模型训练、内容生成、信息传播3个阶段。由于所涉主体不同,各阶段的披露目的存在差异。AIGC信息披露应基于不同目的考量,具体分析所应披露的信息要素。
2.1 AIGC各阶段信息披露的目的考量
(1)模型训练阶段信息披露的目的考量。在模型训练阶段,开发者所利用数据的规模与质量直接影响后续生成式人工智能的互动效果,例如GPT-3有1750亿个参数,而GPT-4则达到1.8万亿个参数,比GPT-3大10倍[13]。该阶段主要涉及生成式人工智能开发者与相关训练数据的控制者或者所有者。根据OpenAI提供的技术文件,生成式人工智能训练阶段的数据来源除了通过与相关数据控制者合作、获取相关数据训练许可外,主要是抓取公开数据,以实现数据集的丰富度与多元化[14]。但是,所抓取的公开数据可能包含受版权保护的作品等,并且在数据处理与利用过程中不可避免复制、存储上述内容。未经许可复制相关受版权保护的作品存在知识产权侵权风险,全球范围内已出现多起针对OpenAI等生成式人工智能开发者未经版权人同意将相关作品作为训练材料的集体诉讼案件[15]。现行著作权法框架下,对于人工智能训练过程中利用受版权保护的作品行为如何规制尚不明确,但基于著作权人视角,在人工智能训练场景尚未被列入著作权法 “权利限制与例外”情形时,相关利用行为仍属于未经许可的著作权利用行为,可能构成著作权侵权。著作权人有权要求相关生成式人工智能开发者反馈相关作品是否作为训练数据集,基于此,该阶段的信息披露目标是实现训练数据的适度透明化。
(2)内容生成阶段信息披露的目的考量。在内容生成阶段,使用者根据自身需求向相关模型提问 (prompt),使用者与生成式人工智能服务提供者是直接参与主体,因此,该阶段信息披露的直接利益主体是使用者。现行生成式人工智能尚无法克服 “算法黑箱” “AI幻觉”等技术性难题,以及随着相关生成式人工智能产品商业化运行,大量商业性信息将混入生成内容之中[16],进一步加剧使用者对于人工智能生成内容的不信任,因此,在内容生成阶段,AIGC信息披露的目的在于解决使用者与服务提供者之间的信息不对称,特别是关于 “AI幻觉”的风险提示、对于生成式人工智能产品算法基本机制的可理解性解释,从而缓解使用者对于生成式人工智能产品的忧虑。
(3)内容传播阶段信息披露的目的考量。随着生成式人工智能运用场景多元化,使用者向公众传播AIGC成为常态,由此产生的虚假信息以及不真实 “署名”问题日益突出。前者体现为相关AIGC使用者向公众传播利用生成式人工智能产生的虚假信息,后者则表现为相关使用者隐匿人工智能使用情况,对于AIGC进行不真实的 “署名”,从而获取不正当利益。ChatGPT等大语言模型在使用条款中已明确将相关生成内容权益赋予人工智能模型的使用者,这进一步加大不真实 “署名”风险。若无相反证据证明相关内容是由人工智能生成的,则相关 “署名人”依然可以拥有相关著作权利[17],严重冲击社会的信誉评价体系。因此,在传播阶段,借助特定的信息披露举措,公众可以增强信息真实性判断能力,并较为有效区分人工智能创作与人类创作成果。此外,AIGC在涉及换脸等场景时,可能侵犯他人的肖像权,生成特定的文字内容亦可能涉嫌侵犯相关著作权人的权利。进一步加强AIGC信息披露有助于事后相关侵权行为的追责。在现行标识性规制模式下,并未要求标识AIGC使用者、传播平台等信息,这增加了各方责任的厘清难度。在AIGC所附随信息涵盖各阶段参与主体、使用条件、传播方式等不同要素的情况下,AIGC信息披露可以为后期可能出现的侵权行为追责提供溯源基础。
2.2 AIGC信息披露的类型化要素
(1)技术性信息。AIGC所涉及的技术性信息包括受版权保护的作品利用信息,以及算法的基本运行机制两部分。
首先是受版权保护的作品利用信息。在模型训练阶段,生成式人工智能可能利用受版权保护的作品。在现行著作权法框架下,如何处理人工智能训练过程中的作品利用行为尚无定论,但通过特定渠道适度披露相关模型训练过程中的作品利用情况对缓和著作权人与生成式人工智能开发者之间的紧张关系具有重要意义。 《生成式人工智能服务管理暂行办法》明确规定模型训练过程中不得侵犯知识产权,但在外界无法知悉相关模型的训练数据来源情况下,该条款的落地难度较大。
其次是算法的基本运行机制。算法是人工智能的运行基础,而算法透明是发展负责任的人工智能的基本原则。尽管 《生成式人工智能服务管理暂行办法》第4条第5款、第10条分别要求 “采取有效措施,提升生成式人工智能服务的透明度”, “指导使用者科学理性认识和依法使用生成式人工智能技术”,但不论是基于透明度要求,还是促使使用者科学理性利用生成式人工智能,均需要适当向使用者说明标注规则、算法机制原理等技术性信息。在技术性信息披露方面, 《生成式人工智能服务管理暂行办法》仅于第19条第1款明确基于监管需要,服务提供者负有向监管部门提供特定性技术信息的义务,却忽略了面向公众的披露要求。相较而言, 《算法推荐管理规定》第16条明确要求算法推荐服务提供者适当公示算法推荐服务的基本原理、目的意图和主要运行机制的设定值得生成式人工智能应用场景借鉴。
(2)权利描述信息。AIGC信息披露的重要目标之一是在发生权属纠纷时可快速查询参与AIGC创作的各方主体,因此有必要于AIGC信息披露中准确描述相关创作主体,以及相关权利归属模式。权利描述信息涵盖内容生成的参与主体、不同主体关于AIGC的权利归属以及具体使用条件。
首先,权利描述信息应包括生成式人工智能开发者、服务提供者与使用者等不同参与主体。列明相关主体是为了确保在跨平台、多次流转后,公众及传播平台可以准确知悉相关内容来源,便于利益分享与侵权追责。
其次,AIGC的信息披露应包括AIGC的权属设定。实践中,AIGC权利归属存在转让模式、订阅模式与授权模式等不同方案。ChatGPT (转让模式)明确将人工智能生成内容的权利转让给使用者。Midjourney (订阅模式)依付费/免费用户性质确定归属,其中,付费用户对生成内容拥有所有权,而免费用户获得非商业目的的使用许可。百度的 “文心一言” (授权模式)则明确相关生成内容的权利归属于开发者,使用者只拥有非商业性的使用许可。权利归属模式各异进一步增加后期AIGC的侵权责任划分难度,因此,在AICG创作过程中,相关人工智能开发者应将相关AIGC归属方案嵌入AIGC信息框架之中,确保公众可以及时确定相关生成内容的权利所有者。
最后,权利描述信息还包括相关AIGC的具体使用条件。在具体应用场景中,公众可能会对相关AIGC内容进行二次创作,为确保相关二次创作的合法性,可以参考知识共享协议关于署名、是否禁止演绎、是否允许商业性使用等选项,设置如下使用条件:①仅标识权利人;②标识权利人-相同方式共享;③标识权利人-禁止演绎;④标识权利人-非商业性使用;⑤标识权利人-非商业性使用-相同方式共享;⑥标识权利人-非商业性使用-禁止演绎。
(3)AI贡献度信息。关于人工智能生成内容 (AIGC)是否构成作品,从而获得著作权法的保护仍存争议,但在现行著作权法框架下,相关使用者对于特定AIGC的贡献程度直接影响相关内容保护模式和保护力度。在内容生成过程中,可能是由使用者提出总体思路、初步框架,再由人工智能产品加以填充并成文,这种创作本质上是人工智能形成成果的主要内容。在人类独创性干预较低的情况下,此类生成内容难以获得现行著作权法的保护。但是,使用者若在提问环节对于AIGC的最终呈现内容作出独创性贡献,或者相关作品在人工智能填充成文后,使用者对于相关内容进行了较深度的修改,则相关AIGC可能可以作为作品保护。例如, 《极简区块链》一书的翻译团体亦强调在机器翻译完该书后,由人工团队进行辅助校正。基于此,于信息披露框架中描述人工智能在生成内容中的贡献对于生成内容的保护具有重要意义。在披露形式的设计上,生成式人工智能使用者应当阐明人工智能对于生成内容的贡献度,并通过AI辅助生成与AI自主生成两类不同标签予以区分,针对AI辅助生成情形,应进一步阐述AI的主要贡献部分,保障公众对于AI贡献度的知情权,维护作品评价体系的稳定性。
(4)警示性信息。人工智能生成内容 (AIGC)涵盖视频、图像、文字等不同形式。在AIGC创作过程中,由于训练数据的规模化以及算法黑箱等原因,相关AIGC可能侵犯相关主体的权利,例如换脸等AIGC可能涉及侵犯他人的肖像权,针对相关影视作品的人物换脸则可能侵犯相关著作权人的保护作品完整权、信息网络传播权等权利。 《深度合成管理规定》明确涉及生物识别信息的AIGC,应当取得相关个人的单独同意。为最大限度禁止涉嫌侵权的AIGC的不当传播,相关AIGC若涉及生物识别信息,则应于信息披露内容中说明相关生物识别信息的利用已取得单独同意,并列明相关AIGC传播的限制性要求,明确不当传播的责任。涉及对已有作品演绎的AIGC,应于信息披露内容中明确相关作品演绎的授权情况,并准确标识具体授权来源。
3 AIGC信息披露的程序设定
AIGC信息披露构建应围绕AIGC的场景化需求具体设置查询式或者类权利管理信息等不同呈现形式,并通过明确参与主体的披露义务,加强参与主体间技术互操作性建设,增强信息披露的可靠性。
3.1 设置差异化信息披露模式
(1)查询式信息披露模式。AIGC信息披露模式应根据披露目标对象以及披露信息类型的差异有所调整。技术性信息披露是为了满足著作权人、生成式人工智能使用者了解数据来源、标注规则和算法基本机制等生成式人工智能基本运行机理的需求。针对技术性信息设置查询式信息披露形式,具有以下优势:首先是在一定程度上缓和著作权人与生成式人工智能开发者之间因受版权保护的作品利用而产生的分歧。高质量的数据来源是开发者的优势来源基础,部分数据集可能构成开发者的商业秘密,若强制要求开发者主动且完整披露数据来源或者目录,不利于保护开发者的商业利益。相较而言,由著作权人根据自身需求查询相关作品是否被作为训练数据有助于缓解保障著作权人知情权与维护开发者竞争性利益间的冲突。其次是避免增加使用者的生成式人工智能利用成本。于用户协议中适度披露标注规则和算法基本机制等传统信息披露形式,因使用者对于用户协议的阅读实践效果不佳,而难以充分起到告知用户特定信息的作用。相较而言,在生成式人工智能产品操作界面上设置查询入口,允许使用者自行点击了解本产品的基本运行机制更具便捷性。同时,设置查询式披露窗口可以在满足特定群体查询需求的同时,避免增加生成式人工智能开发者 (服务提供者)的披露负担。
(2)类权利管理信息式披露模式。相较于技术性信息而言,权利描述信息、AI贡献度信息以及警示信息对于接触AIGC的公众具有重要价值,因此,上述信息应采用全流程附随形式,确保公众及时、准确了解相关内容。在呈现形式上,类权利管理信息模式是一种可行方案。类权利管理信息是相较于著作权法领域权利管理信息,针对AIGC使用场景提出的一种信息管理模式。所谓的权利管理信息是著作权法领域用于识别作品,表明作品来源、出版信息和许可条件的常用规制方式。在表现形式上,权利管理信息包括了传统介质信息和电子信息。一般而言,权利管理信息涉及的信息要素包括表明作者身份、主张权利人资格、维护作品和作者声誉以及约束作品使用条件。权利管理信息的本质是作品信息披露的手段,仅是对作品权利状态信息的记载,权利人不基于权利管理信息而拥有特别的权利[18]。在相关作品创作过程中,如果AIGC使用者提供了相关 “作品”的整体创作思路,并作出了对AIGC进行深度修改等具有独创性的贡献,则可以认定为著作权法意义上的作品。深圳市南山区法院关于Dreamwriter案的裁决以及美国版权局发布的 《关于包含人工智能生成材料作品的著作权登记指南》等域外实践亦支持此观点。因此,在AIGC符合作品要求的情况下,其适用权利管理信息条款并无争议。针对不符合作品要求的AIGC,权利信息管理框架仍可以为其信息披露提供一定思路。将类权利管理信息附随于生成内容传播的不同阶段,并就相关不当删除行为设置相关的规制手段,契合全生命周期的AIGC信息披露要求。
现阶段的AIGC主要在数字场景中传播,但是随着AIGC商业模式的成熟化,相关实体场景亦出现了相关人工智能生成内容,因此,AIGC的类权利管理信息披露应兼顾数字场景与实体场景的需求。在数字场景下,通过AI生成标识+数字水印准确记录AIGC相关信息是一种可行方式。数字水印作为在特定数据集中嵌入特殊信息的常用技术,已广泛运用于相关数字产品的知识产权保护,其优势在于不可见性、较高安全性与可证明性[19]。随着我国工业互联网标识解析体系初步建成,相关标识体系除了可以为物理资源赋予 “身份证”并进行快速定位和信息查询外,亦可以适用于算法、工序等虚拟资源,并实现不同主体、地域间的信息资源集成共享[20]。标识解析体系的建设为跨平台、跨地区的AIGC信息识别提供了技术支撑。在实体传播场景中,除了应于AIGC显著位置标识AI生成外,还应准确呈现相关权利描述信息、AI 贡献度信息以及警示信息。在呈现方式上,可以借鉴权利管理信息披露形式,即于同一页面清晰展示上述信息。为了确保由数字传播向实体传播转换的可追溯性,应同时明确将AIGC从数字场景向实体场景转换的相关主体。
3.2 针对不同主体设置相应信息披露义务
(1)明确使用者未准确披露瑕疵责任。生成式人工智能使用者亦是特定AIGC的传播者,明确使用者的信息披露义务有助于保障生成端与传播端的信息真实性。现行规范对于应强制性标识AI生成属性的场景列举较有限,且未针对使用者设置披露瑕疵责任。 《深度合成管理规定》虽明确了特定深度合成场景中,深度合成服务提供者应显著标识AI生成属性,其他场景中深度合成服务提供者应提示使用者可以进行显著标识,但 《深度合成管理规定》所列举的特定深度合成场景侧重于可能引发公众误解,并可能由此造成社会不良影响,如换脸、模拟自然人对话等,难以涵盖不涉及侵犯他人在先权利的生成内容。若让相关使用者对AIGC不真实 “署名”,并由此获得相关著作权利益显然不利于相关作品市场的有序发展。基于此,有必要扩大强制标识范围,AIGC均由生成式人工智能服务提供者强制标注。在使用者隐蔽、删除相关标识,或者未准确表述权利描述信息、AI贡献度信息以及警示信息等特定性信息的情况下,若使用者作为权利人获得包括著作权许可费用在内的利益,或给他人造成损失的,则应返还不当收益并予以赔偿;因相关行为损害公共利益的,可以通过社会信用机制予以惩戒[21]。
(2)新增传播平台主动提示义务。尽管AIGC在外观上与人类创作内容相似,但两者并非完全无法区别。2023年2月1日,Open AI推出了 “AI Text Classifier”文本检测器,该检测器可以区分人类撰写文本和AI生成文本,并且随着技术发展,该项技术的准确度不断提高[22]。AIGC可识别性为AIGC传播过程中纠正不准确信息提供技术支撑。大型平台作为AIGC传播的主要渠道,是加强AIGC信息披露机制建设的重要主体,现行规范主要强调相关传播平台负有不得删除相关标识等不作为义务,但是随着反识别技术不断发展,进一步加强在AIGC传播过程中,大型传播平台的主动提示义务十分必要。在具体适用场景上,若相关内容可能属于人工智能生成的内容,而上传者未进行标记,或者相关内容未显著标识时,则平台应主动向用户提示相关内容可能为人工智能生成,并提醒用户可能存在的相关风险,增强用户辨别能力。此外,平台应设置明显的用户反馈渠道,便利用户在发现相关内容不规范标注时及时向平台反馈处理。
3.3 加强参与主体间技术互操作性建设
互操作性是互联网领域的重要基础,所谓的互操作性是指不同事物协同工作的能力,具体到互联网领域,则侧重于不同程序间的信息交换和利用[23]。生成式人工智能的互操作性建设主要包括两个维度,即技术标准的统一性与反识别技术合作。技术标准的统一性主要指跨平台传播过程中AIGC信息标识的准确展示。在去中心化的传播场景下,使用者可能将生成内容置于多个传播平台,并引发其他主体的二次传播。因此,统一人工智能生成内容 (AIGC)信息披露的元数据标准,促进平台间生成内容的识别体系融通,是加强AIGC协同治理的关键。例如,抖音出台的 《人工智能生成内容的平台规范暨行业倡议》强调加强内容传播的行业规范标准管理即是较好的行业实践经验。反识别技术合作则是为提升中小传播平台规制未准确标识AIGC属性等违规行为的能力。随着AI生成技术迭代升级,如何有效应对虚假信息的生成与传播有赖于相关反识别技术的发展,美国 《生成对抗网络识别输出法案》 (IOGAN法案)明确要求美国国家科学基金会 (NSF)、美国国家标准与技术研究院 (NIST)等机构加强对深度合成内容的识别研究[24]。具备一定的AIGC识别能力是加强传播平台主动提示能力的技术保障,而中小平台往往缺乏相应的技术条件。因此,适度推动反识别技术合作对于加强生成式人工智能体系化治理具有重要意义。在生成式人工智能互操作性建设方面,为降低平台间沟通成本,可以由监管部门与行业协会作为推动互操作性合作的协调者,前者主要通过参与式监管方式召集相关平台就技术互操作性提出具体操作方案,并通过国家技术标准方式予以强制推广,而后者则作为技术互操作性监督主体,采用企业行为指南或行业守则等软法形式引导主体间实现技术标准互通,从而为披露信息全生命周期流通提供技术支持。
4 结语
AI技术发展至今,已从文字、语法校对进入到人机深度共创阶段。随着AIGC应用门槛的降低,加之相关内容生产者具有分散性、流动性、大规模性和隐蔽性等特点,对其监管难度进一步提升,加强AIGC信息披露对于确保社会评价体系稳定性,保障公众知情权十分必要,有助于实现对生成式人工智能协同监管的目标。加强AIGC信息披露需要兼顾技术端与规范端。在技术端,基于模型训练、内容生成、信息传播各不同阶段的价值考量,设置针对性信息披露形式及类型化信息披露要素,同时加强不同参与主体间技术互操作性建设,实现AIGC信息披露的全生命周期管理。在规范端,则应新增使用者未准确披露瑕疵责任与传播平台主动标识义务,通过准确、及时披露AIGC相关信息,可以最大限度引导AI技术良性发展。