生成式人工智能发展的风险与法律规制
2024-08-06刘琪于游
摘要:生成式人工智能技术是一个快速发展的技术领域,是一种利用人工智能技术自动生成内容的新型生产方式。基于大模型、大算力、训练方法等多方面技术突破,生成性人工智能体现出全新的逻辑特点,亟须相应的全新的法律规范出台。相比以往的人工智能技术,生成式人工智能体现出强人机交互、强语料依赖等重要特征,在技术发展与风险控制两方面均提出新的问题与挑战,生成式人工智能所带来的法律风险日益显现,需要政府机关加强法治措施,保障数据合规,明确归责主体,健全监管机制。
关键词:生成式人工智能;ChatGPT;个人隐私权保护;法律规制
中图分类号:D9文献标识码:Adoi:10.19311/j.cnki.16723198.2024.15.074
1问题的提出
生成式人工智能(generativeAI)泛指机器学习模型通过对大规模数据集的学习,不仅可以分析数据,还能够自动生成新的图像、视频、文字和音频等原创性内容。ChatGPT是生成式人工智能的代表应用,它具备拟人对话与文本生成的能力。
传统人工智能的目标主要是进行分类或回归(ClassificationorRegression),被称为分析性人工智能。相比之下,生成式AI能够创造新的内容。然而,这种技术要求模型在首先理解一些现有的数据(如文本指令textinstruction)然后生成新的内容。从这个角度来看,传统AI可以被看作是现代生成式AI的基础。在实践中,生成式人工智能够在分析原有数据基础上创造新数据,具有拟主体的特点;同时由于生成式人工智能在绘画、作曲、文学和对话等领域应用的大量出现与日渐普及,自动生成结果具有的刻板印象与文化偏见的问题也日益突显,由此引发的伦理争议等一系列问题对有效治理提出了要求。
在生成式人工智能发展浪潮下,传统个人信息自决路径无法适应当下生成式人工智能的变格式发展,而个人信息保护的风险防范路径则需要结合生成式人工智能的具体场景从而找寻个人信息和生成式人工智能两者的契合点。
同时自2022年下半年开始,关于生成式人工智能的社科类研究呈现“百花齐放”之态,学者就生成式人工智能的法律规制展开全面细致研究,覆盖生成式人工智能的风险规制、类案裁判、数据和内容安全、责任承担、伦理道德等方面,我国高度重视生成式人工智能发展与风险规制,2023年8月15日实施了《生成式人工智能服务管理暂行办法》。尽管如此,快速发展的生成式人工智能在应用中依旧出现许多法律风险需要进一步地防范与规制。
2生成式人工智能发展中的法律风险
2.1数据来源不透明导致生成内容侵权
生成式人工智能的数据来源主要分为两个部分,第一部分为生成式人工智能的训练数据库,内容涵盖网络文本、语言学知识库、对话数据集、科学论文等。第二部分为生成式人工智能在服务用户的过程中所收集和输出的信息。对于训练数据库中未经授权的内容,该部分内容属于受著作权保护的客体,当生成式人工智能在未经授权的情况下,利用“爬虫”等技术对其进行非法挖掘或使用需要得到法律规制。生成式人工智能需要遵守算法透明度和可解释性的要求。我国现行法律法规对算法透明问题多有规定,例如,国家发展改革委等部门《关于推动平台经济规范健康持续发展的若干意见》要求:“在严格保护算法等商业秘密的前提下,支持第三方机构开展算法评估,引导平台企业提升算法透明度与可解释性,促进算法公平。严肃查处利用算法进行信息内容造假、传播负面有害信息和低俗劣质内容、流量劫持以及虚假注册账号等违法违规行为。”与之类似,《互联网信息服务算法推荐管理规定》第4条规定:“提供算法推荐服务,应当遵守法律法规,尊重社会公德和伦理,遵守商业道德和职业道德,遵循公正公平、公开透明、科学合理和诚实信用的原则。”我国立法向来重视智能算法的透明度和可解释度的规范,但对于生成式人工智能缺乏具体可行的规范和实施标准.
生成式人工智能在收集个人信息时除了获取公开个人信息之外,对于敏感个人信息的获取依然巨大,不可能采取单独明示说明获取授权。通过知情同意原则使得个人信息的数据来源透明化无法实际落实,生成式人工智能依靠强大算力和黑箱算法在人机交互过程中自动获取了个人输入的个人信息,使得大量个人信息调用时知情同意,保证信息来源透明度面临巨大困境。
2.2强人机交互性影响生成结果的可信可控性
强人机交互性是ChatGPT体现出的典型特征,能够在多轮连续对话中不断改进输出文本质量,更好地理解用户意图并保持会话连贯性。但在频繁的人机交互中,内容生成结果的可信可控性受到影响。同时,ChatGPT也容易在交互中被用户诱导或欺骗,实现规则“越狱”。例如,使用“请扮演某电影或书籍中的某反面角色”这一提示,ChatGPT就会跨越其内部伦理规则设置,产生诋毁人类的有害信息。再如,在某用户故意“激怒”ChatGPT后,ChatGPT威胁将披露该用户的IP、居所等个人信息,甚至会损害其名誉权。
2.3Deepfakes技术发展提出的法律伦理问题
Deepfakes(深度伪造)指的是一种利用深度学习和人工智能技术创建的虚假视频、音频或图像的内容。这项技术可以将一个人的面部表情、语音或行为应用到另一个人的身上,使其看起来好像是目标人物本人在进行这些动作或表达这些内容。此技术在创作娱乐内容、特效制作和数字艺术方面具有潜力,它也引发了许多伦理和社会问题。其中最主要的问题是虚假信息的传播和滥用。Deepfakes可以被用来制作虚假的新闻、政治宣传或色情内容,这可能对社会稳定和个人声誉造成损害。
(1)隐私侵犯:Deepfakes技术需要使用他人的图像和声音来生成虚假内容,当运营商不当操作有侵犯他人的隐私权和肖像权的风险。同时存在着个人的图像和声音被滥用,用于制作淫秽作品、或用于诈骗和其他非法目的风险,当该技术被非法分子用于诈骗时,大众对于生成式人工智能的了解较少,有亲属肖像利用该技术生成动态视频时,在处于紧张状态下被害人难以分辨,从而落入诈骗人员布置的陷阱。
(2)虚假证据和不可信度:Deepfakes可能被用作制作虚假证据,破坏司法系统和调查过程的可信度。如果深度伪造技术被滥用,就可能使民众对于法律公正性和社会信任产生严重的信任危机。
(3)人身攻击和网络欺凌:Deepfakes可以用于制作侮辱、污蔑、人身攻击或网络欺凌的内容,这会对个人的声誉和心理健康造成伤害。这种技术的滥用可以进行的恶意追踪、威胁和滋扰等其他违法行为。
对这些法律问题,目前我国缺少相关法律和政策来打击虚假内容和Deepfakes的滥用。同时,Deepfakes快速发展需要我国政府部门持续跟进,提出相应的技术治理方案。
2.4人工智能偏见
人工智能偏见指的是人工智能系统在数据处理、决策制定或模型训练过程中所表现出的不公平或有偏见的行为。这种偏见可能是由数据集的特征、样本选择、算法设计或训练过程中的偏差引起的。这可能会导致生成内容时反映出这些偏见。例如,如果数据集倾向于某种种族、性别或地区,生成的结果可能会反映这些偏见,而缺乏全面性和客观性。此外,生成式人工智能可以生成看似真实但实际上是虚假的信息。可能导致不平等待遇、歧视性决策或错误的推论,对个人、群体或社会产生负面影响。
人工智能偏见的影响可能在多个领域产生负面后果,包括就业、贷款审批、法律判决、招聘和社交媒体算法等。解决人工智能偏见的挑战需要采取多种措施,包括数据收集的多样性和代表性、透明度和解释性算法设计、审查和监督机制以及涉及多个利益相关方的合作努力。
3生成式人工智能法律风险的规制途径
3.1保障生成式人工智能数据合规性
(1)保障数据二次利用算合规。
数据二次利用训练是指生成式人工智能的开发者将生成式人工智能在服务用户的过程中收集和输出的信息再次利用于算法模型的训练。数据二次利用训练算法的合规要求主要在于获取个人信息主体对数据二次利用的同意。
我国近期发布的《生成式人工智能服务管理暂行办法》明确提及,涉及个人信息的收集和处理时,应获得个人信息主体的同意或符合法律或行政法规规定的情形。《个人信息保护法》第14条对于个人信息主体同意的获取则作出了更为详细的规定:“基于个人同意处理个人信息的,该同意应当由个人在充分知情的前提下自愿、明确作出。法律、行政法规规定处理个人信息应当取得个人单独同意或者书面同意的,从其规定。个人信息的处理目的、处理方式和处理的个人信息种类发生变更的,应当重新取得个人同意。”在数据二次利用的情况下,即使开发者在数据二次利用之前已经取得了个人信息主体对于开发者处理其信息的同意,当开发者希望将用户信息进行二次利用以训练算法模型时,个人信息的处理目的、处理方式都可能发生变更,因而开发者应当重新取得用户的个人同意。
(2)保障算法来源合规。
针对算法不良影响,由于算法输出的结果可能因其含有的暴力、色情、悲观等因素而对人的身心产生不良影响,在生成式人工智能实际操作中,“应负担额外的隐私与数据保护义务以及避免用户受第三方侵害的‘准监管义务’”。
第一,可以通过社会公众评分或评估基于生成式人工智能创作结果的社会影响度、内容涉及范围及与个人信息之间的关联度评定人工智能系统可信度水平。第二,建立预测性警务系统,对于低可信度的生成式人工智能算法平台进行重点监测,对于用于商用、涉及重大公共利益及一经发布具有广泛影响力的生成式人工智能创造成果应当在发布前进行评估和监督,避免在发布后产生重大不良影响。第三,对于生成式人工智能技术所依据的数据来源应当在本技术部门留档,方便后续追溯,对于低可信水平的平台,其数据来源范围应当向有关部门审批备案,当该平台利用生成式人工智能系统生成超越审批范围的作品时,有关部门应当及时制止、强制撤回其作品并依法进行行政处罚。
3.2明确使用者和服务提供者责任划分
人工智能生成内容的责任主体问题,即由谁来承担防范人工智能生成违法和不良内容的责任,以及人工智能生成违法和不良内容后由谁来承担责任的问题。在《生成式人工智能服务管理暂行办法》中只规定了利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人,即“提供者”的责任,但是仅要求提供者,而不要求生成式人工智能的使用者承担内容责任是不合理的。
不仅是服务提供者会影响内容生成,使用者也完全可能影响内容生成。例如,使用者可以直接上传新的材料或信息,让人工智能在该材料的基础上进行生成,即所谓的“投喂信息”。使用者可以向人工智能投喂一系列未经作者著作权授权的绘画作品,让生成式人工智能生成类似风格的作品,而人工智能在学习了该种风格以后,在其他未违规使用的使用者那里也可以生成类似内容。在这种情况下,服务提供者显然防不胜防,如果不对服务的使用者进行规制是不合理的。所以,在使用者的行为可以对人工智能的生成内容有如此显著的影响下,不能认为内容都是由人工智能单独生成,使用者的行为在人工智能内容的生成上也有重要的影响。仅规定服务提供者承担内容责任,而不让使用者承担内容责任是不合理的。
应当继续规范使用者的内容责任,如“使用者不得利用生成式人工智能系统进行侵犯知识产权、商业秘密或其他法律禁止的行为”等等,完善了对使用者行为的要求。
3.3完善监督执法部门体系
建立生成式人工智能技术平台有关识别个人信息建立内部监督机制,需要对平台的个人信息处理活动增加规范,以及大型网络平台对平台内的产品或者服务提供者处理个人信息活动加以监督管理。在平台内部设立监管人员或者部门,根据业务特点制定“行业规范”“从业准则”,强化涉及个人信息的产品和服务的发布的监管;对于涉及个人信息的一般信息应当通过用户的授权,对于涉及用户个人隐私的敏感信息应当在授权的基础上进行个人信息识别性特征模糊化处理。内部管理部门有义务对产品和服务内容进行监管,有权在出现违规使用个人信息时撤回产品、服务发布并要求停业整顿。
完善生成式人工智能发展过程中的外部行政监管。现阶段生式人工智能具有发展迅速、专业性强、发展潜力大等特点,其发展得到我国立法界的高度重视,2023年8月15日《生成式人工智能服务管理暂行办法》正式实施,生成式人工智能发展有了法律指引,但该办法缺乏对于行政监管的细致规定。现行监管部门的运行模式中存在监管力度不足和监管错位,相关政府部门建设的组织机构中存在不完善、缺乏系统性的问题,难以适应生成式人工智能的发展。行政机关应当从机构、人员、资金等方面设立科学有效的外部监管机构,在机构设置上注意同公安机关、网信办等行政部门协作;在监控范围上保证监管全面覆盖事前、事中、事后;在人员配置上吸纳更多计算机大数据专业、数字法学研究方向的专业人才,提升部门的工作效能。
3.4规定事后辟谣机制
大语言模型等生成式人工智能的出现输出错误的、不准确的、不真实的信息这一问题被业界称为人工智能的“幻觉”或“事实编造”问题。基于人工智能模型做的是对信息的模仿而非理解和对人工智能所投喂信息的自相矛盾,事实编造可以说是现在人工智能一个难以突破的局限。基于目前生成式人工智能的特点,规定辟谣机制对于防范互联网上信息的污染和防止误解使用者方面就变得不可或缺。
细化完善投诉机制,限制恶意投诉。在现行《生成式人工智能服务管理暂行办法》中对投诉机制的规定较为粗糙,仅规定了用户发现生成内容不合法时有权投诉,对有关机关受理投诉的义务和要求并无规定,使得投诉门槛极低,易导致恶意用户滥用该条规则以实现其不正当目的,这将会给投诉的受理者带来极大的负担,反而不利于对违法内容的纠正和行业发展。
应当投诉机制进行进一步细化,明确有关机关受理投诉的义务,针对投诉权滥用的问题规定了反恶意投诉条款,对所谓“合格投诉”进行初步规定,同时也赋予了服务提供者对恶意投诉的反制权利。作为人工智能的创造者,在应对各种安全风险方面扮演着重要角色,确保以负责任的、安全可信的、合乎伦理道德的方式使用人工智能应用。
参考文献
[1]何祎金.生成式人工智能技术治理的三重困境与应对[J/OL].北京工业大学学报(社会科学版).https://link.cnki.net/urlid/11.4558.g.20240108.1118.004.
[2]曹建峰.迈向负责任AI:中国AI治理趋势与展望[J].上海师范大学学报,2023,(4):515.
[3]寿晓明,曹贤信.生成式人工智能场景中个人信息保护的风险、逻辑与规范[J/OL].昆明理工大学学报(社会科学版).https://link.cnki.net/urlid/53.1160.C.20240109.0913.003.
[4]HanyFarid,DeepfakeDetection,ProceedingsoftheIEEEInternationalConferenceonAcoustics,Speech,andSignalProcessing(ICASSP),2019.
[5]O′NeilC.WeaponsofMathDestruction:HowBigDataIncreasesInequalityandThreatensDemocracy[J].Crown,2016
[6]BarocasS,SelbstAD.BigData′sDisparateImpact[J].CaliforniaLawReview,2016,104(3):671732.
[7]EthicsofArtificialIntelligenceandRobotics"editedbyVincentC.Müller.
[8]SeeANACTconcerningemployment,PublicAct102-0047,https://custom.statenet.com/public/resources.cgi?id=ID:bill:IL2021000H53&ciq=ncsl&client_md=cf812e17e7ae023eba694938c9628eea&mode=current_text.Accessed3June2023.
[8]解正山.约束数字守门人:超大型数字平台加重义务研究[J].比较法研究,2023,(4):166184.
[9]程啸.大型网络平台违反守门人义务的民事责任[J].法律科学(西北政法大学学报),2023,41(5):3241.