人工智能技术应用中数据安全的刑法保护
2022-02-16林雨佳
林雨佳
人工智能技术应用不可避免地涉及数据的获取、使用以及处理。在刑法保护视野下,数据可能记录和代表了多种类型的法益,包括计算机信息系统安全、公民人格权以及财产权等等。在数据安全的强保护机制下,只要涉及数据的获取、使用及处理,就可能存在刑事风险,这在一定程度上束缚了人工智能产业的发展。如何平衡人工智能产业发展和数据安全的刑法保护是值得探讨的问题。
一、当前人工智能技术应用中数据安全刑法保护的困境
(一)人工智能产业发展需求与数据安全的刑法保护之间存在部分冲突
数据之于人工智能技术应用的重要性堪比水之于生命,如果过分限制人工智能技术应用的开发者获取、使用或处理数据,就一定会影响有关产业的发展。
其一,在获取阶段过分强调数据安全的刑法保护和数据发挥流动价值存在冲突。目前数据安全的刑法保护集中在数据获取阶段,涉及的罪名包括非法获取计算机信息系统数据罪、侵犯公民个人信息罪、侵犯商业秘密罪等。这些罪名对应的是个别特定法益的保护。但是,在人工智能时代,数据的核心价值并非以静态的方式体现,而是主要体现为动态价值。“通过数据权利化这种强保护方式来保护相对局部的数据利益,忽视了数据本身的分享和流动的惯常性存在,以及数据排他性占有的现实困难。”①梅夏英:《在分享和控制之间:数据保护的私法局限和公共秩序构建》,《中外法学》2019年第4期。因而数据安全的刑法保护不能拘泥于个别特定法益的保护,而需要从更为宏观的层面进行利益衡量并作出刑法评价。数据获取是人工智能技术应用的源头,刑法的强保护措施从这一源头就已经启动,可能会造成对技术应用与开发的误伤。如在“晟品科技案”中,晟品科技公司通过数据抓取技术,绕过了服务器系统保护措施,获取了储存在其他公司服务器中的数据,最终被认定为非法获取计算机信息系统数据罪。②参见北京市海淀区人民法院(2017)京0108刑初2384号刑事判决书。法院的认定路径看似没有问题,本案的特殊之处在于,涉案的数据已经处于公开状态,网络用户均可以进行访问。通过刑法保护已经被公开的数据,似乎使刑事制裁成为服务器所在公司反竞争的工具,不利于数据流通。人工智能技术应用的本质是赋予静态数据的流动性,通过分析、利用数据因流动产生新价值从而更好地服务人类。因此,如果在获取阶段过分强调数据安全的刑法保护,在一定程度上可能会给人工智能技术应用开发带来消极的影响。
应当承认的是,部分人工智能技术应用获取数据的过程确实触碰了刑事“红线”。如果不对数据获取进行限制,那么未来在人工智能技术面前,可能出现人人“衣不蔽体”的极端情况,企业之间也可能出现不良竞争。因此,不能一味维护人工智能产业的发展而放弃刑法保护机能。在此情况下,如何在维护人工智能产业发展和数据安全保障之间实现平衡是急需解决的重要问题。“一旦冲突发生,为重建法律和平状态,或者一种权利必须向另一种权利(或有关的利益)让步,或者两者在某一程度上必须各自让步。于此,司法裁判根据它在具体情况下赋予各该法益的‘重要性’,来从事权利或法益的‘衡量’。”③卡尔·拉伦茨:《法学方法论》,陈爱娥译,商务印书馆2003年版,第279页。人工智能产业的发展代表着人类对创新社会的积极探索,而数据安全的刑法保护体现的是探索中的风险防控,这需要准确把握力度和广度,否则将形成冲突和矛盾。
其二,从维护原始数据权利的角度关注数据安全,和未来人工智能技术应用的探索与拓展存在冲突。目前数据安全的刑法保护主要采用的是原始数据权利维护模式,即通过确认原始数据所对应的权利归属来对侵害行为进行刑法评价。如前述“晟品科技案”中,数据爬取行为因没有得到原始数据权利主体的授权而被认定具有刑事违法性。这种原始数据权利维护模式将破坏数据安全理解为对原始数据权利的侵害行为,优势在于可以实现数据安全的强保护,也更加容易设定具体的定罪量刑标准。但是,这种模式容易忽略行为的正面价值以及惩治行为的“副作用”。过度行使对某一局部数据的保护,可能会影响数据通过聚集形成的商业效应,从而影响人工智能技术应用的开发。人工智能技术应用的发展势头正猛,和目前我国对人工智能发展提供的良好发展环境息息相关。早在2017年7月,国务院就已经发布《新一代人工智能发展规划》,提出要“抢抓人工智能发展的重大战略机遇,构筑我国人工智能发展的先发优势”。人工智能技术已经被积极应用到医疗、游戏、消费、交通等社会生活领域。未来,人工智能技术还将被应用到更加广阔的领域。人工智能技术应用的探索与拓展需要法治保障,但不合理的限制会阻碍这一快速发展趋势,尤其是对原始数据权利的过度维护。
实际上,数据的处理者和经营者通过对数据的加工,已经得到超过数据本身的其他价值。“与物质商品不同,数据的使用不会减损它的价值,反而会获得新信息或知识,赋予新的含义。”①高富平:《数据流通理论:数据资源权利配置的基础》,《中外法学》2019年第6期。这部分价值的权益不应只属于原始数据权利主体,否则对于数据的处理者和经营者而言,通过挖掘数据价值实现服务或赢利的目的无法实现,发展的动力更无处可谈。对人工智能技术应用的刑法评价不能局限于判断是否对原始数据权利主体造成侵害,而应考虑应用的根本目的,后续加工和利用数据行为的性质等因素。因此,过度在刑法认定中维护原始数据权利可能会放大人工智能技术应用发展与数据安全刑法保护之间的冲突。
(二)罪名适用方面存在不同司法倾向
人工智能技术应用对数据的不当获取、处理存在不同类型的刑事风险。对于同一破坏数据安全的行为,不同的司法倾向可能将数据理解成不同类型的法益,进而导致罪名适用不统一的情况出现。
由于数据存储于计算机信息系统,不少司法人员倾向于用计算机犯罪罪名认定数据犯罪,这是一种对数据安全的形式保护。许多侵害虚拟财产的行为在司法实践中被认定为非法获取计算机信息系统数据罪,这一观点也得到最高人民法院研究室有关人员的认可。②参见最高人民法院研究室:《关于利用计算机窃取他人游戏币非法销售获利如何定性问题的研究意见》;胡云腾、周加海、周海洋:《〈关于办理盗窃刑事案件适用法律若干问题的解释〉的理解与适用》,《人民司法》2014年第15期。部分司法实践则注重数据安全的实质保护,即对数据内容所代表的具体法益进行保护。例如,在“摩羯数据爬虫”案中,利用爬虫技术进行数据抓取并留存的行为被认定为侵犯公民个人信息罪。③参见浙江省杭州市西湖区人民法院(2020)浙0106刑初437号刑事判决书。
数据在形式上高度依赖于计算机信息系统,同时在内容上可能代表和记录了不同类型的法益。司法实践之所以用计算机犯罪罪名来实现数据安全的刑法保护,主要是由于早期刑法立法者对于数据的理解局限于计算机信息系统安全,并设置了有关罪名。在立法的指导下,计算机犯罪罪名成为司法中数据犯罪认定的主要罪名,这一传统的司法认定思路延续至今。随着时代的发展,计算机犯罪罪名往往不能反映破坏数据安全行为的不法本质,这一做法开始受到理论和实践的质疑,由此产生了司法不统一的现象。
不同罪名对应不同法定刑,罪名设立的本质是通过构成要件对不同类型具有严重社会危害性的行为分门别类,从而实现罪刑均衡。如果不能精准识别行为性质,则无法实现重罪重判,轻罪轻判的立法目的。在前述形式认定和实质认定两种不同的司法倾向下,数据犯罪的认定可能出现罪名适用不统一的情况。“凡为法律视为相同的人,都应当以法律所确定的方式来对待。”④E.博登海默:《法理学:法律哲学与法律方法》,邓正来译,中国政法大学出版社2017年版,第311页。在同一个刑法体系下,相似的行为应当得到相似的刑法评价,这是司法统一的基本要求,数据安全的刑法保护也应如此。目前数据犯罪认定中出现的罪名适用不统一是人工智能技术应用中数据安全刑法保护的困境之一。
二、人工智能技术应用中数据安全刑法保护困境之源
(一)立法上数据安全未受到刑法的专门化保护
刑法理论上对于数据犯罪概念有不同看法,存在广义说和狭义说。广义说认为,一切以数据为对象或工具的犯罪都属于数据犯罪。①王倩云:《人工智能背景下数据安全犯罪的刑法规制思路》,《法学论坛》2019年第2期。狭义说认为,数据犯罪是以计算机信息系统中的数据为犯罪对象的犯罪,仅仅指《刑法》第285条和第286条调整的对象。②李紫阳:《解释论视域下数据犯罪问题研究》,华东政法大学2021年博士学位论文,第32-34页。狭义说将数据的多元属性变成了单一的形式属性,不利于数据安全的刑法保护。广义说则更符合数据犯罪的客观事实,因此本文采用广义说。在广义说下,现行刑法对数据犯罪的规制不局限于单个罪名或一类犯罪。
根据现行刑法规定,数据安全非独立法益,数据安全的刑法保护依附于对各类法益的判断,包括个人法益和集体法益。数据犯罪分散于刑法分则各个不同章节,不同数据犯罪的入罪路径存在明显区别。有观点可能认为,分散式的罪名体系正对应了数据所代表的不同法益类型。实际上,现有罪名体系在数据安全的刑法保护方面存在缺陷。
一方面,不少罪名看似规制了数据犯罪,但实际上只能实现间接性保护,保护并不周延,存在错位和偏差。数据安全的刑法保护不像其他法益保护一样有专门的罪名体系。判断破坏数据安全的行为是否构成犯罪不是围绕数据安全这一核心,而是先找寻与之相关的法益是否受到侵害,再根据其他犯罪构成要件判断行为是否入罪。这种刑法保护模式属于间接保护,在保护力度、范围和精准度方面不如直接保护。例如,拒不履行信息网络安全管理义务罪保护的法益是网络安全,虽然网络安全和数据安全存在重叠部分,但在相应的前置法设定义务内容上存在差异,也就导致违法性判断的不同。③时延安:《数据安全的刑法保护路径及方案》,《江海学刊》2022年第2期。简言之,保护网络安全和保护数据安全即便存在交叉,也不能等同。因为缺乏专门的罪名,数据安全的刑法保护只能通过其他罪名进行间接保护,而其他罪名的设立有其自身的立法目的,不是为数据安全保护而设置,如此一来,数据安全的刑法保护就会和直接的前置法规范(《数据安全法》)存在错位。
另一方面,非专门化的罪名体系缺乏针对数据流通及经济价值的刑法评价维度。数据安全之所以在人工智能时代受到前所未有的重视,不是因为数据能够记载财产、个人信息、商业秘密等原本存在的法益或法律关系,而是因为数据的流通、汇集能够形成大数据效应,产生新的经济价值。因此,维护数据有效流通,实现数据商业价值应当成为数据安全刑法保护中的重要内容。在非专门化的罪名体系下,对破坏数据安全的行为无法从维护数据有效流通、实现数据经济价值的角度进行刑法评价。非专门化的罪名体系虽然实现了对数据安全的多元化治理,却少了人工智能时代数据安全刑法保护最需要得到重视的特殊维度,即数据流通。因此,现有数据犯罪罪名体系缺少了重要的刑法评价维度,不能满足人工智能时代数据安全保护的现实需要。
(二)司法上数据犯罪的法益识别困难
鉴于目前立法并未对数据安全进行专门化刑法保护,在面对数据犯罪时,司法必须对数据犯罪行为所侵害的法益进行识别。数据犯罪罪名适用不统一情况的出现,本质上是因为数据犯罪的法益识别困难。
在分散式、非专门化的立法体系下,司法对于数据犯罪的法益识别具有特殊性。一般的法益识别通常只要依照刑法规定即可,如信用卡犯罪对应的法益为信用卡管理秩序,因为刑法对以“信用卡”为对象的犯罪有完整的明文规定,法益识别过程并不困难。对于数据犯罪而言,虽然《刑法》第285条和第286条规定的犯罪对象包括“数据”,但其特指计算机信息系统中的“数据”。在广义说下,计算机信息系统中的“数据”不能代表所有数据犯罪的对象。判断破坏数据安全的行为是否入罪需要先行判断数据本身记录和代表的法益类型。“当前的刑法保护框架虽也能运用相应罪名来处罚某些侵犯数据权益的行为,但这样的处罚无法准确揭示相应行为的不法本质。”①劳东燕:《个人数据的刑法保护模式》,《比较法研究》2020年第6期。分散式、非专门化的立法体系有时无法直接体现行为的不法本质,数据犯罪的法益识别面临多种选择,容易引发不同司法倾向。
数据犯罪的法益识别困难与数据安全本身的发展存在关联。数据安全的刑法保护早期高度依赖于计算机信息系统安全保护,数据犯罪的法益识别往往不需要进行种类上的判断,只需要判断数据是否属于计算机信息系统数据。此时的数据犯罪认定不易出现罪名适用不统一的情况,至多在罪与非罪的判断上存在差异。随着数据时代的发展,数据安全的刑法保护更加多元。在要求网络服务提供者履行相应的数据保护义务的背景下,数据安全刑法保护的重心开始转移至网络安全保护。同时,数据安全的刑法保护出现了法益保护个人化的趋势。例如,前述“摩羯数据爬虫”案中,擅自将用户数据在服务器上长期留存的行为被认定为侵犯公民个人信息罪。②参见浙江省杭州市西湖区人民法院(2020)浙0106刑初437号刑事判决书。虽然个人法益和集体法益保护路径不同,却不是绝对分割的关系。集体法益具有抽象性,但往往可以被还原成个人法益被感知和评价。就数据而言,其首先表现为数据权利主体的个人法益,但在数据的流动和使用的过程中,逐渐发展表现为集体法益,此时其个人法益的属性并不会完全消失。因此,人工智能技术应用中数据安全所涉不同法益之间的界限较为模糊。多种选择的出现给数据犯罪的法益识别增加了难度。
三、人工智能技术应用中数据安全刑法保护的应然路径
如何在人工智能产业发展和数据安全刑法保护之间实现平衡,进而促进人工智能技术革新,是解决人工智能技术应用中数据安全刑法保护问题的核心。具体而言,可以从以下三条路径尝试突破现有困境。
(一)通过立法改善数据安全刑法保护的法益结构
目前立法展示的数据安全的刑法保护涉及多种个人法益和集体法益,不同类型的法益之间没有直接的主次之分。这种法益结构由多“支线”组成,没有基本的“主线”。在此情况下,应设立专门的数据安全保护罪名,如滥用数据罪,将数据安全作为经济管理秩序法益中的一种类型进行刑法保护。该罪名作为数据安全刑法保护的基本“主线”,与其他罪名形成“一主线多支线”的数据安全刑法保护法益结构,能更好地实现对数据安全“动态”和“静态”全方位保护,并避免对人工智能产业的发展产生不良影响。
“主线”的确立能够体现人工智能时代背景下数据安全的流动价值和共享价值。在过去,数据被理解为存储载体与内容;如今,数据的流动价值和共享价值更加受到关注。现有数据安全刑法保护的法益结构虽然能够实现对数据安全的“静态”保护,却无法体现对数据“动态”经济价值的衡量与评价。数据安全的刑法保护问题之所以在人工智能时代背景下被放大,根本原因在于数据“动态”经济价值的提升。将数据安全作为经济管理秩序法益中的一种类型进行刑法保护,可以从数据流动与共享的角度对其进行刑法评价,这正是人工智能时代数据安全刑法保护的真正“内核”。
对数据安全刑法保护法益结构的改善,可以将刑法评价关注的重点从数据获取阶段转移至使用阶段。目前数据安全的刑法保护主要针对获取阶段,是一种“前置化”的保护模式。这一保护模式可以从源头上惩治破坏数据安全的行为,却容易“误伤”部分不需要刑法规制的数据获取行为。政府监管应该关注数据使用限度,而不是数据收集。①维克托·迈尔-舍格伯格、托马斯·拉姆什:《数据资本时代》,李晓霞、周涛译,中信出版集团2018年版,第172页。单一的数据获取行为社会危害有限,对数据安全破坏的社会危害主要体现在滥用之中。从数据获取的角度对行为进行刑法评价是对原始数据权利主体的保护,不能体现对数据经济价值的保护。如果把关注的重心从非法获取转向滥用,可以使人工智能技术在获取大数据这一基础行为上免受不当的刑事责任追究,并使真正破坏数据安全的滥用行为得到刑法规制。
需要注意的是,增设“主线”不是彻底放弃原有罪名体系,而是将原有的“多支线”法益结构变更为“一主线多支线”的法益结构。实践中,许多数据犯罪并未按照其真正的不法本质被认定,原因是当前的数据犯罪罪名体系和数据犯罪的不法本质存在错位。如果能将数据安全作为经济管理秩序法益进行专门化刑法保护,改善数据安全刑法保护的法益结构,可以直接体现数据经济价值被侵害的不法本质,改变数据犯罪罪名与不法本质错位的局面。
(二)根据行为的不法本质认定犯罪
有人可能会提出,在本就分散的罪名体系中增设罪名是否会使司法变得更加混乱?其实,在立法完善的基础上,司法就拥有了准确定性的基础。根据行为的不法本质进行数据犯罪认定,可以避免司法不统一的情况出现。
首先,判断行为的不法本质需要判断行为侵害的直接法益。并非所有被侵害的法益都属于行为侵害的直接法益。例如,虚拟财产记录于计算机信息系统,窃取或者以其他方式非法占有虚拟财产行为必然同时具有非法获取计算机信息系统数据的性质。②陈兴良:《虚拟财产的刑法属性及其保护路径》,《中国法学》2017年第2期。在此情况下,不能因为侵害虚拟财产的行为涉及非法获取计算机信息系统数据,就以此确立此类行为的性质。虚拟财产具有经济属性,在一般情况下,此类案件中行为人的主观目的不是侵害计算机信息系统,而是为了获取虚拟财产所涉经济利益,具有非法占有目的。此时,将公民财产权理解为行为侵害的直接法益更加符合客观事实。在“主线”增设以后,如果人工智能技术应用中出现了数据滥用行为,其侵害的直接法益应当理解为数据管理秩序。
其次,判断行为的不法本质应参考行为直接违反的前置法规范。绝大部分的数据犯罪属于法定犯,法定犯的认定受到前置法规范的限制。对于人工智能技术应用而言,前置法规范包括《数据安全法》《个人信息保护法》《网络安全法》等。《数据安全法》明确了数据处理者的数据安全保护义务,《个人信息保护法》明确了个人信息处理原则、规则,以及个人信息处理者的权利、义务,《网络安全法》明确了网络安全管理义务。如果行为违反了《数据安全法》中的有关规定,应首先考虑行为的不法本质是侵害数据管理秩序,按照数据安全刑法保护的“主线”认定犯罪。人工智能技术具备高强度的专业性和技术性,对行为违反前置法规范情况的判断有时需要由权威机构对相关技术规范概念予以明确。①李晓明:《论人工智能刑法规制中的技术规范》,《东方法学》2021年第2期。技术性规范的参与有助于判断行为所违反的直接前置法规范,对于行为不法本质的判断也将更加明确。
最后,根据行为的不法本质认定数据犯罪还涉及想象竞合犯的处理。通说认为,想象竞合犯的处理原则是从一重罪处断,可以最大程度上实现对法益的保护。那么,在不法本质不是“较重的罪”的情况下,根据行为的不法本质认定数据犯罪是否违背了想象竞合犯的处理原则呢?实际上,根据行为的不法本质认定数据犯罪与想象竞合犯的处理原则并不存在冲突和矛盾。一方面,根据行为的不法本质认定数据犯罪强调的是不应将行为认定为无法体现其不法本质的犯罪。这一犯罪认定步骤属于认定想象竞合犯的前置步骤,若行为并未同时构成数个罪名,自然不存在想象竞合犯的处理问题。在数据安全刑法保护体系完善的情况下,应当尽量摒弃以计算机犯罪罪名认定数据犯罪的做法,尽可能地考虑以“主线”进行犯罪认定。另一方面,根据行为的不法本质认定数据犯罪并不意味着数据犯罪只可能涉及单一罪名。在行为确实涉及数个罪名的情况下,应当按照想象竞合犯的处理原则,从一重罪处断。
(三)保留必要的出罪空间
人工智能技术已经在多领域内发挥出积极的作用,是社会发展和创新的重要动力。对于人工智能技术应用,刑法的打击重点应是专门利用人工智能技术或以人工智能技术为噱头等恶意明显的犯罪行为。但不少司法实践对不同类型的数据犯罪没有作出认定上的区分,一律采用达到标准即入罪的方式。对于可能具备出罪事由的违法犯罪行为,缺少有关论证和利益衡量。根据所涉罪名的不同,目前数据犯罪的入罪标准主要包括信息类型和数量、违法所得数额、前科情况、权利人损失数额等等。②参见2011年8月“两高”《关于办理危害计算机信息系统安全刑事案件应用法律若干问题的解释》,2017年5月“两高”《关于办理侵犯公民个人信息刑事案件适用法律若干问题的解释》,2020年9月最高检、公安部《关于修改侵犯商业秘密刑事案件立案追诉标准的决定》,2020年9月“两高”《关于办理侵犯知识产权刑事案件具体应用法律若干问题的解释(三)》等立案标准与司法解释规定。绝大部分的入罪标准都属于“刚性”标准,即难以被弹性调整的标准。“刚性”标准挤压了出罪空间,在司法实践中,对于达到“刚性”标准的行为,将被直接推定具备刑事处罚的必要性。
无论是司法实务还是刑法理论,都在强调对人工智能刑事风险的防控,对过度打击人工智能产业的风险意识还未完全确立。为实现人工智能技术应用中数据的有效流通,不能一味让数据处理者承压。对于情节轻微的违法行为,应当保留必要的出罪空间。出罪空间之所以在司法实务中没有得到有效利用,主要是因为缺乏可适用的具体规范依据。虽然《刑法》第13条“但书”规定提供了总括性的出罪规范,但因其表现出的抽象性和模糊性,难以被直接适用或适用不一。在此情况下,应当考虑通过司法解释制定有关数据犯罪针对性的出罪内容,尤其是对使用和处理数据的目的作出限制性规定,体现对科技产业的保护。2022年2月最高法修订的《关于审理非法集资刑事案件具体应用法律若干问题的解释》第6条规定对“主要用于正常的生产经营活动”的非法吸收或者变相吸收公众存款的行为作出了出罪化处理。这一规定认可了从目的和钱款去向方面限制犯罪认定的做法,可以予以参考。
保留必要的出罪空间是谨慎认定涉科技产业犯罪的体现,和“严惩侵犯公民个人信息犯罪”等个罪认定的刑事政策没有直接的冲突。相反,保留必要的出罪空间是我国宽严相济基本刑事政策的具体体现。个人信息被滥用已经成为信息时代一个严峻的问题,对侵害公民个人信息犯罪严厉打击颇为必要。从严惩处的刑事政策针对的是具有严重社会危害性的侵害公民个人信息的行为,但这不意味着犯罪圈的无限扩大,也不能对个人信息不加甄别,否则有刑法保护过分扩张化的趋势。①王哲:《侵犯公民个人信息罪中“个人信息”的限定》,《青少年犯罪问题》2021年第3期。针对侵害公民个人信息行为的刑事政策不能延展至所有数据犯罪,维护数据流动共享同样重要。②赵春玉:《大数据时代数据犯罪认定的方法转向与价值回归》,《思想战线》2021年第5期。宽严相济的刑事政策除了要求对重罪行为加重处罚外,还要求“对于一些介于刑事责任或其他责任之间的边缘行为,尽量本着改造和教育的原则,更好地达到刑罚的效果”。③严励:《〈刑法修正案(十一)(草案)〉的刑事政策审读》,《法治研究》2020年第5期。因此,保留出罪空间是构建整体数据安全刑法保护体系中的必要环节,为尚未达到刑罚应罚性的行为提供了出罪渠道。
四、结 语
数据安全的刑法保护是新时代刑法理论需要关注的重点问题,人工智能技术应用与数据获取、使用及处理具有密不可分的关系。人工智能技术应用中数据安全刑法保护的困境源于产业发展保护和数据治理之间的可能冲突。化解这一冲突的基本要义是平衡,即在不破坏人工智能产业生态的情况下实现对违法犯罪行为的精准打击,并实现对人工智能产业中数据利用的有效性指引。人工智能技术应用中的数据治理问题,反映了数据安全保护体系的缺陷,也反映了科技产业中法律治理的共性问题。本文提出的针对人工智能技术应用数据安全刑法保护问题的解决路径,既是对特定领域数据治理的思考,也希望能够对解决其他涉科技产业法律治理问题提供思路拓展的可能。