APP下载

数据治理视阈下人工智能的国际法规制探讨

2024-01-20张胜飞

互联网天地 2023年12期
关键词:规则人工智能数字

□ 文 张胜飞

0 引言

当前,以计算机视觉、机器学习、知识图谱、自然语言处理等为代表的人工智能技术已逐步应用到制造、金融、医疗、交通、安全、智慧城市等领域。此外,人工智能在基因研究、高等物理、探索外太空以及材料科学等领域亦有重大突破和创新,其为人类生活带来了前所未有的便利,使现代社会形成了人的智能与人工智能并存的二元格局。

随着数字经济的兴起,数据日益成为国家的重要战略资源,人工智能也逐渐从如楚汉争霸般技术治理之争的对象变为各国手谈下技术霸权之争的棋子。人工智能技术的研发,一方面产生了极大的良性社会效益,另一方面也带来了诸多负面的社会问题,对国际规则也造成了一定的冲击。在国际准则的制约下,人工智能的增长与传播的互操作性也带来了统一指引,同时,从国际法的角度对人工智能进行规制也成为遏制技术的全球性扩散以及数据的跨境流动不可或缺的手段。

1 WTO法框架下人工智能规则适用的困境

1.1 加剧“商品-服务”二分法困境

WTO规则作为国际贸易法最重要的规则,将产品分为货物与服务两类,分别适用GATT货物贸易规则和GATS服务贸易规则。这种区分的意义在于适用不同的规则对贸易的保护程度不同。简言之,GATT1994 要求各成员国履行国民待遇义务,而GATS协定下的待遇则需要成员方作出具体承诺来确定。在数字经济兴起的背景下,兼具货物与服务双重特性的数字产品使WTO框架下的传统贸易分类出现了规则选择的困境,国际贸易在通过由人工智能驱动的方式实际产生交付行为的是服务和商品的贸易,其关键在于以人工智能机器产生学习算法为手段以及以人工智能机器来进行学习算法交付,前面两者的交付方式加剧了WTO本就存在的分类挑战。例如AI赋能3D打印的跨境交易,以产品设计服务为例,一方面,在交付给消费者的3D打印CAD文件中包含一项跨越国界的设计服务,GATS因而可以适用;另一方面,3D打印CAD文件在消费时会被打印成商品,因此也可能受GATT约束。

1.2 “公共道德例外”的价值判断

WTO一般例外条款详见于GATT 1994第20条和GATS第14条,其只是粗略将“公共道德”规定为一种违反GATT其他条款的国内措施“免责”情形,而在适用公共道德例外条款时,条款并没有进一步规定如何确定某项贸易相关措施的目的是否为“公共道德所必需”,损害达到了何种程度才可适用保障措施,使得该条款很大程度上成为一国自行判断的事项,主要体现WTO成员方的是非对错标准从而导致其被泛化适用。人工智能技术的出现提出了许多伦理问题,在美国博彩案中,专家组将公共道德定义为“由集体或国家所支持的是非对错行为标准,或者是能够代表集体或国家的是非对错标准”;在欧共体海豹产品案中,公共道德的内涵拓展至种族信仰以及不人道的消费方式,当人工智能面对作为社会道德基础构成之一的伦理难题时,价值观的导向将极大影响人工智能程序设计,这也是WTO成员国在程序设计判断中所面临的问题。换而言之,是让人工智能做出道德决定的数据集与当地公共道德所带来的价值观不一致为由,否定人工智能推动的国际贸易。

1.3“AI- shield”援引安全例外条款的正当性

人工智能的国家安全风险首先体现在数据方面,诸如脸书、谷歌等科技巨头,其全球业务网络和强大的数据抓取能力,对于敏感数据的违规跨境获取和流动极易威胁其他国家的国家安全;其次,在人机交互的过程中,人工智能受用户的影响,如果用户向其故意投喂恶意、虚假的信息,透过互联网和各个人工智能系统渲染,极易诱发政治安全风险。在WTO协定下,典型的安全例外条款规定在GATT1994 第21条,由于目前人工智能直接规制规则的空缺,各国很可能将人工智能视为逃避或减少各自国内管辖和国际法规定的现有义务的一种手段,这种情况可以被称为“AI-shield”,因为人工智能被称为应对挑战的坚不可摧的盾牌,也可被称为“AI-haven”。人工智能国家安全不同于对国家的财产和国土这类物理客体的威胁,是综合政治、经济、文化、生态等方面的总体安全。就安全例外条款的适用而言,虽然当前WTO安全例外条款呈现出从传统安全事项转向非传统安全事项的扩张适用趋势,但仍应当遵循善意原则的要求,从“其认为必要的”“重要安全利益”和“国际关系中的其他紧急情况”出发,谨慎判断“AI-shield”是否属于“国家安全例外”援引范畴。

2 走出困境的途径:数据治理路径的可适用性证成

2.1 大数据是人工智能发展的核心要素

数据、算法和计算力,是人工智能技术的三个基本要素。算法是所有人工智能技术的基础,人工智能的水平高低将会极大地取决于算法技术的优劣。人工智能技术的重要内容就是基于超强计算能力和超大规模训练样本集的深度学习技术和统计数学中的蒙特卡罗等随机算法。

人工智能的算法学习包括传统的算法学习、迁移学习、深度学习等算法,人工智能以机器学习为基础,其关键在于对输入数据的清洗和转换,对特征的提取和整合、对数据的探索分析。深度学习是通过构建智能神经网络为主体,将机器学习的可实现性纳入核心技术,进而产生数据进行的表征学习行为的算法。常见的深度学习框架有谷歌的TensorFlow、Facebook的Caffe和PyTorch、亚马逊的MXNet以及百度的PaddlePaddle等。

具体来说,以ChatGPT 为例,其技术原理可以分为三个步骤:步骤一,预训练阶段,在该阶段中主要借助Transform 算法及其“注意力网络”,利用生成式语言模型,在海量文本构建的大规模文本数据集学习语言的表达方式,使得模型具备根据当前文本预测下一个词概率的能力,该阶段,ChatGPT 拥有了文本生成能力。在此基础之上,步骤二采用监督学习的策略,通过大量标注语料组成的问答范例数据集微调模型的输出结果,让ChatGPT 掌握提问和回答的通用规律,具备问答能力。然而这种技术本质仍然是生搬硬套,其核心是通过学习和计算大量的信息文本后,依赖其强大的生成文本的能力,机械式的回答所预留的问答模板或者预先掌握的对话模型,并不能控制其回答问题的质量。因此,步骤三依靠RLHF 算法对GPT 模型进行强化学习。针对模型输出的内容,对提示词所对应的模型输出结果按照从优到劣进行排序,训练出一个奖惩函数模型来指示训练,让模型清楚其回答问题的质量。最后使用近端优化策略(PPO)优化奖励模型引入人类反馈,从而使ChatGPT的回答更符合人类价值观。

综上所述,数据智能也许更适合作为人工智能的准确名称,人工智能其实依然离不开海量的数据作支撑,数据问题也许才是所有以机器来判断和回答问题的最后形式。人工智能和数据之间的直接关系为人工智能规制的数据治理路径提供了可能性,人工智能治理与数据治理密不可分,在目前对人工智能直接规制规则仍然缺乏的情况下,全球社会已经体现出对数据治理,尤其是那些关乎人工智能中直接作为生产力来源的数据高度重视,如果目标是为维护人工智能行业的共同声音,就需要从治理数据入手。

2.2 数字贸易规则作为人工智能的间接规制规则渐趋完善

当前,国际上尚未形成统一的人工智能直接规制规则,关于规范人工智能的文书很大程度上聚焦于伦理问题,以“致命性自主武器系统(Lethal Autonomous Weapon Systems,LAWS)”为代表的人工智能武器的使用可适用一般国际法原则。此外,2021年联合国教科文组织大会通过的《人工智能伦理问题建议书》是目前全世界在政府层面所达成的最广泛的人工智能伦理共识。

与人工智能间接相关联的国际治理规范中,最值得注意的就是数据贸易规则尤其是以数据治理规则为代表的方向,不仅是规则内容日趋全面完善,所蕴含的理念也更加成熟。2020年6月智利、新西兰和新加坡签署且中国加入的《数字经济伙伴关系协定》(DEPA),2020年8月澳大利亚和新加坡签署的《数字经济协定》(SADEA)在协定文本中均直接以“人工智能”为标题,确认了各方对人工智能治理合作的共同认识。DEPA第8.2条“人工智能”和SADEA第31条“人工智能”无论是结构还是在内容上显得都愈加统一,其重要性在于肯定了人工智能在数字经济中的技术作用,强调数字经济的跨境性质,进一步确认人工智能治理框架与国际接轨的好处。此外,其他自由贸易协定,如《全面与进步跨太平洋伙伴关系协定》(CPTPP)第14 章“电子商务”、《区域全面经济伙伴关系协定》(RCEP)第12 章“电子商务”、《美墨加协定》(USMCA)第19章“数字贸易”等均包含数字贸易相关政策。

2023年7月28日由世贸组织、国际货币基金组织、经济合作与发展组织以及联合国贸易和发展会议联合撰写的《数字贸易制度手册》(第二版)发布,该手册侧重于两个关键要素:数字并购贸易和数字交付贸易,而人工智能机器学习算法交付本质上是数字交付。2019年启动的WTO电子商务谈判,W T O成员于2023年9月21日讨论了电子商务和技术转让问题。目前WTO成员间对电子商务诸边谈判内容已经有了一定共识,但就电子商务传输的免关税永久化、数字产品非歧视待遇、跨境数据的自由流通、源代码公开和算法公开等核心议题上表现出了鲜明的差异。

应当认识到,人工智能在助力数字经济发展的同时数据治理规则在人工智能治理中的决定性地位,人工智能产业或有可能因为数字经济国际治理框架的完善而得到行业规范的契机。

3 我国参与人工智能国际法规制的进路构建

3.1 推动全球合作,积极参与相关规则的制定

目前我国人工智能产业发展增速居世界前列,超算、智算、云算协同发力,算力规模位居全球第二,核心产业规模已经超过5000 亿元的量级,其相关的企业数量也达到4300 家,无论是开发框架、智能芯片、通用大模型等领域上不断开疆拓土,获得的创新成果持续增加。然而,中国信息通信研究院发布的《数据要素白皮书(2023)》指出,我国人工智能领域仍然面临高质量数据集缺乏、数据供给的产业生态不健全、企业数据资源获取成本高等问题。因此,对于我国而言,首先需要积极参与国际数字治理规则的制定,通过数据要素市场积极应对上述问题。

尽管诸如美国、欧盟等地区或国家对人工智能实施了积极监管,但就全球范围内来说,现有规则主要由具有更强技术实力和更大数据掌控规模的国家主导,发展中国家的话语权较微弱,甚至无法参与相关讨论。对此,需要打造人工智能国际法规制的全球合作路径,我国作为最大的发展中国家需要对人工智能的全球规则做前瞻性思考,提早部署研究,争夺话语权,促进人工智能规则向着更加公平、公正、合理和高效的方向发展。

3.2 科学立法,多元共治

一方面,国内法与国际法存在双向互动。欧盟2023 年6月14日通过了《人工智能法案》的初稿,基于风险预防的基本理念对人工智能领域建立了一套覆盖全过程的风险管理体系;2022 年10月,美国白宫发布了《人工智能权利法案蓝图》,以“设计、使用和部署自动化系统的五项原则,从而在人工智能时代保护美国公众”,因此当面对人工智能应用带来的问题时,完善国内法律制度以提升法律的可操作性是当务之急。2017年国务院发布《新一代人工智能发展规划》,2023年5月31日,国务院办公厅印发《国务院2023 年度立法工作计划》,其中人工智能法草案等预备提请全国人大常委会审议,2023 年7月13日,国家网信办等七部门联合公布《生成式人工智能服务管理暂行办法》。2023 年8月15日,“全球治理话语竞赛下人工智能立法的中国方案”研讨会发布了全国首个《人工智能法示范1.0(专家建议稿)》,其中不单提出关于负面清单管理等治理制度,而且着重回应了对人工智能产业链条所牵扯的各主体责任义务如何分配等关键性问题。这些举措能够体现出人工智能治理存在的缺乏统一框架的问题,后续也需要国家跟进出台与人工智能相配套的法规。

另一方面,企业和政府构成推进人工智能发展的核心力量。企业作为人工智能的创新主体,不仅掌握着海量的数据,同时也需要履行保障跨境数据安全的义务。2019 年8月16日,第二届全球人工智能创业者大会(GAISC)正式发布《新一代人工智能行业自律公约》,对人工智能行业的发展有重大参考和指导作用。政府作为国家治理的核心力量,在人工智能发展过程中需要规范政府的监管行为,实现政府、行业、企业的协同共治。

4 结束语

数字时代,人工智能成为世界各国竞争与合作交替进行的重要领域。人工智能给国际法现有规则造成的冲击不容忽视,然而目前关于人工智能研究的主要成果都集中在自动化技术、计算机软件、互联网技术等领域,法学,尤其是国际法的专门性研究不够充分,人工智能国际法规制理论的体系性和法律性不足,从人工智能技术的底层逻辑出发探寻人工智能规制的困境与解决方案,数据规则将在人工智能的国际法规制中发挥更为关键的作用。在域外人工智能法案不断涌现和完善的背景下,我国需进一步建立完善人工智能治理体系,制定有关规制措施和细则,在人工智能规则制定方面争夺国际话语权。■

猜你喜欢

规则人工智能数字
撑竿跳规则的制定
数独的规则和演变
2019:人工智能
人工智能与就业
答数字
让规则不规则
数读人工智能
TPP反腐败规则对我国的启示
数字看G20
下一幕,人工智能!