ChatGPT 的政治社会动能、风险及防范
2023-08-22张夏恒
张夏恒
(1.西北政法大学管理学院,陕西 西安 710122;2.西北政法大学涉外法治研究中心,陕西 西安 710122)
2023 年2 月,在中国互联网舆论中“ChatGPT”一词迅速蹿红,并被持续热议。 ChatGPT 是美国非盈利研究机构OpenAI 于2022 年11 月对外发布的一种基于GPT 架构的大型语言模型, 其全称为“Chat Generative Pre-Trained Transformer”[1]。 自对社会公众开放后,该应用呈现出惊人的增长态势:在注册用户方面,发布5 天便有100 万人注册,2 个月注册用户数量就高达1 亿,而且月活跃用户已超出1 亿人,成为史上用户增长速度最快的应用程序;在访问量方面,2022 年11 月其访问量约为1830万次,2023 年1 月则达到6.72 亿次,快速跻身全球Top50 行列。 ChatGPT 能够借助人工智能技术,通过学习与理解人类自然语言实现实时对话,通过大模型预演练针对用户的需求生产文本、图像、音频、视频等内容,完成文案撰写、代码编撰、翻译等多种工作[2]。 从人工智能发展视角看,ChatGPT 可被视为人工智能技术发展的一个重要标志,已远超2016 年出现的AlphaGo。 其在语言智能方面取得了重大突破,传统人工智能领域中难以实现的诸如说话、常识推理、持续交谈等行为在该工具上都得以体现,这是ChatGPT 之所以被大众接受并热捧的主要原因。 表面上看,ChatGPT 是一款智能聊天软件,但是若将其限定在聊天产品的定位,则与其火热现状不匹配,也明显低估了其价值,我们需要从更深层次来理解它。 作为新一代人工智能技术的最新产物,ChatGPT 依托人工智能并综合神经网络、交互技术等,通过抓取海量互联网数据构建出大规模语言集合,与人类实现智能交互,并成为兼具数字内容孪生能力、数字编辑能力及数字创作能力的基于人类反馈的强化学习应用范式[3]。
ChatGPT 作为人工智能迈向现实生活的重要一步,具有非常丰富且广阔的应用场景及发展前景。该工具能够从信息层面入手实现与搜索引擎的融合,能够嵌入各种软件实现技术加持新功能,能够依据基于语言的自然交互与数字人、元宇宙等结合。不过,ChatGPT 仍处于技术与应用的发展初期,相关监管体系仍属空白,存在诸多风险与不足,这需引起关注和重视。 面对ChatGPT,如何识别其衍生的政治社会风险,又该如何对其进行有效防范,是一个极具研究价值的话题。
一、ChatGPT 的政治社会动能
(一)ChatGPT 的嵌入将使政治社会面临机遇与风险兼具态势
ChatGPT 快速出圈,受到国内外资本、企业及舆论的追逐与热议,暂且不论是否有夸大成分,该工具的政治社会影响是客观存在的,尤其会给政治社会带来更多、更新的机会,这是毋庸置疑的。Chat-GPT 可以释放更多生产力、优化生产方式、创新商业模式、催生更多应用场景等,无论对政务工作还是社会工作都将产生极大的提升效用。 政治社会的许多关联行业及应用场景引入该模型后,能够带来效率的改善、质量的提升与成本的降低,如智能客服的引入对简单重复性劳动的替代等。 总体上看,新一代人工智能技术的出现对政治社会产生了积极影响,它为组织与个人提供了更丰富的信息与更好的交流方式,且在很多领域都将具有广泛的应用空间。 新技术及新事物的两面性同样伴随着ChatGPT,无论从技术本身还是从掌握技术的人及其应用层面而言,政治社会风险都无法回避,比如:带来失业、虚假信息、歧视、知识产权纠纷等。 所以,ChatGPT 影响下的政治社会将呈现机遇与风险并存的状态,且该状态会伴随着ChatGPT 发展、应用的整个过程。
(二)ChatGPT 的嵌入将使政治社会出现技术的不断演化迭代
作为近几年人工智能技术迅速发展与不断更新迭代的产物,从ChatGPT 的基础模型GPT 框架看,其经历了从GPT-1、GPT-2、GPT-3、GPT-3.5 再到GPT-4 的演化历程,每次技术更新都使其功能更加完备、性能更加完善,距离推向市场也更进了一步。ChatGPT 是将人工智能技术与其他多种技术叠加并综合发生作用而形成质变的产物,并不单纯聚焦在人工智能技术层面,而是包括Transformer、AIGC(AI Generated Content)、自监督学习、人类反馈强化学习、复杂神经网络、AI 对齐等技术[4],这些技术的有机结合实现了大模型带来的智能能力、指令学习能力及用户意图捕捉与理解能力,正是这些技术加持的多种能力糅合实现了ChatGPT 的质变效果。 不仅如此,ChatGPT 的出现与快速发展还得益于支撑其运行的诸多硬件、软件与基础设施,包括计算机硬件、云计算平台及支撑其运行的芯片、集成电路、云服务器、算力算法设备等,此外,那些支撑其众多应用场景的软件、工具或模型,如三维制图、语音合成、数字转化、动画制作等也不可或缺。这些技术的演化与迭代正在直接改变人的存在结构,相应地也会改变人的政治社会活动方式,进而推动政治社会领域同样面临着技术的不断演化与迭代。 这些不断演化的技术可以赋能数字政府、降低行政负担、提升政务效率[5],同时数字政府建设与治理也会与不断迭代的技术相匹配。 这些不断演化的技术不仅会成为社会信息的重要生产者,而且会驱动人机互动、人机共同决策成为未来的主流,甚至会推动新的社会组织形态的诞生,使社会组织形态从传统的人际结合转向人机结合。
(三)ChatGPT 的嵌入将使政治社会迎来更多类人化的替代物
作为新一代人工智能技术的最新成果,Chat-GPT 区别于以往人工智能产品的显著特征在于其更加智能,且经过大量的预演练与对海量数据的抓取与学习,已掌握了人类的很多知识,不仅可以模仿人类的交流方式与用户实现连续实时对话,还能针对用户的需求与提问,生成类似人类答案的数字内容。 通过采用大模型训练研制的人工智能程序,ChatGPT 不仅能够回答人类的大部分问题,还能从事一些人类较为复杂的工作。 不仅如此,ChatGPT具备很强的学习及纠错能力,能够自动甄别错误内容或命令并不断进行自我优化。 从这个意义上看,ChatGPT 已初步具备了很多类人或拟人的特质,甚至在一些应用场景中能够通过图灵测试。通过依托诸多技术驱动人际关系的变革,ChatGPT 能够精准获取用户的真实意图,使得人与机器的交互不再单纯依赖于机器语言,而是可以使用人类语言作为交互的载体。 随着相关技术的进一步发展与应用推广,ChatGPT 会逐步扮演机器、设备、机器人的大脑,届时人机交互会更以人为中心。 与人类意图、价值观、伦理准则越发匹配的智能体将有可能成为社会的一部分,届时ChatGPT 类程序会像人类一样理解与应用抽象概念、创造新的思想、独立学习与发展新的技能。 ChatGPT 将会带来更多的类人化、拟人化与智人化的替代物,并被应用到政治社会的诸多场景。
(四)ChatGPT 的嵌入将使政治社会遭遇多维度深层次的变革
ChatGPT 具备广阔的应用空间,随着技术的不断完善及应用的不断校验,其与政治社会的联系将更加紧密,对政治社会的影响也会更加多维、更加深远、更加厚重。 该工具会与更加细分的领域产生关联,也会对各种类型的产业、企业、岗位、工种、流程造成多维影响,此处仅举几个典型例子加以佐证。ChatGPT 的智能特性及类人特性可以解放一部分人的双手,尤其是能够对一些重复性、程序化、简单化的岗位形成部分替代,这将会改变行业结构、就业结构等。 新型智能程序具有席卷各行各业的可能,其既可以应用在传媒、咨询、广告、娱乐、游戏等内容型行业,也可以应用到医疗、金融、制造等技术性行业;既能够应用到全产业链条的各个环节,也能够应用到组织运作流程的各个序列;甚至会衍生出更多更新的应用场景、商业逻辑、产业范式,推动数字产业的发展,并对传统组织产生质的变革,驱动传统产业依托人工智能技术实现转型与升级。作为标志性的机器智能生产力工具,ChatGPT 为人类社会带来了更多的可能与期待,预示着一次深层次的信息革命。 ChatGPT 具备解放重复性脑力工作及机械工业系统的潜力,这是一种颠覆性的技术赋能;可以嵌入其他软件、程序或工具,具有低成本、低门槛、广泛性等优势,具备可复制应用到更广泛领域、行业、工种、岗位及场景的潜力,体现出技术赋能的经济性;还有可能衍生出许多先进的商业模式,带动生产关系的变革,甚至会重构全球商业秩序与产业结构。
二、ChatGPT 可能带来的政治社会风险
ChatGPT 与政治社会很多方面存在关联,因此其带来的风险与问题也是多个面向的,我们这里选取以下几类典型风险进行分析。
(一)ChatGPT 的政治风险分析
人工智能技术可能通过内生风险、助力攻击等途径挑战民主政治,造成政治判断与决策的失误,危害主流意识形态的安全,甚至对国家主权与国家安全带来新的挑战。
1.数据流动对国家主权独立性造成冲击
ChatGPT 在全球范围内驱动了数据与信息的跨境流动,这主要是因为其在使用时的数据会流转至美国的服务器中,导致用户在输入信息及生成数字内容时都会使数据流入及流出美国。 加之其以海量数据作为训练集合及信息导入与内容生成的源泉,更是导致数字世界的信息流动无法受到国界的限制。 这也致使此类人工智能模型生成或运行场景中的数据主权无法如传统主权一样独立自主,很有可能会威胁到国家主权安全。 数字技术改变了战争的地理界线,国际与国内安全规范的界限日趋模糊[6]。 一国如在数据要素方面与他国联系紧密,那么数据在全球范围的开放性则会挑战与重塑国家的地缘政治力量。 在新一代人工智能的数字场域中,国家主权独立性可能会受到极大冲击。
2.数字技术霸权给政治安全带来严峻挑战
发达国家存在技术霸权,进而可能产生新的“数字殖民地”,影响他国的政治安全。 新一代人工智能技术仍掌握在欧美等发达国家手中,其产生的数据也多被这些国家掌握并凭此获取更多利益。 技术领先的国家会占据更多的支配权与主动权,那么技术垄断在国家意志层面便成为一种技术霸权,并在国家竞争间表现出剥削与压迫的企图[7]。 如近几年的中美贸易摩擦背后实则是美国凭借其技术霸权对中国实施的压迫与剥削。 ChatGPT 是美国的OpenAI 所研发的,其基础与核心技术更是被美国企业所垄断。 技术垄断国会致力于追求技术带来的数据价值,以发展与监管为由来扩大数据的检测范围,从而实现对数据的收割与垄断。 这些技术所充斥的技术成瘾、歧视、骚乱、暴力等问题也会向其他国家蔓延,由此冲击世界各国的政治安全。 长此以往,欧美发达国家会继续夯实他们制定技术规则与技术标准的话语权,并将数字技术霸权根植于新一代人工智能领域。
3.意识形态安全面临渗透风险
作为一个极具数智能力的数字交互媒介,ChatGPT 既能成为强权者推行其政治意图的工具,也为少数极端分子宣传其思想提供了空间,甚至会为西方国家向中国进行意识形态渗透及干涉提供便利。 ChatGPT 能够打造出虚拟意见领袖,当其被境内外敌对势力操纵后,会以数字人的形式在网络发声,通过制造网络舆论引导某些网民成为其不法声音的帮凶,这会极大地冲击国家意识形态安全,还有可能为数字民粹主义的传播提供新的活动空间。 数字民粹主义思想的影响力日益增大,并严重危害国家主流意识形态。 凭借智能化的大语言模型,民粹主义群体可以精准地将信息推送给潜在的非理性群体,刺激自由主义、保守主义、历史虚无主义等非主流意识形态的扩张,进而挑战主流意识形态。 ChatGPT 具有美国政治色彩的背书,其网络素材多取自西方国家[8],在与用户交互时会输出具有鲜明政治立场的内容。 由于其收集的用户数据会留存在美国的服务器中,这些个人隐私信息一旦被西方某些不良政客所截取,就会成为他们分析、研究并制定意识形态渗透策略的重要数据支撑。 国外不法分子或具有不良政治倾向的群体可能借助ChatGPT 强大的数据库与算法,潜移默化地操纵网络舆论,满足西方政客宣传其价值观的企图,甚至可能使ChatGPT 沦为一种政治工具。 由于该工具具有很强的交互性,因此对意识形态的影响更加直接与深远,特别是如果对未成年人进行长期渗透,将会产生巨大的意识形态风险,这就解释了意大利政府为何要禁止使用ChatGPT 并限制OpenAI 处理意大利用户信息。
(二)ChatGPT 的社会风险分析
ChatGPT 的应用场景分布于多个社会领域,且与社会活动的关联度很高。 随着该工具的进一步发展及其应用的不断推进,其与社会活动会产生更多、更紧密的关联,一些社会风险会逐渐凸显。
1.就业领域出现新的失业风险
新一代人工智能技术驱动了人类与人工智能的协同工作,可以大幅提升工作效率与质量,与此同时,也会颠覆当下的工作场景、工作流程、人力结构及就业情境。 新一代人工智能技术在部分行业的应用会导致失业问题,尤其是那些简单重复、程序化的工作岗位或工种,将不同程度地被ChatGPT替代。由此,ChatGPT 必然导致大量“AI 失业”问题,即人工智能的推进会伴随着越来越多的人失去工作。 在扩大经济自由与增加闲暇时间的同时,这些技术会改变社会运行的逻辑,进而驱动“AI 失业”问题越来越严重。 不仅如此,ChatGPT 还可能重构劳动关系,驱动劳动替代转移、劳动方式智能化趋势,从而衍生出一系列与就业相关的新问题,如新型劳动关系认定等。 当然,对于ChatGPT 带来的失业风险需要辩证看待,新技术对产业结构与劳动力市场的影响是必然的,如同蒸汽机革命导致传统手工业者被产业工人替代一样,ChatGPT 在淘汰部分劳动力与岗位的同时,也会创造新的就业岗位,带来新的就业机会。
2.社会传播风险被放大
技术赋能易引发技术赋权,ChatGPT 凭借其强大的技术优势会延伸个体的信息生产与传播能力,进而会激发社会行动者达权知变的意图,借助此类工具来拓展其各类权利诉求,甚至会驱动对虚假信息、恶意欺诈、诱导性言论的传播,成为ChatGPT引发社会传播风险的土壤。 在虚假信息方面,此类工具基于一些预设的关键词可以编造出可信度很高的虚假内容,并刺激主动性虚假信息生产与非主动性虚假信息生成,前者多被一些居心叵测的使用者用来达成其特殊目的,后者多因ChatGPT 对海量互联网信息的过滤或加工而无意生产。 ChatGPT 可以被用来进行信息欺诈,比如生成一些看似合法的电子邮件内容或捏造政策文件开展欺骗、欺诈行为,甚至可能被用以达成经济诈骗的犯罪目的。 由于该工具的智慧程度较高而使用门槛较低,能够降低批量制作虚假信息的技术要求,从而加速不实信息的生产速度与传播速度。
3.伦理道德出现新的问题
ChatGPT 会带来诸多的伦理道德问题,尤其是因数据偏见而产生的算法偏见,此外还有歧视、AI作弊、价值渗透、造假、人权道德风险等。 该工具会因其算法不完美、数据不完善、数据源不全面以及用户刻意引导等原因而产出一些虚假信息,可能会对未成年人及其他缺乏判断能力的群体造成不良影响。 ChatGPT 以海量数据为根基,需要在社会各领域抓取足够多且准确的知识与信息,但很多信息又会涉及到商业秘密、个人隐私或国家机密等,尤其在个人信息被肆意收集、买卖、利用的背景下,如何确保数据获取的合法性、合理性,如何规避数据泄露、滥用,都成为此类应用程序无法回避的伦理问题。 人工智能技术既可以造福人类,又会带来智能作弊造假等行为,这是ChatGPT 出现之初被科研领域、教育领域质疑的主要原因,当其被用于学术剽窃、数据造假时,就会引发学术伦理问题。 香港大学明确禁止使用ChatGPT;2023 年2 月17 日,国际期刊《生物多样性保护与绿色发展》(BioGreen)编辑部宣布将严格限制使用ChatGPT 等工具撰写的文章。 ChatGPT 在数据输出功能方面承担了后台技术操作者的话语权,用户规格及适用范围越大,其话语权和价值渗透力越强。 如果操作者的个人价值观存在一些偏见、歧视,就会误导用户,扭曲社会价值观,妨碍社会公平。
4.人口安全面临新的威胁
数字技术会驱动人类生活场域由实向虚,这会导致非传统安全威胁的比重日趋增大[9],这些非传统安全威胁会引发新的人口问题。 作为新一代人工智能技术应用的最新代表,ChatGPT 对于人口非传统安全的威胁将会更快浮出水面。 在数字时代,数字鸿沟问题愈发凸显,在中国,不同地域、不同群体间在数字基础设施、数字素养等方面差距明显,中西部地区数字化水平明显弱于东部地区,西部偏远山区则更加落后;老年群体在数字化趋势下会显得更加无助。ChatGPT 可能会扩大人口的代际数字鸿沟,导致老年弱势群体产生更为严重的数字剥夺感。 年轻群体与老年群体在人工智能运用及信息数据获取方面的差距会随着技术的发展越来越大。 老年弱势群体属于被数字技术孤立的特殊群体,尤其是经济水平偏弱的农村老年群体情况更加糟糕,他们因经济实力、知识水平、认知能力、理解能力所限,加之身体机能衰退,在ChatGPT 使用方面会面临更多困难。 不同群体在端口接入、数字技能、智能设备、数字思维、数字观念等方面的差异更会随着人工智能技术的进一步发展而变得更加突出。 与此同时,此类技术会成为人们逃避现实社会的一个自我沉溺的空间,从而拉大人们与真实世界的距离。ChatGPT 对部分岗位尤其是对一些弱势群体从事的工作岗位产生了替代功能,这会引发人们的不良心理状况。 在多种因素作用下,人们会倾向于在虚拟空间消耗时间,这可能会进一步降低社会生育率,加剧社会老龄化问题,进而引发一系列人口安全问题。
三、ChatGPT 的政治社会风险防范原则及措施
ChatGPT 具有广阔的应用场景与发展空间,但同时也伴随诸多政治社会风险。 在应对其潜在的政治社会风险时应以总体国家安全观为指导,坚持统筹安全与发展的思路,在全面维护国家安全与社会稳定基础上,充分发挥新一代人工智能技术对社会进步与人类文明的促进作用。
(一)ChatGPT 的政治社会风险防范原则
1.鼓励发展原则
对待新技术应坚持鼓励发展的原则。 因为技术具有中立性,其产生的政治社会后果要么是技术拥有者或使用者引发的,要么是对技术及其使用监管不足所导致的。ChatGPT 作为新一代人工智能技术的产物,具有较强的创新性,我们对其应持鼓励与包容的态度。 虽然其存在诸多风险与挑战,但也具有良好的发展空间与广阔的应用场景,能够对经济社会生活产生促进作用。 因此,我们总体上应采取鼓励发展的态度来对待ChatGPT。
2.保障安全原则
在采纳及应用新兴技术时,应将安全作为首要标准。 中国需要且始终强调科技发展,因此更应牢牢掌握关键战略技术,避免核心技术“卡脖子”的风险。 同时,人类对新技术的过度依赖会加剧新一代人工智能技术的脆弱性与不稳定性。 如前文所述,ChatGPT 有可能给政治社会带来诸多风险,因此坚持保障安全的原则是非常重要的,这契合了党的二十大报告强调的“统筹发展与安全”的理念。
3.技术规制原则
ChatGPT 是一个建立在数字技术之上的智能交互模型,其本身并无善恶属性,如果使用得当,能够很好地被用于规制其可能引发的政治社会风险。ChatGPT 具有很高的类人性与拟人性特质,能够实现与人的智能交互,在很多场景可以成为人类的得力助手与辅助工具,也可以被用来协助人类对各类风险进行防范与治理,从而实现用算法治理算法、用技术规制技术的效果。 因此,在防范ChatGPT 的政治社会风险方面,包括ChatGPT 在内的很多技术都可以被加以应用,成为防范风险的有力武器。
4.协同监管原则
ChatGPT 是一个人机交互的数字场域,能够应用到社会的方方面面,因此势必会涉及到技术研发机构、场景应用主体、政府、公众等多方利益相关者。 监管虽然被广泛认为是政府的一种核心职能,但非政府机构也在尝试参与到监管活动中[10]。 在对ChatGPT 的政治社会风险进行防范时,需要开展多主体、多机构、多工具、多环节的合作监管,打造多领域、多主体共同参与的协同监管机制。 无论是立法单位、司法单位、执法单位,还是各类应用活动参与主体、行业协会乃至个体使用者,都可以投入到风险防范过程中,依托多方参与、协同监管来净化ChatGPT 的发展环境。
(二)ChatGPT 的政治社会风险防范方式
1.坚持发展与安全并重理念,构建ChatGPT 发展安全生态
以统筹发展与安全的理念推进ChatGPT 发展所需的安全生态建设。 统筹发展与安全既是方法论也是实践论,不论是国家“十四五规划”还是党的二十大报告对此都有明确的论断。 要将安全发展贯穿到国家发展的各领域与全过程,ChatGPT 的发展及其在各领域的应用同样不能例外。
第一,坚持包容审慎原则,加强总体国家安全观的指引。 要清晰正确地理解ChatGPT,接受新技术的到来,理性面对新技术带来的机遇与挑战,勇于迎接并鼓励其有序发展与科学应用,并给予一定的试错空间与容错机会。 对于ChatGPT 这一新事物不能只紧盯其风险与威胁,更要看到其机会与优势,不能盲目加以否定与遏制。 同时,更要以总体国家安全观作为宏观层面的指引思想,对其采取包容审慎的态度,尤其是在防范与治理ChatGPT 可能引发的政治社会风险时,要在风险可控的范围内出台鼓励政策,同时在其发展过程中适时适度地进行监管与治理。
第二,夯实核心技术与基础设施的安全,提升ChatGPT 安全体系的保障能力。 聚焦新技术发展进度,结合中国核心技术实情与现状,加大在算法安全、数据安全、模型安全、程序安全等方面的核心技术研发,尤其注重开发自主可控的新一代人工智能技术,推动国家科研投入、企业技术攻关对新一代人工智能核心技术的覆盖,加大我国ChatGPT 类产品的研发,建立健全技术安全标准体系。 重点关注我国在新一代人工智能关键基础产业与设施方面的建设,强化基础产业与设施的建设主体责任,尤其需要加强对数据中心、超算中心、智能计算机中心等基础设备以及涉及到的芯片、集成电路等基础产业的保护力度,全面提升此类技术基础设施的安全保障能力。
第三,推进数据安全保护与合理使用,有效提升ChatGPT 安全体系的数据能力。对于新一代人工智能技术而言,关键要素是数据。 ChatGPT 无论是技术研发基础、预训练及信息源,还是其数字内容生产,都与数据息息相关。 因此,要加快制定符合我国对新一代人工智能要求的数据保护规则,注重对ChatGPT 类产品在个人数据、用户隐私、商业数据的抓取、加工及生成方面的全过程监管,建立数据共享机制,实现数据保护与数据使用的平衡。
2.坚持积极引导与有效治理并进,推进构建ChatGPT 协同监管体系
ChatGPT 出现仅有短短几个月,作为新兴事物其自身仍在不断调试与校验过程中,应用场景也在尝试推进状态。 因此,ChatGPT 的发展与应用仍充满不确定性,甚至存在一定的不可控性,加强引导与治理成为促进其健康有序发展的必然要求。
第一,积极引导ChatGPT 健康发展,放大新技术的有利一面。 加快研发中文版ChatGPT 式产品,推进新一代人工智能技术在中文市场的应用。 同时,要加快制定数据抓取、加工与使用、大模型设计、算法应用等方面的规范性指引文件,引导与规范参与主体及技术企业的行为,通过科技向善理念推动新技术与新产品的规范使用。
第二,积极探索构建多方参与、多元协同、多措并举的监管体系。 立足中国实情,在总体国家安全观指导下,探索构建以政府为核心、多方参与的监管模式,以ChatGPT 全业务链为切入视角探索多元协同监管机制,建立技术、法律、文化等维度多措并举的监管范式。 建立健全国家层面的顶层治理框架,引入跨部门、跨地区、跨环节的协同治理机制,实施与新一代人工智能技术良性发展相匹配的中国治理模式。
第三,强化ChatGPT 参与主体的自我约束,推进行业自律建设。 通过普识教育、普法教育等方式,加强我国社会公众、行业从业人员、政府监管部门对ChatGPT 的认知,尤其注重在个人信息保护、相关风险识别等方面的教育宣传,强化公众和其他参与主体的风险抵御能力。 鼓励相关行业学会、协会、联盟等制定行业规范与公约,明确参与主体的责任与义务,加强各成员对ChatGPT 的使用规范建设。发挥非正式组织、行业协会及跨行业联盟的监督作用,提升参与主体的合规使用意识。
3.坚持技术规制与立法保护并举,净化Chat-GPT 风险防范环境
从净化ChatGPT 风险防范与治理的环境层面看,要用系统性思维来打造监管生态,为其安全应用筑起牢固的保障体系。 应重点围绕技术规制与法律规制,发挥出技术治理的激励效能与法律规制的保障效能,构建系统的ChatGPT 风险防范体系。
第一,采用技术治理风险的方式,发挥技术在ChatGPT 风险防护中的赋能作用。 ChatGPT 本身并无善恶属性,同样可以用来防范风险、辅助监管。面对人工智能的数字生成内容及其活动,可以采用AI技术规制,如针对不同语言模式的技术特点提前进行技术布局,并不断迭代升级人工智能内容监测系统。 新一代人工智能研发企业可以针对性地开发AI 甄别工具,通过嵌入相应的算法、程序或代码,在捕捉、录入网络资料及生成数字内容时,标记并报告可疑的伪造虚假信息,监测经过篡改的人工合成内容。 此外,还可以依靠技术社群与用户资源,以技术手段来实施“众包治理”的规则,将其贯通到新一代人工智能全产业链条,以众包的思路不断探索深度合成技术的甄别治理工作。
第二,加快推进行业技术标准建设,为技术赋能风险治理输入执行规范。 通过政府引导,鼓励企业、科研院所、第三方独立机构积极开展新一代人工智能相关标准研制工作,打通政企产学研合作瓶颈,尽快出台ChatGPT 领域的地区标准、团体标准、行业标准乃至国家标准,建立健全人工智能行业技术标准体系,为ChatGPT 产业发展提供标准支撑。同时,还要积极开展国际交流合作,努力实现国内标准向国际标准的转化,为全球ChatGPT 行业规制输出中国样本与中国标准。
第三,加快人工智能立法及配套法律修订,为ChatGPT 治理提供法律支撑。 要清晰地认识到中国在人工智能领域的法律缺位现状,对比借鉴美国的《人工智能权利法案蓝图》与欧盟的《欧盟人工智能法案》,结合中国国情与现实条件,从国家层面尽快启动人工智能立法程序,加快推进人工智能立法专项研究,围绕数据权属、数据价值、数据交易等数据要素的基础性法律进行定向突破。 统筹规划有关人工智能的法律、行政法规、部门规章、技术标准、行业标准等,尽快形成匹配中国国情的人工智能法律体系。