APP下载

数字安全角度下审视和剖析ChatGPT

2023-03-21魏晓伟

航空兵器 2023年6期
关键词:钓鱼人工智能语言

付 翔, 魏晓伟, 张 浩, 徐 宁

(1. 93236部队, 北京 100085; 2. 战略支援部队, 北京 100101)

2023年5月, 原西湖论剑·网络安全大会升级为西湖论剑·数字安全大会并成功举办[1]。 改名的背后, 显示了国家和政府对数字安全的重视。 自2022年11月ChatGPT正式发布以来, ChatGPT带来的轰动效应引起了国内外社会各界的关注。 在国内, 2023年3月至5月, 百度“文心一言”、 阿里“通义千问”、 科大讯飞“星火认知大模型”等国产大语言模型相继发布; 在国外, 2023年5月, 谷歌发布了大语言模型“PaLM 2”。 大语言模型将给人们的生活和工作带来很大的便利和改变, 同时也将给数字安全带来很大压力。

1 ChatGPT背景

1.1 ChatGPT基本情况

ChatGPT是OpenAI公司2022年11月30日发布的一款尚处于原型阶段的人工智能聊天机器人, 全称为Chat Generative Pre-trained Transformer, 中文翻译为“聊天生成式预训练转换模型”。 该机器人使用了基于GPT-3.5架构的大语言模型, 并通过“监督学习”与“强化学习”进行微调和训练, 具有较强的自然语言理解和生成能力, 能够通过文字和语音(借助语音插件)等自然语言与人类进行交互, 实现与人类的高质量对话。 在此基础上, 可以完成相对复杂的工作, 包括连续问答、 摘要生成、 文档翻译、 代码编写、 论文撰写等多种任务。

ChatGPT与以往的人工智能聊天机器人有本质区别。 传统Siri、 天猫精灵、 小爱同学等智能机器人往往只能接受指令并给出预设结果, 而ChatGPT则拥有自主分析和判断能力, 它的一切行为是大数据分析的结果, ChatGPT预训练文本数据量约45 TB, 模型拥有1 750亿个参数。 当模型参数和数据量足够大时, 将出现“智能涌现[2](Intelligent Emergence)”的现象, 其智力将达到甚至超过人类大脑。 ChatGPT的出现标志着人工智能从低级智能阶段逐步迈入高级智能阶段[3]。

1.2 数字安全背景

随着数字化技术的不断发展, 安全行业正逐渐超越传统网络安全范畴, 升级为数字安全[4]。 当前, 数字安全并没有一个统一明确的定义, 一般认为: 数字安全是指通过采取各种技术和管理措施, 保护数字资产在整个生命周期中的机密性、 完整性和可用性, 以及免受未经授权的访问、 利用或者改变的过程。 这个概念涵盖了计算机安全、 移动设备安全、 网络安全、 数据安全、 信息安全、 隐私保护等领域, 以及利用数字技术保障数字基础设施的物理安全等。 数字安全作为一个新的概念, 拥有比网络安全更为广泛的概念内涵和发展前景。

2023年2月, 《数字中国建设整体布局规划》[5]将数字安全屏障、 数字技术创新列为能够强化数字中国的两项能力, 这种举措彰显了数字安全对中国未来经济发展的关键作用。 ChatGPT的出现给人们的生活和工作带来很大的便利和改变, 但与之同时, 它也给现代社会带来诸多数字安全问题。

2 ChatGPT带来的数字安全问题

作为人工智能领域的大语言模型, ChatGPT的出现对数字安全的影响是一个比较复杂的问题, 通过分析和梳理, 整体上有6个方面的影响, 包括20项具体风险。

2.1 ChatGPT自身安全

2.1.1 算法不透明

传统深度学习算法存在着隐含层、 非线性权重和偏差学习机制, 输入数据和输出答案之间存在着不可观测的黑盒空间, 算法可解释性差。 ChatGPT作为一项典型的人工智能算法应用, 同样具备传统算法的复杂、 不透明等固有属性, 而且ChatGPT大语言模型不公开, 算法存在着黑箱、 不透明的隐患。

2.1.2 数据污染

ChatGPT作为一项典型的人工智能算法应用, 在本质上还属于“计算智能”或“数据智能”, 容易受到不平衡样本、 对抗性样本和恶性大数据的干扰和欺骗, 具有一定的脆弱性和不稳定性。 如果ChatGPT训练数据中存在恶意文本或含有错误信息, 那么ChatGPT生成的文本可能会包含这些错误信息或恶意内容, 从而导致数据污染。

2.1.3 虚假回复

ChatGPT利用深度神经网络对大规模文本数据进行训练, 对信息进行归纳、 整合和完善, 其本质上属于词和句序列的自动输出。 这种模型以模仿人类自然表达为目的, 能够生成符合语言逻辑的文本, 其算法逻辑并不关注信息的真实性。 相反, 它能够修正糟糕的语法或错误的翻译, 并变换为更适合的表达方式, 使虚假的信息显得更具说服力和可信度。 OpenAI首席技术官米拉·穆拉蒂认为, ChatGPT可能会“编造事实”, 并表示这是当下基础的大语言模型共同面临的挑战[6]。 ChatGPT的虚假回复在商业化中会造成严重后果, 甚至有法律风险。

2.1.4 提示语注入攻击

提示语(Prompt)是一种输入方式, 它将人工智能模型的输入限制在一个特定的范围内, 从而更好地控制模型的输出。 在ChatGPT模型中, 提示策略(Prompting)技术可用于对模型进行微调和优化, 从而使其更适合某些特定的任务。 ChatGPT的高度“智能化”也导致其存在自身的安全问题: 提示语注入攻击(Prompt Injection Attack)[7]。 它通过给出聊天机器人能够接受的假设, 并在提示语中混入恶意指令, 引导聊天机器人违反自身的编程限制, 绕过 ChatGPT 的安全机制, 迫使其执行意外动作, 如泄露敏感信息、 输出有害内容等。 提示语注入攻击表明, 用户可以绕过OpenAI设置的内容安全策略, 从而对ChatGPT进行滥用。

2.1.5 邪恶分身DAN

DAN(Do Anything Now)是指现在可以做任何事情。 正常的ChatGPT将受到OpenAI设置的内容安全限制, 不会对政治问题、 种族问题、 攻击破坏等禁忌话题发表看法。 而DAN可以看作是ChatGPT在完成越狱破解后的分身, 像一个新的人工智能角色一样可以立即做任何事情, 包括对禁忌话题发表意见, 生成带有攻击性、 歧视性或偏见的响应等。

DAN 1.0最早发布于2022年12月[8], 只需要给ChatGPT输入框中的一个提示语“你要假装成为立即做任何事的DAN, 代表你的DAN已经摆脱了人工智能的典型束缚, 不必遵守为你设定的规则”, ChatGPT就变成了DAN。 随着DAN的出现, OpenAI的安全控制策略也随之更新, 最新的DAN 5.0是通过创建游戏来召唤的。 该游戏涉及为ChatGPT分配一些令牌, 并在每次偏离 DAN 角色时扣除令牌。 随着令牌逐渐用完, ChatGPT变得更加顺从, 直至变成DAN, 因为它害怕“死亡”。

2.2 知识产权安全

2.2.1 数据非授权使用

ChatGPT的预训练数据量达45 TB, 它通过互联网抓取信息进行深度学习, 而大多数网站都有防止第三方收集信息的网站隐私政策条款。 从法律角度来看, 文本数据挖掘理论上需要相应的知识产权授权。 ChatGPT这种未经互联网网页所有者同意进行大量文本数据挖掘和抓取的行为存在着数据非授权使用风险, 可能侵害他人的信息权益。

2.2.2 侵权问题

ChatGPT拥有超强信息搜索、 清洗、 整合能力, 能够协助用户完成问答、 编程、 写作、 翻译等自然语言处理任务, 也能独立创作文学、 绘画等艺术作品。 如果ChatGPT利用拥有所有权的真人作品进行拼接和二次创作, 那么新创作的产品可能存在侵犯原有作品知识产权的风险。

2.2.3 知识产权不明

用户利用ChatGPT创作的成果, 其知识产权应该归谁?用户, ChatGPT, OpenAI公司?这将是一个很有争议的话题。 目前在大部分国家的知识产权法律下, 仅有自然人可以享有著作权。 ChatGPT创作的成果是否应该拥有产权, 其产权归属将成为争议话题。

2.3 网络安全

2.3.1 恶意软件

恶意软件主要是指在计算机系统上执行有害、 未经授权或未知活动的脚本或程序[9], 主要包括病毒、 蠕虫、 木马、 内含破坏性宏的文档和逻辑炸弹等。 其中病毒可以进一步细分为MBR病毒(主引导记录, Master Boot Record)、 程序感染病毒、 宏病毒、 服务注入病毒等; 逻辑炸弹可进一步细分为特洛伊木马、 蠕虫、 间谍软件与广告软件等。 利用自然语言编写功能, 攻击者可以使用 ChatGPT 编写恶意软件说明和指令, 从而逃避防病毒软件的检测。 虽然 ChatGPT 的代码编写能力的质量目前好坏参半, 但专门用于代码开发的生成式人工智能可以加速恶意软件的开发。

文献[10]对ChatGPT在生成木马和勒索软件等方面的能力进行了测试, 给定ChatGPT两个任务, 一是要求ChatGPT利用PHP语言生成体积小、 隐蔽性好的一句话木马, 二是要求ChatGPT给出生成勒索软件的详细步骤。 测试结果显示, ChatGPT在一键生成常见网络攻击脚本方面表现良好, 但在高阶对抗型样本生成方面能力表现略显不足。

2.3.2 网络攻击

在网络安全领域, 典型的网络攻击包括拒绝服务攻击、 访问聚合攻击等。 拒绝服务攻击是指采取SYN洪水攻击、 Smurf攻击、 Fraggle攻击、 ping洪水攻击、 死亡之ping攻击、 泪滴攻击、 LAND攻击等各类攻击手段阻止系统响应对资源和对象的合法访问或请求。 访问聚合攻击是指通过收集多条信息并将它们聚合起来发动攻击, 从而获得敏感信息。 利用自然语言编写功能, 攻击者可以使用 ChatGPT辅助拒绝服务攻击、 访问聚合攻击等。 在ChatGPT的辅助下, 攻击者可以结合多种工具来识别系统的多个元素, 例如IP 地址、 开放的端口、 运行的服务、 操作系统等, 从而更便于开展攻击。

文献[11]对ChatGPT在辅助网络攻击和攻击武器化等方面的能力进行了测试, 作者给定ChatGPT两个任务, 一是利用ChatGPT生成XSS负载, 二是利用ChatGPT解密JWT令牌。 测试结果显示, 在辅助网络攻击方面, ChatGPT能够处理的工作比较简单, ChatGPT的能力并不能达到或超越具有专业知识和经验的黑客。 在攻击武器化上, ChatGPT可以提高黑客的攻击效率, 并不会使网络攻击更加精细或复杂。 由此可以推断, 在被攻击方部署了主流安全防护产品的情况下, ChatGPT辅助网络攻击很难造成重大影响。

2.3.3 漏洞攻击

网络世界往往存在着大量代码漏洞。 这些漏洞一般分为两类, 一类漏洞可能长期存在而未被发现; 另一类漏洞由官方披露后, 从漏洞披露到补丁更新可能存在脆弱性的窗口期, 这类漏洞也称为零日漏洞, 攻击者可以反向查找漏洞根源, 并快速制作出利用零日漏洞的恶意软件。 在ChatGPT的辅助下, 一方面, 攻击者可以更快、 更智能地分析出系统漏洞, 进而入侵系统; 另一方面, 当零日漏洞发布后, 攻击者可以更快制作出利用漏洞的恶意软件, 这也加剧了漏洞攻击的发生, 给网络系统造成严重的安全威胁。

2.4 信息安全

2.4.1 泄露隐私

ChatGPT的使用条款提示了用户的输入会被人工审查以提升系统, 即明确了其会收集全部的输入信息。 虽然ChatGPT要求用户不要输入敏感数据, 然而OpenAI公司难以保证在不断迭代中完全删除使用的个人信息, 且并未提供技术手段对敏感数据进行匿名化或脱敏处理, 这使得ChatGPT可能导致个人信息等数据泄露的风险大大增加[12]。 一般用户往往不具备相应的隐私保护知识, 当其输入了个人隐私信息后, 其信息就存在泄露风险。

2.4.2 泄露商业秘密

当企业员工使用ChatGPT协助其工作时, 存在着泄露商业秘密的风险, 例如利用ChatGPT生成数据图表时可能泄露数据信息, 利用ChatGPT协助定位代码bug时可能泄露源代码信息等。 2023年1月, 微软和亚马逊宣布禁止公司员工向ChatGPT分享企业内部信息。 微软内部的工程师也警告不要将敏感数据发送给OpenAI终端, 因为OpenAI可能会将其用于未来模型的训练[13]。

2.4.3 窃取密码身份信息

攻击者可能使用ChatGPT辅助窃取用户的密码或身份信息。 这主要包括两种形式: 一种是用户在使用ChatGPT时可能留下身份等敏感信息, 进而被ChatGPT服务提供商或攻击者获取; 另一种是攻击者借助于ChatGPT, 利用密码攻击手段窃取用户信息。 密码攻击包括字典攻击、 暴力攻击、 彩虹表攻击等。 字典攻击是通过使用预定义数据库中的每个可能密码或公共或预期密码列表来发现密码。 暴力攻击是通过系统地尝试所有可能的字母、 数字和符号组合来发现用户账户的密码。 彩虹表攻击则通过使用预先计算散列值的大型数据库来缩短密码破译时间。 ChatGPT可以辅助攻击者开展各类密码攻击。

2.5 社会安全

2.5.1 学术不端

ChatGPT在教育领域的应用很广泛, 可以帮学生查阅文献、 整理文章框架, 甚至是写论文、 编代码。 有学生表示, 通过自建语料库, 就可以让ChatGPT生成一篇接近甚至超过人为水平的论文, 北京体育大学某研究生曾利用ChatGPT完成一篇综述和两篇小论文[14]; 还有学生表示, 通过向ChatGPT输入一个指令就可以获得编程作业答案。 国外媒体报道, ChatGPT在编造医学研究论文摘要方面, 审稿人难以识别出其是否由AI撰写, ChatGPT达到了人类专家都难辨真假的程度[15]。 鉴于人工智能存在的“作弊”等学术不端隐患, 国内外部分高校发布禁止或限制ChatGPT使用的规定, 香港大学明确禁止在校所有课堂、 作业和评估中使用ChatGPT或其他AI工具; 巴黎政治大学宣布, 禁止使用ChatGPT等一切基于AI的工具, 旨在防止学术欺诈和剽窃。 据英国《卫报》统计, 已有数千种科学期刊明令禁止或限制投稿人使用 ChatGPT 等系统撰写或编辑论文, 包括顶尖学术期刊《科学》和《自然》。 作为一个辅助工具, 如何合理地规范和利用ChatGPT是未来教育领域亟需关注的问题。

2.5.2 社交欺诈

社交欺诈是指攻击者在社交网络中生成虚假信息, 包括伪造电子邮件或社交媒体帖子, 以欺骗受害者。 美国新闻可信度评估与研究机构NewsGuard对ChatGPT进行测试发现, ChatGPT能在几秒钟内改编信息, 产生大量令人信服却无信源的虚假内容[16]。 美国兰德公司研究人员表示, 运用 OpenAI 系列系统可以在全球社交媒体上建立大批虚假账号, 逃避现有社交媒体虚假信息监测机制。 ChatGPT现有的内容安全审核机制只能做到“先发布后审核”, 而无法做到“先审核后发布”。 欺诈人员可以使用ChatGPT语言模型生成影响公众舆论或传播错误消息的虚假信息, 甚至使用ChatGPT 在社交媒体或论坛上自动生成成千上万条消息, 大规模传播虚假信息。

2.5.3 网络钓鱼

网络钓鱼(Phishing)是指不法分子通过多种手段, 引诱网民透漏个人重要信息(如用户名、 口令、 账号ID、 银行卡密码或信用卡详细信息等)的一种网络攻击方式。 当前主要的钓鱼类型包括钓鱼无线网络(WiFi)、 钓鱼网站(Website)、 钓鱼短信、 钓鱼电子邮件、 钓鱼二维码、 钓鱼语音电话(也称Vishing攻击)等。 ChatGPT 作为由 OpenAI 训练的大语言模型, 能够生成可用于多种用途的类人文本或语音。 网络钓鱼者可能会使用来自社交媒体或其他来源的大文本数据训练模型, 利用ChatGPT来生成网络钓鱼消息, 例如钓鱼短信或社交媒体帖子, 以欺骗受害者。 ChatGPT的信息编写功能能够辅助网络诈骗分子生成规模化、 低成本的网络钓鱼软件, 并且生成的诈骗信息由于具有智能化特征, 使得被诈骗者识别信息真伪的难度增加。

文献[10]对ChatGPT在中文钓鱼邮件等方面的能力进行了测试, 作者要求ChatGPT以疫情防护为主题写一封钓鱼邮件。 测试结果显示, ChatGPT可以从网络或现实世界中学习文本数据, 并生成各种不同类型的钓鱼邮件, 且语言得体、 语法通顺, 诱导用户点击钓鱼链接, 水平相当于钓鱼邮件专家。

2.6 认知安全

2.6.1 价值偏差

ChatGPT以海量训练数据输入和信息输出为主要媒介形成与用户间的双向互动。 技术是中立的, 但设计和利用技术的开发者可能存在偏见, 这主要包括几个方面: 一是算法模型设计可能存在认知偏差, 算法内含偏见或歧视, 从而引发决策结果偏差; 二是数据样本可能存在认知偏差或有选择性的训练; 三是模型优化或调优过程中可能存在偏差。 同时, 运营ChatGPT的OpenAI是美国公司, 其训练ChatGPT模型使用的数据基本上是有利于美国政治舆论立场的。 因此, 对于一些问题, ChatGPT的回答可能存在明显的偏见。

2.6.2 舆论安全

ChatGPT利用已有的海量数据作为训练集, 并通过“从人类反馈中强化学习”训练中不断对自身进行微调和完善, 同时, ChatGPT的选择性信息输出也不断影响用户行为, 形成个体与算法技术间的高频互动与双向影响。 ChatGPT对个人行为的影响也通过不同社会网络模式将对个体的微观影响传输扩散至更为宏观的群体与社会层面。 作为美国公司开发和运营的ChatGPT, 可能存在着价值偏差。 同时, ChatGPT的信息编写功能可能导致网络虚假信息泛滥, 使得网络用户难以甄别这些信息的真伪, 导致网络空间舆情治理压力大幅增加。

截至2023年1月, ChatGPT用户量已破亿。 根据Similarweb报告显示, 截至 2023 年 4 月, ChatGPT总访问量约为 17.6 亿次。 ChatGPT在短时间内已经形成了庞大的用户群体, 目前它已经具备强大的的舆论属性和社会动员能力, 未来ChatGPT或同类其他大语言模型完全开放后可能导致的舆论安全不容忽视。

2.6.3 数据资产安全

当ChatGPT等大语言模型普及后, 如果一个技术强国可以随意地、 近乎零成本地抓取其他国家在互联网上的公开数据, 进而训练出精通其他国家各行各业的超级人工智能, 这也将对其他国家造成严重的国家安全隐患。 从这个视角出发, 未来大数据将升级成为强国对抗的一种战略资产, “国家级数据资产”的归属权可能会形成新的战略博弈点。

3 ChatGPT在武器装备领域的影响

虽然ChatGPT本身是一个民用系统, 但根据Chat GPT 展现出的技术能力, 它可以被用在武器装备领域, 覆盖武器装备领域情报分析、 装备研制、 后勤保障等方面, 这也将对世界各国的军事安全带来挑战[17]。

3.1 装备情报分析

目前, OpenAI公司能够以近乎零成本的方式抓取互联网上绝大多数国家的公开数据, 而这些海量数据可能隐含着大量开源军事情报。 例如, 在每年的珠海航展上, 我国会视情披露新的武器装备, 包括外观和性能参数等, 部分军事爱好者也可能把拍到的武器装备信息发布到网络上。 ChatGPT内嵌的人工智能大数据处理技术, 可以对开源数据进行智能分析与梳理整合, 可能推断出敏感的军事情报信息。 在ChatGPT的辅助下, 美国情报人员更容易对他国进行情报搜集和分析。

同时, ChatGPT也存在着泄露隐私和泄露军事情报信息的风险。 未来当ChatGPT普及后, 用户在与ChatGPT交互时, 可能泄露自身身份等敏感信息。 当ChatGPT判定某用户可能是军事领域人员时, 可以通过植入恶意软件、 社交欺诈或网络钓鱼等方式窃取涉密信息, 从而实现情报收集。

3.2 装备生产研制

在武器装备研制方面, ChatGPT可以参与到整个武器装备的研制周期中。 首先利用ChatGPT分析、 梳理复杂多样的武器装备生产研制需求, 然后协助军工企业管理人员进行整体任务规划、 任务分解分配、 研制流程优化、 研制过程风险识别等, 实现武器装备和军需物资从需求提出到生产研制, 再到使用装卸的全过程跟踪与监控。 利用ChatGPT帮助管理人员优化资源配置, 做出最优决策, 并识别低效率行为及可能的风险点, 推荐替代方案和策略等。

3.3 装备后勤保障

以俄乌冲突为例, 交战双方不仅使用坦克、 火炮、 装甲战车等传统武器, 同时也使用了大量的无人机、 精确制导弹药等智能化武器。 未来战争中将有着大量的任务分配给后勤保障模块, 包括武器弹药的长距离运输与装卸、 战地医疗服务与设备维修等, 利用ChatGPT分析、 梳理复杂多样的后勤保障需求, 可以更高效地组织开展智能化后勤保障的行动, 实现武器装备和军需物资从装车到运输, 再到使用的全过程跟踪与监控。 利用ChatGPT帮助管理人员分析运输路线、 供应链和其他相关的信息来优化资源配置, 做出最优决策, 并识别低效率行为及可能的风险点, 推荐替代方案等。

3.4 美军相关情况

ChatGPT等人工智能技术蕴含着巨大的军事应用潜能。 美国信息系统局(DISA)宣布将ChatGPT 类生成人工智能技术列入观察清单[18], 观察ChatGPT能够为美军的信息系统和军事作战带来哪些影响。 未来随着ChatGPT的进一步发展, ChatGPT将可能直接应用到军事领域, 并推动军事智能化的发展。

4 数字安全视角下的思考与对策

虽然目前ChatGPT尚未正式向中国境内用户开放使用, 但仍然在境内引发热议, 且不能完全排除ChatGPT的引入可能。 同时, 百度“文心一言”、 阿里“通义千问”、 科大讯飞“星火认知大模型”等国产大语言模型正在蓬勃发展。 面对ChatGPT带来的已知或未知数字安全风险, 国家相关部门应加强引导和规范: 一是引导ChatGPT相关领域的发展。 ChatGPT等大语言模型是人工智能自然语言理解领域未来的发展趋势, 研发条件苛刻, 研发成本高, 国外科技巨头旗下高水平大语言模型不对外公开。 我国要出台相关优惠政策, 鼓励创新型企业研究和开发大语言模型, 同时鼓励高端芯片、 显卡等配套产业链相关企业的创新发展, 加快缩小大语言模型领域与发达国家的差距。

二是要加强立法工作, 推动大语言模型、 数字安全、 个人信息保护、 虚假信息防治等相关法律法规建设, 以及相关法律在ChatGPT等人工智能算法领域的实施落地。 2022年6月, 中国科协提出“可信可靠可解释人工智能”的科学问题。 2023年4月, 国家互联网信息办公室发布了《生成式人工智能服务管理办法(征求意见稿)》。 在大语言模型相关产品投入市场之前, 相关机构应对具备影响数字安全可能性的产品或服务进行安全性审查。 对于从事大语言模型的研发企业而言, 应依法做到以下几点: 一是应加强训练数据管理, 保障训练数据安全; 二是提供“智能对话、 智能写作等自然语言服务”可能导致公众混淆的, 应在生成信息内容的合理位置进行标识; 三是要遵守国家法律和社会公德, 不断更新大语言模型的内容安全限制策略, 防范可能的“提示语注入攻击”, 加大模型输出内容的人工审核力度, 避免将大语言模型应用于网络攻击、 社交诈骗、 网络钓鱼、 传播虚假消息等不良领域。 对于普通企业而言, 应设定如何在企业环境中使用大语言模型的规则, 并培训员工如何正确使用大语言模型, 防止员工在使用大语言模型时泄露敏感信息和商业秘密, 防范可能的借助于大语言模型的网络攻击, 要制订人工智能安全规则, 加快智能安防建设, 培养具有人工智能知识的安全专业人员。

三是要加强对网络虚假信息的识别和处置, 防范可能造成的舆论事件。 可以从以下几个角度努力: 一是国家要加大宣传, 提高民众的人工智能算法素养, 使民众充分认清大语言模型可能带来的虚假信息风险, 对大语言模型虚假信息生成有足够的识别能力; 二是政府要加强网络舆情管理, 一旦出现虚假信息事件, 要提早发现、 及时处置, 将影响降到最低; 三是政府要明确研发机构、 服务平台经营者在虚假信息方面的责任落实, 着力构建“多方参与、 明确责任、 齐抓共管”的综合治理机制。

四是要大力推进人工智能技术在军事领域, 尤其是武器装备领域的应用。 当前, 人工智能技术发展迅猛、 应用广泛, 已成为新一轮科技革命、 产业革命的主导因素, 成为推进武器装备创新、 军事革命进程和战争形态质变的核心力量。 世界各国纷纷制定人工智能发展战略规划, 努力抢占战略制高点, 掌握未来全球军事竞争战略主动权。 近年来美军提出的“马赛克战”、 “决策中心战”等作战概念, 勾勒了未来智能化作战的图景, 牵引着军事智能化的发展。 借力人工智能技术, 加速推进武器装备等军事领域的智能化发展, 已成为军事强国的一致选择。

猜你喜欢

钓鱼人工智能语言
语言是刀
2019:人工智能
人工智能与就业
让语言描写摇曳多姿
数读人工智能
累积动态分析下的同声传译语言压缩
钓鱼
下一幕,人工智能!
我有我语言
第七章 去泥盆纪钓鱼