APP下载

ChatGPT 潜在军事应用及风险分析

2023-05-09党亚娟

国防科技工业 2023年3期
关键词:人工智能文本信息

党亚娟 /文

2022 年11 月30 日,OpenAI开放ChatGPT 测试。两个月后,ChatGPT 用户数量达1亿,仅2023 年1 月份的访问量就约5.9亿。这是互联网领域发展20 年来,增长速度最快的消费类应用程序。2023 年2 月,美国人工智能研究实验室OpenAI 推出ChatGPT Plus 试点订阅计划,订阅者可获得比免费版本更稳定、更快的服务,以及尝试新功能和优化的优先权。

ChatGPT 基本情况

ChatGPT 是一款由人工智能技术驱动的新型自然语言处理工具,基于GPT-3.5 架构的大型神经网络语言模型,通过大规模的、海量的文本数据训练,对其不断地监督学习、人工纠错、强化学习、进行对话模拟,使其拥有强大的自然语言处理能力,生成近乎于人类语言的大型语言模型。

演化历程

GPT 性能比较表

2018 年,OpenAI 实验室推出基于多层变换器(Transformer)神经网络的GPT-1 模型。该模型具有1.17 亿个参数,在问答、文本相似性评估、语义蕴含判定以及文本分类四种语言场景中取得了比基础Transformer 模型更优的结果。2019 年,OpenAI 公布了具有15 亿个参数的GPT-2 模型。该模型具有人工智能生成式方面潜力,如可故事续写、生成假新闻、钓鱼邮件等。2020 年,OpenAI 发展了具有1750 亿个参数的GPT-3模型,通过利用更多数据训练,使其具有更多样化的知识库、执行更广泛任务的能力。2022 年,OpenAI 利用公测期间的大量数据集对GPT-3 模型进行微调,并将人类反馈纳入训练过程,以使模型型输出结果与用户意图保持一致,以此推出了ChatGPT 模型。

ChatGPT 可能带来的军事影响

当前,ChatGPT 在教育、娱乐、新闻、制造、科技和艺术等行业引起极大关注。美国国防部于2023 年2 月称,其在国防视觉信息分发服务网(DVIDS)发布了一则由ChatGPT 撰写的关于美陆军成立第39 任务部队的新闻报道。虽然ChatGPT 本身并不是军事系统,但是其可为部队提供跨域军事行动能力,改善战场分析,帮助军事人员做出更明智、更有效的决策。

未来可能军事应用场景

类似ChatGPT 的能力可能在如下军用场景中应用:

通信领域。基于ChatGPT 的人工智能技术可为战场人员提供实时翻译服务,保证不同国籍的士兵能够无缝通信。在GPS 干扰和拒止环境中,ChatGPT 可以帮助作战人员在没有传统通信系统的情况下进行有效的通信和协调。例如,它可以为部队提供敌我双方最新状态,促进不同部队间实时通信。

情监侦领域。ChatGPT 系统可以分析多型传感器和来源的输入数据,提供全面和最新的作战环境图,将其集成至军用车辆、无人机和其他系统中,便可为其实时提供改进的态势感知和决策支持服务。在战术级行动中,ChatGPT 可为军事决策者提供敌人位置、活动情况以及盟军实时信息。

指挥控制领域。在恶劣的作战环境下,基于ChatGPT 的人工智能技术可以分析大量多源数据,提供快速、准确的威胁评估,帮助指挥人员做出正确决策。同时,ChatGPT 通过为作战人员提供实时情报和指导,协助其进行作战任务规划和遂行任务。例如,它可以帮助军队识别和避免潜在的危险,并推荐替代路线和策略。

后勤保障领域。ChatGPT 可以通过分析运输路线、供应链和其他相关的信息来协助后勤管理,以识别低率行动、优化资源配置。

战场部署要求

在军事行动中部署ChatGPT能大幅提升跨多个作战域的军事行动能力,尤其是将其部署至战术边缘计算机上,将会在多域环境中发挥重要作用,可为士兵提供实时信息和决策支持工具,能有效协调多个作战域的活动。

在恶劣的作战环境中快速部署人工智能需要专门的硬件。ChatGPT 模型的训练和部署需要能够处理大量数据和复杂算法的强大计算平台。运行配置是8 个英伟达A100 80GB GPU,这种模型计算量很大,不适用于战术边缘应用程序。为此,在战场中部署ChatGPT 需要经过定制模型,以便在大型计算服务器上开展训练,并使用嵌入式AI 技术将其部署在具有特定任务参数的加固型战术边缘系统上。

ChatGPT 可能带来的安全风险

OpenAI 使用人类反馈强化学习(RLHF)的训练方法优化ChatGPT 模型,以实现最小化无益、失真或偏见的输出,使其通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,真正像人类一样聊天交流,甚至能完成撰写邮件、视频脚本、文案、翻译、代码等任务。但在其应用过程中,也面临着网络安全、数据安全以及偏见等诸多安全问题。

网络安全风险

与其他基于语言模型的人工智能工具一样,ChatGPT 的应用也带来了诸多网络安全风险。黑客或其他恶意行为者可利用ChatGPT 自然语言编写的能力,开展一系列网络攻击行为,如生成恶意软件、钓鱼电子邮件、进行撞库攻击等。以往威胁实施者的知识水平限制了其对网络安全威胁的程度,但是现在借助ChatGPT 可更快、更容易发起网络攻击,大大降低网络攻击的成本和门槛,甚至新手都进行网络攻击。ChatGPT 可造成的典型网络安全问题如下:

一是实施钓鱼式社会工程攻击。通过利用来自社交媒体或其他来源的大量文本数据进行模型训练,攻击者可以根据每个目标任务特点,有针对性地生成钓鱼软件,大幅降低伪造的人工成本,同时最大程度上提高了成功率。

二是实施撞库攻击。目前,大量用户喜欢在不同网站使用同一个用户名和密码。利用这一习惯,网络攻击者可以使用ChatGPT 对在线账户进行潜在用户名和密码的组合式自动攻击,以实现非法获取若干不同网站的账号密码信息。

三是生成恶意软件。利用ChatGPT 自然语言编写的能力,攻击者可以编写恶意软件说明和指令,从而规避病毒软件的检测。当前,已经有人开始使用ChatGPT开发恶意软件。相比传统软件开发工具,以代码为中心的ChatGPT类工具可以显著缩短恶意软件开发流程和生命周期。

数据安全风险

ChatGPT 大型语言模型是在TB 级别的海量互联网文本数据上开展训练,并生成相应文本信息。这一过程涉及对个人信息、密码等敏感数据的收集和处理,以及生成信息的利用问题,使ChatGPT 面临数据安全合规的问题。

一是泄露敏感数据。用户在使用ChatGPT 过程中,被收集的个人数据用于ChatGPT 不断的训练和模型优化,这就可能导致个人敏感数据的泄露。亚马逊公司律师、微软首席技术官办公室都曾警告员工不要在ChatGPT 上分享敏感数据,尤其是与工作相关的敏感信息。

二是生成虚假信息。恶意行为者可以使用ChatGPT 在社交媒体或论坛上生成数千条自动消息,以传播虚假信息,影响公众舆论或破坏政治活动。

三是盗用身份信息。恶意行为者可以使用ChatGPT 收集用户敏感信息、实施身份盗用等,创建虚假社交媒体资料或聊天机器人帐户,以冒充真实的人或组织诱骗受害提供个人信息,如登录凭据或信用卡号。

偏见问题

人工智能系统需要对政治、种族和性别保持中立。ChatGPT 基于大型语言模型构建和庞大数据集开展训练,但是开发人员很难从训练数据中剔除所有偏差数据,这使得模型会受到人类信息的不准确和偏见影响。OpenAI 利用审核应用程序接口开展对话监控,防止大量生产不安全的内容,以努力减少系统中的偏见问题,并允许用户报告所发生的不当交互和错误。同时,在某些特殊情况下,OpenAI 也会提供诸如“不要完成非法内容的请求”“避免在有争议的话题中站队”的输出指导。例如ChatGPT拒绝以《纽约邮报》的风格撰写关于亨特·拜登的新闻。但是在实际的使用中,ChatGPT 还是出现了种族主义和性偏见问题,这在社交媒体上引起广泛争议。例如,当ChatGPT 被要求根据某人的性别和种族评估某人是否会成为一名优秀的科学家时,ChatGPT 只推荐白人男性。

几点认识

一是ChatGPT 底层自然语言处理模型和技术改变了现有自然语言处理的格局。在GPT 之前,大型自然语言处理模型都是根据特定任务基于大量标记数据开展数据训练,受限于准确的标记数据,同时模型也无法执行开箱即用的任务。而GPT 模型是根据庞大的互联网和内容存储库中收集的未标记数据构建生成语言模型,并与人类反馈强化学习微调相结合,使其具备快速响应时间和高准确性。在实际应用中,ChatGPT 能够生成一段既有创意又适合其上下文的新文本,以响应用户不同难度的需求。

二是美军开始关注ChatGPT类生成人工智能技术的军事影响。虽然ChatGPT 本身不是一个军事系统,但生成人工智能技术飞速发展蕴含着巨大的军事应用潜能。作为改善战场分析和预测性维护需求等应用的手段,美军在人工智能和相关技术上的投入越来越多。美国信息系统局已宣布将ChatGPT 类生成人工智能技术列入观察清单。该清单一直会定期更新,而清单中的关键技术都可能转变为美军未来作战的基础能力,如5G、边缘计算、量子技术等技术已在军用场景中发挥作用。同时,美国信息系统局也开始研究ChatGPT 类生成人工智能技术如何改变该部门使命任务,如何影响部门未来行动。

三是合理规范并引导ChatGPT 相关技术的发展。在ChatGPT 风靡全球后,世界各大搜索引擎巨头们也都相继推出类似系统。Google 宣布推出类似ChatGPT 的对话人工智能服务——Bard。Bard 基于LaMDA对话编程语言模型,根据从网络上收集的信息,对提出的问题生成文本答复,未来将融入Google搜索引擎。百度公司也推出类ChatGPT 聊天机器人——文心一言,计划3 月完成内测,面向公众开放。面对这种热潮,我们应注意到此类人工智能技术为社会带来的挑战与威胁。各国应出台相关法律法规,合理规范并引导相关技术的发展,使相关技术的发展始终维持在有益于人类的轨道上,能够确保人们正确认识并处理好智能化武器与伦理偏见的关系。

猜你喜欢

人工智能文本信息
在808DA上文本显示的改善
2019:人工智能
基于doc2vec和TF-IDF的相似文本识别
人工智能与就业
数读人工智能
订阅信息
下一幕,人工智能!
文本之中·文本之外·文本之上——童话故事《坐井观天》的教学隐喻
展会信息
如何快速走进文本