人工智能在计算机网络技术中的应用探究
——以基于人工智能的计算机网络芯片为例
2022-12-05李淼
李 淼
(重庆中烟工业有限责任公司黔江卷烟厂,重庆 409000)
0 引 言
人工智能与计算机网络技术结合是当下计算机网络技术发展的主要趋势。在计算机网络技术中应用人工智能,能够进一步完善计算机网络系统,丰富计算机功能,形成具有更多功能、更具智能化的产品或应用技术。在本文计算机智能芯片的研究探索过程中,工作人员根据实际情况确定芯片的研发需求,并将该需求有计划地融入人工智能,搭建循环神经网络,促使芯片具备智能化性能,从而满足计算机的多种应用需求,提升计算机系统运行性能,充分体现人工智能的应用优势。
1 人工智能在计算机网络技术中的应用优势
现如今,人工智能在计算机网络技术中的应用已经取得一定成效,在一定程度上推动了计算机网络技术的发展,促使计算机网络技术具备更丰富的功能与更强的适用性,为现代社会发展提供支持。在计算机网络技术上一个阶段的发展中,网络技术的普及与应用提升了人们的生活水平,但也存在一些问题,如计算机网络技术功能较少、处理速度较慢,限制了计算机网络技术的高性能发展。而人工智能自诞生以来,以智能化、高效化、便捷化优势融入计算机网络技术领域,其与计算机网络技术的融合促使计算机的数据处理能力得到极大提升,极大程度提高了计算机的安全防护等级、运行速率[1]。
人工智能在计算机网络技术中的应用优势具体可以体现在以下两个方面。第一,有助于提高计算机系统的信息处理能力。在大数据技术、网络技术广泛应用的过程中产生了大量非结构化数据,这类数据对传统信息处理模式提出了挑战,而传统信息处理模式的技术水平有限、思维模式单一,很难有效、及时地处理海量非结构化数据,数据处理难度日益增加。如何加强数据的处理能力是需要人们解决的重要问题。人工智能技术能够在计算机系统的功能基础上全面考量数据处理结构,及时发现数据处理过程中的问题,还能够采用人工智能算法、神经网络完善数据处理方式,优化数据处理流程,从而提高不同类型数据的处理速度与精准性。人工智能在计算机网络技术中应用之后,还可以简化计算机系统的处理流程,为数据处理、信息处理提供更优质的方案[2]。第二,能够提高计算机网络系统的安全性能。网络具有较强的虚拟性与开放性,无论是企业内网,还是工业网络,均无法完全消除网络安全风险,只能依靠各种技术手段控制风险,提高计算机网络系统的安全性能。人工智能本身具备神经网络、循环神经网络、专家库等优势,能够充分发挥自身优势,精准分析各项网络活动、数据资料、浏览轨迹中存在的风险隐患,实时监控网络运行情况,加强对网络漏洞、网络安全的控制,以更低的成本保证计算机网络运行安全。
2 基于人工智能的计算机网络芯片分析
2.1 芯片研发背景
嵌入式人工智能处理器是一种基于人工智能的计算机网络芯片,内部包含循环神经网络结构。近两年,技术人员对人工智能在计算机网络技术中的应用研究不再局限于软件系统层面,而是拓展到了硬件层面,如集成电路芯片。在研究的过程中逐步衍生出与人工智能有关的计算机芯片,传统的FPGA、ASIC 芯片是基于冯诺依曼架构的芯片,可以实现处理器与储存器的分布式布局,但是仍然没有将内部存储器与中央处理器(Central Processing Unit,CPU)集成起来,只是小容量地临时储存在CPU 上。
基于此种情况,技术人员在计算机网络芯片的研究过程中引入人工智能,根据人工智能的深度学习理论、神经网络结构设计芯片。技术人员根据CPU、图形处理器(Graphics Processing Unit,GPU)计算能力与效率需求,考虑其在人工智能方面的应用需求,设计特殊的算法,这样就能够获得更小体积、更大容量、更低功耗、更高性能的人工智能计算机网络芯片。
根据基于人工智能的计算机网络芯片的研究成果,目前的人工智能计算机网络芯片主要集中于图像识别、计算机视觉、安防监控等方面,缺乏在机器翻译、语音识别、智能化检测等方面的研发。因此,本次芯片研究中,技术人员致力于增强人工智能芯片的可编程能力,充分发挥神经网络优势,促使其可以通过下达指令集、神经元计算电路、输入输出系统与储存系统完成循环神经网络中对记忆神经网络的部署,进一步拓展人工智能在计算机网络技术中的应用广度与深度[3]。
2.2 技术支持
本文的人工智能计算机网络芯片得到的人工智能技术支持如下。
2.2.1 深度学习神经网络
深度学习是在人工智能神经网络基础上提出的概念,是指一种具备N 个隐藏层的多层感知学习结构,早在20 世纪90 年代就已经应用于计算机网络技术,但由于当时的技术水平有限,所得到的应用效果不是很理想。本次研究中,深度学习神经网络作为芯片的机器学习算法,遵循神经网络运行规律实现对人脑视听嗅、思考的模拟。在芯片设计与研究环节,以信息数据处理为导向,搭建神经网络模型,形成不同的神经回路结构,回路结构中的不同节点是用于连接信号、设定加权值权重的,也具备储存器的功能。这样设计之后,芯片内网络的输出会根据激活函数的变化而变化,呈现出人工智能的特点。
2.2.2 循环神经网络
循环神经网络是神经网络的拓展,既能够计算输出解耦股,也可以进行权重更新,且在纵向上可以存在多层神经网络。与传统神经网络不同的是,循环神经网络能够根据时间维度的变化构建模型,形成时间序列样本。本次芯片中的循环神经网络在简化之后由基本输入层、输出层、隐藏层构成,能够得到抽象的时间序列。
2.2.3 可重构芯片技术
在人工智能技术上形成的人工智能计算机网络芯片,也是本文研究的最终目标。一般来说,融入人工智能的芯片均称为人工智能芯片。在本次芯片的设计与研究中,技术人员利用可重构计算技术实现软件定义芯片的目标,促使硬件结构与模块功能可以在软件变化的同时发生变化。在融入可重构芯片技术之后,计算机网络软件系统的参数发生变化,芯片的硬件参数也随之发生变化,之后技术人员对实现芯片功能的硬件进行模块化设计[4]。
3 人工智能在计算机网络芯片中的应用方法
在基于人工智能的计算机网络芯片实际设计中,技术人员可以将长短期记忆网络模块架构作为设计基础,分别完成神经元计算单元的设计、控制核单元的设计、外储存单元的设计,促使芯片具备可编程能力,使其能够充分满足计算机网络系统的运行需求[5]。
3.1 神经元计算单元的设计
神经元计算单元是人工智能芯片设计的核心,通过神经元计算单元的搭建,能够实现多种层次的神经网络。人工神经元计算单元的主要工程分为储存、计算、控制3 个部分,其中储存单元包括临时内存、参数储存,这是考虑到计算机网络可能会产生临时内存需求而设计的;计算主要是乘法与加法模块,由激活函数模块、地质生成模块构成,能够满足更多不同类型神经网络的需求;控制单元是由配置链模块形成,可以识别不同神经网络的配置文件及数据参数。
人工神经元计算单元中,长短期记忆的神经网络中包含16 个人工神经元,分别负责模拟长期记忆与短期记忆。技术人员计算基础模块的人工神经元计算单元,流程如下:
输入in_CFG
输入in_Weight 参数
输入in_Data(配置流引导之下输入)
在初始化配置环节,先在in_CFG 端口中输入控制参数,激活计算机网络模式,之后分别激活函数阈值、输入节点、计算机网络层、输出节点等,其中输入节点与输出节点的配置链参数结构相似[6]。初步设计完成之后,计算单元的SRAM 只有6K,储存量较小,但是在之后计算机的网络层分配中,当每个神经元权重数据均大于6K 时,神经网络会自动优化、调整分层,从而满足不同数量的计算需求。
3.2 控制核单元的设计
搭建长短期记忆神经网络时,技术人员将4 个门的概念内嵌在神经元单元中,但是这样的设计会影响芯片的可重构性,而且神经元内部构造较为复杂,不同门之间的输出数据存在较大差异,不具备可观测分析性,而且这样设计也会降低芯片使用中的运行速率。因此,技术人员提出了“不改变神经元单元结构”的要求:以现阶段的16 个神经计算单元为基准,分别给4 组神经元输入数据,在每组神经元计算单元中实现输入门、输出门、细胞状态门、遗忘门这4 个概念。这样设计之后得到控制核单元结构,预安装环境(Preinstallation Environment,PE)单元就是本芯片中的神经元计算单元,“PE 外”框中的内容是神经元计算单元运行之后得到的数据,之后分别进行点乘、点加,将输出的计算结果传输到临时内存模块、双倍速率(Double Data Rate,DDR)储存模块。实际计算时,若输入的数据流为128 个节点,则可以考虑将这些节点数分为两组,每组分别进行4 次内核计算,在每次计算中将两份样本数据分别提供给长短期记忆的神经网络,得到4 个门的输出数据,这样计算完成之后就会得到长短期记忆神经网络输出数据[7]。
3.3 外储存单元
外储存单元是基于片上片基础的储存器,不同的储存容量伴随不同的读写权限。在本次设计中,技术人员根据人工神经元计算单元的实际情况,引入静态随机存取存储器(Static Random-Access Memory,SRAM)内存、DDR 片外片储存器,这是为了满足更大体量的数据储存与处理需求[8]。根据长短期记忆的神经网络结构,技术人员考虑到储存多种类型数据的需求,对储存中间细胞状态数据进行设计,采用了8K 的SRAM 储存器;此时储存器仅保持通电状态,就可以让内部数据以一种持续的高性能速率状态被储存下来。之后,基于SRAM 储存器开发DDR SDRAM,也就是在上升边缘、下降边缘同时执行数据传输指令,提高数据读取效率。随着读取速率的提升,DDR 的性能得以提高,可以实现更高的工作效率,降低功耗。技术人员给芯片配置DDR3 存储器模块,上层采用MIG IP 核进行控制,采用FPGAs 作为内存接口。需要注意的是,FPGAs 需要具备专门的时钟路由器,确保I/O 内的路由与时钟路由保持高速同步状态,这就需要对DDR3 接口进行垂直排列,控制高度为3 排,单独设定hiden 数据,根据给定地址指针的第24 位开始写入输出网络数据,促使地址指针随着网络循环形成读写操作,完成循环计算。技术人员通过这样的设计,能进一步拓展芯片的可编程功能,让用户可以根据自己的需求编写指令,灵活使用基于人工智能的计算机网络芯片。
4 结语
从本文研究可以发现,人工智能技术在计算机网络技术中的应用能够极大促进网络技术的发展,形成具有更多功能的网络技术形式,满足不同人员的需求。从当下计算机网络技术的应用情况来看,计算机网络技术与人工智能的融合已经成为必然趋势,这也让我国计算机网络技术发展到新的高度。今后,要想继续推进人工智能在计算机网络技术中的应用,就要先确定应用需求,有具体的方向之后,搭建智能化的网络构架,借助人工智能中的神经网络、计算功能研发新的应用技术或者产品,如人工智能计算机网络芯片,为我国计算机网络技术的应用与发展提供技术支持。