APP下载

基于FCoE协议的NPV交换机流量转发

2018-01-03曾颖霓陈庆春闻广亮

计算机应用与软件 2017年12期
关键词:交换机报文路由

曾颖霓 陈庆春 闻广亮

1(西南交通大学信息科学与技术学院 四川 成都 611756) 2(杭州华三通信技术有限公司数据中心交换机产品管理一部 北京 100085)

基于FCoE协议的NPV交换机流量转发

曾颖霓1陈庆春1闻广亮2

1(西南交通大学信息科学与技术学院 四川 成都 611756)2(杭州华三通信技术有限公司数据中心交换机产品管理一部 北京 100085)

以太网光纤通道FCoE(Fiber Channel Over Ethernet)实现了数据中心前端计算网络与后端存储网络的无缝融合,降低了数据中心基础设施的单位建设成本、维护成本,支持数据中心异构网络环境与不同的接口类型。存储区域网络SAN(Storage Area Network)中交换机数量受到8比特域ID唯一的限制最多可以有239台。N端口虚拟化技术NPV(N Port Virtualization)极大地克服了SAN网络在规模上受限的问题,能够让更多的服务器或存储设备接入到网络中,扩大网络容量。NPV交换机与传统FCF(Fabric Channel Forward)交换机最大的差别是上下行流量转发机制不同,它采用上行流量从映射端口转发,下行流量查表转发。NPV交换机驱动层路由模块的设计与实现采用敏捷开发模式进行,主要包括端口设置、下发NPV Mapping表项、路由表项、Fips规则下发。实验测试证明该设计实现了NPV交换机对FCoE流量的正常转发,确保了可行性。

以太网光纤通道 融合网络 N端口虚拟化技术 驱动层设计

0 引 言

伴随着云计算的兴起,数据趋于大集中,而且数据类型也更加丰富。新IT时代数据中心建设中,我们往往要根据数据类型选用不同的存储。由于光纤通道存储区域网络FC SAN(Fabric Channel Storage Area Network)[1]能够满足对于大容量、高可靠数据的存储、访问与备份,它成为了数据中心应用最为广泛的存储方式。使用FC SAN存储网络的数据中心通常运行两个独立的网络:用于客户机到服务器或者服务器到服务器间通信的以太网网络(LAN)[2]和用于服务器到存储设备之间通信的存储区域网络(SAN)[3]。数据中心的服务器需要为每种网络配置单独的网络接口卡、单独的布线、单独的交换机,多网络并存满足了数据中心的性能追求,但是也给数据中心的操作、管理与维护带来了一系列问题,使得网络的可扩展性变差。

FCoE是将FC技术映射到以太网的技术,实现了在无损以太网上传输FC数据帧[4]。FCoE技术将为用户带来以下好处:首先是更低的拥有成本,通过整合更有效地利用以前分散的资源,将服务器的I/O适配器和线缆数量减少多达50%,大幅度减少电力和冷却成本,同时还可以降低管理和运营开支。其次是强大的投资保护,融合网络可与现有基础设施无缝互通,使得管理简便、成本下降。最后是增强了业务灵活性,使所有的服务器均能够访问存储设备,而且在虚拟机移动的情况下可以为资源提供一致的存储连接,保证了系统的灵活性和可用性[5]。采用FCoE技术的数据中心有3种组网方式:接入融合组网、核心融合组网、NPV组网。

本文主要讨论NPV组网,通过NPV模式接入交换机与已有的SAN网络互通,可以达到扩容的目的。NPV交换机位于边缘接入层,在节点设备与上行FCoE交换机FCF之间充当代理的角色,将协议报文代理到核心交换机。NPV对上行流量的转发是通过查Mapping表从映射端口转发,对下行流量的转发是通过查转发表进行转发。

1 相关技术

1.1 FCoE协议

FCoE协议栈与FC协议栈[6]结构如图1所示。FC协议栈分为5层:FC_0物理层,定义连接器及线缆规格;FC_1数据编码层,定义了数据的编解码;FC_2数据分发层,定义了如何组帧及流量控制;FC_3通用服务层,定义了各种服务;FC_4高层协议层,定义SCSI、IP等高层协议到FC帧的映射。

FCoE协议只是用LAN取代了下层FC_0与FC_1,对于原有的FC帧上层是完全透明的。FCoE帧[7]结构主要分为三部分:普通以太帧头、FCoE帧头、FC帧。FCoE数据帧和协议帧的以太类型分别是0X8906、0X8914。FCoE协议帧主要用于协议交互(包括初始协商、保活、离开等过程),数据帧主要用于标识发送FCoE数据。

1.2 NPV交换机

N端口虚拟化(NPV)[8]交换机的出现是为了解决数据中心存储区域网络扩容的问题。FC协议通过FC ID[9]访问FC SAN中的各个通信实体,每台交换机的FC ID由三部分总共24比特组成。其格式如表1所示。

表1 FC_ID格式

(1) Domain_ID(8 bits)可以唯一标识一个SAN网路中每台交换机,除去一些用于特殊标识外,它的取值范围是1-239,即整个网络最多可容纳239台交换机;

(2) Port_ID(8 bits)代表一个N_port;

(3) Area_ID(8 bits)用来标识一个划分了多个N_port的Area。

报文在网络中的路由和转发都用Domain_ID,这一特性同样适用于FCoE融合网络[10]。在FCoE网络中NPV交换机的下行端口连接节点设备,上行端口连接核心交换机,它是通过设置上下行端口为不同模式实现扩容的。从下行节点设备看,NPV交换机是一台FCF交换机,从上行的核心交换机看,NPV交换机相当于一台节点设备。这样就可以在网络中多接入交换机以满足扩容需求同时又不会占用唯一的Domain_ID。

NPV交换机具备标准的FCoE协议栈,从控制平面来看它的下行端口收到的下行服务器的注册信息会被送到上行的FCF交换机进行处理[11]。

1.3 NPV模式报文转发

NPV交换机上下行流量具有不同的转发流程:

上行流量:下行口→上行口,根据上下行口映射关系,直接从下行口映射的上行口转发出去。

下行流量:上行口→下行口,查转发表(由NPV数据库生成),匹配报文的目的FC_ID进行转发。ENode上的名字服务信息注册和查询、PLOGI[12]等都通过转发到达核心交换机。

FC协议[13]规定端口状态分为F_port、E_port、NP_port及Auto_port四种类型。节点设备的端口状态可以分为N_port和NL_port。NPV交换机的上行口是NP_port,下行口是F_port。

NPV组网中FCoE报文转发如图2所示。NPV交换机中下行口进入的报文采用节点设备映射的FCoE mac地址(FC_MAP+FC_ID_1)作为源地址(SA)进行寻址,目的地址(DA)是NPV交换机的FCoE mac地址。通过映射的上行口将报文转发出去,转发报文的SA不改变,DA变成了下一跳所在交换机的FCoE mac。相反上行口进入报文SA为上行的FCF交换机的FCoE mac,DA为节点设备映射的地址,以DA为关键字查找转发表进行转发,出封装报文DA不变,SA变为本NPV交换机的FCoE mac。总结一句话就是上行流量SA不变,DA变;下行流量DA不变,SA变。这一处理是需要驱动根据平台的模式设置与下发的转发表项对芯片进行设置以后才能实现的。

图2 NPV组网中FCoE报文转发示意图

2 设计与实现

整个交换机系统可以分为四大部分,分别是网络操作系统、产品驱动、芯片接口(SDK)、硬件。平台作为总体控制平面不管底层芯片的差异,进行控制命令下发、协议计算。SDK是芯片厂商提供的对外API接口,API接口把要设置硬件的信息以软件接口的模式呈现给驱动开发者,通过该接口能够把驱动处理的信息写进硬件。产品驱动主要完成网络操作与 API之间的对接,把平台通用的功能转换成为芯片相关的信息后传递给底层芯片。驱动部分主要是响应平台的命令并做出相应处理(实现下发路由、下发下一跳、创建VSAN[14]、ZONE[15]和Fips规则),产品的规格定制,资源管理和各模块的维护,向平台提供接口并完成注册。驱动和平台之间会进行信息传递,把平台的通用信息转换成与芯片相关信息。本实验主要进行驱动平台部分设计与实现。

根据1.3节的分析,NPV交换机要实现FCoE报文的转发必须进行以下几点处理:设置端口以保证报文出方向封装正确;下发路由的同时生成Fips规则对端口进入报文进行检查;下行口生成NPV mapping表项保证上行流量转发;下发路由表项同时下发8位的本机路由保证能够识别上行口的Dmac得以走FCoE查表转发的流程。硬件通过匹配优先级实现此逻辑,优先查找NPV mapping表,如果找到匹配的表项则从匹配上行端口发出,否则就当作下行流量处理查找路由表进行转发。硬件设计了上行端口的标志位置1,该端口进入的报文出封装时改SA不会改DA,下行口标志位置0,该端口进入的报文出封装时改DA不会改SA。

2.1 端口设置

VFC接口信息通过IfIndx传入,驱动由软件树记录VFC端口上与以太网端口相关的信息,同时驱动还会将该信息下发到芯片中(创建硬件三层接口表项)。驱动软件树记录的表项分为三类:VFC F口表项、VFC E口表项、FC口表项。索引包含的信息有VLAN id、VFC index、FC id,其中FC id字段只在VFC F口计算得到的下一跳表项中有效,此类表项在下发F口的路由时创建软硬件表项,在其他的表项中都为0。

上述创建VFC接口软件表项时驱动通过树来记录,树节点的结构体设计如下:

typedef struct tagFCOE_FW_NH

{

/*查找关键字部分*/

unsigned int uiPrtTyp; /*区分是VFC口还是FC口*/

unsigned int uiVtgId; /*VFC口用VLAN id,FC口用VSAN id*/

unsigned int uiIfIndx; /*VFC/FC接口的IfIndx */

unsigned int uiFcId; /*VFC F口的具体下一跳中使用目的FC id的值,其他情况下为0*/

unsigned int uiMdcid;

/*节点内容部分*/

unsigned int uiFlg;

unsigned int uiVlnid; /*VLAN id */

unsigned int uiNpIndx; /*对应的下一跳信息*/

unsigned int uiL3IntIndex; /*对应的三层接口信息*/

unsigned int uiRfCnt; /*引用计数*/

FCOE_PORT_INFO_S stEthPrtInf; /*下一跳出端口的信息*/

unsigned int uiEthIndx; /*以太口索引*/

char aucRemoteMac[MAC_LEN]; /*目的端mac地址,VFC F口为FC mapping,前三字节有效,其他情况下为目的端MAC地址*/

char auclocalMac[MAC_LEN]; /*本端FCoE mac地址,F口的fips规则要用到*/

char aucMacMapping[FCOE_MAC_MAPPING_LEN]; /*NP口需要记录*/

unsigned int uiEncapid;/*全局同步*/

char aucPad; /*填充字段*/

FCOE_FW_NH_S;

F-VFC口UP时,平台会从VFC的IOCTRL函数中下发命令字要求驱动创建下一跳,而驱动仅仅是创建软件节点,并不会创建硬件表项。当F-VFC上节点上线以后平台会下发一条路由指向该F-VFC口,在下发这条路由的硬件表项时驱动会先去创建下一跳的硬件表项。

对于NPV模式还需要设置上下行口,NPV上下行端口设置就是在驱动创建VFC接口时进行设置的。NPV模式的F端口是下行口,需要将它设置为1,对应着SDK API中的类型是N port。从N port类型端口进入的报文在入方向选择Program的ID为15,进入该Program的报文出方向封装时会修改报文的DA而不修改报文的SA;NPV模式的NP端口是上行口,需要将它设置为0,对应SDK API中的类型是NP port,从NP port类型端口进入的报文出方向封装时SA会被修改而不会修改DA。

2.2 路由处理

平台构造转发信息通知驱动更新转发表。驱动部分路由处理主要包括了三部分:FC Mapping表项、Fips规则、转发路由。上述三部分要确保同时下发成功或者失败,即任何一部分表项下发失败均要回退当前流程中已经下发的表项,等待后续重新下发。下发成功驱动会回传转发表信息给平台。

路由处理的结果有五种:包括操作成功、失败、创建表项已经存在、驱动没有准备好、硬件资源不足。对于驱动没有准备好的情况需要重刷下发失败的表项。某些产品需要在下发路由时自动创建出接口相关的邻接表,多个出接口需要创建多个邻接表。邻接表资源不足时会出现部分邻接表申请成功部分申请失败,驱动负责释放所有已经分配成功的邻接表项资源。然后向平台返回资源不足,平台会记录由于资源不足下发失败的表项,继续下发后续表项。驱动会定时调用重刷接口通知平台重新下发资源不足或者驱动没准备好而下发失败的表项,直至成功。

驱动部分通过二叉树记录生成的软件路由表项,树节点的数据结构设计如下:

typedef struct tagFCOE_FW_RB_S

{

/*关键字部分*/

unsigned int uiVsnid; /*转发对应的VSAN信息*/

unsigned int uiFCid; /*目的FC id*/

unsigned int uiFcidMsk; /*掩码信息*/

unsigned int uiRbTyp;

unsigned int uiIfIndxSrv; /*F口对应下行服务器端口索引*/

unsigned int uiMdcid;

unsigned int uiOutIfNum; /*出接口的数目*/

unsigned int uiVlnid; /*转发对应的VLAN信息*/

unsigned int uiNpIndx; /*转发对应的下一跳信息,如果是ECMP则为ECMP的索引*/

unsigned int uiRtStatus; /*路由的状态标记位*/

FCOE_PORT_INFO_S stSrcPrt; /*下行口匹配信息SrcTrunkID或是单端口的SrcPort+SrcMod*/

FCOE_OIF_INFO_S astOtIfLst[ECMPMEM_MAX_NUM]; /*出接口索引列表*/

unsigned int uiSrvrPrtTyp; /*服务器端的端口类型(VFC或者FC)*/

unsigned int uiFipsIfIndx; /*为fips提供的端口索引*/

} FCOE_FW_RB_S;

2.2.1 Fips规则

FCoE网络中也需要一些机制来保证可靠性与安全性,Fips规则就属于一种。Fips表项主要是用于检查类型为FCoE_TYPE报文的源Mac是否正确,由交换机分配的正确FC id与FC_Map(0X0EFC00)拼接而成的报文则允许通过,否则报文将被丢弃。该规则只在端口所在单板下发,所以使用的端口索引是index。Fips规则优先级高于ZONE与路由规则的优先级, 所以它不会默认设置通过或是丢弃,而是设置了标志位,到了ZONE中再根据标志位匹配判断。Fips规则是通过ACL来下发的,因此需要在每一个FCoE模式下都占用ACL的资源。尽管存在资源浪费,为防止切换到FCoE模式时其他模块抢占ACL硬件资源造成失败也不得不首先下发占位表项。驱动在被通知使能FCoE模式时下发Fips全局规则,这些规则优先级最低,在被通知去使能FCoE模式的时候删除这些规则。为了节省ACL个数以及该规则对于NPV模式没有其他影响,所以删除时将该规则提到全局ACL里,其值不再是下发时的0X0EFC00,而是高位为0X0EFC(0X0EFC00-0X0EFCFF)则deny。

首先,为了模式切换时ACL 资源不会被别的模块所抢占,需要将所有的将会使用的部分进行占位处理。占位规则的优先级高于其他任何规则,必须保证第一条下发,才能确保模式切换时硬件资源充足。匹配占位表项的报文不作任何处理。

驱动下发Fips规则所需要的信息是从平台传入路由表项中获取,具体信息包括了FC id、Dmac、vsan id、以太网接口的IfIndx。Fips表项中有一条优先级最低、默认丢弃FCoE 数据报文的ACL表项,它用于在节点没有注册时丢弃所有FCoE 的数据报文,其他优先级都高于它,因此该条表项放在了最后。驱动在Fips软件树上记录Fips规则,软件表项记录成功后通过ACL下发硬件表项。Fips软件树在记录表项前会查找该条表项是否已经存,如果已经存在则只需要将该条表项引用计数加1,同时不必再下发硬件。下发Fips规则的流程如图3所示。

图3 Fips表项下发

2.2.2 NPV mapping表项

前面已经提到过上行流量转发是通过端口映射进行的,NPV mapping就是记录端口映射规则的表项。NPV规则是在Fips规则下发成功之后处理。数据结构FCOE_NPV_MAPPING_S用于记录NPV映射规则的信息。该数据结构包括了VSAN id、节点的FC id信息stSrcPrfx、交换机与节点相连的端口索引IfIndxSrvr、FCF互联的NP口索引IfIndxExtrnl和包含全局同步资源索引的auiDrvCntxt。数据结构中包括的这些信息的具体值取自平台传入的路由索引。驱动会先通过软件记录要添加的规则,然后将规则下发到硬件中去。值得注意的是映射规则是将某个登录的节点映射到上行口,这要匹配节点的Sid与登录节点的端口,以保证规则的唯一性。在芯片上有mod、port、index这些值来表示端口。框式设备可以支持多块单板,设备上的mod与port值特性如下:同一块单板上port值唯一,不同单板port值可重复;不同单板mod值不能重复,同一块单板上mod值可重复。index是通过mod与port得到的,每个端口的index值是唯一的。使用index有两个原因:首先NPV规则只是下发到端口所在的单板,如果使用mod/port就会在所有单板都下发;其次使用mod/port会出现问题,当下行口在某个聚合中时,ACL识别不了mod/port,导致NPV规则匹配不到。

下发映射规则的时机由平台控制,当节点通过NPV交换机向FCF交换机进行注册时平台会调用上述接口下发NPV mapping表项指向上行口。同时还会下发一条指向下行口的8位主机路由到SEM,下行流量就是通过先查SEM中这条表项再查LEM进行转发的。整个驱动部分处理流程如图4所示。

图4 NPV规则下发

2.2.3 路由表项

在NPV模式下有三种报文需要上送CPU处理。第一种是Sid或者是Did为0XFFFFFE的报文,此条路由在NPV模式初始化时下发,通过添加匹配目的地址或是源地址为0XFFFFFE的ACL规则,然后在VLAN内使能FCoE时设置VLAN的掩码。第二种是Did为0XFFFFF0的报文。驱动通过两种方式下发该条表项,在NPV模式初始化时添加匹配目的地址的ACL规则,并在VLAN内使能FCoE时设置VLAN的掩码,或者是响应路由变化接口,添加知名地址的路由。为了节省ACL资源,如果产品已经在NPV模式初始化时下发则在路由接口变化时不再下发直接返回成功。第三种是目的地址为本机N端口地址的报文。

路由下发的处理流程如图5所示。平台路由掩码位数是8的时候驱动除了下发平台路由还会创建特殊路由表项(0XFFFC+domain id)并下发硬件。路由表项的下发分为驱动创建下一跳软件表项和下发硬件表项。硬件下发过程中会得到fec索引,该信息要回传给驱动。表项已经存在驱动记录的下一跳软件树上时只需要将引用计数加1并回传表中的encapid,不必要再下发硬件表项。

图5 路由表项的添加

3 实验验证

本实验环境基于某公司的高端交换机设备,所需的设备如下:框式交换机(1台)、低端交换机(1台)、串口服务器、网线、光模块等。计算机、串口服务器、测试仪与S12508交换机通过S5800交换机组成了一个二层的网络。这样它们之间相互连通,计算机可以通过测试平台软件对交换机进行配置、显示信息以及测试。在PC上通过testcenter也可以控制测试仪,模拟出一个节点设备,节点设备开始运行后就会与相连的交换机进行协议报文的交互,端口都UP后就可以传送FCoE报文。

首先通过testcenter上面的转发报文速率显示可以初步确定报文无丢包。第二步是通过抓包工具查看两端的报文,主要关注DA、SA、VLAN tag、FC id这些关键字段,与预期相符合。最后也是最重要的验证就是通过VTP查看配置信息和NPV交换机转发报文时的Debug信息、流量统计信息、平台的驱动生成的软件转发表项、硬件表项相关的信息。下面对一些关键测试信息进行说明。

入方向FLP阶段Program选择结果如图6、图7所示,结合2.2.3节描述的8比特本机路由就是控制N口进入的报文在芯片入方向处理过程选择正确的Program。N端口进入报文选择的是Program 15,控制在查表时用Sid查;NP端口进入报文选择Program 10,控制在查表时用Did查。

图6 N端口FLP阶段报文入方向的Program选择

图7 NP端口报文入方向的Program选择

图8为N端口报文在入方向TT阶段选择的Program 1,证实了NPV交换机在路由处理过程中驱动成功下发了8位掩码的本机路由,从而确保N端口进入报文在芯片入方向处理时Smac能够被识别走FCoE查表转发的流程。

图8 N端口TT阶段入方向Program选择

图9是驱动记录的Fips软件表项,相应的MAC id、VLAN id、Smac、Dmac、Action、Index、Mod、Port、Flag等字段的值都与预期的相符合。

图9 Fips软件表项

图10为出方向选择了正确的Program,证明端口设置正确。出方向Program正确才能够保证正确的出封装:NP端口报文改Smac不改Dmac;N端口报文改Dmac不改Smac。

图10 出方向Program选择

4 结 语

随着云计算与大数据的发展,数据中心的规模日益扩大,企业对数据中心的要求日益剧增,FCoE为了解决网络融合而提出,它的出现拉开了下一代数据中心网络的帷幕。NPV交换机的实现增加了融合网络中交换机的数量,提升了融合网络的容量。基于FCoE技术、NPV技术进行了分析,在理论基础上进行了NPV交换机驱动层路由表项的设计与实现。通过实验证明了设计的可行性,当然现在的技术只能支持边缘接入层的融合,接下来将进一步实现核心层的融合研究,相信基于FCoE的NPV交换机的实现与改进也将会推动数据中心网络架构的不断发展与完善。

[1] Zhang H, Koay T, Venugopalan P, et al. Fibre channel storage area network design for an acoustic camera system with 1.6 Gbits/s bandwidth[C]//TENCON 2001: IEEE Region 10 International Conference on Electrical and Electronic Technology,Singapore:IEEE, 2001:143-148.

[2] David A ,James C. Local area networks[M]. Prentice Hall PTR Upper Saddle River, NJ, USA, 2000:100-120.

[3] DeSanti C, Gai S, Baldini A. Fibre channel over ethernet: U.S., 8238347[P]. 2012-8-7.

[4] American National Standard of Accredited Standards Committee. Fiber Channel Backbone-5 (FC-BB-5). REV2.00;(11p.);June. 4, 2009.

[5] Guo J, Zou S, Lu P, et al. I/O Virtualization Design of FCoE Adapter[C]//ICNISC 2015: 2015 International Conference on Network and Information Systems for Computers. Wuhan:IEEE, 2015:18-21.

[6] American National Standard of Accredited Standards Committee. Fibre Channel Framing Signaling-5 (FC-FS-5). REV0.02;(11p.);Feb. 5, 2015.

[7] DeSanti C, Gai S, Baldini A. Fibre channel over ethernet: U.S., 8238347[P]. 2012-8-7.

[8] American National Standard of Accredited Standards Committee. Fibre Channel Switch Fabric-3 (FC-SW-3) REV 6.0;(11 p.); Jan. 24, 2002, Only.

[9] Berman S. Fibre channel switching fabric: U.S., 6185203[P]. 2001-2-6.

[10] Cai Y, Yan Y, Zhang Z, et al. Survey on converged data center networks with DCB and FCoE: standards and protocols[J]. IEEE Network, 2013, 27(27):27-32.

[11] Bodnar P, Luiz Z. FCoE and iSCSI Performance Analysis in Tape Virtualization Systems[J]. IEEE Latin America Transactions, 2015, 13(7):2372-2378.

[12] 徐立冰, 腾云. 云计算和大数据时代网络技术揭秘[M]. 北京:人民邮电出版社, 2013:102-132.

[13] Desanti C, Jiang J. FCoE in perspective[C]//ICAIT 2008: 2008 International Conference on Advanced Infocomm Technology. Shenzhen:ACM, 2008:1-8.

[14] Jiang J, Desanti C. The role of FCoE in I/O consolidation[C]//ICAIT 2008: 2008 International Conference on Advanced Infocomm Technology. Shenzhen:ACM, 2008:1-6.

[15] Antonio S. The Evolution of Data Center Networking Technologies[C]//CCP 2011: 2011 First International Conference on Data Compression. Palinuro: IEEE,2011:172-176.

TRAFFICFORWARDINGOFNPVSWITCHBASEDONFCOE

Zeng Yingni1Chen Qingchun1Wen Guangliang2

1(SchoolofInformationScienceandTechnology,SouthwestJiaotongUniversity,Chengdu611756,Sichuan,China)2(BeijingInstituteofH3CTechnologyCo.,Limited,Beijing100085,China)

Fiber Channel over Ethernet (FCoE) achieves the seamless integration of front-end computing network and back-end storage network. FCoE reduces unit construction costs and maintenance costs for data center infrastructures, supporting heterogeneous network environment and different interface types. The number of switches in a Storage Area Network (SAN) is limited by eight bits ID Domain, with a maximum of 239. N port virtualization (NPV) greatly overcomes the limitation on the scale of the SAN network, allowing more servers or storage devices access to the network, hence expanding network capacity. The primary difference between NPV switch and the traditional FCF switch lies in the traffic forwarding mechanism of the uplink and downlink; NPV uses the mapping port to forward the uplink traffic, and the route table to forward downlink traffic. NPV switch driver layer route design and implementation adopts the agile software development, such as the setting of the port, NPV Mapping entries, routing table entries, Fips rules. Experimental results show that this design realizes the normal forwarding of NPV switches to FCoE traffic, and ensures the feasibility.

Fiber channel over ethernet Converged network N port virtualization Driver layer design

2017-02-22。曾颖霓,硕士生,主研领域:无线资源管理,网络与交换技术。陈庆春,教授。闻广亮,高工。

TP393.05

A

10.3969/j.issn.1000-386x.2017.12.036

猜你喜欢

交换机报文路由
基于J1939 协议多包报文的时序研究及应用
面向未来网络的白盒交换机体系综述
低轨星座短报文通信中的扩频信号二维快捕优化与实现
局域网交换机管理IP的规划与配置方案的探讨
数据通信中路由策略的匹配模式
路由选择技术对比
浅析反驳类报文要点
更换汇聚交换机遇到的问题
基于地铁交换机电源设计思考
路由重分发时需要考虑的问题