• 产品与解决方案
  • 行业解决方案
  • 服务
  • 支持
  • 合作伙伴
  • 关于我们

ETH522i Mezz网卡模块 用户指南-6W105

  • 发布时间:2022/6/27 18:19:37
  • 浏览量:
  • 下载量:

01-正文

本章节下载  (8.30 MB)

01-正文


1 安全

1.1  安全信息

为了避免操作过程中对人和设备造成伤害,请在操作前,仔细阅读产品相关安全信息。实际操作中,包括但不限于本文描述的安全信息。

1.1.1  运行安全

介绍安装和更换网卡时的安全注意事项。

·     为确保人身和设备安全,只有H3C授权人员或专业的工程师才能安装和更换网卡。

·     安装或更换网卡前,请确保业务已停止运行,并将刀片服务器下电,然后再拆卸刀片服务器。

·     拆卸、搬运或放置刀片服务器时,请勿用力过猛,请确保搬运设备过程中,用力均匀、缓慢。

·     请将刀片服务器放在干净、平稳的工作台或地面上进行维护。

·     为避免组件表面过热造成人身伤害,请确保刀片服务器和内部系统组件冷却后再操作。

1.1.2  电气安全

请仔细检查工作区域内是否存在潜在的危险,如:机箱未接地或接地不可靠、工作区域潮湿等。

1.2  静电防护

1.2.1  防止静电释放

人体或其它导体释放的静电可能会损坏网卡,由静电造成的损坏会缩短网卡的使用寿命。

为避免静电损害,请注意以下事项:

·     在运输和存储网卡时,请将网卡装入防静电包装中。

·     将网卡送达不受静电影响的工作区前,请将它们放在防静电包装中保管。

·     先将网卡放置在防静电工作台上,然后再将其从防静电包装中取出。

·     从防静电包装袋中取出网卡后,请尽快进行安装操作,避免网卡长时间放置在外界环境中。

·     在没有防静电措施的情况下,请勿触摸网卡上的插针和电路元器件。

·     将网卡拆卸后,请将网卡及时放入防静电包装袋中,并妥善保管。

1.2.2  防止静电释放的接地方法

在取放或安装网卡时,用户可采取以下一种或多种接地方法以防止静电释放。

·     佩戴防静电腕带,并将腕带的另一端良好接地。请将腕带紧贴皮肤,且确保其能够灵活伸缩。

·     在工作区内,请穿上防静电服和防静电鞋。

·     请使用导电的现场维修工具。

·     使用防静电的可折叠工具垫和便携式现场维修工具包。


2 认识网卡

说明

图片仅供参考,具体请以实物为准。

 

2.1  概述

ETH522i(型号为NIC-ETH522i-Mb-2*10G,以下简称ETH522i)是一款2端口CNA网卡,提供2*10GE端口,2个端口都支持FCoE(第1个端口支持FCoE boot),适用于B16000机箱的刀片服务器,为刀片服务器提供连接互联模块槽位的网络接口。ETH522i通过x8带宽的PCIe通道与刀片服务器进行数据交换,通过2个10G-KR端口经中置背板与互联模块相连,支持NIC、FCoE、iSCSI的应用,实现融合网络方案。

2.2  外观

ETH522i网卡的外观如图2-1所示。它应用于B16000刀片服务器的2路半宽、2路全宽和4路全宽刀片服务器,具体可安装位置请参见4.2  网卡适配的刀片服务器

图2-1 ETH522i外观

 

 

2.3  规格参数

介绍网卡的产品规格和技术参数。

2.3.1  产品规格

表2-1 产品规格

属性

描述

基本属性

网卡类型

CNA网卡

芯片型号

Cavium BCM57810S

最大功耗

12W

输入电压

12V DC

数据通道总线

PCIe2.1 x8

网络属性

用户接口数量和类型

2*10G-KR

用户接口传输速率

10Gb/s

全双工/半双工

全双工

标准兼容性

802.1p, 802.1q, 802.3ad, 802.3ae, 802.3x, 802.1Qbb, 802.1Qaz, 802.1Qau

 

2.3.2  技术参数

表2-2 技术参数

类别

项目

说明

物理参数

尺寸(高xx长)

25.05mm x 61.60mm x 95.00mm

重量

100g

环境参数

温度

工作环境温度:5°C~45°C

贮存环境温度:-40°C~70°C

湿度

·     工作环境湿度:8%90%RH(无冷凝)

·     贮存环境湿度:5%95%RH(无冷凝)

海拔高度

·     工作环境高度:-605000m35°C@900m高度每升高100m规格最高温度降低0.33°C

·     贮存环境高度:-60~5000m

 

 


3 特性介绍

3.1  支持的特性

介绍ETH522i网卡支持的特性。

图3-1 网卡特性

特性

是否支持

Jumbo Frames

Load Balancing

802.1Q VLANs

QinQ

Auto-Negotiation

PXE Boot

FCoE

FCoE Boot

√*(仅UEFI)

iSCSI

iSCSI Boot

√*(仅UEFI)

SR-IOV

VMDq

√*

Multiple Rx Queues(RSS)

√*

TCP/IP Stateless Offloading

√*

TCP/IP Offload Engine(TOE)

√*

Wake-on-LAN

×

RDMA

×

NPAR

NCSI

×

NIC bonding

*表示VMware ESXi操作系统不支持该网卡特性。

 

3.2  功能介绍

1. PXE

ETH522i支持PXE启动。在启动过程中,刀片服务器(PXE Client)先从远端服务器(PXE Server)获取IP地址,再使用TFTP协议下载并执行PXE启动文件,完成客户端的基本软件配置,从而引导客户端实现PXE启动。

2. iSCSI

ETH522i网卡的2个端口都支持iSCSI SAN和iSCSI remote boot技术。

iSCSI是一种能够把SCSI接口与以太网技术相结合的新型存储技术。基于iSCSI协议,设备便能在网络中传输SCSI接口的命令和数据内容了,这样不仅克服了传统SCSI接口设备的局限性,实现让机房之间可以跨越省市来共享存储资源,还可以做到在不停机的状况下扩展存储容量。解除了物理环境限制,可以把存储资源分开给多个服务器一起使用。

3. FCoE

ETH522i网卡的2个端口都支持FCoE SAN,其中的第1个端口支持FCoE boot from san技术。

FCoE是通过以太网络封装光纤通道帧的技术。可以将光纤通道映射到以太网,将光纤通道信息插入以太网信息包内,从而让服务器SAN存储的光纤通道请求和数据可以通过以太网来传输,而无需专门的光纤通道结构。FCoE允许在一根通信线缆上传输LAN和FC SAN数据,减少数据中心设备和线缆数量,同时降低供电和制冷负载。

4. NPAR

NPAR通过每个端口上具有的多个PF将网卡划分为多个分区。

ETH522i网卡的2个端口都支持一分四,也就是每个物理端口可以划分成4个分区,一张网卡最终可分出8个分区。

5. SR-IOV

ETH522i网卡的2个端口都支持SR-IOV。

SR-IOV允许用户整合其网络硬件资源,并在整合的硬件上同时运行多个虚拟机。虚拟化还为用户提供了丰富的功能,例如I/O共享、整合、隔离和迁移,以及简化管理。虚拟化可能会因管理程序的开销导致性能降低,PCI-SIG引入了SR-IOV规范,通过创建VF来解决性能问题,虚拟功能是一种直接分配给虚拟机的轻量级PCIe功能,绕过管理程序层进行主数据移动。

PF是全功能的PCIe功能,VF是PF分离出的轻量级PCIe功能,可直接将VF指定给相应的应用程序,虚拟功能共享物理设备的资源,并在没有CPU和虚拟机管理程序开销的情况下执行I/O。

ETH522i网卡支持每个PF创建0到63,共64个VF,增量为8。

6. VLAN

·     802.1Q VLAN

ETH522i网卡每个端口最大支持4094个VLAN,取值范围为1~4094。

网卡不会处理报文的tag(打tag或者去tag操作),VLAN ID由OS指定,网卡只是透传。

VLAN是一组逻辑上的设备和用户,工作在OSI参考模型的第二层和第三层。一个VLAN就是一个广播域,VLAN之间的通信是通过第三层的路由器来完成的。与传统的局域网技术相比,VLAN技术更加灵活,添加和修改管理开销少,可以控制广播活动,可提高网络安全性。

·     IEEE 802.1ad Provider Bridges (QinQ)

QinQ(Q-in-Q)是IEEE 802.1ad Provider Bridges标准的实现,它是IEEE 802.1Q VLAN标准的扩展。QinQ通过在以太网中添加额外的802.1Q标记(VLAN ID字段),在VLAN内创建VLAN来进一步隔离流量。

7. BONDING(Linux)

BONDING包括如下7种模式,其中常用的有mode=0、mode=1和mode=6三种:

·     mode=0,即:(balance-rr)Round-robin policy(平衡轮循环策略),数据包在两个SLAVE之间顺序依次传输;

·     mode=1,即:(active-backup)Active-backup policy(主-备策略)。只有主设备处于活动状态,当主设备宕机后备设备转换为主设备;

·     mode=2,即:(balance-xor)XOR policy(平衡策略),基于指定的传输HASH策略传输数据包;

·     mode=3,即:broadcast(广播策略),在每个SLAVE接口上传输每个数据包,此模式提供了容错能力;

·     mode=4,即:(802.3ad)IEEE 802.3ad Dynamic link aggregation(IEEE 802.3ad动态链路聚合),创建一个聚合组,它们共享同样的额定速率和双工设定,外出流量的SLAVE选择是基于传输hash策略的。此模式需要交换机支持IEEE 802.3ad,且要经过特定的配置;

·     mode=5,即:(balance-tlb)Adaptive transmit load balancing(适配器传输负载均衡)。不需要任何特别的交换机支持,在每个SLAVE上根据当前的负载(根据速度计算)分配外出流量,如果正在接受流量的SLAVE故障,另一个SLAVE接管失败SLAVE的MAC地址;

·     mode=6,即:(balance-alb)Adaptive load balancing(适配器适应性负载均衡)。该模式包含了balance-tlb模式,同时加上针对IPV4流量的接收负载均衡,通过ARP协商实现,不需要交换机支持。BONDING驱动截获本机发送的ARP应答,并把源硬件地址改为BOND中某个SLAVE的唯一硬件地址,从而使得不同的对端使用不同的硬件地址进行通信。

8. Teaming(Windows)

以集成在Windows Server 2012 R2中的Teaming解决方案为例,一般的NIC Teaming模式有三种:

·     静态成组(Static Teaming):是一种依赖于交换机(Switch-dependent)的组合方式,要求交换机的支持,并且成员网卡不能分散到不同的交换机上。

·     交换机独立(Switch Independent):网卡组合不需要交换机的参与,这样网卡可以连接到不同的交换机上,而且在连接不同交换机时采用的是主备模式,只有连接在同一交换机时才可以实现负载均衡聚合。

·     LACP:类似静态成组,需要先在交换机中启用LACP,会把多块网卡合并成一个逻辑的线路,这种组合方式的速度是最快的。

除了Teaming模式需要配置之外,还需要配置负载均衡的模式,模式也有三种:

·     地址哈希(Address Hash):启用后,数据包到达Teaming后,会根据目的地址信息(MAC地址,IP地址和端口号)执行哈希算法,通过算法结果,NIC Team决定由哪块物理网卡发送数据包。这种方式无法控制流量的走向,如果有大量数据是流向一个目标地址的,那么只会通过一块物理网卡来发送。

·     Hyper-V端口:正如名字显示的,用于Hyper-V的模式,与无法控制的地址哈希相比,这种方式效率更高,数据会通过绑定虚拟网卡的不同物理网卡传输,同时这种绑定是基于每个虚拟网卡,而不是每台虚拟机的。如果是使用Hyper-V外部虚拟机交换机建议选择这种方式。

·     动态:这种方式是最优化的方式,从Windows Server 2012 R2中新引入,数据会被平分到所有网卡上,最大效率的利用带宽。

9. TCP OFFLOADING

TCP卸载是一种TCP加速技术,将TCP/IP堆叠的工作卸载到网络接口控制器上,用硬件来完成。在高速以太网,如10GE以太网上,处理TCP/IP数据包表头工作变得较为沉重,会占用大量的CPU资源,而由网卡硬件进行处理可以减轻处理器的负担,解放出来的CPU资源可以专注于其他的应用。

 


4 软硬件兼容关系

4.1  支持的操作系统

网卡与OS的兼容关系,请参见OS兼容性查询工具

4.2  网卡适配的刀片服务器

网卡支持的刀片服务器型号及其安装位置如表4-1所示。

表4-1 网卡适配的刀片服务器

刀片服务器型号

刀片服务器类型

Mezz网卡槽位数量

可安装位置

H3C UniServer B5700 G3

2路半宽刀片服务器

3个

Mezz1、Mezz2和Mezz3

H3C UniServer B5800 G3

2路全宽刀片服务器

3个

Mezz1、Mezz2和Mezz3

H3C UniServer B7800 G3

4路全宽刀片服务器

6个

Mezz1、Mezz2、Mezz3、Mezz4、Mezz5和Mezz6

H3C UniServer B5700 G5

2路半宽刀片服务器

3个

Mezz1、Mezz2和Mezz3

图4-1 网卡在2路半宽刀片服务器上的安装位置

 

 

图4-2 网卡在2路全宽刀片服务器上的安装位置

 

 

图4-3 网卡在4路全宽刀片服务器上的安装位置

 

 

4.3  网卡适配的互联模块

4.3.1  网卡与互联模块的适配关系

Mezz网卡和互联模块的适配关系,请通过刀片服务器互联模块和Mezz卡兼容性查询工具查询。

4.3.2  网卡与互联模块的连接关系

互联模块和刀片服务器Mezz网卡详细连接关系,请通过组网查询工具查询。

ETH522i网卡通过中置背板与互联模块对接使用,当它安装在2路半宽或2路全宽刀片服务器上时,它与互联模块槽位的连接关系如图4-4所示,互联模块槽位请参见图4-6

·     Mezz1位置的网卡连接到1、4槽位的互联模块(ICM)

·     Mezz2位置的网卡连接到2、5槽位的互联模块(ICM)

·     Mezz3位置的网卡连接到3、6槽位的互联模块(ICM)

图4-4 2路半宽和2路全宽刀片服务器Mezz卡槽位与互联模块的连接关系逻辑图

 

当ETH522i安装在4路全宽刀片服务器上时,它与互联模块槽位的连接关系如图4-5所示,互联模块槽位请参见图4-6

·     Mezz1和Mezz4位置的网卡连接到1、4槽位的互联模块(ICM)

·     Mezz2和Mezz5位置的网卡连接到2、5槽位的互联模块(ICM)

·     Mezz3和Mezz6位置的网卡连接到3、6槽位的互联模块(ICM)

图4-5 4路全宽刀片服务器Mezz卡槽位与互联模块的连接关系逻辑图

 

图4-6 互联模块槽位

 

4.4  组网应用

ETH522i可与互联模块的内部端口对接,每个端口提供10GE以太网业务应用。互联模块的外部端口连接外部到Internet网络,实现安装了Mezz网卡的刀片服务器与互联网通信。

图4-7 Mezz网卡与互联模块对接组网

 

 


5 配置网卡

说明

本文中展示的软件界面,以某个软件版本为准进行示例;由于软件会不定期更新,请以产品实际显示的软件界面为准。

 

5.1  网卡与互联模块的端口对应关系

Mezz网卡与互联模块之间的端口对应关系,请参见OM Web界面中的[计算节点管理/端口映射]。

5.2  网卡的端口在OS下识别

本节介绍如何在OS下确认ETH522i的端口已被操作系统识别。

以Centos7.4和Windows Server 2012 R2为例介绍。

5.2.1  Linux系列操作系统

(1)     执行“lspci | grep BCM57810”命令,查看ETH522i网卡的PCI信息。2个PCI设备对应网卡的2个端口,如图5-1所示:

图5-1 查看PCI信息

 

(2)     执行“ifconfig -a”命令查看网卡的2个NIC端口(端口名称由OS命名规则决定),表示网卡的端口已被识别,如图5-2所示。如未识别到端口,请参考5.3  网卡在OS下安装和卸载驱动安装最新驱动程序,然后再进行识别。

图5-2 查看网卡端口信息

 

需要注意的是:如果网卡开启了NPAR功能,则每个端口会分成4个端口,一共有8个端口。执行“lspci | grep BCM57810”可以查看到8个PCI设备,如图5-3所示。

图5-3 开启NPAR的网卡

 

5.2.2  Windows操作系统

(1)     如图5-4所示,打开“Network Connections”,可查看到Qlogic 57810类型的网络适配器,则ETH522i网卡已正常识别。

图5-4 查看网卡

 

(2)     如果在“Network Connections”中看不到相应的网络适配器,则打开“Device Manager”,如图5-5所示。在“Network adapters”的“Other devices”中查看是否存在Ethernet Controller。如果存在,那么可以判断是驱动存在问题,请参考5.3  网卡在OS下安装和卸载驱动安装最新驱动程序,然后再进行识别;如果不存在,请查看网卡是否安装到位。

图5-5 查看设备管理

 

 

5.3  网卡在OS下安装和卸载驱动

H3C ETH522i网卡在不同的系统上使用不同的驱动,安装方法也有所不同,下面分别以Centos7.4和Windows Server 2012 R2为例进行介绍。

5.3.1  Linux系列操作系统

1. 检查当前网卡驱动

执行“modinfo bnx2x”命令,查看系统当前的驱动版本,如图5-6所示。

图5-6 查看驱动版本

 

2. 安装驱动

·     安装.rpm格式的驱动

如果获取的驱动是.rpm文件,则可以直接运行安装。请按照如下步骤操作:

(1)     将RPM驱动文件(如kmod-netxtreme2-7.14.46-1.rhel7u4.x86_64.rpm)拷贝到系统中。

(2)     执行“rpm –ivh文件名.rpm”命令,安装驱动程序,如图5-7所示。

图5-7 安装驱动

 

(3)     驱动安装完成后,重启系统或执行“rmmod bnx2x”和“modprobe bnx2x”命令重新加载驱动模块,让新驱动生效。

(4)     执行“modinfo bnx2x”或“ethtool –i ethX”命令确认生效后的新驱动版本,如图5-8所示。其中ethX是ETH522i对应的NIC端口,具体名称视情况而定。

图5-8 检查驱动版本

 

·     安装.tar.gz格式的源码包

如果获取的驱动是源码类型的压缩包,则需要进行编译安装。请按照如下步骤操作:

(1)     执行“tar –zxvf netxtreme2-<ver>.tar.gz”命令解压源码包。

(2)     执行“cd netxtreme2-<ver>”命令进入源码包目录。

(3)     执行“make install”命令进行编译安装,如图5-9所示。

图5-9 编译安装

 

(4)     驱动安装完成后,重启系统或执行“rmmod bnx2x”和“modprobe bnx2x”命令重新加载驱动模块,让新驱动生效。

3. 卸载驱动

执行“rpm –e kmod-netxtreme2”命令可将rpm包卸载,然后重启系统或执行“rmmod bnx2x”和“modprobe bnx2x”命令重新加载旧的驱动模块。

5.3.2  Windows操作系统

1. 检查当前网卡驱动

(1)     单击<Windows>按钮,进入开始菜单界面。

(2)     单击[Control Panel/Hardware/Device Manager]菜单项,进入设备管理器,如图5-10所示。

图5-10 进入设备管理器

 

(3)     在图5-11所示界面,右键单击网卡对应的端口,选择[Properties/Driver]页签,可以查看网卡的驱动信息。

图5-11 设备管理器

 

2. 安装驱动

(1)     从H3C网站获取相关驱动程序。

(2)     如图5-12所示,双击运行驱动程序,根据提示执行下一步,开始安装驱动程序。

图5-12 安装驱动程序

 

(3)     安装完成后,重启系统使驱动生效。

(4)     如图5-13所示,再次查看网卡的驱动信息,可以看到驱动版本已经更新。

图5-13 查看网卡驱动信息

 

3. 卸载驱动

(1)     单击<Windows>按钮,进入开始菜单界面。

(2)     单击[Control Panel/Hardware/Device Manager]菜单项,进入设备管理器。

(3)     右键单击要卸载驱动的网卡,选择[Properties/Driver]页签,单击<Uninstall>按钮,如图5-14所示。

图5-14 卸载驱动

 

5.4  配置PXE

说明

本节仅介绍在BIOS下使能网卡PXE功能的步骤。如需使用PXE功能,还需要搭建PXE Server,PXE Server的搭建方法为业界通用,可以通过互联网获取。

 

(1)     进入BIOS

在服务器启动过程中,根据提示按下DeleteEsc进入BIOS Setup界面。

(2)     开启PXE服务

·     UEFI启动模式

a.     图5-15所示,选择Advanced页签 >Network Stack Configuration,然后按Enter

图5-15 Advanced界面

 

b.     如图5-16所示,依次将Ipv4 PXE Support和Ipv6 PXE Support选项设置为Enable

图5-16 UEFI模式开启PXE服务

 

·     Legacy启动模式

a.     选择Advanced页签 >网卡 >MBA Configuration Menu,然后按Enter

b.     将Legacy Boot Protocol选项设置为PXE

图5-17 Legacy模式开启PXE服务

 

(3)     保存配置并重启

F4保存设置,服务器会自动重启,完成配置。系统启动时,在POST界面按F12从PXE启动。

5.5  配置iSCSI SAN

说明

iSCSI功能需要与远端的网络存储设备配合使用,网络存储设备的配置方法各不相同,具体方法请参见存储设备相关手册。本手册仅介绍本端服务器侧的相关配置。

 

本文以在Windows和RHEL 7.5系统下配置ETH522i的iSCSI SAN功能为例介绍配置步骤。

1. 在Windows系统下配置iSCSI SAN

(1)     如图5-18所示,为连接iSCSI网络存储的网口配置IP地址,保证主机与iSCSI存储能正常互通。

图5-18 配置本地地址

 

(2)     开启并配置iSCSI功能。

a.     如图5-19所示,打开“Control Panel”控制面板,单击“iSCSI Initiator”,在弹出对话框中单击“OK”。

图5-19 配置iSCSI功能

 

b.     在图5-20所示界面中,选择“Configuration”页签,单击“Change”,设置本端的iSCSI启动器名称。

图5-20 设置iSCSI启动器名称

 

c.     如图5-21所示,选择“Discovery”页签,单击“Discover Portals”,添加对端(网络存储设备)的地址信息。

图5-21 添加Target信息

 

d.     如图5-22所示,选择“Targets”页签,可以看到已发现的Target IQN,如果显示的状态为“inactive”,请单击“Connect”,连接成功后状态显示为“Connected”。然后关闭本对话框。

图5-22 连接Target

 

(3)     添加网络硬盘。

说明

执行本步骤前,请确保网络存储设备已完成相关配置。

 

a.     打开“Control Panel/Hardware/Device Manager”,右键单击“Storage controllers”下的iSCSI适配器,并选择“Scan for hardware changes”,如图5-23所示。

图5-23 扫描iSCSI网络存储

 

 

b.     右键单击系统左下角的“Windows”图标,打开“Disk Management”,可以看到新增了一个“Unknown”状态的磁盘,如图5-24所示。

图5-24 磁盘管理界面

 

c.     如图5-25所示,右键单击磁盘名称,选择“Online”将磁盘上线。

图5-25 磁盘上线

 

d.     如图5-26所示,再次右键单击磁盘名称,并选择“Initialize Disk”初始化磁盘。

图5-26 初始化磁盘

 

e.     如图5-27所示,右键单击磁盘的“Unallocated”区域,根据提示对磁盘进行分卷操作。

图5-27 为磁盘分卷

 

f.     分卷完成后,磁盘状态如图5-28所示。

图5-28 分卷完成

 

(4)     如图5-29所示,打开“我的电脑”,可以查看到新增的分区,iSCSI SAN配置完成。

图5-29 识别到网络磁盘

 

2. 在Red Hat系统下配置iSCSI SAN

说明

配置iSCSI SAN前,请确保主机已安装iSCSI客户端软件包。

 

(1)     如图5-30所示,为连接iSCSI网络存储的网口配置IP地址,保证主机与iSCSI存储能正常互通。

图5-30 设置本地地址

 

(2)     如图5-31所示,在/etc/iscsi目录下执行“cat initiatorname.iscsi”命令查看iSCSI Initiator(本端)的IQN名称,若未设置则使用vi命令手动设置。

图5-31 设置initiator name

 

(3)     如图5-32所示,执行“iscsiadm –m –discovery –t st –p target-ip”命令探测iSCSI Target(对端存储设备)的IQN名称,其中target-ip表示Target的IP地址。

图5-32 探测iSCSI Target的IQN名称

 

(4)     如图5-33所示,执行“iscsiadm –m node –T iqn-name –p target-ip -l”命令连接iSCSI Target,其中iqn-name表示上一步查询到的IQN名称,target-ip表示Target的IP地址。

说明

·     可使用以下命令断开iSCSI Target:

iscsiadm –m node –T iqn-name –p target-ip -u

·     可使用以下命令删除iSCSI Target节点的信息:

iscsiadm –m node –o delete –T iqn-name –p target-ip

 

图5-33 连接iSCSI Target

 

(5)     如图5-34所示,执行“lsblk”命令可以查看到新增的网络磁盘。

说明

·     执行本步骤前,请确保网络存储设备已完成相关配置。

·     本例中存储服务器上创建了2个卷,所以新增了2个磁盘。

 

图5-34 查看网络磁盘

 

(6)     如图5-35所示,执行“mkfs”命令,对新增的磁盘进行格式化。

图5-35 格式化磁盘

 

(7)     如图5-36所示,执行“mount”命令,挂载磁盘后即可正常使用。

图5-36 挂载磁盘

 

5.6  配置FCoE SAN

说明

 

本文以在Windows、RHEL 7.5和CASE0706操作系统下配置ETH522i的FCoE SAN功能为例介绍配置步骤。

1. 在Windows系统下配置FCoE SAN

(1)     配置FCoE存储设备和交换网板上的FCoE功能,保证FCoE链路通畅。关于交换网板上配置FCoE的方法,请参见相关的配置命令手册。

(2)     打开“Control Panel/Hardware/Device Manager”,右键单击“Storage controllers”下的FCoE适配器,并选择“Scan for hardware changes”,如图5-37所示。

图5-37 扫描FCoE网络存储

 

(3)     右键单击系统左下角的“Windows”图标,打开“Disk Management”,可以看到新增了一个“Unknown”状态的磁盘,如图5-38所示。

图5-38 磁盘管理界面

 

(4)     如图5-39所示,右键单击磁盘名称,选择“Online”将磁盘上线。

图5-39 磁盘上线

 

(5)     如图5-40所示,再次右键单击磁盘名称,并选择“Initialize Disk”初始化磁盘。

图5-40 初始化磁盘

 

(6)     如图5-41所示,右键单击磁盘的“Unallocated”区域,根据提示对磁盘进行分卷操作。

图5-41 为磁盘分卷

 

(7)     分卷完成后,磁盘状态如图5-42所示。

图5-42 分卷完成

 

(8)     如图5-43所示,打开“我的电脑”,可以查看到新增的分区,FCoE SAN配置完成。

图5-43 识别到网络磁盘

 

2. 在Red Hat系统下配置FCoE SAN

(1)     配置FCoE存储设备和交换网板上的FCoE功能,保证FCoE链路通畅。关于交换网板上配置FCoE的方法,请参见相关的配置命令手册。

(2)     如图5-44所示,执行“service fcoe start”和“service lldpad start”命令,启动FCoE和LLDP服务。

图5-44 启动FCoE和LLDP服务

 

(3)     如图5-45所示,执行“service fcoe status”和“service lldpad status”命令,查看FCoE和LLDP服务,确保已经启动。

图5-45 查看FCoE和LLDP服务状态

 

(4)     如图5-46所示,在/etc/fcoe目录下,执行“cp cfg-ethX cfg-ethM”命令拷贝并创建FCoE端口配置文件,其中cfg-ethM表示进行FCoE连接的端口名称。

图5-46 拷贝并创建FCoE端口配置文件

 

(5)     执行“vi cfg-ethM”命令,编辑并保存FCoE端口配置文件,保证“FCOE_ENABLE=yes”“DCB_REQUIRED=no”。

图5-47 编辑FCoE端口的配置文件

 

(6)     执行“lldptool set-lldp -i ethM adminStatus=disabled”命令,将该端口的lldp管理状态设为禁用。然后查看/var/lib/lldpad/lldpad.conf配置文件中ethM的adminStatus配置值,若为0,则命令执行成功;若命令执行失败,则可手动在配置文件中“lldp”下的“ethM”条目中添加一行“adminStatus = 0”,如图5-48所示。

图5-48 禁用lldp管理状态

 

(7)     如图5-49所示,执行“service fcoe restart”和“service lldpad restart”命令重启fcoe和lldp两个服务。

说明

系统重启后,需重新执行上述两条命令,使FCoE和LLDP生效。用户也可以执行“chkconfig fcoe on”和“chkconfig lldpad on”命令使FCoE和LLDP服务自启动。

 

图5-49 重启FCoE和LLDP两个服务

 

(8)     如图5-50所示,执行“ifconfig”命令,可以看到一个ethM的子接口被创建成功,子接口编号为交换网板上设置的vsan号。

图5-50 ethM的子接口被创建成功

 

(9)     如图5-51所示,执行“lsblk”命令可以查看到新增的网络磁盘。

说明

执行本步骤前,请确保网络存储设备已完成相关配置。

 

图5-51 查看网络磁盘

 

(10)     格式化并挂载网络磁盘后即可正常使用。

3. 在CAS系统下配置FCoE SAN

(1)     配置存储设备和互联模块上的FCoE功能,确保FCoE链路通畅。关于互联模块上配置FCoE的方法,请参见互联模块的配置命令手册及《H3C UniServer B16000刀箱整机典型配置》。

(2)     通过KVM的方式或远程登录连接至服务器的CAS操作系统。

a.     通过KVM的方式登录,进入图5-52所示界面,选择Local Command Shell进入命令行界面。

图5-52 KVM的方式登录

 

b.     通过远程登录的方式,如SSH等,连接至CAS操作系统命令行界面。

(3)     如图5-53所示,执行“service fcoe start”和“service lldpad start”命令,启动FCoE和LLDP服务。

图5-53 启动FCoE和LLDP服务

 

(4)     如图5-54所示,执行“service fcoe status”和“service lldpad status”命令,查看FCoE和LLDP服务,确保已经启动。

图5-54 查看FCoE和LLDP服务状态

 

(5)     如图5-55所示,在/etc/fcoe目录下,执行“cp cfg-ethX cfg-ethM”命令拷贝并创建FCoE端口配置文件,其中cfg-ethM表示进行FCoE连接的端口名称。

图5-55 拷贝并创建FCoE端口配置文件

 

(6)     执行“vi cfg-ethM”命令,编辑并保存FCoE端口配置文件,保证“FCOE_ENABLE=yes”“DCB_REQUIRED=no”。

图5-56 编辑FCoE端口的配置文件

 

(7)     执行“lldptool set-lldp -i ethM adminStatus=disabled”命令,将该端口的LLDP管理状态设为禁用。然后查看/var/lib/lldpad/lldpad.conf配置文件中ethM的adminStatus配置值,若为0,则命令执行成功;若命令执行失败,则可手动在配置文件中“lldp”下的“ethM”条目中添加一行“adminStatus = 0”,如图5-57所示。

图5-57 禁用LLDP管理状态

 

(8)     如图5-58所示,执行“service fcoe restart”和“service lldpad restart”命令重启FCoE和LLDP两个服务。

图5-58 重启FCoE和LLDP两个服务

 

(9)     如图5-59所示,执行“ifconfig”命令,可以看到一个ethM的子接口被创建成功,子接口编号为互联模块上设置的vsan号。

图5-59 ethM的子接口被创建成功

 

(10)     如图5-60所示,执行“lsblk”命令可以查看到新增的网络磁盘。

说明

执行本步骤前,请确保网络存储设备已完成相关配置。

 

图5-60 查看网络磁盘

 

(11)     格式化并挂载网络磁盘后即可正常使用。

5.7  配置SR-IOV

(1)     在服务器启动过程中,根据提示按下DeleteEsc进入BIOS Setup界面。

(2)     如图5-61所示,选择Advanced页签 > PCI Subsystem Settings,按Enter

图5-61 Advanced界面

 

(3)     进入图5-62所示界面,选择SR-IOV Support,设置为Enable。然后按ESC,直至退回到BIOS Setup主界面。

图5-62 PCI Subsystem Settings界面

 

(4)     如图5-63所示,选择Socket Configuration页签 > IIO Configuration > Intel@ VT for Directed I/O (VT-d),按Enter

图5-63 Socket Configuration界面

 

(5)     进入图5-64所示界面,选择Intel@ VT for Directed I/O (VT-d),设置为Enable。然后按ESC,直至退回到BIOS Setup主界面。

图5-64 Intel@ VT for Directed I/O (VT-d)界面

 

(6)     如图5-65所示,选择Advanced页签 > Mezz网卡的第一个端口(这是全局的开关),按Enter。设置Multi-Function Mode为SR-IOV。然后保存并重启系统。

图5-65 设置Multi-Function Mode

 

(7)     在系统启动阶段,按E进入图5-66所示界面,然后按方向键进行翻页,并在指定位置加入“intel_iommu=on”来开启IOMMU支持功能。设置完成后按Ctrl-x继续启动系统。

说明

本步骤及后续步骤,在系统重启后会失效,需重新配置。

 

图5-66 修改grub启动配置

 

(8)     如图5-67所示,进入系统后,执行“dmesg | grep IOMMU”命令,确认IOMMU是否成功开启。

图5-67 确认IOMMU是否成功开启

 

(9)     如图5-68所示,执行“echo NUM > /sys/class/net/ethX/device/sriov_numvfs”命令,为某个PF端口分配指定的VF数量,其中NUM表示要分配的VF数量,ethX表示PF端口名称。执行完成后,可使用命令“lspci | grep BCM”确认是否成功分配。

图5-68 分配VF

 

(10)     如图5-69所示,执行“virt-manager”命令,运行虚拟机管理器,然后选择[File/New Virtual Machine],新建虚拟机。

图5-69 新建虚拟机

 

(11)     在新建的虚拟机界面,依次单击图5-70所示按钮,添加虚拟网卡。

图5-70 添加虚拟网卡

 

(12)     安装驱动并执行“ifconfig ethVF hw ether xx:xx:xx:xx:xx:xx”命令为虚拟网卡配置MAC地址后,即可正常使用。其中ethVF表示虚拟网卡的名称,xx:xx:xx:xx:xx:xx表示MAC地址。

5.8  配置高级属性

5.8.1  VLAN

1. 802.1Q VLAN

本节以RHEL 7.5系统为例介绍在OS下配置VLAN的方法。

(1)     执行“modprobe 8021q”命令,加载802.1q模块。

(2)     执行“ip link add link ethX name ethX.id type vlan id id”命令,在物理端口上创建VLAN接口。其中ethX表示物理端口名称,id表示VLAN编号。

(3)     执行“ip –d link show ethX.id”命令查看VLAN接口是否创建成功,如图5-71所示。

图5-71 创建VLAN接口

 

(4)     执行“ip addr add ipaddr/mask brd brdaddr dev ethX.id”和“ip link set dev ethX.id up”命令为VLAN接口配置IP地址并设置为UP状态。其中ipaddr/mask表示VLAN接口的IP地址及掩码,brdaddr表示广播地址,ethX.id表示VLAN接口名称,如图5-72所示。

说明

执行“ip link set dev ethX.id down”和“ip link delete ethX.id”命令可以删除VLAN接口。

 

图5-72 配置IP地址并设置为UP状态

 

2. IEEE 802.1ad Provider Bridges (QinQ)

(1)     安装官方的lediag工具。

a.     将lediag工具拷贝到系统中。

b.     执行“tar –zxvf 文件名.tar.gz”命令,解压软件包。

c.     执行“cd <lediag目录>”命令,定位到解压后的目录,然后执行“make”命令进行编译。

(2)     启动工具并切换到相应网卡,如图5-73所示。

a.     编译完成后,在lediag文件夹下执行“./load.sh –b10eng”命令进入工程模式

b.     如果服务器安装了多张网卡,请使用“dev <num>”命令来切换到相应的网卡,<num>表示网卡上端口的端口号。说明:假设某网卡有4个端口,那么指定这4个端口号中的任意一个都可以切换到该网卡。

(3)     开启QinQ功能,如图5-73所示。

a.     执行“rmmod bnx2x”命令卸载驱动。

b.     执行“nvm vlant”命令开启QINQ功能。

c.     执行“exit”命令退出工程模式,然后重启系统并进入BIOS Setup界面继续进行配置。

图5-73 开启QinQ功能

 

(4)     配置QinQ

·     SF模式下QINQ配置;

a.     如图5-74所示,选择Advanced页签 >待配置的网卡端口 >Device Hardware Configuration Menu >QINQ Configuration,按Enter

b.     设置页面下“QINQ VLAN mode”为“QINQ”,然后设置端口的VLAN ID和VLAN优先级。

c.     各端口都配置完成后,按F4保存并重启,各端口发出的流量就自带VLAN TAG了。

图5-74 SF模式下设置QinQ

 

·     NPAR模式下QINIQ配置;

a.     如图5-75所示,选择Advanced页签 >待配置的网卡端口 >NIC Partitioning Configuration Menu >QINQ Configuration,按Enter

b.     设置页面下“QINQ VLAN mode”为“QINQ”,然后设置虚拟NIC的VLAN ID和VLAN 优先级。

图5-75 NPAR模式下设置QinQ

 

5.8.2  Bonding配置(Linux)

本文以在RHEL7.5系统下配置mode=6为例介绍操作步骤。

(1)     如图5-76所示,在“/etc/sysconfig/network-scripts/”目录下,执行“vi ifcfg-bond0”命令创建bond0配置文件并添加以下内容:

BOOTPROTO=static

DEVICE=bond0

NAME=bond0

TYPE=Bond

BONDING_MASTER=yes

ONBOOT=yes

IPADDR=192.168.50.88//设置bond0接口地址

PREFIX=24//设置子网掩码

GATEWAY=

DNS=

BONDING_OPTS=”miimon=100 mode=6”//设置每100ms检测一次链路,Bonding模式为mode=6

图5-76 配置bond0

 

(2)     编辑SLAVE接口的配置文件。如图5-77所示,执行“vi ifcfg-ethX”命令,并在配置文件中写入如下内容:

ONBOOT=yes

MASTER=bond0

SLAVE=yes

对于其他要加入bond0的SLAVE接口,也进行相同编辑。

图5-77 编辑SALVE接口配置文件

 

(3)     如图5-78所示,执行“service network restart”命令,重启网络服务,使bond0生效。

图5-78 重启网络服务

 

(4)     如图5-79所示,执行“cat /proc/net/bonding/bond0”命令查看bond0和网卡信息。可以看到bond0以及两个SLAVE接口已经UP。

图5-79 查看bond0信息

 

图5-80 查看网卡信息(一)

 

图5-81 查看网卡信息(二)

 

5.8.3  Teaming配置(Windows)

(1)     如图5-82所示,单击“Server Manager / Local Server / NIC Teaming”的“Disabled”,打开NIC Teaming配置界面。

图5-82 打开NIC Teaming

 

(2)     如图5-83所示,单击“TASKS / NEW Team”,创建Team。

图5-83 创建Team

 

(3)     如图5-84所示,设置Team名称并勾选要加入Team的网络适配器,然后在“Additional properties”中设置相应的属性,最后单击“OK”创建Team。

提示

“Switch Independent”模式的Team创建较缓慢,请耐心等待。

 

图5-84 设置New Team

 

(4)     如图5-85所示,完成创建后,可以在 “Network Connections”界面查看到新增的“One Team”网络适配器。

图5-85 查看网络适配器

 

5.8.4  TCP OFFLOADING

OFFLOAD是将本来该操作系统进行的一些数据处理(如分片、重组等)工作放到网卡硬件中去,以便降低系统CPU消耗的同时,提高处理性能。其中与TCP相关的主要有TSO、LSO、LRO、GSO、GRO等。

TSO(TCP Segmentation Offload)顾名思义就是用来切分TCP数据包的,一般实用中称之为LSO/LRO,分别对应Large Segmetn Offload发送和Large Receive Offload接受两个方向。发送数据超过MTU限制时,OS只需提交一次传输请求给网卡,网卡会自动进行切分和封装再发送,当收到很多碎片包时,LRO可以辅助自动组合成一段较大的数据,一次性提交给OS处理。

但在实际应用中,GSO(Generic Segmentation Offload)和GRO(Generic Receive Offload)更加通用,它们自动检测网卡支持特性,支持分包则直接发给网卡,否则先分包后发给网卡。

(1)     如图5-86所示,执行“ethtool –k ethx”命令,查询网卡OFFLOAD功能的支持和开启情况,其中ethx表示网卡的端口名称。

图5-86 查询OFFLOAD功能的支持和开启情况

 

(2)     如图5-87所示,执行“ethtool –K ethX feature on/off”命令,开启或关闭相应的OFFLOAD功能,其中ethx表示网卡的端口名称,feature表示功能的名称,包括tso、lso、lro、gso、gro等。

图5-87 设置OFFLOAD功能

 

 


6 FAQ

1. 无法使用iSCSI boot安装H3C CAS系统

问题现象:

使用iSCSI boot在映射的存储卷上为刀片服务器安装H3C CAS系统,选择安装磁盘时可以扫描到存储的iqn但是无法登入。

问题原因及解决方法:

与系统本身有关,ETH522i网卡不支持使用iSCSI Boot安装H3C CAS系统,同样也不支持安装Ubuntu12.04和Ubuntu14.04系统。

2. 网卡速率设置成1Gbps后端口会down

问题现象:

刀片服务器安装Windows操作系统,端口的链路速度设置为1Gbps后,端口状态会变down,设置为10Gbps则正常。

问题原因及解决方法:

ETH522i网卡不支持在1Gbps和自协商模式下使用,请在10Gbps模式下使用。

3. 网卡配置NPAR后生成的虚拟口无法切换成FCoE模式

问题现象:

网卡配置NPAR后,在BIOS下将虚拟化的端口设置成FCoE模式,但是OM界面上依然为NIC模式,如图6-1所示。

图6-1 NPAR虚拟化的端口不支持FCoE模式

 

问题原因及解决方法:

网卡配置NPAR后,仅物理口虚拟化的第一个端口支持FCoE,其他端口即使在BIOS下设置成FCoE,实际不会生效。如需创建FCoE链路,请使用虚拟化后的第一个端口。

 


7 缩略语

表7-1 缩略语

缩略语

英文解释

中文解释

F

FC

Fiber Channel

光纤通道

FCoE

Fiber Channel Over Ethernet

以太网光纤通道

I

iSCSI

Internet Small Computer System Interface

因特网小型计算机系统接口

N

NCSI

Network Controller Sideband Interface

边带管理

NPAR

NIC Partitioning

网卡分区

P

PCIe

Peripheral Component Interconnect Express

高速外设部件互联标准

PF

Physical Function

物理功能

PXE

Preboot Execute Environment

预启动执行环境

R

RDMA

Remote Direct Memory Access

远程直接数据存取

S

SAN

Storage Area Network

存储区域网络

SR-IOV

Single Root I/O Virtualization

单根I/O虚拟化

T

TCP

Transmission Control Protocol

传输控制协议

V

VF

Virtual Function

虚拟功能

VMDq

Virtual Machine Data Queue

虚拟机设备队列

 

不同款型规格的资料略有差异, 详细信息请向具体销售和400咨询。H3C保留在没有任何通知或提示的情况下对资料内容进行修改的权利!

新华三官网
联系我们