• 产品与解决方案
  • 行业解决方案
  • 服务
  • 支持
  • 合作伙伴
  • 关于我们

IB1040i Mezz网卡模块 用户指南-6W100

01-正文

本章节下载  (5.37 MB)

01-正文


1 安全

1.1  安全信息

为了避免操作过程中对人和设备造成伤害,请在操作前,仔细阅读产品相关安全信息。实际操作中,包括但不限于本文描述的安全信息。

1.1.1  运行安全

介绍安装和更换网卡时的安全注意事项。

·     为确保人身和设备安全,只有H3C授权人员或专业的工程师才能安装和更换网卡。

·     安装或更换网卡前,请确保业务已停止运行,并将刀片服务器下电,然后再拆卸刀片服务器。

·     拆卸、搬运或放置刀片服务器时,请勿用力过猛,请确保搬运设备过程中,用力均匀、缓慢。

·     请将刀片服务器放在干净、平稳的工作台或地面上进行维护。

·     为避免组件表面过热造成人身伤害,请确保刀片服务器和内部系统组件冷却后再操作。

1.1.2  电气安全

请仔细检查工作区域内是否存在潜在的危险,如:机箱未接地或接地不可靠、工作区域潮湿等。

1.2  静电防护

1.2.1  防止静电释放

人体或其它导体释放的静电可能会损坏网卡,由静电造成的损坏会缩短网卡的使用寿命。

为避免静电损害,请注意以下事项:

·     在运输和存储网卡时,请将网卡装入防静电包装中。

·     将网卡送达不受静电影响的工作区前,请将它们放在防静电包装中保管。

·     先将网卡放置在防静电工作台上,然后再将其从防静电包装中取出。

·     从防静电包装袋中取出网卡后,请尽快进行安装操作,避免网卡长时间放置在外界环境中。

·     在没有防静电措施的情况下,请勿触摸网卡上的插针和电路元器件。

·     将网卡拆卸后,请将网卡及时放入防静电包装袋中,并妥善保管。

1.2.2  防止静电释放的接地方法

在取放或安装网卡时,用户可采取以下一种或多种接地方法以防止静电释放。

·     佩戴防静电腕带,并将腕带的另一端良好接地。请将腕带紧贴皮肤,且确保其能够灵活伸缩。

·     在工作区内,请穿上防静电服和防静电鞋。

·     请使用导电的现场维修工具。

·     使用防静电的可折叠工具垫和便携式现场维修工具包。


2 认识网卡

说明

图片仅供参考,具体请以实物为准。

 

2.1  概述

IB1040i(型号为IB1040i-Mb-2*100G,以下简称IB1040i)是一款2端口InfiniBand卡,提供2*100G端口,适用于UIS 9000一体机的刀片服务器,为刀片服务器提供连接互联模块槽位的网络接口。IB1040i通过x16带宽的PCIe通道与刀片服务器进行数据交换,通过2个100G IB EDR端口经中置背板与互联模块相连,支持HCA应用。

2.2  外观

IB1040i网卡的外观如图2-1所示。它应用于UIS 9000刀片服务器的2路半宽、2路全宽和4路全宽刀片服务器,具体可安装位置请参见4.2  网卡适配的刀片服务器

图2-1 IB1040i外观

 

 

2.3  规格参数

介绍网卡的产品规格和技术参数。

2.3.1  产品规格

表2-1 产品规格

属性

描述

基本属性

网卡类型

IB网卡

芯片型号

MT27808A0-FCCF-EV

最大功耗

20W

数据通道总线

PCIe3.0 x16

网络属性

用户接口数量和类型

2*100G

用户接口传输速率

100Gb/s

全双工/半双工

全双工

标准兼容性

802.3az,802.3ba,802.3bj,802.3bm,802.3ae,802.3az,802.3ap,802.3ad,802.1Q,802.1p,802.1Qau,802.1Qaz,802.1Qbb,802.1Qbg

 

2.3.2  技术参数

表2-2 技术参数

类别

项目

说明

物理参数

尺寸(高xx长)

25.05mm x 61.60mm x 95.00mm

环境参数

温度

工作环境温度:5°C~35°C

贮存环境温度:-40°C~70°C

湿度

·     工作环境湿度:8%90%RH(无冷凝)

·     贮存环境湿度:5%95%RH(无冷凝)

海拔高度

·     工作环境高度:-605000m(自35°C@900m始,高度每升高100m,规格最高温度降低0.33°C

·     贮存环境高度:-60~5000m

 

 


3 特性介绍

3.1  支持的特性

介绍IB1040i网卡支持的特性。

表3-1 网卡特性

特性

是否支持

InfiniBand

Jumbo Frames

RDMA

Load Balancing

802.1Q VLANs

Auto-Negotiation

PXE Boot

iSCSI

SR-IOV

VMDq

×

Multiple Rx Queues(RSS)

TCP/IP Stateless Offloading

Wake-on-LAN

×

NIC bonding

 

3.2  功能介绍

1. InfiniBand

IB1040i网卡支持InfiniBand技术。

InfiniBand通过交换机在节点之间直接创建一个私有的、受保护的通道,进行数据和消息的传输。传输过程无需CPU参与,实现远程直接内存访问,发送/接收由InfiniBand适配器管理和执行。适配器一端连接到CPU,另一端通过InfiniBand网络端口连接到InfiniBand子网。与其他网络通信协议相比,提供了明显的优势,包括更高的带宽、更低的延迟和较强的可伸缩性。

2. OpenSM

OpenSM是符合InfiniBand的子网管理器(Subnet Manager),运行在Mellanox OFED软件堆栈进行IB网络管理,为符合InfiniBand规范的硬件初始化。每个InfiniBand子网必须运行一个SM。OpenSM附加到本地主机的特定IB端口,并管理与其连接的组件,如果未指定端口,则OpenSM将选择第一个“最佳”可用端口。

3. IPoIB

IB1040i网卡2个端口都支持IPoIB功能。

IPoIB是将IP报文封装到IB链路上进行传输。IPoIB端口操作系统下识别为ibX,可以配置IP,实现IPv4/IPv6的地址解析、IPv4/IPv6的数据报的封装、网络初始化、组播、广播和管理信息库等功能。

4. PXE

IB1040i网卡支持PXE启动。在启动过程中,刀片服务器(PXE Client)先从远端服务器(PXE Server)获取一个IP地址,再使用TFTP协议下载并执行PXE启动文件,完成客户端的基本软件配置,从而引导客户端实现PXE启动。PXE使服务器的启动可以不依赖本地数据存储设备或本地已安装的操作系统。

5. iSCSI

IB1040i网卡的2个端口都支持iSCSI SAN,但不支持iSCSI Remote boot技术。

iSCSI是一种能够把SCSI接口与以太网技术相结合的新型存储技术。基于iSCSI协议,设备便能在网络中传输SCSI接口的命令和数据内容了,这样不仅克服了传统SCSI接口设备的局限性,实现让机房之间可以跨越省市来共享存储资源,还可以做到在不停机的状况下扩展存储容量。解除了物理环境限制,可以把存储资源分开给多个服务器一起使用。

6. SR-IOV

IB1040i网卡的2个端口都支持SR-IOV。

SR-IOV允许用户整合其网络硬件资源,并在整合的硬件上同时运行多个虚拟机。虚拟化还为用户提供了丰富的功能,例如I/O共享、整合、隔离和迁移,以及简化管理。虚拟化可能会因管理程序的开销导致性能降低,PCI-SIG引入了SR-IOV规范,通过创建VF来解决性能问题,虚拟功能是一种直接分配给虚拟机的轻量级PCIe功能,绕过管理程序层进行主数据移动。

PF是全功能的PCIe功能,VF是PF分离出的轻量级PCIe功能,可直接将VF指定给相应的应用程序,虚拟功能共享物理设备的资源,并在没有CPU和虚拟机管理程序开销的情况下执行I/O。

IB1040i网卡支持每个物理端口创建0到127,共254个VF。

7. VLAN

·     802.1Q VLAN

IB1040i网卡每个端口最大支持4094个VLAN,VLAN ID的取值范围为1~4094。

网卡不会处理报文的tag(打tag或者去tag操作),VLAN ID由OS指定,网卡只是透传。

VLAN是一组逻辑上的设备和用户,工作在OSI参考模型的第二层和第三层。一个VLAN就是一个广播域,VLAN之间的通信是通过第三层的路由器来完成的。与传统的局域网技术相比,VLAN技术更加灵活,添加和修改管理开销少,可以控制广播活动,提高网络安全性。

8. BONDING(Linux)

BONDING包括如下7种模式,其中常用的有mode=0、mode=1和mode=6三种,1040i只支持active-backup模式。

·     mode=0,即:(balance-rr)Round-robin policy(平衡轮循环策略),数据包在两个SLAVE之间顺序依次传输;

·     mode=1,即:(active-backup)Active-backup policy(主-备策略)。只有主设备处于活动状态,当主设备宕机后备设备转换为主设备;

·     mode=2,即:(balance-xor)XOR policy(平衡策略),基于指定的传输HASH策略传输数据包;

·     mode=3,即:broadcast(广播策略),在每个SLAVE接口上传输每个数据包,此模式提供了容错能力;

·     mode=4,即:(802.3ad)IEEE 802.3ad Dynamic link aggregation(IEEE 802.3ad动态链路聚合),创建一个聚合组,它们共享同样的额定速率和双工设定,外出流量的SLAVE选择是基于传输hash策略的。此模式需要交换机支持IEEE 802.3ad,且要经过特定的配置;

·     mode=5,即:(balance-tlb)Adaptive transmit load balancing(适配器传输负载均衡)。不需要任何特别的交换机支持,在每个SLAVE上根据当前的负载(根据速度计算)分配外出流量,如果正在接受流量的SLAVE故障,另一个SLAVE接管失败SLAVE的MAC地址;

·     mode=6,即:(balance-alb)Adaptive load balancing(适配器适应性负载均衡)。该模式包含了balance-tlb模式,同时加上针对IPV4流量的接收负载均衡,通过ARP协商实现,不需要交换机支持。BONDING驱动截获本机发送的ARP应答,并把源硬件地址改为BOND中某个SLAVE的唯一硬件地址,从而使得不同的对端使用不同的硬件地址进行通信。

9. Teaming(Windows)

以集成在Windows Server 2012 R2中的Teaming解决方案为例,一般的NIC Teaming模式有三种:

·     静态成组(Static Teaming):是一种依赖于交换机(Switch-dependent)的组合方式,要求交换机的支持,并且成员网卡不能分散到不同的交换机上。

·     交换机独立(Switch Independent):网卡组合不需要交换机的参与,这样网卡可以连接到不同的交换机上,而且在连接不同交换机时采用的是主备模式,只有连接在同一交换机时才可以实现负载均衡聚合。

·     LACP:类似静态成组,需要先在交换机中启用LACP,会把多块网卡合并成一个逻辑的线路,这种组合方式的速度是最快的。

除了Teaming模式需要配置之外,还需要配置负载均衡的模式,模式也有三种:

·     地址哈希(Address Hash):启用后,数据包到达Teaming后,会根据目的地址信息(MAC地址,IP地址和端口号)执行哈希算法,通过算法结果,NIC Team决定由哪块物理网卡发送数据包。这种方式无法控制流量的走向,如果有大量数据是流向一个目标地址的,那么只会通过一块物理网卡来发送。

·     Hyper-V端口:用于Hyper-V的模式,与无法控制的地址哈希相比,这种方式效率更高,数据会通过绑定虚拟网卡的不同物理网卡传输,同时这种绑定是基于每个虚拟网卡,而不是每台虚拟机的。如果是使用Hyper-V外部虚拟机交换机建议选择这种方式。

·     动态:这种方式是最优化的方式,从Windows Server 2016中新引入,数据会被平分到所有网卡上,最大效率的利用带宽。

10. TCP OFFLOADING

TCP卸载是一种TCP加速技术,将TCP/IP堆叠的工作卸载到网络接口控制器上,用硬件来完成。在高速以太网,处理TCP/IP数据包表头工作变得较为沉重,会占用大量的CPU资源,而由网卡硬件进行处理可以减轻处理器的负担,解放出来的CPU资源可以专注于其他的应用。

11. RDMA

RDMA技术全称远程直接数据存取,就是为了解决网络传输中服务器端数据处理的延迟而产生的。RDMA通过网络把资料直接传入计算机的存储区,将数据从一个系统快速移动到远程系统存储器中,而不对操作系统造成任何影响,这样就不需要用到多少计算机的处理功能。它消除了外部存储器复制和上下文切换的开销,因而能解放内存带宽和CPU周期用于改进应用系统性能。

 


4 软硬件兼容关系

4.1  支持的操作系统

网卡与OS的兼容关系,请参见OS兼容性查询工具

4.2  网卡适配的刀片服务器

网卡支持的刀片服务器型号及其安装位置如表4-1所示。

表4-1 网卡适配的刀片服务器

刀片服务器型号

刀片服务器类型

Mezz网卡槽位数量

可安装位置

安装位置图示

H3C UIS B460 G3

2路半宽刀片服务器

3个

Mezz1、Mezz2和Mezz3

网卡在2路半宽刀片服务器上的安装位置

H3C UIS B580 G3

2路全宽刀片服务器

3个

Mezz1、Mezz2和Mezz3

网卡在2路全宽刀片服务器上的安装位置

H3C UIS B780 G3

4路全宽刀片服务器

6个

Mezz1、Mezz2、Mezz3、Mezz4、Mezz5和Mezz6

网卡在4路全宽刀片服务器上的安装位置

H3C UIS B460 G5

2路半宽刀片服务器

3个

Mezz1、Mezz2和Mezz3

网卡在2路半宽刀片服务器上的安装位置

 

图4-1 网卡在2路半宽刀片服务器上的安装位置

 

 

图4-2 网卡在2路全宽刀片服务器上的安装位置

 

 

图4-3 网卡在4路全宽刀片服务器上的安装位置

 

 

4.3  网卡适配的互联模块

4.3.1  网卡与互联模块的适配关系

IB1040i网卡支持的互联模块:H3C UIS BX1020B

4.3.2  网卡与互联模块的连接关系

IB1040i网卡通过中置背板与互联模块对接使用,当它安装在2路半宽或2路全宽刀片服务器上时,它与互联模块槽位的连接关系如图4-4所示,互联模块槽位请参见图4-6

·     Mezz1位置的网卡连接到1、4槽位的互联模块(ICM)

·     Mezz2位置的网卡连接到2、5槽位的互联模块(ICM)

·     Mezz3位置的网卡连接到3、6槽位的互联模块(ICM)

图4-4 2路半宽和2路全宽刀片服务器Mezz卡槽位与互联模块的连接关系逻辑图

 

当IB1040i安装在4路全宽刀片服务器上时,它与互联模块槽位的连接关系如图4-5所示,互联模块槽位请参见图4-6

·     Mezz1和Mezz4位置的网卡连接到1、4槽位的互联模块(ICM)

·     Mezz2和Mezz5位置的网卡连接到2、5槽位的互联模块(ICM)

·     Mezz3和Mezz6位置的网卡连接到3、6槽位的互联模块(ICM)

图4-5 4路全宽刀片服务器Mezz卡槽位与互联模块的连接关系逻辑图

 

图4-6 互联模块槽位

 

4.4  组网应用逻辑图

IB1040i可与互联模块的内部端口对接,每个端口提供100G业务应用。互联模块的外部端口连接外部到Internet网络,实现安装了Mezz网卡的刀片服务器与互联网通信。

图4-7 Mezz网卡与互联模块对接组网

 

 


5 配置网卡

说明

本文中展示的软件界面,以某个软件版本为准进行示例;由于软件会不定期更新,请以产品实际显示的软件界面为准。

 

5.1  网卡与互联模块的端口对应关系

Mezz网卡与互联模块之间的端口对应关系,请参见OM Web界面中的[互联模块管理/端口映射],或可通过组网查询工具查询。

5.2  网卡的端口在OS下识别

本节介绍如何在OS下确认IB1040i网卡的端口已被操作系统识别。

以Centos7.5和Windows Server 2016为例介绍。

5.2.1  Linux系列操作系统

(1)     执行“lspci | grep MT27800”命令,查看IB1040i网卡的PCI信息。可识别到2个PCI设备,分别对应网卡的两个端口,如图5-1所示。

图5-1 查看PCI信息

 

(2)     执行“ibstat”命令可以查看到两个端口信息,每个端口对应一个GUID地址。

图5-2 查看网卡端口信息

 

(3)     执行“ifconfig -a”命令查看网卡的两个IPoIB端口,端口名称以ibX形式显示。若两个端口均显示,则表示网卡的端口已被正常识别,如图5-3所示。如未识别到端口,请参考5.3  网卡在OS下安装和卸载驱动安装最新驱动程序,然后再进行识别。

图5-3 查看网卡IPoIB端口

 

5.2.2  Windows系列操作系统

(1)     如图5-4所示,打开“Network Connections”,可查看到Mellanox ConnectX-5类型的网络适配器,则IB1040i网卡已正常识别。

图5-4 查看网卡

 

(2)     如果在“Network Connections”中看不到相应的网络适配器,则打开“Device Manager”。在“Network adapters”的“Other devices”中查看是否存在Unkonwn device,如图5-5所示,并查看其PCIe ID是否与IB1040i网卡符合。如果存在且PCIe ID符合,那么可以判断是驱动存在问题,请参考5.3  网卡在OS下安装和卸载驱动安装最新驱动程序,然后再进行识别;如果不存在,请查看网卡是否安装到位。

图5-5 查看设备管理

 

5.3  网卡在OS下安装和卸载驱动

IB1040i网卡在不同的系统上使用不同的驱动,安装方法也有所不同,下面分别以Centos7.5和Windows Server 2016为例进行介绍。

5.3.1  Linux系列操作系统

1. 检查当前网卡驱动

执行“modinfo mlx5_core”命令,查看系统当前的驱动版本,如图5-6所示。

图5-6 查看驱动版本

 

2. 安装驱动

如果获取的驱动是.tgz文件,请按照如下步骤操作:

(1)     将tgz驱动文件(如MLNX_OFED_LINUX-4.6-1.0.1.1-rhel7.5-x86_64.tgz)拷贝到系统中。

(2)     执行“tar -zxvf MLNX_OFED_XXX.tgz”命令,解压驱动包。

(3)     执行“cd MLNX_OFED_LINUX-<ver>”命令进入驱动包目录。

(4)     执行命令“./mlnxofedinstall”安装驱动程序,如图5-7所示。

图5-7 安装驱动

 

(5)     驱动安装完成后,重启系统或执行“rmmod mlx5_core”和“modprobe mlx5_core”命令重新加载驱动模块,让新驱动生效。

(6)     执行“modinfo mlx5_core”或“ethtool -i ibX”命令确认生效后的新驱动版本,如图5-8所示。其中ibX是1040i对应的IPOIB端口,具体名称用“ifconfig -a”命令查看。

图5-8 检查驱动版本

 

3. 卸载驱动

在驱动安装包目录下执行“./uninstall.sh”脚本卸载驱动,然后重启系统或执行“rmmod mlx5_core”和“modprobe mlx5_core”命令重新加载旧的驱动模块。

5.3.2  Windows系列操作系统

1. 检查当前网卡驱动

(1)     单击<Windows>按钮,进入开始菜单界面。

(2)     单击[Control Panel/Hardware/Device Manager]菜单项,进入设备管理器,如图5-9所示。

图5-9 进入设备管理器

 

(3)     在图5-10所示界面,右键单击网卡对应的端口,选择[Properties/Driver]页签,可以查看网卡的驱动信息。

图5-10 设备管理器

 

2. 安装驱动

(1)     从H3C网站获取相关驱动程序。

(2)     如图5-11所示,双击运行驱动程序,根据提示执行下一步,开始安装驱动程序MLNX_WinOF2。

图5-11 安装驱动程序

 

(3)     安装完成后,重启系统使驱动生效。

(4)     如图5-12所示,再次查看网卡的驱动信息,可以看到驱动版本已经更新。

图5-12 查看网卡驱动信息

 

3. 卸载驱动

(1)     单击<Windows>按钮,进入开始菜单界面。

(2)     单击[Control Panel/Hardware/Device Manager]菜单项,进入设备管理器。

(3)     右键单击要卸载驱动的网卡,选择[Properties/Driver]页签,单击<Uninstall>按钮,如图5-13所示。

图5-13 卸载驱动

 

5.4  切换网卡模式

IB1040i网卡可以通过BIOS中设置来切换网卡模式。

(1)     进入BIOS

在服务器启动过程中,根据提示按下DeleteEsc进入BIOS Setup界面。

(2)     切换到Advanced页签>1040i网卡的端口中,按EnterNetwork Link Type进行配置,如图5-14所示,可选择Ethernet模式或InfiniBand模式。

图5-14 切换网卡模式

 

5.5  IB网络属性

5.5.1  Linux系统下运行OpenSM

(1)     执行 “service opensm start”或“/etc/init.d/opensmd start” 命令开启OpenSM。

图5-15 开启OpenSM

 

(2)     默认选择第一个端口作为SM管理端口,或者可以执行命令“opensm -g GUID -B -p [0-14]”,根据端口GUID指定SM的管理端口,其中-g表示绑定到此GUID端口上运行,端口的GUID可以通过执行ibstat命令查询,-B表示后台运行,-p表示优先级,数字越大优先级越高。

图5-16 通过命令指定OpenSM的管理端口

 

(3)     如图所示,可以使用命令“ps aux | grep opensm”和“sminfo”查看本机进程和网络是否已成功运行OpenSM,进程存在且SM端口已指定则表示OpenSM已成功运行。

图5-17 检测OpenSM运行状态

 

5.5.2  配置IPoIB

以RHEL7.5为例为IPoIB端口配置IP,操作步骤如下:

(1)     如图所示,使用命令“ip addr”查看IPoIB端口。

图5-18 查看IPoIB端口

 

(2)     如图所示,可以使用命令“ip addr add <IP>/<netmask> dev ibX”配置动态IP。

图5-19 配置动态IP

 

(3)     配置静态IP,进入“/etc/sysconf/network-scripts”目录添加ifcfg-ibX配置文件,配置文件格式如下所示,可根据实际需求调整参数。配置完成后执行命令“service network restart”重启网络服务,激活端口。

DEVICE=ibx

TYPE=InfiniBand

ONBOOT=yes

IPADDR=172.168.100.100

NETMASK=255.255.255.0

GATEWAY=172.168.100.1

NM_CONTROLLED=no

USERCTL=no

BOOTPROTO=static

5.5.3  配置IPoIB端口Bonding

IB1040i网卡的IPoIB端口支持Bonding配置,本文以RHEL7.5下为例进行介绍。在Linux下端口的Bonding配置由OS的配置文件实现,只支持active-backup模式。

(1)     执行“ifconfig -a”或“ip addr”找到IB1040i网卡的IPoIB端口ibX。

(2)     在“/etc/sysconf/network-scripts”目录下创建或更新文件ifcfg-ibX,具体内容如下。其中MASTER为bond接口名称,可根据实际需求调整参数。

DEVICE=ibX

ONBOOT=yes

BOOTPROTO=none

USERCTL=no

IPV6INIT=no

NM_CONTROLLED=no

MASTER=bond0

SLAVE=yes

TYPE=InfiniBand

PRIMARY=yes

(3)     在“/etc/sysconf/network-scripts”目录下创建ifcfg-bond0,设备名称与上一步master保持一致,内容如下。其中BONDING_OPTS为bond参数设置,mode=1表示主备模式,primary表示主接口。

DEVICE=bond0

IPADDR=192.168.72.54

NETMASK=255.255.255.0

NETWORK=192.168.72.0

BROADCAST=192.168.72.255

ONBOOT=yes

BOOTPROTO=none

USERCTL=no

NM_CONTROLLED=no

TYPE=Bonding

MTU=65520

BONDING_OPTS="miimon=100 mode=1 primary=ib0 updelay=0 downdelay=0"

BONDING_SLAVE0=ib0

BONDING_SLAVE1=ib1

说明

当使用IPoIB的IB1040i网卡工作在connected模式时,配置文件中的MTU值不能大于65520。当使用IPoIB的IB1040i网卡工作在datagram模式时,配置文件中的MTU值不能大于2044。IB1040i网卡的工作模式可以通过命令“cat /sys/class/net/ibX/mode”查询。

 

(4)     编辑配置文件/etc/modprobe.d/ib_ipoib.conf,若该文件不存在,则需要先创建该文件。在文件末端添加以下内容,其中bonding模式mode只支持1,active-backup模式。

alias bond0 bonding

options bond0 miimon=100 mode=1 max_bonds=2

(5)     执行命令“service netowork restart”或“/etc/init.d/network restart”重启网络,完成bonding过程。

5.6  以太网属性

5.6.1  配置PXE

说明

本节仅介绍在BIOS下使能网卡PXE功能的步骤。如需使用PXE功能,还需要搭建PXE Server,PXE Server的搭建方法为业界通用,可以通过互联网获取。

 

(1)     进入BIOS

在服务器启动过程中,根据提示按下DeleteEsc进入BIOS Setup界面。

(2)     开启PXE服务

·     UEFI启动模式

a.     图5-20所示,选择Advanced页签 >Network Stack Configuration,然后按Enter

图5-20 Advanced界面

 

b.     如图5-21所示,依次将IPv4 PXE Support和IPv6 PXE Support选项设置为Enable

图5-21 UEFI模式开启PXE服务

 

·     UEFI下默认开启PXE功能,如果网卡要在Legacy模式下使用PXE,请按如下方式配置:

a.     选择Advanced页签 >网卡 >NIC Configuration,然后按Enter

b.     将Legacy Boot Protocol选项设置为PXE,如图5-22

图5-22 Legacy Boot Protocol模式选择PXE服务

 

(3)     保存配置并重启

F4保存设置,服务器会自动重启,完成配置。系统启动时,在POST界面按F12从PXE启动。

5.6.2  配置iSCSI

说明

iSCSI功能需要与远端的网络存储设备配合使用,网络存储设备的配置方法各不相同,具体方法请参见存储设备相关手册。本手册仅介绍本端服务器侧的相关配置。

 

本文以在Windows Server 2016和RHEL 7.5系统下以IB1040i网卡对接互联模块时的iSCSI SAN功能配置为例,对操作步骤进行介绍。

1. 在Windows系统下配置iSCSI SAN

(1)     如图5-23所示,在系统下为连接iSCSI网络存储的网口配置IP地址,保证主机与iSCSI存储能正常互通。

图5-23 配置本地地址

 

(2)     开启并配置iSCSI功能。

a.     如图5-24所示,打开“Control Panel”控制面板,单击“iSCSI Initiator”,在弹出对话框中单击“OK”。

图5-24 配置iSCSI功能

 

b.     在图5-25所示界面中,选择“Configuration”页签,单击“Change”,设置本端的iSCSI启动器名称。

图5-25 设置iSCSI启动器名称

 

c.     如图5-26所示,选择“Discovery”页签,单击“Discover Portals”,添加对端(网络存储设备)的地址信息。

图5-26 添加Target信息

 

d.     如图5-27所示,选择“Targets”页签,可以看到已发现的Target IQN,如果显示的状态为“inactive”,请单击“Connect”,连接成功后状态显示为“Connected”。然后关闭本对话框。

图5-27 连接Target

 

(3)     添加网络硬盘。

说明

执行本步骤前,请确保网络存储设备已完成相关配置。

 

a.     打开“Control Panel/Hardware/Device Manager”,右键单击“Storage controllers”下的iSCSI适配器,并选择“Scan for hardware changes”,如图5-28所示。

图5-28 扫描iSCSI网络存储

 

b.     右键单击系统左下角的“Windows”图标,打开“Disk Management”,可以看到新增了一个“Unknown”状态的磁盘,如图5-29所示。

图5-29 磁盘管理界面

 

c.     如图5-30所示,右键单击磁盘名称,选择“Online”将磁盘上线。

图5-30 磁盘上线

 

d.     如图5-31所示,再次右键单击磁盘名称,并选择“Initialize Disk”初始化磁盘。

图5-31 初始化磁盘

 

e.     如图5-32所示,右键单击磁盘的“Unallocated”区域,根据提示对磁盘进行分卷操作。

图5-32 为磁盘分卷

 

f.     分卷完成后,磁盘状态如图5-33所示。

图5-33 分卷完成

 

(4)     如图5-34所示,打开“我的电脑”,可以查看到新增的分区,iSCSI SAN配置完成。

图5-34 识别到网络磁盘

 

2. 在Red Hat系统下配置iSCSI SAN

说明

配置iSCSI SAN前,请确保主机已安装iSCSI客户端软件包。

 

(1)     如图5-35所示,为连接iSCSI网络存储的网口配置IP地址,保证主机与iSCSI存储能正常互通。

图5-35 设置本地地址

 

(2)     如图5-36所示,在/etc/iscsi目录下执行“cat initiatorname.iscsi”命令查看iSCSI Initiator(本端)的IQN名称,若未设置则使用vi命令手动设置。

图5-36 设置initiator name

 

(3)     如图5-37所示,执行“iscsiadm -m -discovery -t st -p target-ip”命令探测对端存储设备iSCSI Target的IQN名称,其中target-ip表示Target的IP地址。注意:做此操作之前必须保证存储端服务器的target允许此initiator登录和访问。

图5-37 探测iSCSI Target的IQN名称

 

(4)     如图5-38所示,执行“iscsiadm -m node -T iqn-name -p target-ip -l”命令连接iSCSI Target,其中iqn-name表示上一步查询到的IQN名称,target-ip表示Target的IP地址。

说明

·     可使用以下命令断开iSCSI Target:

iscsiadm -m node -T iqn-name -p target-ip -u

·     可使用以下命令删除iSCSI Target节点的信息:

iscsiadm -m node -o delete -T iqn-name -p target-ip

 

图5-38 连接iSCSI Target

 

(5)     如图5-39所示,执行“lsblk”命令可以查看到新增的网络磁盘。

说明

·     执行本步骤前,请确保网络存储设备已完成相关配置。

·     本例中存储服务器上创建了1个卷,所以新增了1个磁盘。

 

图5-39 查看网络磁盘

 

(6)     如图5-40所示,执行“mkfs”命令,对新增的磁盘进行格式化。

图5-40 格式化磁盘

 

(7)     如图5-41所示,执行“mount”命令,挂载磁盘后即可正常使用。

图5-41 挂载磁盘

 

5.6.3  配置SR-IOV

1. 开启SRIOV功能

(1)     进入BIOS Setup界面。

(2)     如图5-42所示,选择Advanced页签 > PCI Subsystem Settings,按Enter

图5-42 Advanced界面

 

(3)     进入图5-43所示界面,选择SR-IOV Support,设置为Enable。然后按ESC,直至退回到BIOS Setup主界面。

图5-43 PCI Subsystem Settings界面

 

(4)     如图5-44所示,选择Socket Configuration页签 > IIO Configuration > Intel@ VT for Directed I/O (VT-d),按Enter

图5-44 Socket Configuration界面

 

(5)     进入图5-45所示界面,选择Intel@ VT for Directed I/O (VT-d),设置为Enable。然后按ESC,直至退回到BIOS Setup主界面。

图5-45 Intel@ VT for Directed I/O (VT-d)界面

 

(6)     如图5-46所示,进入到Advanced页签 > 1040i网卡的两个端口中,按Enter。选择Device Level Configuration栏,然后设置两个端口的Virtualization Mode为SR-IOV,同时设置PCI Virtual Functions Advertised配置支持的VF最大数。然后保存并重启系统。

图5-46 设置Virtualization Mode

 

(7)     在系统启动阶段,按E进入图5-47所示界面,然后按方向键进行翻页,并在指定位置加入“intel_iommu=on”来开启IOMMU支持功能。设置完成后按Ctrl-x继续启动系统。

图5-47 修改grub启动配置

 

(8)     如图5-48所示,进入系统后,执行“dmesg | grep IOMMU”命令,确认IOMMU是否成功开启。

图5-48 确认IOMMU是否成功开启

 

2. 网卡InfiniBand模式VF配置

(1)     查询OpenSM配置文件/etc/opensm/opensm.conf,确认OpenSM已使能虚拟化技术。配置文件内容如图5-49所示,虚拟化支持默认开启。如果系统目录下没有此配置文件,可以执行命令”opensm --create-config /etc/opensm/opensm.conf”进行创建。

图5-49 OpenSM配置文件

 

图5-50 创建Opensm配置文件

 

(2)     查询要开启SRIOV的设备名,执行命令“ibdev2netdev -v”,如图5-51所示MT4119的两行设备就是1040i的两个端口。

图5-51 查询设备名称

 

(3)     执行“echo NUM > /sys/class/infiniband/mlx5_X/device/sriov_numvfs”命令,为某个PF端口分配指定的VF数量,其中NUM表示要分配的VF数量,mlx5_X表示PF的设备名称。执行完成后,可使用命令“lspci | grep MT27800”确认是否成功分配。

图5-52 分配VF

 

(4)     设置VF的Node GUID、Port GUID和Policy,设置命令如下,具体参数值根据实际情况决定。

echo 11:22:33:44:77:66:88:90 > /sys/class/infiniband/mlx5_2/device/sriov/0/node

echo 11:22:33:44:77:66:88:90 > /sys/class/infiniband/mlx5_2/device/sriov/0/port

echo Follow > /sys/class/infiniband/mlx5_2/device/sriov/0/policy

图5-53 设置VF的GUID和Policy

 

(5)     如图5-54所示,重新bond VF端口使配置生效。如果要将VF分配给虚拟机使用,请确保主机驱动未使用VF,也就是应该先解除主机bond再分配给虚拟机。

图5-54 重新bond

 

3. 网卡Ethernet模式下VF配置

(1)     如图5-55所示,执行“echo NUM > /sys/class/net/ethX/device/sriov_numvfs”命令,为某个PF端口分配指定的VF数量,其中NUM表示要分配的VF数量,ethX表示PF的端口名称。执行完成后,可使用命令“lspci | grep MT27800”确认是否成功分配。

图5-55 分配VF

 

(2)     如要修改VF的MAC地址,可使用命令“ip link set ethVF vf 0 mac MAC地址”进行设置。

4. 添加VF到虚拟机

(1)     如图5-56所示,执行“virt-manager”命令,运行虚拟机管理器,然后选择[File/New Virtual Machine],新建虚拟机。

图5-56 新建虚拟机

 

(2)     在新建的虚拟机界面,依次单击图5-57所示按钮,添加虚拟网卡。

图5-57 添加虚拟网卡

 

(3)     在虚拟机中为虚拟网卡安装驱动,也可执行“ifconfig ethVF hw ether xx:xx:xx:xx:xx:xx”命令为虚拟网卡配置MAC地址。其中ethVF表示虚拟网卡的名称,xx:xx:xx:xx:xx:xx表示要设置的MAC地址。

5.6.4  配置高级属性

1. 802.1Q VLAN

本节以RHEL 7.5系统为例介绍在OS下配置VLAN的方法。

(1)     执行“modprobe 8021q”命令,加载802.1q模块。

(2)     执行“ip link add link ethX name ethX.id type vlan id id”命令,在物理端口上创建VLAN接口。其中ethX表示物理端口名称,id表示VLAN编号。

(3)     执行“ip -d link show ethX.id”命令查看VLAN接口是否创建成功,如图5-58所示。

图5-58 创建VLAN接口

 

(4)     执行“ip addr add ipaddr/mask brd brdaddr dev ethX.id”和“ip link set dev ethX.id up”命令为VLAN接口配置IP地址并设置为UP状态。其中ipaddr/mask表示VLAN接口的IP地址及掩码,brdaddr表示广播地址,ethX.id表示VLAN接口名称,如图5-59所示。

说明

执行“ip link set dev ethX.id down”和“ip link delete ethX.id”命令可以删除VLAN接口。

 

图5-59 配置IP地址并设置为UP状态

 

2. Bonding(Linux)

本文以在RHEL7.5系统下配置mode=6为例介绍操作步骤。

(1)     在“/etc/sysconfig/network-scripts/”目录下,执行“vi ifcfg-bond0”命令创建bond0配置文件并添加以下内容:

BOOTPROTO=static

DEVICE=bond0

NAME=bond0

TYPE=Bond

BONDING_MASTER=yes

ONBOOT=yes

IPADDR=192.168.50.88//设置bond0接口地址

PREFIX=24//设置子网掩码

GATEWAY=

DNS=

BONDING_OPTS=”miimon=100 mode=6”//设置每100ms检测一次链路,Bonding模式为mode=6

图5-60 配置bond0

 

(2)     编辑SLAVE接口的配置文件。如图5-61所示,执行“vi ifcfg-ethX”命令,并在配置文件中写入如下内容:

ONBOOT=yes

MASTER=bond0

SLAVE=yes

对于其他要加入bond0的SLAVE接口,也进行相同编辑。

图5-61 编辑SALVE接口配置文件

 

(3)     执行“service network restart”命令,重启网络服务,使bond0生效。

图5-62 重启网络服务

 

(4)     执行“cat /proc/net/bonding/bond0”命令查看bond0和网卡信息。可以看到bond0以及两个SLAVE接口已经UP。

图5-63 查看bond0信息

 

图5-64 查看网卡信息(一)

 

图5-65 查看网卡信息(二)

 

3. Teaming(Windows)

(1)     如图5-66所示,单击“Server Manager > Local Server > NIC Teaming”的“Disabled”,打开NIC Teaming配置界面。

图5-66 打开NIC Teaming

 

(2)     如图5-67所示,单击“TASKS > NEW Team”,创建Team。

图5-67 创建Team

 

(3)     如图5-68所示,设置Team名称并勾选要加入Team的网络适配器,然后在“Additional properties”中设置相应的属性,最后单击“OK”创建Team。

提示

“Switch Independent”模式的Team创建较缓慢,请耐心等待。

 

图5-68 设置New Team

 

(4)     如图5-69所示,完成创建后,可以在“Network Connections”界面查看到新增的“111”网络适配器。

图5-69 查看网络适配器

 

4. TCP OFFLOADING

OFFLOAD是将本来该操作系统进行的一些数据处理(如分片、重组等)工作放到网卡硬件中去,以便降低系统CPU消耗的同时,提高处理性能。其中与TCP相关的主要有TSO、LSO、LRO、GSO、GRO等。

TSO(TCP Segmentation Offload)顾名思义就是用来切分TCP数据包的,一般实用中称之为LSO/LRO,分别对应Large Segmetn Offload发送和Large Receive Offload接受两个方向。发送数据超过MTU限制时,OS只需提交一次传输请求给网卡,网卡会自动进行切分和封装再发送,当收到很多碎片包时,LRO可以辅助自动组合成一段较大的数据,一次性提交给OS处理。

但在实际应用中,GSO(Generic Segmentation Offload)和GRO(Generic Receive Offload)更加通用,它们自动检测网卡支持特性,支持分包则直接发给网卡,否则先分包后发给网卡。

(1)     如图5-70所示,执行“ethtool -k ethx”命令,查询网卡OFFLOAD功能的支持和开启情况,其中ethx表示网卡的端口名称。

图5-70 查询OFFLOAD功能的支持和开启情况

 

(2)     如图5-71所示,执行“ethtool -K ethX feature on/off”命令,开启或关闭相应的OFFLOAD功能,其中ethx表示网卡的端口名称,feature表示功能的名称,包括tso、lso、lro、gso、gro等。

图5-71 设置OFFLOAD功能

 

 


6 缩略语

表6-1 缩略语

缩略语

英文解释

中文解释

F

FC

Fiber Channel

光纤通道

FCoE

Fiber Channel Over Ethernet

以太网光纤通道

H

HCA

Host Channel Adapter

主机通道适配卡

I

IB

InfiniBand

无限带宽技术

IPoIB

IP over InfiniBand

IP协议映射于IB网络

iSCSI

Internet Small Computer System Interface

因特网小型计算机系统接口

N

NCSI

Network Controller Sideband Interface

边带管理

NPAR

NIC Partitioning

网卡分区

P

PCIe

Peripheral Component Interconnect Express

高速外设部件互联标准

PF

Physical Function

物理功能

PXE

Preboot Execute Environment

预启动执行环境

R

RDMA

Remote Direct Memory Access

远程直接数据存取

S

SAN

Storage Area Network

存储区域网络

SM

Subnet Manager

子网管理器

SR-IOV

Single Root I/O Virtualization

单根I/O虚拟化

T

TCP

Transmission Control Protocol

传输控制协议

V

VF

Virtual Function

虚拟功能

VMDq

Virtual Machine Data Queue

虚拟机设备队列

 

不同款型规格的资料略有差异, 详细信息请向具体销售和400咨询。H3C保留在没有任何通知或提示的情况下对资料内容进行修改的权利!

新华三官网
联系我们