01-正文
本章节下载 (8.30 MB)
目 录
为了避免操作过程中对人和设备造成伤害,请在操作前,仔细阅读产品相关安全信息。实际操作中,包括但不限于本文描述的安全信息。
介绍安装和更换网卡时的安全注意事项。
· 为确保人身和设备安全,只有H3C授权人员或专业的工程师才能安装和更换网卡。
· 安装或更换网卡前,请确保业务已停止运行,并将刀片服务器下电,然后再拆卸刀片服务器。
· 拆卸、搬运或放置刀片服务器时,请勿用力过猛,请确保搬运设备过程中,用力均匀、缓慢。
· 请将刀片服务器放在干净、平稳的工作台或地面上进行维护。
· 为避免组件表面过热造成人身伤害,请确保刀片服务器和内部系统组件冷却后再操作。
请仔细检查工作区域内是否存在潜在的危险,如:机箱未接地或接地不可靠、工作区域潮湿等。
人体或其它导体释放的静电可能会损坏网卡,由静电造成的损坏会缩短网卡的使用寿命。
为避免静电损害,请注意以下事项:
· 在运输和存储网卡时,请将网卡装入防静电包装中。
· 将网卡送达不受静电影响的工作区前,请将它们放在防静电包装中保管。
· 先将网卡放置在防静电工作台上,然后再将其从防静电包装中取出。
· 从防静电包装袋中取出网卡后,请尽快进行安装操作,避免网卡长时间放置在外界环境中。
· 在没有防静电措施的情况下,请勿触摸网卡上的插针和电路元器件。
· 将网卡拆卸后,请将网卡及时放入防静电包装袋中,并妥善保管。
在取放或安装网卡时,用户可采取以下一种或多种接地方法以防止静电释放。
· 佩戴防静电腕带,并将腕带的另一端良好接地。请将腕带紧贴皮肤,且确保其能够灵活伸缩。
· 在工作区内,请穿上防静电服和防静电鞋。
· 请使用导电的现场维修工具。
· 使用防静电的可折叠工具垫和便携式现场维修工具包。
图片仅供参考,具体请以实物为准。
ETH522i(型号为NIC-ETH522i-Mb-2*10G,以下简称ETH522i)是一款2端口CNA网卡,提供2*10GE端口,2个端口都支持FCoE(第1个端口支持FCoE boot),适用于B16000机箱的刀片服务器,为刀片服务器提供连接互联模块槽位的网络接口。ETH522i通过x8带宽的PCIe通道与刀片服务器进行数据交换,通过2个10G-KR端口经中置背板与互联模块相连,支持NIC、FCoE、iSCSI的应用,实现融合网络方案。
ETH522i网卡的外观如图2-1所示。它应用于B16000刀片服务器的2路半宽、2路全宽和4路全宽刀片服务器,具体可安装位置请参见4.2 网卡适配的刀片服务器。
介绍网卡的产品规格和技术参数。
表2-1 产品规格
属性 |
描述 |
基本属性 |
|
网卡类型 |
CNA网卡 |
芯片型号 |
Cavium BCM57810S |
最大功耗 |
12W |
输入电压 |
12V DC |
数据通道总线 |
PCIe2.1 x8 |
网络属性 |
|
用户接口数量和类型 |
2*10G-KR |
用户接口传输速率 |
10Gb/s |
全双工/半双工 |
全双工 |
标准兼容性 |
802.1p, 802.1q, 802.3ad, 802.3ae, 802.3x, 802.1Qbb, 802.1Qaz, 802.1Qau |
表2-2 技术参数
类别 |
项目 |
说明 |
物理参数 |
尺寸(高x宽x长) |
25.05mm x 61.60mm x 95.00mm |
重量 |
100g |
|
环境参数 |
温度 |
工作环境温度:5°C~45°C |
贮存环境温度:-40°C~70°C |
||
湿度 |
· 工作环境湿度:8%~90%RH(无冷凝) · 贮存环境湿度:5%~95%RH(无冷凝) |
|
海拔高度 |
· 工作环境高度:-60~5000m(自35°C@900m始,高度每升高100m,规格最高温度降低0.33°C) · 贮存环境高度:-60~5000m |
介绍ETH522i网卡支持的特性。
图3-1 网卡特性
特性 |
是否支持 |
Jumbo Frames |
√ |
Load Balancing |
√ |
802.1Q VLANs |
√ |
QinQ |
√ |
Auto-Negotiation |
√ |
PXE Boot |
√ |
FCoE |
√ |
FCoE Boot |
√*(仅UEFI) |
iSCSI |
√ |
iSCSI Boot |
√*(仅UEFI) |
SR-IOV |
√ |
VMDq |
√* |
Multiple Rx Queues(RSS) |
√* |
TCP/IP Stateless Offloading |
√* |
TCP/IP Offload Engine(TOE) |
√* |
Wake-on-LAN |
× |
RDMA |
× |
NPAR |
√ |
NCSI |
× |
NIC bonding |
√ |
*表示VMware ESXi操作系统不支持该网卡特性。 |
ETH522i支持PXE启动。在启动过程中,刀片服务器(PXE Client)先从远端服务器(PXE Server)获取IP地址,再使用TFTP协议下载并执行PXE启动文件,完成客户端的基本软件配置,从而引导客户端实现PXE启动。
ETH522i网卡的2个端口都支持iSCSI SAN和iSCSI remote boot技术。
iSCSI是一种能够把SCSI接口与以太网技术相结合的新型存储技术。基于iSCSI协议,设备便能在网络中传输SCSI接口的命令和数据内容了,这样不仅克服了传统SCSI接口设备的局限性,实现让机房之间可以跨越省市来共享存储资源,还可以做到在不停机的状况下扩展存储容量。解除了物理环境限制,可以把存储资源分开给多个服务器一起使用。
ETH522i网卡的2个端口都支持FCoE SAN,其中的第1个端口支持FCoE boot from san技术。
FCoE是通过以太网络封装光纤通道帧的技术。可以将光纤通道映射到以太网,将光纤通道信息插入以太网信息包内,从而让服务器SAN存储的光纤通道请求和数据可以通过以太网来传输,而无需专门的光纤通道结构。FCoE允许在一根通信线缆上传输LAN和FC SAN数据,减少数据中心设备和线缆数量,同时降低供电和制冷负载。
NPAR通过每个端口上具有的多个PF将网卡划分为多个分区。
ETH522i网卡的2个端口都支持一分四,也就是每个物理端口可以划分成4个分区,一张网卡最终可分出8个分区。
ETH522i网卡的2个端口都支持SR-IOV。
SR-IOV允许用户整合其网络硬件资源,并在整合的硬件上同时运行多个虚拟机。虚拟化还为用户提供了丰富的功能,例如I/O共享、整合、隔离和迁移,以及简化管理。虚拟化可能会因管理程序的开销导致性能降低,PCI-SIG引入了SR-IOV规范,通过创建VF来解决性能问题,虚拟功能是一种直接分配给虚拟机的轻量级PCIe功能,绕过管理程序层进行主数据移动。
PF是全功能的PCIe功能,VF是PF分离出的轻量级PCIe功能,可直接将VF指定给相应的应用程序,虚拟功能共享物理设备的资源,并在没有CPU和虚拟机管理程序开销的情况下执行I/O。
ETH522i网卡支持每个PF创建0到63,共64个VF,增量为8。
· 802.1Q VLAN
ETH522i网卡每个端口最大支持4094个VLAN,取值范围为1~4094。
网卡不会处理报文的tag(打tag或者去tag操作),VLAN ID由OS指定,网卡只是透传。
VLAN是一组逻辑上的设备和用户,工作在OSI参考模型的第二层和第三层。一个VLAN就是一个广播域,VLAN之间的通信是通过第三层的路由器来完成的。与传统的局域网技术相比,VLAN技术更加灵活,添加和修改管理开销少,可以控制广播活动,可提高网络安全性。
· IEEE 802.1ad Provider Bridges (QinQ)
QinQ(Q-in-Q)是IEEE 802.1ad Provider Bridges标准的实现,它是IEEE 802.1Q VLAN标准的扩展。QinQ通过在以太网中添加额外的802.1Q标记(VLAN ID字段),在VLAN内创建VLAN来进一步隔离流量。
BONDING包括如下7种模式,其中常用的有mode=0、mode=1和mode=6三种:
· mode=0,即:(balance-rr)Round-robin policy(平衡轮循环策略),数据包在两个SLAVE之间顺序依次传输;
· mode=1,即:(active-backup)Active-backup policy(主-备策略)。只有主设备处于活动状态,当主设备宕机后备设备转换为主设备;
· mode=2,即:(balance-xor)XOR policy(平衡策略),基于指定的传输HASH策略传输数据包;
· mode=3,即:broadcast(广播策略),在每个SLAVE接口上传输每个数据包,此模式提供了容错能力;
· mode=4,即:(802.3ad)IEEE 802.3ad Dynamic link aggregation(IEEE 802.3ad动态链路聚合),创建一个聚合组,它们共享同样的额定速率和双工设定,外出流量的SLAVE选择是基于传输hash策略的。此模式需要交换机支持IEEE 802.3ad,且要经过特定的配置;
· mode=5,即:(balance-tlb)Adaptive transmit load balancing(适配器传输负载均衡)。不需要任何特别的交换机支持,在每个SLAVE上根据当前的负载(根据速度计算)分配外出流量,如果正在接受流量的SLAVE故障,另一个SLAVE接管失败SLAVE的MAC地址;
· mode=6,即:(balance-alb)Adaptive load balancing(适配器适应性负载均衡)。该模式包含了balance-tlb模式,同时加上针对IPV4流量的接收负载均衡,通过ARP协商实现,不需要交换机支持。BONDING驱动截获本机发送的ARP应答,并把源硬件地址改为BOND中某个SLAVE的唯一硬件地址,从而使得不同的对端使用不同的硬件地址进行通信。
以集成在Windows Server 2012 R2中的Teaming解决方案为例,一般的NIC Teaming模式有三种:
· 静态成组(Static Teaming):是一种依赖于交换机(Switch-dependent)的组合方式,要求交换机的支持,并且成员网卡不能分散到不同的交换机上。
· 交换机独立(Switch Independent):网卡组合不需要交换机的参与,这样网卡可以连接到不同的交换机上,而且在连接不同交换机时采用的是主备模式,只有连接在同一交换机时才可以实现负载均衡聚合。
· LACP:类似静态成组,需要先在交换机中启用LACP,会把多块网卡合并成一个逻辑的线路,这种组合方式的速度是最快的。
除了Teaming模式需要配置之外,还需要配置负载均衡的模式,模式也有三种:
· 地址哈希(Address Hash):启用后,数据包到达Teaming后,会根据目的地址信息(MAC地址,IP地址和端口号)执行哈希算法,通过算法结果,NIC Team决定由哪块物理网卡发送数据包。这种方式无法控制流量的走向,如果有大量数据是流向一个目标地址的,那么只会通过一块物理网卡来发送。
· Hyper-V端口:正如名字显示的,用于Hyper-V的模式,与无法控制的地址哈希相比,这种方式效率更高,数据会通过绑定虚拟网卡的不同物理网卡传输,同时这种绑定是基于每个虚拟网卡,而不是每台虚拟机的。如果是使用Hyper-V外部虚拟机交换机建议选择这种方式。
· 动态:这种方式是最优化的方式,从Windows Server 2012 R2中新引入,数据会被平分到所有网卡上,最大效率的利用带宽。
TCP卸载是一种TCP加速技术,将TCP/IP堆叠的工作卸载到网络接口控制器上,用硬件来完成。在高速以太网,如10GE以太网上,处理TCP/IP数据包表头工作变得较为沉重,会占用大量的CPU资源,而由网卡硬件进行处理可以减轻处理器的负担,解放出来的CPU资源可以专注于其他的应用。
网卡与OS的兼容关系,请参见OS兼容性查询工具。
网卡支持的刀片服务器型号及其安装位置如表4-1所示。
刀片服务器型号 |
刀片服务器类型 |
Mezz网卡槽位数量 |
可安装位置 |
H3C UniServer B5700 G3 |
2路半宽刀片服务器 |
3个 |
Mezz1、Mezz2和Mezz3 |
H3C UniServer B5800 G3 |
2路全宽刀片服务器 |
3个 |
Mezz1、Mezz2和Mezz3 |
H3C UniServer B7800 G3 |
4路全宽刀片服务器 |
6个 |
Mezz1、Mezz2、Mezz3、Mezz4、Mezz5和Mezz6 |
H3C UniServer B5700 G5 |
2路半宽刀片服务器 |
3个 |
Mezz1、Mezz2和Mezz3 |
图4-1 网卡在2路半宽刀片服务器上的安装位置
图4-2 网卡在2路全宽刀片服务器上的安装位置
图4-3 网卡在4路全宽刀片服务器上的安装位置
Mezz网卡和互联模块的适配关系,请通过刀片服务器互联模块和Mezz卡兼容性查询工具查询。
互联模块和刀片服务器Mezz网卡详细连接关系,请通过组网查询工具查询。
ETH522i网卡通过中置背板与互联模块对接使用,当它安装在2路半宽或2路全宽刀片服务器上时,它与互联模块槽位的连接关系如图4-4所示,互联模块槽位请参见图4-6。
· Mezz1位置的网卡连接到1、4槽位的互联模块(ICM)
· Mezz2位置的网卡连接到2、5槽位的互联模块(ICM)
· Mezz3位置的网卡连接到3、6槽位的互联模块(ICM)
图4-4 2路半宽和2路全宽刀片服务器Mezz卡槽位与互联模块的连接关系逻辑图
当ETH522i安装在4路全宽刀片服务器上时,它与互联模块槽位的连接关系如图4-5所示,互联模块槽位请参见图4-6。
· Mezz1和Mezz4位置的网卡连接到1、4槽位的互联模块(ICM)
· Mezz2和Mezz5位置的网卡连接到2、5槽位的互联模块(ICM)
· Mezz3和Mezz6位置的网卡连接到3、6槽位的互联模块(ICM)
图4-5 4路全宽刀片服务器Mezz卡槽位与互联模块的连接关系逻辑图
ETH522i可与互联模块的内部端口对接,每个端口提供10GE以太网业务应用。互联模块的外部端口连接外部到Internet网络,实现安装了Mezz网卡的刀片服务器与互联网通信。
图4-7 Mezz网卡与互联模块对接组网
本文中展示的软件界面,以某个软件版本为准进行示例;由于软件会不定期更新,请以产品实际显示的软件界面为准。
Mezz网卡与互联模块之间的端口对应关系,请参见OM Web界面中的[计算节点管理/端口映射]。
本节介绍如何在OS下确认ETH522i的端口已被操作系统识别。
以Centos7.4和Windows Server 2012 R2为例介绍。
(1) 执行“lspci | grep BCM57810”命令,查看ETH522i网卡的PCI信息。2个PCI设备对应网卡的2个端口,如图5-1所示:
(2) 执行“ifconfig -a”命令查看网卡的2个NIC端口(端口名称由OS命名规则决定),表示网卡的端口已被识别,如图5-2所示。如未识别到端口,请参考5.3 网卡在OS下安装和卸载驱动安装最新驱动程序,然后再进行识别。
需要注意的是:如果网卡开启了NPAR功能,则每个端口会分成4个端口,一共有8个端口。执行“lspci | grep BCM57810”可以查看到8个PCI设备,如图5-3所示。
图5-3 开启NPAR的网卡
(1) 如图5-4所示,打开“Network Connections”,可查看到Qlogic 57810类型的网络适配器,则ETH522i网卡已正常识别。
(2) 如果在“Network Connections”中看不到相应的网络适配器,则打开“Device Manager”,如图5-5所示。在“Network adapters”的“Other devices”中查看是否存在Ethernet Controller。如果存在,那么可以判断是驱动存在问题,请参考5.3 网卡在OS下安装和卸载驱动安装最新驱动程序,然后再进行识别;如果不存在,请查看网卡是否安装到位。
H3C ETH522i网卡在不同的系统上使用不同的驱动,安装方法也有所不同,下面分别以Centos7.4和Windows Server 2012 R2为例进行介绍。
执行“modinfo bnx2x”命令,查看系统当前的驱动版本,如图5-6所示。
· 安装.rpm格式的驱动
如果获取的驱动是.rpm文件,则可以直接运行安装。请按照如下步骤操作:
(1) 将RPM驱动文件(如kmod-netxtreme2-7.14.46-1.rhel7u4.x86_64.rpm)拷贝到系统中。
(2) 执行“rpm –ivh文件名.rpm”命令,安装驱动程序,如图5-7所示。
(3) 驱动安装完成后,重启系统或执行“rmmod bnx2x”和“modprobe bnx2x”命令重新加载驱动模块,让新驱动生效。
(4) 执行“modinfo bnx2x”或“ethtool –i ethX”命令确认生效后的新驱动版本,如图5-8所示。其中ethX是ETH522i对应的NIC端口,具体名称视情况而定。
· 安装.tar.gz格式的源码包
如果获取的驱动是源码类型的压缩包,则需要进行编译安装。请按照如下步骤操作:
(1) 执行“tar –zxvf netxtreme2-<ver>.tar.gz”命令解压源码包。
(2) 执行“cd netxtreme2-<ver>”命令进入源码包目录。
(3) 执行“make install”命令进行编译安装,如图5-9所示。
(4) 驱动安装完成后,重启系统或执行“rmmod bnx2x”和“modprobe bnx2x”命令重新加载驱动模块,让新驱动生效。
执行“rpm –e kmod-netxtreme2”命令可将rpm包卸载,然后重启系统或执行“rmmod bnx2x”和“modprobe bnx2x”命令重新加载旧的驱动模块。
(1) 单击<Windows>按钮,进入开始菜单界面。
(2) 单击[Control Panel/Hardware/Device Manager]菜单项,进入设备管理器,如图5-10所示。
图5-10 进入设备管理器
(3) 在图5-11所示界面,右键单击网卡对应的端口,选择[Properties/Driver]页签,可以查看网卡的驱动信息。
(1) 从H3C网站获取相关驱动程序。
(2) 如图5-12所示,双击运行驱动程序,根据提示执行下一步,开始安装驱动程序。
(3) 安装完成后,重启系统使驱动生效。
(4) 如图5-13所示,再次查看网卡的驱动信息,可以看到驱动版本已经更新。
(1) 单击<Windows>按钮,进入开始菜单界面。
(2) 单击[Control Panel/Hardware/Device Manager]菜单项,进入设备管理器。
(3) 右键单击要卸载驱动的网卡,选择[Properties/Driver]页签,单击<Uninstall>按钮,如图5-14所示。
本节仅介绍在BIOS下使能网卡PXE功能的步骤。如需使用PXE功能,还需要搭建PXE Server,PXE Server的搭建方法为业界通用,可以通过互联网获取。
(1) 进入BIOS
在服务器启动过程中,根据提示按下Delete或Esc进入BIOS Setup界面。
(2) 开启PXE服务
· UEFI启动模式
a. 如图5-15所示,选择Advanced页签 >Network Stack Configuration,然后按Enter
b. 如图5-16所示,依次将Ipv4 PXE Support和Ipv6 PXE Support选项设置为Enable。
图5-16 UEFI模式开启PXE服务
· Legacy启动模式
a. 选择Advanced页签 >网卡 >MBA Configuration Menu,然后按Enter。
b. 将Legacy Boot Protocol选项设置为PXE。
图5-17 Legacy模式开启PXE服务
(3) 保存配置并重启
按F4保存设置,服务器会自动重启,完成配置。系统启动时,在POST界面按F12从PXE启动。
iSCSI功能需要与远端的网络存储设备配合使用,网络存储设备的配置方法各不相同,具体方法请参见存储设备相关手册。本手册仅介绍本端服务器侧的相关配置。
本文以在Windows和RHEL 7.5系统下配置ETH522i的iSCSI SAN功能为例介绍配置步骤。
(1) 如图5-18所示,为连接iSCSI网络存储的网口配置IP地址,保证主机与iSCSI存储能正常互通。
(2) 开启并配置iSCSI功能。
a. 如图5-19所示,打开“Control Panel”控制面板,单击“iSCSI Initiator”,在弹出对话框中单击“OK”。
b. 在图5-20所示界面中,选择“Configuration”页签,单击“Change”,设置本端的iSCSI启动器名称。
图5-20 设置iSCSI启动器名称
c. 如图5-21所示,选择“Discovery”页签,单击“Discover Portals”,添加对端(网络存储设备)的地址信息。
d. 如图5-22所示,选择“Targets”页签,可以看到已发现的Target IQN,如果显示的状态为“inactive”,请单击“Connect”,连接成功后状态显示为“Connected”。然后关闭本对话框。
(3) 添加网络硬盘。
执行本步骤前,请确保网络存储设备已完成相关配置。
a. 打开“Control Panel/Hardware/Device Manager”,右键单击“Storage controllers”下的iSCSI适配器,并选择“Scan for hardware changes”,如图5-23所示。
图5-23 扫描iSCSI网络存储
b. 右键单击系统左下角的“Windows”图标,打开“Disk Management”,可以看到新增了一个“Unknown”状态的磁盘,如图5-24所示。
c. 如图5-25所示,右键单击磁盘名称,选择“Online”将磁盘上线。
d. 如图5-26所示,再次右键单击磁盘名称,并选择“Initialize Disk”初始化磁盘。
e. 如图5-27所示,右键单击磁盘的“Unallocated”区域,根据提示对磁盘进行分卷操作。
f. 分卷完成后,磁盘状态如图5-28所示。
(4) 如图5-29所示,打开“我的电脑”,可以查看到新增的分区,iSCSI SAN配置完成。
配置iSCSI SAN前,请确保主机已安装iSCSI客户端软件包。
(1) 如图5-30所示,为连接iSCSI网络存储的网口配置IP地址,保证主机与iSCSI存储能正常互通。
(2) 如图5-31所示,在/etc/iscsi目录下执行“cat initiatorname.iscsi”命令查看iSCSI Initiator(本端)的IQN名称,若未设置则使用vi命令手动设置。
(3) 如图5-32所示,执行“iscsiadm –m –discovery –t st –p target-ip”命令探测iSCSI Target(对端存储设备)的IQN名称,其中target-ip表示Target的IP地址。
图5-32 探测iSCSI Target的IQN名称
(4) 如图5-33所示,执行“iscsiadm –m node –T iqn-name –p target-ip -l”命令连接iSCSI Target,其中iqn-name表示上一步查询到的IQN名称,target-ip表示Target的IP地址。
· 可使用以下命令断开iSCSI Target:
iscsiadm –m node –T iqn-name –p target-ip -u
· 可使用以下命令删除iSCSI Target节点的信息:
iscsiadm –m node –o delete –T iqn-name –p target-ip
(5) 如图5-34所示,执行“lsblk”命令可以查看到新增的网络磁盘。
· 执行本步骤前,请确保网络存储设备已完成相关配置。
· 本例中存储服务器上创建了2个卷,所以新增了2个磁盘。
(6) 如图5-35所示,执行“mkfs”命令,对新增的磁盘进行格式化。
(7) 如图5-36所示,执行“mount”命令,挂载磁盘后即可正常使用。
FCoE功能需要与远端的网络存储设备配合使用,网络存储设备的配置方法各不相同,本手册仅介绍本端服务器侧的相关配置。
本文以在Windows、RHEL 7.5和CASE0706操作系统下配置ETH522i的FCoE SAN功能为例介绍配置步骤。
(1) 配置FCoE存储设备和交换网板上的FCoE功能,保证FCoE链路通畅。关于交换网板上配置FCoE的方法,请参见相关的配置命令手册。
(2) 打开“Control Panel/Hardware/Device Manager”,右键单击“Storage controllers”下的FCoE适配器,并选择“Scan for hardware changes”,如图5-37所示。
图5-37 扫描FCoE网络存储
(3) 右键单击系统左下角的“Windows”图标,打开“Disk Management”,可以看到新增了一个“Unknown”状态的磁盘,如图5-38所示。
(4) 如图5-39所示,右键单击磁盘名称,选择“Online”将磁盘上线。
(5) 如图5-40所示,再次右键单击磁盘名称,并选择“Initialize Disk”初始化磁盘。
(6) 如图5-41所示,右键单击磁盘的“Unallocated”区域,根据提示对磁盘进行分卷操作。
(7) 分卷完成后,磁盘状态如图5-42所示。
(8) 如图5-43所示,打开“我的电脑”,可以查看到新增的分区,FCoE SAN配置完成。
(1) 配置FCoE存储设备和交换网板上的FCoE功能,保证FCoE链路通畅。关于交换网板上配置FCoE的方法,请参见相关的配置命令手册。
(2) 如图5-44所示,执行“service fcoe start”和“service lldpad start”命令,启动FCoE和LLDP服务。
图5-44 启动FCoE和LLDP服务
(3) 如图5-45所示,执行“service fcoe status”和“service lldpad status”命令,查看FCoE和LLDP服务,确保已经启动。
图5-45 查看FCoE和LLDP服务状态
(4) 如图5-46所示,在/etc/fcoe目录下,执行“cp cfg-ethX cfg-ethM”命令拷贝并创建FCoE端口配置文件,其中cfg-ethM表示进行FCoE连接的端口名称。
图5-46 拷贝并创建FCoE端口配置文件
(5) 执行“vi cfg-ethM”命令,编辑并保存FCoE端口配置文件,保证“FCOE_ENABLE=yes”“DCB_REQUIRED=no”。
图5-47 编辑FCoE端口的配置文件
(6) 执行“lldptool set-lldp -i ethM adminStatus=disabled”命令,将该端口的lldp管理状态设为禁用。然后查看/var/lib/lldpad/lldpad.conf配置文件中ethM的adminStatus配置值,若为0,则命令执行成功;若命令执行失败,则可手动在配置文件中“lldp”下的“ethM”条目中添加一行“adminStatus = 0”,如图5-48所示。
图5-48 禁用lldp管理状态
(7) 如图5-49所示,执行“service fcoe restart”和“service lldpad restart”命令重启fcoe和lldp两个服务。
系统重启后,需重新执行上述两条命令,使FCoE和LLDP生效。用户也可以执行“chkconfig fcoe on”和“chkconfig lldpad on”命令使FCoE和LLDP服务自启动。
图5-49 重启FCoE和LLDP两个服务
(8) 如图5-50所示,执行“ifconfig”命令,可以看到一个ethM的子接口被创建成功,子接口编号为交换网板上设置的vsan号。
图5-50 ethM的子接口被创建成功
(9) 如图5-51所示,执行“lsblk”命令可以查看到新增的网络磁盘。
执行本步骤前,请确保网络存储设备已完成相关配置。
(10) 格式化并挂载网络磁盘后即可正常使用。
(1) 配置存储设备和互联模块上的FCoE功能,确保FCoE链路通畅。关于互联模块上配置FCoE的方法,请参见互联模块的配置命令手册及《H3C UniServer B16000刀箱整机典型配置》。
(2) 通过KVM的方式或远程登录连接至服务器的CAS操作系统。
a. 通过KVM的方式登录,进入图5-52所示界面,选择Local Command Shell进入命令行界面。
图5-52 KVM的方式登录
b. 通过远程登录的方式,如SSH等,连接至CAS操作系统命令行界面。
(3) 如图5-53所示,执行“service fcoe start”和“service lldpad start”命令,启动FCoE和LLDP服务。
图5-53 启动FCoE和LLDP服务
(4) 如图5-54所示,执行“service fcoe status”和“service lldpad status”命令,查看FCoE和LLDP服务,确保已经启动。
图5-54 查看FCoE和LLDP服务状态
(5) 如图5-55所示,在/etc/fcoe目录下,执行“cp cfg-ethX cfg-ethM”命令拷贝并创建FCoE端口配置文件,其中cfg-ethM表示进行FCoE连接的端口名称。
图5-55 拷贝并创建FCoE端口配置文件
(6) 执行“vi cfg-ethM”命令,编辑并保存FCoE端口配置文件,保证“FCOE_ENABLE=yes”“DCB_REQUIRED=no”。
图5-56 编辑FCoE端口的配置文件
(7) 执行“lldptool set-lldp -i ethM adminStatus=disabled”命令,将该端口的LLDP管理状态设为禁用。然后查看/var/lib/lldpad/lldpad.conf配置文件中ethM的adminStatus配置值,若为0,则命令执行成功;若命令执行失败,则可手动在配置文件中“lldp”下的“ethM”条目中添加一行“adminStatus = 0”,如图5-57所示。
图5-57 禁用LLDP管理状态
(8) 如图5-58所示,执行“service fcoe restart”和“service lldpad restart”命令重启FCoE和LLDP两个服务。
图5-58 重启FCoE和LLDP两个服务
(9) 如图5-59所示,执行“ifconfig”命令,可以看到一个ethM的子接口被创建成功,子接口编号为互联模块上设置的vsan号。
图5-59 ethM的子接口被创建成功
(10) 如图5-60所示,执行“lsblk”命令可以查看到新增的网络磁盘。
执行本步骤前,请确保网络存储设备已完成相关配置。
(11) 格式化并挂载网络磁盘后即可正常使用。
(1) 在服务器启动过程中,根据提示按下Delete或Esc进入BIOS Setup界面。
(2) 如图5-61所示,选择Advanced页签 > PCI Subsystem Settings,按Enter。
(3) 进入图5-62所示界面,选择SR-IOV Support,设置为Enable。然后按ESC,直至退回到BIOS Setup主界面。
图5-62 PCI Subsystem Settings界面
(4) 如图5-63所示,选择Socket Configuration页签 > IIO Configuration > Intel@ VT for Directed I/O (VT-d),按Enter。
(5) 进入图5-64所示界面,选择Intel@ VT for Directed I/O (VT-d),设置为Enable。然后按ESC,直至退回到BIOS Setup主界面。
图5-64 Intel@ VT for Directed I/O (VT-d)界面
(6) 如图5-65所示,选择Advanced页签 > Mezz网卡的第一个端口(这是全局的开关),按Enter。设置Multi-Function Mode为SR-IOV。然后保存并重启系统。
(7) 在系统启动阶段,按E进入图5-66所示界面,然后按方向键进行翻页,并在指定位置加入“intel_iommu=on”来开启IOMMU支持功能。设置完成后按Ctrl-x继续启动系统。
本步骤及后续步骤,在系统重启后会失效,需重新配置。
图5-66 修改grub启动配置
(8) 如图5-67所示,进入系统后,执行“dmesg | grep IOMMU”命令,确认IOMMU是否成功开启。
图5-67 确认IOMMU是否成功开启
(9) 如图5-68所示,执行“echo NUM > /sys/class/net/ethX/device/sriov_numvfs”命令,为某个PF端口分配指定的VF数量,其中NUM表示要分配的VF数量,ethX表示PF端口名称。执行完成后,可使用命令“lspci | grep BCM”确认是否成功分配。
(10) 如图5-69所示,执行“virt-manager”命令,运行虚拟机管理器,然后选择[File/New Virtual Machine],新建虚拟机。
(11) 在新建的虚拟机界面,依次单击图5-70所示按钮,添加虚拟网卡。
(12) 安装驱动并执行“ifconfig ethVF hw ether xx:xx:xx:xx:xx:xx”命令为虚拟网卡配置MAC地址后,即可正常使用。其中ethVF表示虚拟网卡的名称,xx:xx:xx:xx:xx:xx表示MAC地址。
本节以RHEL 7.5系统为例介绍在OS下配置VLAN的方法。
(1) 执行“modprobe 8021q”命令,加载802.1q模块。
(2) 执行“ip link add link ethX name ethX.id type vlan id id”命令,在物理端口上创建VLAN接口。其中ethX表示物理端口名称,id表示VLAN编号。
(3) 执行“ip –d link show ethX.id”命令查看VLAN接口是否创建成功,如图5-71所示。
(4) 执行“ip addr add ipaddr/mask brd brdaddr dev ethX.id”和“ip link set dev ethX.id up”命令为VLAN接口配置IP地址并设置为UP状态。其中ipaddr/mask表示VLAN接口的IP地址及掩码,brdaddr表示广播地址,ethX.id表示VLAN接口名称,如图5-72所示。
执行“ip link set dev ethX.id down”和“ip link delete ethX.id”命令可以删除VLAN接口。
图5-72 配置IP地址并设置为UP状态
(1) 安装官方的lediag工具。
a. 将lediag工具拷贝到系统中。
b. 执行“tar –zxvf 文件名.tar.gz”命令,解压软件包。
c. 执行“cd <lediag目录>”命令,定位到解压后的目录,然后执行“make”命令进行编译。
(2) 启动工具并切换到相应网卡,如图5-73所示。
a. 编译完成后,在lediag文件夹下执行“./load.sh –b10eng”命令进入工程模式
b. 如果服务器安装了多张网卡,请使用“dev <num>”命令来切换到相应的网卡,<num>表示网卡上端口的端口号。说明:假设某网卡有4个端口,那么指定这4个端口号中的任意一个都可以切换到该网卡。
(3) 开启QinQ功能,如图5-73所示。
a. 执行“rmmod bnx2x”命令卸载驱动。
b. 执行“nvm vlant”命令开启QINQ功能。
c. 执行“exit”命令退出工程模式,然后重启系统并进入BIOS Setup界面继续进行配置。
(4) 配置QinQ
· SF模式下QINQ配置;
a. 如图5-74所示,选择Advanced页签 >待配置的网卡端口 >Device Hardware Configuration Menu >QINQ Configuration,按Enter。
b. 设置页面下“QINQ VLAN mode”为“QINQ”,然后设置端口的VLAN ID和VLAN优先级。
c. 各端口都配置完成后,按F4保存并重启,各端口发出的流量就自带VLAN TAG了。
图5-74 SF模式下设置QinQ
· NPAR模式下QINIQ配置;
a. 如图5-75所示,选择Advanced页签 >待配置的网卡端口 >NIC Partitioning Configuration Menu >QINQ Configuration,按Enter。
b. 设置页面下“QINQ VLAN mode”为“QINQ”,然后设置虚拟NIC的VLAN ID和VLAN 优先级。
图5-75 NPAR模式下设置QinQ
本文以在RHEL7.5系统下配置mode=6为例介绍操作步骤。
(1) 如图5-76所示,在“/etc/sysconfig/network-scripts/”目录下,执行“vi ifcfg-bond0”命令创建bond0配置文件并添加以下内容:
BOOTPROTO=static
DEVICE=bond0
NAME=bond0
TYPE=Bond
BONDING_MASTER=yes
ONBOOT=yes
IPADDR=192.168.50.88//设置bond0接口地址
PREFIX=24//设置子网掩码
GATEWAY=
DNS=
BONDING_OPTS=”miimon=100 mode=6”//设置每100ms检测一次链路,Bonding模式为mode=6
(2) 编辑SLAVE接口的配置文件。如图5-77所示,执行“vi ifcfg-ethX”命令,并在配置文件中写入如下内容:
ONBOOT=yes
MASTER=bond0
SLAVE=yes
对于其他要加入bond0的SLAVE接口,也进行相同编辑。
图5-77 编辑SALVE接口配置文件
(3) 如图5-78所示,执行“service network restart”命令,重启网络服务,使bond0生效。
(4) 如图5-79所示,执行“cat /proc/net/bonding/bond0”命令查看bond0和网卡信息。可以看到bond0以及两个SLAVE接口已经UP。
图5-80 查看网卡信息(一)
图5-81 查看网卡信息(二)
(1) 如图5-82所示,单击“Server Manager / Local Server / NIC Teaming”的“Disabled”,打开NIC Teaming配置界面。
(2) 如图5-83所示,单击“TASKS / NEW Team”,创建Team。
(3) 如图5-84所示,设置Team名称并勾选要加入Team的网络适配器,然后在“Additional properties”中设置相应的属性,最后单击“OK”创建Team。
“Switch Independent”模式的Team创建较缓慢,请耐心等待。
(4) 如图5-85所示,完成创建后,可以在 “Network Connections”界面查看到新增的“One Team”网络适配器。
OFFLOAD是将本来该操作系统进行的一些数据处理(如分片、重组等)工作放到网卡硬件中去,以便降低系统CPU消耗的同时,提高处理性能。其中与TCP相关的主要有TSO、LSO、LRO、GSO、GRO等。
TSO(TCP Segmentation Offload)顾名思义就是用来切分TCP数据包的,一般实用中称之为LSO/LRO,分别对应Large Segmetn Offload发送和Large Receive Offload接受两个方向。发送数据超过MTU限制时,OS只需提交一次传输请求给网卡,网卡会自动进行切分和封装再发送,当收到很多碎片包时,LRO可以辅助自动组合成一段较大的数据,一次性提交给OS处理。
但在实际应用中,GSO(Generic Segmentation Offload)和GRO(Generic Receive Offload)更加通用,它们自动检测网卡支持特性,支持分包则直接发给网卡,否则先分包后发给网卡。
(1) 如图5-86所示,执行“ethtool –k ethx”命令,查询网卡OFFLOAD功能的支持和开启情况,其中ethx表示网卡的端口名称。
图5-86 查询OFFLOAD功能的支持和开启情况
(2) 如图5-87所示,执行“ethtool –K ethX feature on/off”命令,开启或关闭相应的OFFLOAD功能,其中ethx表示网卡的端口名称,feature表示功能的名称,包括tso、lso、lro、gso、gro等。
问题现象:
使用iSCSI boot在映射的存储卷上为刀片服务器安装H3C CAS系统,选择安装磁盘时可以扫描到存储的iqn但是无法登入。
问题原因及解决方法:
与系统本身有关,ETH522i网卡不支持使用iSCSI Boot安装H3C CAS系统,同样也不支持安装Ubuntu12.04和Ubuntu14.04系统。
问题现象:
刀片服务器安装Windows操作系统,端口的链路速度设置为1Gbps后,端口状态会变down,设置为10Gbps则正常。
问题原因及解决方法:
ETH522i网卡不支持在1Gbps和自协商模式下使用,请在10Gbps模式下使用。
问题现象:
网卡配置NPAR后,在BIOS下将虚拟化的端口设置成FCoE模式,但是OM界面上依然为NIC模式,如图6-1所示。
图6-1 NPAR虚拟化的端口不支持FCoE模式
问题原因及解决方法:
网卡配置NPAR后,仅物理口虚拟化的第一个端口支持FCoE,其他端口即使在BIOS下设置成FCoE,实际不会生效。如需创建FCoE链路,请使用虚拟化后的第一个端口。
缩略语 |
英文解释 |
中文解释 |
F |
||
FC |
Fiber Channel |
光纤通道 |
FCoE |
Fiber Channel Over Ethernet |
以太网光纤通道 |
I |
||
Internet Small Computer System Interface |
因特网小型计算机系统接口 |
|
N |
||
NCSI |
Network Controller Sideband Interface |
边带管理 |
NPAR |
NIC Partitioning |
网卡分区 |
P |
||
PCIe |
Peripheral Component Interconnect Express |
高速外设部件互联标准 |
PF |
Physical Function |
物理功能 |
PXE |
Preboot Execute Environment |
预启动执行环境 |
R |
||
RDMA |
Remote Direct Memory Access |
远程直接数据存取 |
S |
||
SAN |
Storage Area Network |
存储区域网络 |
SR-IOV |
Single Root I/O Virtualization |
单根I/O虚拟化 |
T |
||
TCP |
Transmission Control Protocol |
传输控制协议 |
V |
||
VF |
Virtual Function |
虚拟功能 |
Virtual Machine Data Queue |
虚拟机设备队列 |
不同款型规格的资料略有差异, 详细信息请向具体销售和400咨询。H3C保留在没有任何通知或提示的情况下对资料内容进行修改的权利!