01-虚拟机配置(路由产品SR6602专用)
本章节下载: 01-虚拟机配置(路由产品SR6602专用) (417.63 KB)
· 仅SR6602-I和SR6602-IE设备支持本特性。缺省情况下,设备虚拟化功能处于关闭状态。
· 用于部署虚拟机的物理硬盘须确保其文件系统格式为EXT4,并具有充足的存储空间。
· Linux标准命令可通过输入--help来获取该命令的使用帮助信息,形式如:virsh --help。
· 本文中virsh、ip、ifconfig相关命令为Linux标准命令,此类命令行中<>表示必选参数,[]表示可选参数,请注意与Comware命令行形式进行区分。
虚拟机(Virtual Machine)指通过软件模拟的具有完整硬件系统功能的、运行在一个完全隔离环境中的完整计算机系统。在实体计算机中能够完成的工作在虚拟机中都能够实现。创建虚拟机时,需要将宿主机的部分硬件资源,如CPU、内存和硬盘空间作为虚拟机独立的VCPU、内存和硬盘空间来使用。每个虚拟机都具有全新的,独立的操作系统,并可以独立安装和运行软件,保存数据,拥有自己的独立桌面,且不会对宿主机产生任何影响。
ICT融合网关实现了传统的IT与CT的融合,支持通过KVM虚拟化技术在设备上部署一个或多个虚拟机,以应对用户不同的业务需求。
KVM虚拟机主要向用户提供如下4种类型的网络模式:
· 网桥网络模式
· NAT网络模式
· MACVtap网络模式
· SRIOV网络模式
目前设备仅对用户开放MACVtap网络模式和SRIOV网络模式。
MACVtap网卡是基于Linux内核MACVLAN+Bridge模块实现的。MACVLAN模块可以虚拟出多个虚拟的MACVtap网络接口,Bridge模块可指导MACVtap接口转发业务数据。在每个MACVtap网络接口上配置设备定义的MAC地址并添加给虚拟机使用,对于虚拟机而言,为其添加的MACVtap网络接口就相当于自己的网卡。MACVtap网卡进行数据转发时,需要Linux内核的相关软件配合处理,因此其转发性能与物理网卡相比是较差的。
MACVtap网卡不需要安装驱动程序就可以使用,使用相对较为便捷。
SRIOV-VF网卡是基于具有SRIOV功能的物理网卡实现的。SRIOV技术是一种提高硬件I/O设备的使用率及灵活性的虚拟化技术。具有SRIOV功能的物理网卡包含一个PF(Physical Function,物理功能)接口和多个VF(Virtual Function,虚拟功能)接口。对虚拟机而言,为其添加的VF接口就相当于自己网卡。VF网卡进行数据转发时,虚拟机通过VF接口可以直接使用物理网卡转发数据,因此VF网卡的转发性能是比较好的。
SRIOV-VF网卡需要安装相应的驱动程序才能正常使用,对于没有SRIOV-VF网卡驱动的操作系统,需先安装MACVtap网卡,使用其提供的网络服务,下载SR-IOV网卡驱动程序至虚拟机中并安装。
融合网关作为宿主机可部署一个或多个虚拟机,虚拟机数量由设备CPU及内存的来决定。部署完成的虚拟机就像在设备上连接的实体计算机,其通信链路如图1-1所示。
图1-1仅作为对虚拟机通信链路原理介绍的参考,实际的物理链路,请以实际情况为准。
图1-1 虚拟机通信链路
· VM(Virtual Machine,虚拟机):设备中部署的虚拟机,可独立安装操作系统和应用软件。
· Route:设备的路由模块。
· Linux Kernel:Linux内核。
· MACVLAN+Bridge:内核中MACVLAN和Bridge模块,为虚拟机提供MACVtap接口和业务数据转发。
· MACVtap:由MACVLAN模块提供的虚拟接口,缺省属于VLAN 1。
· SRIOV NIC:支持SRIOV功能的物理网卡,设备内共2块。
· PF:SRIOV网卡的物理功能接口,缺省属于VLAN 1。
· VF:SRIOV网卡的虚拟功能接口,缺省不属于任何VLAN。
· Hardware Switch:硬件交换模块。
· LAN:局域网接口,缺省情况下,链路类型为Access。
· LAN(inner):虚拟局域网接口,仅在设备处于ICT模式下存在。缺省情况下,接口为XGE0/0/32和XGE0/0/33,链路类型为Access,使用虚拟化功能时,需要将链路类型修改为Trunk。
· MGE:管理用以太网接口。
· WAN:广域网接口。
· VLAN Interface:VLAN接口。
在设备中部署的虚拟机可通过使用MACVtap网卡和SRIOV-VF网卡与外部进行网络通信。虚拟机业务交互对象主要有三个:
· 虚拟机与虚拟机
· 虚拟机与WAN
· 虚拟机与LAN
(1) MACVtap网卡与MACVtap网卡之间业务交互。若虚拟机使用MACVtap网卡进行网络通信,则虚拟机之间的业务数据直接在MACVLAN+Bridge模块上进行转发,如图1-2所示。
图1-2 MACVtap网卡与MACVtap网卡之间业务交互
(2) MACVtap网卡与SRIOV-VF网卡之间业务交互,以MACVtap网卡访问SRIOV-VF网卡的过程为例。虚拟机通过MACVtap接口将业务数据转发给MACVLAN+Bridge模块,再经由PF接口将业务数据转发给物理网卡,最后通过VF接口转发到对端虚拟机上。SRIOV-VF网卡访问MACVtap网卡的过程与MACVtap网卡访问SRIOV-VF网卡的过程链路相同,业务数据流向相反,如图1-3所示。
图1-3 MACVtap网卡与SRIOV-VF网卡之间业务交互
(3) SRIOV-VF网卡与SRIOV-VF网卡之间业务交互。若虚拟机使用SRIOV-VF网卡进行网络通信,则虚拟机之间的业务数据直接在SRIOV网卡上进行转发,如图1-4所示。
图1-4 SRIOV-VF网卡与SRIOV-VF网卡之间业务交互
(1) MACVtap网卡与WAN之间的业务交互,以MACVtap网卡访问WAN的过程为例。虚拟机通过MACVtap接口将业务数据转发给MACVLAN+Bridge模块,再经由PF接口将业务数据转发给物理网卡,物理网卡收到业务数据后,从LAN(inner)将业务数据转发给Hardware Switch,再转发到Route,最后通过VLAN Interface将业务数据发给WAN。WAN访问MACVtap网卡的过程与MACVtap网卡访问WAN的过程链路相同,业务数据流向相反,如图1-5所示。
图1-5 MACVtap网卡与WAN之间业务交互
(2) SRIOV-VF网卡与WAN之间业务交互,以SR-IOV网卡访问WAN的过程为例。虚拟机通过VF接口将业务数据转发给物理网卡,物理网卡收到业务数据后,从LAN(inner)将业务数据转发给Hardware Switch,再转发到Route,最后通过VLAN Interface将业务数据发给WAN。WAN访问SR-IOV网卡的过程与SR-IOV网卡访问WAN的过程链路相同,业务数据流向相反,如图1-6所示。
图1-6 SRIOV-VF网卡与WAN之间业务交互
(1) MACVtap网卡与LAN之间业务交互,以MACVtap网卡访问LAN的过程为例。虚拟机通过MACVtap接口将业务数据转发给MACVLAN+Bridge模块,再经由PF接口将业务数据转发给物理网卡,物理网卡收到业务数据后,从LAN(inner)将业务数据转发给Hardware Switch,最后将业务数据发给LAN。LAN访问MACVtap网卡的过程与MACVtap网卡访问LAN的过程链路相同,业务数据流向相反,如图1-7所示。
图1-7 MACVtap网卡与LAN之间业务交互
(2) SRIOV-VF网卡与LAN口之间业务交互,以SR-IOV网卡访问LAN的过程为例。虚拟机通过VF接口将业务数据转发给物理网卡,物理网卡收到业务数据后,从LAN(inner)将业务数据转发给Hardware Switch,最后通将业务数据发给LAN。LAN访问SR-IOV网卡的过程与SR-IOV网卡访问LAN的过程链路相同,业务数据流向相反,如图1-8所示。
图1-8 SRIOV-VF网卡与LAN口之间业务交互
虚拟机配置任务如下:
(1) 虚拟化特性配置
¡ 开启虚拟化功能
¡ 配置虚拟化层路由
(2) 虚拟机管理
¡ 部署虚拟机
¡ 开启虚拟机
¡ 关闭虚拟机
¡ 配置虚拟机休眠
¡ 唤醒虚拟机
¡ 恢复虚拟机
¡ 卸载虚拟机
(3) 虚拟机配置
¡ 添加虚拟机磁盘
¡ 删除虚拟机磁盘
¡ 配置虚拟机内存
本功能用来开启虚拟化功能。通过本功能可以在设备上开启虚拟化功能并可以为虚拟化层分配CPU核数和内存大小。
使用本功能开启设备的虚拟化功能后,需要重新启动设备才能生效。
开启设备虚拟机化功能后,设备将支持同时支持路由功能和虚拟化功能。
不指定vcpu-pool和vmem-pool参数,则表示以缺省值开启虚拟化功能。
(1) 进入系统视图。
system-view
(2) 开启虚拟化功能
ict mode enable [ vcpu-pool cpu-count vmem-pool memory-size ]
缺省情况下,设备的虚拟化功能处于关闭状态。
设备虚拟化功能开启状态下,设备虚拟化层CPU核数缺省值为设备最大CPU核数-2,内存缺省值为设备最大内存-8GB。
本功能用来为虚拟化层分配CPU核数。虚拟机运行在设备的虚拟化层,直接调用虚拟化层的硬件资源,为虚拟化层分配的CPU资源可以提供给设备内所有的虚拟机使用。
在设备所有的CPU核中,为虚拟化层分配的CPU核其编号是由高到低排列的。例如,设备有8个CPU核编号为0~7,当为虚拟化层分配5个CPU核时,则虚拟机化层可用物理CPU核编号为3~7。在配置虚拟机VCPU核与物理CPU核绑定关系时,请正确选择物理CPU核编号。
为虚拟化层分配CPU核数取值范围为0~设备CPU核数-2。使用本功能后,需重新启动设备才能生效;如果为虚拟化层分配的CPU核数为0,重新启动设备后虚拟化特性将不可用。
(1) 进入系统视图。
system-view
(2) 进入VMM视图。
vmm
(3) 为虚拟化层分配CPU核数。
set vcpu-pool cpu-count
缺省情况下,虚拟化层CPU核数为设备CPU核数-2。
本功能用来为虚拟化层分配内存。虚拟机运行在设备的虚拟化层,直接调用虚拟化层的硬件资源,为虚拟化层分配的内存资源可以提供给设备内所有的虚拟机使用。
为虚拟化层分配的内存大小取值范围为0~设备的物理内存-8GB,单位为GB。使用本功能后,需重新启动设备才能生效;如果为虚拟化层分配的内存为0,重新启动设备后虚拟化特性将不可用。
(1) 进入系统视图。
system-view
(2) 进入VMM视图。
vmm
(3) 为虚拟化层分配内存。
set vmem-pool memory-size
缺省情况下,虚拟化层内存大小为设备内存-8GB。
设备内置的两个物理网卡分别对应虚拟接口XGE0/0/32和XGE0/0/33,接口缺省属于VLAN 1,且支持二三层切换。在未配置虚拟化层路由前,虚拟化层可以通过物理网卡提供的两个虚拟接口与外部网络进行二层通信,仅支持通过二层方式访问虚拟机桌面;在配置了虚拟化层路由后,虚拟化层可以与外部网络进行二三层通信,支持通过二层和三层方式访问虚拟机桌面。
在指定路由的下一跳IP地址时,需要注意如下情况:
· 当虚拟接口为二层模式时,路由的下一跳需要指定为虚拟接口所属VLAN的VLAN接口的IP地址,缺省为VLAN接口1的IP地址,若修改了虚拟机接口的VLAN信息,则需要根据实际情况配置。
· 当虚拟接口为三层模式时,路由的下一跳需要指定为虚拟接口的IP地址,此种方式不常用使用。
配置route del命令可以删除已配置的虚拟化层路由。删除虚拟化层的路由可能导致管理员无法通过三层路由的方式访问虚拟机,请谨慎使用。
(1) 进入系统视图。
system-view
(2) 进入VMM视图。
vmm
(3) 配置虚拟化层路由
route add -net ip-address netmask ip-address gw ip-address
虚拟机的部署方式有两种:
· 自动部署:自动部署虚拟机是指使用虚拟机PKG文件或虚拟机XML文件,在不需过多的人为操作或完全不需人为操作情况下,完成虚拟机部署的一种方式。自动部署的虚拟机,VCPU、内存等参数是固定的,只能在部署完成后通过相应命令调整。
· 手动部署:手动部署虚拟机是指在设备的命令行系统中,通过虚拟机创建命令进行全新虚拟机部署的一种方式。通过手动部署,可以实现虚拟机VCPU、内存等参数的自行配置,操作系统的多样性选择。
部署虚拟机前,需要通过qemu-img create命令为虚拟机创建一个空白的硬盘文件。
使用自动部署方式部署虚拟机,需要准备好虚拟机PKG文件或虚拟机XML文件。使用U盘方式自动部署只能通过虚拟机PKG文件完成,且需要确保U盘的文件系统格式为EXT4。
对某些操作系统而言,虚拟机的VCPU核的数量决定了所需内存大小。例如虚拟机安装VFW操作系统,则内存的配置建议如下:
· 若配置虚拟机VCPU核数量为1个,则需要分配2GB内存。
· 若配置虚拟机VCPU核数量为2个,则需要分配4GB内存。
· 若配置虚拟机VCPU核数量为4个,则需要分配8GB内存。
(1) 进入系统视图。
system-view
(2) 进入VMM视图。
vmm
(3) 创建硬盘文件。
qemu-img create [ -f fmt ] filename [ size ]
(4) 部署虚拟机。
¡ U盘方式自动部署。
首先将PKG文件保存在U盘根目录的VmImages文件夹下,文件夹名称区分大小写,再将U盘挂载在设备上,最后重新启动设备。在启动过程中,虚拟机部署完成。
¡ 命令行方式自动部署,分为import命令和virsh define命令两种。
首先将虚拟机PKG文件保存在设备中,使用import命令,完成虚拟机部署。
import pkg-path
首先将虚拟机XML文件保存在设备中,使用virsh define命令,完成虚拟机部署。
virsh define < file >
¡ 手动部署虚拟机。
virsh define-by-cmd < domname > < vcpucount > < memsize > < vncport > < disksource > < disksubdriver > < disktargetbus > [ --cdromsource < string > ]
Comware系统运行时最少需要占用8GB内存,当启动多个虚拟机时,建议适当调小为每个虚拟机分配的内存。若Comware系统内存不足,系统将优先关闭内存占用较大的虚拟机。
本功能用来配置处于关闭状态的虚拟机进入开启状态(Running)。
开启虚拟机前,需确保设备有足够的内存。若内存不足,则虚拟机将无法开启。
(1) 进入系统视图。
system-view
(2) 进入VMM视图。
vmm
(3) 开启虚拟机。
virsh start < domain >
虚拟机开启状态下关闭设备,Comware系统会在2分钟内尝试正常关闭虚拟机,若超过2钟虚拟机仍无法正常关闭,系统将强制关闭虚拟机;当存在多台运行的虚拟机时,系统会依次关闭虚拟机。
本功能用来配置处于开启状态的虚拟机进入关闭状态(Shut off)。
虚拟机正常关闭时间在2分钟以内。若虚拟机内部某个进程导致虚拟机无法关闭,应进入虚拟机手动关闭该进程后,再关闭虚拟机。
进程关闭后,若虚拟机仍无法正常关闭,则需要强制关闭虚拟机。强制关闭虚拟机,可能会导致虚拟机的数据丢失,请谨慎使用。
对于未安装操作系统的虚拟机,只能强制关闭虚拟机。
(1) 进入系统视图。
system-view
(2) 进入VMM视图。
vmm
(3) 关闭虚拟机。
virsh shutdown < domain >
(4) (可选)强制关闭虚拟机。
virsh destroy < domain >
本功能用来配置虚拟机自动启动功能。
(1) 进入系统视图。
system-view
(2) 进入VMM视图。
vmm
(3) 开启虚拟机自动启动功能。
virsh autostart < domain >
(4) (可选)关闭虚拟机自动启动功能。
virsh autostart < domain > --disable
本功能用来配置处于开启状态的虚拟机进入休眠状态(Paused)。
(1) 进入系统视图。
system-view
(2) 进入VMM视图。
vmm
(3) 配置虚拟机进入休眠状态。
virsh suspend < domain >
本功能用来唤醒处于休眠状态的虚拟机。
(1) 进入系统视图。
system-view
(2) 进入VMM视图。
vmm
(3) 唤醒虚拟机。
virsh resume < domain >
本功能用来在虚拟机当前节点创建内部快照,用于记录虚拟机当前的状态。虚拟机的内部快照可用来恢复虚拟机。若在已创建过内部快照虚拟机上继续创建内部快照,则后续生成的快照为当前虚拟机快照的子快照。
需确保在虚拟机关闭状态下使用本功能。
(1) 进入系统视图。
system-view
(2) 进入VMM视图。
vmm
(3) 创建虚拟机快照。
virsh snapshot-create-as < domain > [ --name < string > ] [ --description < string > ]
本功能用来删除虚拟机的内部快照。
(1) 进入系统视图。
system-view
(2) 进入VMM视图。
vmm
(3) 删除虚拟机内部快照。
virsh snapshot-delete < domain > [ --snapshotname < string > ] [ --current ] [ --children ] [ --children-only ]
本功能用来恢复虚拟机。虚拟机在创建内部快照之后,内部快照会记录当前节点虚拟机的状态,通过快照节点可以恢复虚拟机到创建快照时的状态。对于损坏的虚拟机,也可以通过本功能来复原。
(1) 进入系统视图。
system-view
(2) 进入VMM视图。
vmm
(3) 恢复虚拟机。
virsh snapshot-revert < domain > [ --snapshotname < string > ]
本功能用来使用已部署的虚拟机制作PKG文件并保存到指定位置,PKG文件的格式为.pkg。
PKG文件的保存路径需要有充足的存储空间。如需保存到U盘,需确保U盘的文件系统为EXT4。
在虚拟机关闭状态下,使用本功能才能生效。
(1) 进入系统视图。
system-view
(2) 进入VMM视图。
vmm
(3) 制作虚拟机PKG文件并保存到指定路径下。
export domain-name pkg-path
本功能用来卸载已部署的虚拟机。
虚拟机卸载后,为虚拟机创建的硬盘文件不会删除,如需释放物理硬盘空间,请使用delete命令手动删除该硬盘文件。关于delete命令的详细介绍请参见“基础配置”中的“文件系统管理命令”。
在虚拟机关闭状态下,使用本功能才能生效。
(1) 进入系统视图。
system-view
(2) 进入VMM视图。
vmm
(3) 卸载虚拟机。
virsh undefined < domain >
本功能用来为虚拟机添加磁盘文件,虚拟机磁盘分为两种:硬盘和CDROM。
对于新添加的硬盘文件,需要在虚拟机操作系统中对其进行分区和格式化后才可正常使用。
若虚拟机安装VFW操作系统,则只支持挂载一个硬盘。
若需要修改虚拟机的启动盘或操作系统,可使用virsh edit命令修改虚拟机硬盘或操作系统镜像的启动顺序来完成,启动顺序的取值范围为0~99,数字越小优先级越高,取值为0时,表示不启动。缺省情况下,硬盘的启动顺序为1,操作系统的启动顺序为8。
较老的操作系统不支持在虚拟机开启状态下进行虚拟机磁盘文件的热添加,即使用--live参数,较新操作系统如Centos7.4版本及其之后版本的操作系统支持。
(1) 进入系统视图。
system-view
(2) 进入VMM视图。
vmm
(3) 创建硬盘文件。
qemu-img create [ -f fmt ] filename [ size ]
(4) 为虚拟机添加磁盘文件。
virsh attach-disk < domain > < source > < target > [ --targetbus < string > ] [ --subdriver < string > ] [ --cache < string > ] [ --type < string > ] [ --config ] [ --live ]
本功能用来删除虚拟机的磁盘文件。
删除虚拟机磁盘文件后,只是将该磁盘文件从虚拟机中取消挂载,磁盘文件不会从物理硬盘内删除,如需释放硬盘空间,请使用delete命令手动删除该磁盘文件。关于delete命令的详细介绍请参见“基础配置”中的“文件系统管理命令”。
较老的操作系统不支持在虚拟机开启状态下热删除磁盘文件,即使用--live参数,较新操作系统如Centos7.4版本及其之后版本的操作系统支持。
(1) 进入系统视图。
system-view
(2) 进入VMM视图。
vmm
(3) 删除虚拟机磁盘文件。
virsh detach-disk < domain > < target > [ --config ] [ --live ]
本功能用来为虚拟机添加SRIOV-VF网卡。SRIOV-VF网卡实际是由具有SRIOV功能的物理网卡虚拟出来VF接口,一个物理网卡可以虚拟出多个VF接口。将VF接口分配给虚拟机使用后,虚拟机通过VF接口将业务数据直接发往到物理网卡,通过物理网卡来完成业务数据的转发。对虚拟机而言,相当于直接使用物理网卡的转发性能。
为虚拟机添加SRIOV-VF网卡时,需要指定SRIOV-VF网卡的PCIe地址,SRIOV-VF网卡的PCIe地址可通过display sriov-vf-pciaddr命令查看。
SRIOV-VF网卡需要配合相应的网卡驱动才能正常使用,若虚拟机操作系统未集成SRIOV-VF网卡的驱动程序,请手动安装。详细介绍请参考标准Linux的相关介绍。
(1) 进入系统视图。
system-view
(2) 进入VMM视图。
vmm
(3) 为虚拟机添加SRIOV-VF网卡。
virsh attach-sriov < domain > < pciaddr >
本功能用来配置虚拟机SR-IOV网卡的VLAN。VF接口缺省不属于任何VLAN,虚拟机使用VF接口与外部通信,需要将虚拟机使用的VF接口加入到指定VLAN,并配置VLAN Interface作为网关。
若已经为虚拟机的SRIOV-VF网卡配置VLAN,需要重新配置,则需要先取消当前的VLAN再进行配置。
配置SRIOV-VF网卡的VLAN为0,表示取消当前SRIOV-VF网卡的VLAN。
(1) 进入系统视图。
system-view
(2) 进入VMM视图。
vmm
(3) 配置虚拟机SRIOV-VF网卡的VLAN。
ip link set DEVICE vf NUM vlan VLANID
本功能用来删除虚拟机的SRIOV-VF网卡。
在虚拟机开启状态下使用本功能,需要重启虚拟机才能生效;在虚拟机关闭状态下使用本功能,下次启动生效。
(1) 进入系统视图。
system-view
(2) 进入VMM视图。
vmm
(3) 删除虚拟机的SRIOV-VF网卡。
virsh detach-sriov < domain > < pciaddr >
本功能用来为虚拟机添加MACVtap网卡。Linux内核MACVLAN模块负责虚拟出MACVtap接口,共8个;Bridge模块负责将虚拟机的业务数据通过MACVtap接口转发到物理网卡。使用MACVtap网卡需要为其配置MAC地址,设备内已定义了8个MAC地址供MACVtap网卡使用,通过指定MACVtap网卡的MAC地址完成网卡添加。MACVtap接口缺省属于VLAN 1,使用MACVtap网卡,须配置VLAN Interface 1作为网关与外界通信。
MACVtap网卡提供三种网络模式:VEPA、Bridge、Private。目前设备仅支持Bridge模式,在为虚拟机添加完MACVtap网卡后,需要通过virsh edit命令修改网络模式为Bridge。
· VEPA:同一物理网卡下的MACVtap接口的业务数据需借助外部交换机交互。
· Bridge:同一物理网卡下的MACVtap接口可以直接进行业务数据交互。
· Private:同一物理网卡下的MacVTap接口互相无法联通。
为虚拟机添加MACVtap网卡时,需要指定MACVtap网卡的MAC地址,MACVtap网卡的MAC地址可通过display mac-for-vmminterface命令查看。
同一个MAC地址不能同时绑定到多个MACVtap网卡上。
(1) 进入系统视图。
system-view
(2) 进入VMM视图。
vmm
(3) 为虚拟机添加MACVtap网卡。
virsh attach-interface < domain > < type > < source > [ --mac < string > ] [ --model < string > ][ --config ] [ --live ]
缺省情况下,MACVtap网卡的网络模式为VEPA。
本功能用来删除虚拟机的MACVtap网卡。
使用本功能前,需要确定MACVtap网卡对应的MAC地址,可通过virsh domiflist命令查看。
(1) 进入系统视图。
system-view
(2) 进入VMM视图。
vmm
(3) 删除虚拟机的MACVtap网卡。
virsh detach-interface < domain > < type > [ --mac < string > ] [ --config ] [ --live ]
本功能用来修改虚拟机VCPU核数。
较老的操作系统不支持在虚拟机开启状态下进行虚拟机CPU核的热添加,即使用--live参数,较新操作系统如Centos7.4版本及其之后版本的操作系统支持。
虚拟机CPU核数可以进行热添加无法进行热减少。
(1) 进入系统视图。
system-view
(2) 进入VMM视图。
vmm
(3) 配置虚拟机VCPU核数。
virsh setvcpus < domain > < count > [ --maximum ] [ --config ] [ --live ]
本功能用来将虚拟机的VCPU核绑定到设备物理CPU核上。虚拟机的多个VCPU核绑定到同一物理CPU核上,设备的CPU资源使用会出现冲突,可能出现虚拟机无法启动的情况,建议将虚拟机的多个VCPU核分别绑定到不同的物理CPU核上。
使用本功能前,需确定当前可用于与虚拟机VCPU核绑定的物理CPU核编号,可通过virsh vcpuinfo命令查看。
(1) 进入系统视图。
system-view
(2) 进入VMM视图。
vmm
(3) 配置虚拟机VCPU核与物理CPU核的绑定关系。
virsh vcpupin < domain > [ --vcpu < number > ] [ --cpulist < string > ] [ --config ] [ --live ]
本功能用来修改虚拟机的内存上限。虚拟机的内存上限表示虚拟机可使用的最大内存。
修改虚拟机的内存上限后,需要重新启动设备配置才能生效
(1) 进入系统视图。
system-view
(2) 进入VMM视图。
vmm
(3) 修改虚拟机的内存上限。
virsh setmaxmem < domain > < size > [ --config ]
本功能用来修改虚拟机内存大小。
(1) 进入系统视图。
system-view
(2) 进入VMM视图。
vmm
(3) 配置虚拟机的内存大小。
virsh setmem < domain > < size > [ --config ] [ --live ]
本功能用来配置设备物理网卡的IP地址和网卡模式。
虚拟机部署完成后,可以通过VNC远程终端控制软件登录到虚拟机可视化界面。使用VNC远程终端控制软件登录虚拟机可视化界面需要指定VNC Server的地址和VNC端口号。通过本功能为物理网卡的设置的IP地址,将作为VNC Server地址。
在需要进行网络分析的场景中,可以通过本功能开启物理网卡的混杂模式,接收所有经过该物理网卡的数据包。
开启SRIOV物理网卡的混杂模式后,由该物理网卡虚拟的SRIOV-VF网卡会接收所有经过SRIOV物理网卡的数据包,不考虑数据包的目的地址。关闭SRIOV物理网卡的混杂模式后,SRIOV-VF网卡会恢复到缺省情况,仅接收目的地址为自身IP或广播IP的数据包。混杂模式常用于需要进行网络分析的场景。
(1) 进入系统视图。
system-view
(2) 进入VMM视图。
vmm
(3) 配置物理网卡的IP地址和网卡模式。
ifconfig < interface > [ < address > ] [ netmask < address > ] [ [ - ] promisc ]
本功能用来进入虚拟机XML文件修改界面,并可以在该界面完成对虚拟机相关参数的修改,包括虚拟机磁盘的启动顺序、VNC端口号和MACVtap网卡的网络模式等。
输入“/参数”表示搜索指定参数,输入“n”表示搜索下一处,输入“i”表示进入修改,输入“Esc”表示退出修改,输入“:wq”表示保存修改退出,输入“:q!”表示不保存修改退出。
(1) 进入系统视图。
system-view
(2) 进入VMM视图。
vmm
(3) 进入虚拟机XML文件修改界面。
virsh edit < domain > [ --skip-validate ]
在完成上述配置后,可通过相关的显示命令显示虚拟机的信息,验证配置的效果。
表1-1 虚拟机显示和维护
命令 |
|
显示虚拟机SRIOV-VF网卡信息 |
display domain-sriov-vf domain-name |
显示设备虚拟化功能的状态 |
display ict mode |
显示设备预定义的MAC地址 |
display mac-for-vmminterface |
显示SRIOV-VF网卡的PCI地址 |
display sriov-vf-pciaddr |
显示虚拟化层的CPU核数 |
display vcpu-pool |
显示虚拟化层的内存 |
display vmem-pool |
显示物理网卡的配置信息 |
ifconfig [ -a ] [ -v ] [ -s ] < interface > |
显示物理网卡的详细信息 |
ip link show [ DEVICE ] |
显示硬盘文件的详细信息 |
qemu-img info filename |
显示虚拟机的详细信息 |
virsh dominfo < domain > |
显示虚拟机磁盘文件信息 |
virsh domblklist < domain > [ --inactive ] [ --details ] |
显示虚拟机的网卡信息 |
virsh domiflist < domain > [ --inactive ] |
显示虚拟机列表 |
virsh list [ --all ] [ --autostart ] [ --inactive ] [ --no-autostart ] |
显示虚拟机当前的快照 |
virsh snapshot-current < domain > [ --name ] |
显示虚拟机快照列表 |
virsh snapshot-list < domain > |
显示虚拟机VCPU核数 |
virsh vcpucount < domain > [ --maximum ] [ --active ] [ --live ] [ --config ] |
显示虚拟机VCPU核的详细信息 |
virsh vcpuinfo < domain > [ --pretty ] |
显示虚拟机VCPU核与物理CPU核的绑定关系 |
virsh vcpupin < domain > [ --vcpu < number > ] [ --cpulist < string > ] [ --config ] [ --live ] |
显示虚拟机VNC端口号 |
virsh vncdisplay < domain > |
不同款型规格的资料略有差异, 详细信息请向具体销售和400咨询。H3C保留在没有任何通知或提示的情况下对资料内容进行修改的权利!