1 虚拟化场景 #
虚拟化能为您的环境提供许多功能。该技术可以用于多种场景。如需更多相关细节,请参考虚拟化指南(尤其是以下章节):
本最佳实践指南提供有助于在您的环境中做出正确选择的建议。指南将根据您的工作负载建议或不建议使用某些选项。修复配置问题和执行微调任务会将 VM Guest 的性能提高到近乎裸机的水平。
2 实施修改之前 #
2.1 先进行备份 #
更改 VM Guest 或 VM 主机服务器的配置可能会导致数据丢失或状态不稳定。在执行任何更改之前,请务必先对文件、数据、映像等进行备份。如不备份,您将无法在数据丢失或配置错误后恢复原始状态。请勿在生产系统上执行测试或试验。
2.2 测试您的工作负载 #
虚拟化环境的效率取决于众多因素。本指南将提供一些参考,帮助您在生产环境中配置虚拟化时做出正确选择。做任何事情都无法一劳永逸。在规划、测试和部署虚拟化基础结构时,应将硬件、工作负载、资源容量等因素全部考虑在内。测试您的虚拟化工作负载对成功实施虚拟化至关重要。
3 建议 #
3.1 建议使用 libvirt
框架 #
SUSE 强烈建议使用 libvirt
框架来配置、管理和操作 VM 主机服务器与 VM Guest。该框架提供了一个适用于所有支持的虚拟化技术的统一界面(GUI 和外壳),因此比特定于超级管理程序的工具更容易使用。
我们不建议同时使用 libvirt 和特定于超级管理程序的工具,因为 libvirt 工具集可能无法识别使用特定于超级管理程序的工具进行的更改。有关 libvirt 的详细信息,请参见第 8 章 “启动和停止 libvirtd
”。
3.2 qemu-system-i386 与 qemu-system-x86_64 的对比 #
qemu-system-x86_64
与真正的 64 位 PC 硬件类似,支持运行 32 位或 64 位操作系统的 VM Guest。由于 qemu-system-x86_64
通常也可为 32 位 Guest 提供更佳性能,因此 SUSE 一般建议对 KVM 上的 32 位和 64 位 VM Guest 都使用 qemu-system-x86_64
。已知 qemu-system-i386
可提供更佳性能的方案不受 SUSE 支持。
Xen 也使用 qemu 软件包中的二进制文件,但更倾向于使用 qemu-system-i386
,qemu-system-i386 也可用于 32 位和 64 位 Xen VM Guest。为保持与上游 Xen 社区的兼容性,SUSE 建议对 Xen VM Guest 使用 qemu-system-i386
。
4 VM 主机服务器配置和资源分配 #
为 VM Guest 分配资源是管理虚拟机时至关重要的一点。在向 VM Guest 分配资源时,需注意过量使用资源可能会影响 VM 主机服务器和 VM Guest 的性能。如果所有 VM Guest 同时请求它们的所有资源,主机需要能够提供所有这些资源。如果不能,主机的性能将受到负面影响,进而也会对 VM Guest 的性能产生负面影响。
4.1 内存 #
Linux 以称为页的单元来管理内存。在大多数系统上,默认页大小为 4 KB。Linux 和 CPU 需要知道哪些页属于哪些进程。该信息储存在页表中。如果有大量进程在运行,则需要花更多时间来查找内存映射的位置,因为搜索页表需要时间。为加快搜索速度,发明了 TLB(转换后援缓冲区)技术。但在具有大量内存的系统上,TLB 也无法完全满足需求。为避免回退到普通页表(会导致发生缓存不命中情况,这将耗费大量时间),可以使用大页。使用大页将减少 TLB 开销和找不到 TLB 的情况 (pagewalk)。对于内存为 32 GB (32*1014*1024 = 33,554,432 KB)、页大小为 4 KB 的主机,TLB 具有 33,554,432/4 = 8,388,608 个项。使用 2 MB (2048 KB) 的页大小时,TLB 只有 33554432/2048 = 16384 个项,可大大减少找不到 TLB 的情况。
4.1.1 将 VM 主机服务器和 VM Guest 配置为使用大页 #
AMD64/Intel 64 CPU 体系结构支持大于 4 KB 的页,即大页。要确定系统上可用大页的大小(可以是 2 MB 或 1 GB),请查看 /proc/cpuinfo
输出中的 flags
行中是否包含 pse
和/或 pdpe1gb
。
CPU 标志 |
可用的大页大小 |
---|---|
空字符串 |
没有可用的大页 |
pse |
2 MB |
pdpe1gb |
1 GB |
使用大页可以提升 VM Guest 的性能并减少主机内存的消耗。
默认情况下,系统使用 THP。要使系统上可以使用大页,请在引导时使用 hugepages=1
来激活大页,您也可以选择使用 hugepagesz=2MB
(举例而言)来添加大页大小。
1 GB 的页只能在引导时分配,之后将无法释放。
要分配和使用大页表 (HugeTlbPage),您需要使用正确的权限挂载 hugetlbfs
。
大页虽然能够提供最佳性能,但也存在一些缺点。使用大页时,内存气球(请参见第 6.1.3 节 “virtio balloon”)、KSM(请参见第 4.1.4 节 “KSM 和页共享”)等功能将不可用,并且大页无法交换。
将
hugetlbfs
挂载到/dev/hugepages
:>
sudo
mount -t hugetlbfs hugetlbfs /dev/hugepages要为大页保留内存,请使用
sysctl
命令。如果系统的大页大小为 2 MB (2048 KB),而您想要为 VM Guest 保留 1 GB (1,048,576 KB),那么池中需要有 1,048,576/2048=512 个页:>
sudo
sysctl vm.nr_hugepages=512该值将写入
/proc/sys/vm/nr_hugepages
,表示内核的大页池中当前持续存在的大页数量。被任务释放后,持续存在的大页将返回到大页池。通过运行
virsh edit CONFIGURATION
将memoryBacking
元素添加到 VM Guest 配置文件中。<memoryBacking> <hugepages/> </memoryBacking>
启动 VM Guest,检查主机是否使用了大页:
>
cat /proc/meminfo | grep HugePages_ HugePages_Total:1 512 HugePages_Free:2 92 HugePages_Rsvd:3 0 HugePages_Surp:4 0
4.1.2 透明大页 #
利用透明大页 (THP),您可以使用 khugepaged
内核线程动态分配大页,无需再手动管理大页的分配和使用。THP 对于采用连续内存访问模式的工作负载很有用。在运行采用连续内存访问模式的合成工作负载时,页错误可减少 1000 倍。反之,对于采用稀疏内存访问模式的工作负载(例如数据库),THP 可能表现较差。在这类情况下,比较好的做法可能是通过添加内核参数 transparent_hugepage=never
来禁用 THP,然后重构建 grub2 配置并重引导。使用以下命令校验是否已禁用 THP:
>
cat /sys/kernel/mm/transparent_hugepage/enabled
always madvise [never]
如已禁用,方括号中将会显示值 never
,如上例中所示。
THP 在 Xen 下不可用。
4.1.3 特定于 Xen 的内存说明 #
4.1.3.1 管理 Domain-0 内存 #
在以前的 SUSE Linux Enterprise Server 版本中,Xen 主机的默认内存分配模式是将所有主机物理内存都分配给 Dom0,并启用自动气球式调节功能。当有其他域启动后,内存会自动从 Dom0 进行气球式调节。此行为总是容易出错,因此强烈建议将其禁用。从 SUSE Linux Enterprise Server15 SP1 开始,默认已禁用自动气球式调节,而是为 Dom0 分配 10% 的主机物理内存外加 1GB。例如,在物理内存大小为 32GB 的主机上,将为 Dom0 分配 4.2GB 内存。
我们仍支持并建议在 /etc/default/grub
中使用 dom0_mem
Xen 命令行选项(请参见第 7.5 节 “在引导时更改内核参数”了解详细信息)。您可以通过将 dom0_mem
设置为主机物理内存大小,并在 /etc/xen/xl.conf
中启用 autoballoon
选项,来恢复旧行为。
4.1.4 KSM 和页共享 #
内核同页合并 (Kernel Samepage Merging) 是一项内核功能,可以通过共享 VM Guest 共有的内存块来减少 VM 主机服务器上消耗的内存。KSM 守护程序 ksmd
会定期扫描用户内存,查找包含相同内容、可由单个写保护页替换的页。要启用 KSM 服务,首先需确保已安装 qemu-ksm 软件包,然后运行以下命令:
>
sudo
systemctl enable --now ksm.service
或者,也可以运行以下命令来启动该服务:
#
echo 1 > /sys/kernel/mm/ksm/run
从 VM Guest 的角度而言,使用 KSM 的优点之一是所有 Guest 内存都受主机匿名内存支持。您可以共享 pagecache、tmpfs 或 Guest 中分配的任何类型的内存。
KSM 由 sysfs
控制。您可以在 /sys/kernel/mm/ksm/
中查看 KSM 的值:
pages_shared
:正在使用的共享页数量(只读)。pages_sharing
:正在共享页的站点数量(只读)。pages_unshared
:为进行合并而反复检查的唯一页数量(只读)。pages_volatile
:更改太快而认为无法合并的页数量(只读)。full_scans
:已扫描所有可合并区域的次数(只读)。sleep_millisecs
:ksmd
在下次扫描前应休眠的毫秒数。值过低会过度使用 CPU,导致消耗可以用于其他任务的 CPU 时间。我们建议将该值设为1000
以上。pages_to_scan
:在 ksmd 进入睡眠状态之前要扫描的当前页数。值过高会过度使用 CPU。我们建议先将该值设为1000
,然后根据在测试部署时观察到的 KSM 结果进行必要的调整。merge_across_nodes
:默认情况下,系统会跨 NUMA 节点合并页。将此选项设为0
会禁用此行为。
KSM 技术非常适合在运行同一个应用程序或 VM Guest 的多个实例时过量使用主机内存。当应用程序和 VM Guest 类型不一并且不共享任何共用数据时,最好禁用 KSM。为此,请运行:
>
sudo
systemctl disable --now ksm.service
或者,也可以运行以下命令来禁用该服务:
#
echo 0 > /sys/kernel/mm/ksm/run
在异类和同类混杂的环境中,可以在主机上启用 KSM,但要对每个 VM Guest 禁用 KSM。可以使用 virsh edit
在 VM Guest 的 XML 配置中添加以下内容来禁用 Guest 页共享:
<memoryBacking> <nosharepages/> </memoryBacking>
尽管 KSM 可以释放主机系统上的一些内存,但是管理员应当保留足够的交换来避免可共享内存减少时内存不足的情况。如果可共享内存的量减少,就会增加物理内存的使用量。
默认情况下,KSM 会跨 NUMA 节点合并共用页。如果合并后的共用页现在位于较远的 NUMA 节点上(相对于运行 VM Guest vCPU 的节点),这样可能会降低 VM Guest 的性能。如果在 VM Guest 中发现内存访问延迟增加,请使用 merge_across_nodes
sysfs 控制禁用跨节点合并:
#
echo 0 > /sys/kernel/mm/ksm/merge_across_nodes
4.1.5 VM Guest:内存热插拔 #
为了优化主机内存的使用,在需要时为运行中 VM Guest 热插入更多内存可能会很有用。要支持内存热插拔,必须先在 VM Guest 的配置文件中配置 <maxMemory>
标记:
<maxMemory1 slots='16'2 unit='KiB'>209715203</maxMemory> <memory4 unit='KiB'>1048576</memory> <currentMemory5 unit='KiB'>1048576</currentMemory>
为 Guest 分配的运行时最大内存。 | |
可用于向 Guest 添加内存的槽数 | |
有效单位包括:
| |
在引导时为 Guest 分配的最大内存 | |
实际为 Guest 分配的内存 |
要将内存设备热插入到槽中,请创建如下所示的 mem-dev.xml
文件:
<memory model='dimm'> <target> <size unit='KiB'>524287</size> <node>0</node> </target> </memory>
然后使用以下命令附加该文件:
>
virsh attach-device vm-name mem-dev.xml
要使用内存设备热插拔,必须至少为 Guest 定义 1 个 NUMA 单元(请参见第 4.6.3.1 节 “VM Guest 虚拟 NUMA 拓扑”)。
4.2 交换 #
系统通常使用交换来储存未充分使用的物理内存(用量较低或长时间未访问)。为防止系统内存不足,强烈建议设置最小交换。
4.2.1 swappiness
#
swappiness
设置控制系统的交换行为。它定义如何将内存页交换到磁盘。swappiness 的值较高会导致系统频繁交换。可用的值的范围从 0
到 100
。值为 100
时,系统会查找非活动页并将这些页置于交换模式。值为 0
时会禁用交换。
要在在线系统上执行某些测试,可以即时更改 /proc/sys/vm/swappiness
的值,然后检查内存使用情况:
#
echo 35 > /proc/sys/vm/swappiness
>
free -h
total used free shared buffers cached
Mem: 24616680 4991492 19625188 167056 144340 2152408
-/+ buffers/cache: 2694744 21921936
Swap: 6171644 0 6171644
要永久设置 swappiness 值,请在 /etc/systcl.conf
中添加如下所示的行:
vm.swappiness = 35
您还可以通过在 VM Guest 的 XML 配置中使用 swap_hard_limit
元素来控制交换。设置此参数并将其用于生产环境中之前,请先进行一些测试,因为如果该值过低,主机可能会终止域。
<memtune>1 <hard_limit unit='G'>1</hard_limit>2 <soft_limit unit='M'>128</soft_limit>3 <swap_hard_limit unit='G'>2</swap_hard_limit>4 </memtune>
4.3 I/O #
4.3.1 I/O 调度程序 #
SUSE Linux Enterprise 15 SP2 和更高版本的 I/O 调度程序为预算公平队列 (BFQ)。BFQ 调度程序的主要目标是为请求 I/O 操作的所有进程公平分配磁盘 I/O 带宽。您可以为不同的设备使用不同的 I/O 调度程序。
为了在主机和 VM Guest 上获得更好的性能,可以在 VM Guest 中使用 none
(禁用 I/O 调度程序),而为虚拟化主机使用 mq-deadline
调度程序。
要查看磁盘的当前 I/O 调度程序,请运行以下命令(将 sdX 替换为要查看的磁盘):
>
cat /sys/block/sdX/queue/scheduler mq-deadline kyber [bfq] none方括号中的值为当前所选的调度程序(在上例中为
bfq
)。您可以在运行时更改调度程序,具体做法是以
root
身份运行以下命令:#
echo mq-deadline > /sys/block/sdX/queue/scheduler
如果您需要为每个磁盘指定不同的 I/O 调度程序,请创建内容类似于下例的 /usr/lib/tmpfiles.d/IO_ioscheduler.conf
文件。它为 /dev/sda
定义了 mq-deadline
调度程序,为 /dev/sdb
定义了 none
调度程序。请注意,设备名称可能因设备类型而异。此功能仅在 SLE 12 和更高版本上可用。
w /sys/block/sda/queue/scheduler - - - - mq-deadline w /sys/block/sdb/queue/scheduler - - - - none
4.3.2 异步 I/O #
许多虚拟磁盘后端在实施中都使用 Linux 异步 I/O (aio)。默认情况下,aio 环境的最大数量设置为 65536,但如果运行的 VM Guest 达数百个,而它们的虚拟磁盘的输入输出由 Linux 异步 I/O 处理,aio 环境数量可能会超过该上限。在 VM 主机服务器上运行大量 VM Guest 时,请考虑增加 /proc/sys/fs/aio-max-nr。
要查看当前的 aio-max-nr 设置,请运行以下命令:
>
cat /proc/sys/fs/aio-max-nr 65536您可以使用以下命令在运行时更改 aio-max-nr:
#
echo 131072 > /proc/sys/fs/aio-max-nr
要永久设置 aio-max-nr
,请在自定义 sysctl 文件中添加相应的项。例如,在 /etc/sysctl.d/aio-max-nr.conf
中添加以下内容:
fs.aio-max-nr = 1048576
4.3.3 I/O 虚拟化 #
SUSE 产品支持各种 I/O 虚拟化技术。下表列出了每种技术的优缺点。有关虚拟化中的 I/O 的详细信息,请参见第 1.4 节 “I/O 虚拟化”。
技术 |
优点 |
缺点 |
---|---|---|
设备分配(直通) |
Guest 直接访问设备 |
多个 Guest 之间不共享 |
性能较高 |
实时迁移较为复杂 | |
每个 Guest 的 PCI 设备限制为 8 | ||
服务器上的插槽数有限 | ||
全虚拟化(IDE、SATA、SCSI、e1000) |
VM Guest 兼容性 |
性能较差 |
便于实时迁移 |
模拟操作 | |
半虚拟化(virtio-blk、virtio-net、virtio-scsi) |
性能较好 |
经修改的 Guest(PV 驱动程序) |
便于实时迁移 | ||
主机与 VM Guest 高效通信 |
4.4 储存和文件系统 #
VM Guest 的储存空间可以是块设备(例如,物理磁盘上的分区),也可以是文件系统上的映像文件:
技术 |
优点 |
缺点 |
---|---|---|
块设备 |
|
|
映像文件 |
|
|
有关映像格式和维护映像的详细信息,请参见第 5 节 “VM Guest 映像”。
如果您的映像储存在 NFS 共享中,您应检查一些服务器和客户端参数来改进对 VM Guest 映像的访问。
4.4.1 NFS 读取/写入(客户端) #
rsize
和 wsize
选项指定客户端与服务器相互之间来回传递的数据区块的大小。您应确保 NFS 读取/写入大小足够大(尤其是对于较大的 I/O)。请将 /etc/fstab
中的 rsize
和 wsize
参数的值增至 16 KB。这将确保在有任何挂起实例时,所有操作都可以被冻结。
nfs_server:/exported/vm_images1 /mnt/images2 nfs3 rw4,hard5,sync6, rsize=81927,wsize=81928 0 0
4.4.2 NFS 线程(服务器) #
NFS 服务器应当有足够多的 NFS 线程来处理多线程工作负载。使用 nfsstat
工具可获取服务器上的一些 RPC 统计信息:
>
sudo
nfsstat -rc Client rpc stats: calls retrans authrefrsh 6401066 198 0 0
如果 retrans
等于 0,则表示一切正常。否则,客户端需要重新传输,此时需增大 /etc/sysconfig/nfs
中的 USE_KERNEL_NFSD_NUMBER
变量并进行相应调整,直到 retrans
等于 0
。
4.5 CPU #
主机 CPU“组件”在指派时将被“转换”为 VM Guest 中的虚拟 CPU。这些组件可能是:
CPU 处理器:它描述主 CPU 单元,通常有多个核心并且可能支持超线程。
CPU 核心:一个主 CPU 单元可以提供多个核心,核心的接近性能够加快计算过程并降低能源成本。
CPU 超线程:此实现用于改进计算的并行化,但其效率不如专用核心。
4.5.1 指派 CPU #
所有 VM Guest 的虚拟 CPU 的累积数量超过主机 CPU 的数量时,会发生 CPU 过量使用。当没有过量使用并且每个虚拟 CPU 均匹配 VM 主机服务器上的一个硬件处理器或核心时,可能会达到最佳性能。事实上,VM Guest 在一台过量使用的主机上运行会发生延迟增加,每个 VM Guest 的吞吐量也可能受到负面影响。因此,您应尽量避免过量使用 CPU。
要决定是否允许过量使用 CPU,需要对整体工作负载有较好的先验了解。例如,如果您知道所有 VM Guest 虚拟 CPU 的负载都不会超过 50%,那么您就可以假设将主机过量使用 2 倍时(这意味着在一台具有 64 个 CPU 的主机上,总共有 128 个虚拟 CPU)可以正常工作。相反,如果您知道 VM Guest 的所有虚拟 CPU 在大多数情况下都会尝试以 100% 的负载运行,那么即使虚拟 CPU 比主机的 CPU 多一个也属于不适当的配置。
过量使用达到一定的程度时,即虚拟 CPU 的累积数量超过 VM 主机服务器物理核心数量的 8 倍时,很可能会导致系统出现故障和不稳定,因此应当避免出现这一情况。
除非您确切知道一个 VM Guest 需要多少个虚拟 CPU,否则应当从一个开始。比较好的经验法则是将 VM 中的 CPU 工作负载控制在大约 70%(有关监视工具的信息,请参见第 2.3 节 “流程”)。如果您在 VM Guest 中分配的处理器超过所需,这将会对主机和 Guest 的性能产生负面影响。循环效率将会降低,因为未使用的 vCPU 仍然会导致计时器中断。如果您主要在 VM Guest 上运行单线程应用程序,那么单个虚拟 CPU 是最好的选择。
要是一个 VM Guest 具有的虚拟 CPU 比 VM 主机服务器具有的 CPU 还多,则一律属于不适当的配置。
4.5.2 VM Guest CPU 配置 #
本节介绍如何为 VM Guest 选择和配置 CPU 类型。您还将了解如何将虚拟 CPU 固定到主机系统上的物理 CPU。有关虚拟 CPU 配置和微调参数的详细信息,请参考 https://libvirt.org/formatdomain.html#elementsCPU 上的 libvirt 文档。
4.5.2.1 虚拟 CPU 型号和功能 #
可以为每个 VM Guest 单独指定 CPU 型号和拓扑。配置选项包括选择特定的 CPU 模型和排除某些 CPU 功能等。/usr/share/libvirt/cpu_map/
目录中的文件列出了预定义的 CPU 型号。采用与主机类似的 CPU 型号和拓扑通常能提供最佳性能。可以通过运行 virsh capabilities
来显示主机系统 CPU 型号和拓扑。
请注意,如果更改了默认虚拟 CPU 配置,在将 VM Guest 迁移到硬件不同的主机时,需要关闭 VM Guest。有关 VM Guest 迁移的详细信息,请参见第 11.7 节 “迁移 VM Guest”。
要为 VM Guest 指定某个特定的 CPU 型号,请向 VM Guest 配置文件添加相应的项。下面的示例配置了具有固定 TSC 功能的 Broadwell CPU:
<cpu mode='custom' match='exact'> <model>Broadwell</model> <feature name='invtsc'/> </cpu>
对于与主机物理 CPU 最类似的虚拟 CPU,可以使用 <cpu mode='host-passthrough'>
。请注意,host-passthrough
CPU 型号可能与主机物理 CPU 并不完全相似,因为 KVM 默认会屏蔽任何不可迁移的功能。例如,invtsc 就不包含在虚拟 CPU 功能集中。虽然 libvirt 允许任意直通 KVM 命令行参数,但它并不直接支持更改默认 KVM 行为。仍以 invtsc
为例,您可以在 VM Guest 配置文件中使用以下命令行直通来实现主机 CPU(包括 invtsc
) 的直通:
<domain type='kvm' xmlns:qemu='http://libvirt.org/schemas/domain/qemu/1.0'> <qemu:commandline> <qemu:arg value='-cpu'/> <qemu:arg value='host,migratable=off,+invtsc'/> </qemu:commandline> ... </domain>
host-passthrough
模式
由于 host-passthrough
会向虚拟 CPU 公开物理 CPU 细节,因此无法迁移到不同的硬件。有关更多信息,请参见第 4.5.2.3 节 “虚拟 CPU 迁移注意事项”。
4.5.2.2 虚拟 CPU 固定 #
虚拟 CPU 固定用于将虚拟 CPU 线程限制到一组物理 CPU 。vcpupin
元素指定虚拟 CPU 可以使用的物理主机 CPU。如果未设置此元素且未指定 vcpu
元素的 cpuset
属性,则虚拟 CPU 可以自由使用任何物理 CPU。
虚拟 CPU 固定可提高物理 CPU 缓存命中率,对 CPU 密集型工作负载用处很大。要将虚拟 CPU 固定到特定的物理 CPU,请运行以下命令:
>
virsh vcpupin DOMAIN_ID --vcpu vCPU_NUMBER VCPU: CPU Affinity ---------------------------------- 0: 0-7#
virsh vcpupin SLE15 --vcpu 0 0 --config
最后一个命令会在 XML 配置中生成下面一项:
<cputune> <vcpupin vcpu='0' cpuset='0'/> </cputune>
要将 VM Guest 的 CPU 和内存限制为一个 NUMA 节点,可以在 NUMA 系统上使用虚拟 CPU 固定和内存分配策略。有关 NUMA 微调的详细信息,请参见第 4.6 节 “NUMA 微调”。
虽然 vcpupin
可以提高性能,但它可能会使实时迁移复杂化。有关虚拟 CPU 迁移注意事项的详细信息,请参见第 4.5.2.3 节 “虚拟 CPU 迁移注意事项”。
4.5.2.3 虚拟 CPU 迁移注意事项 #
选择包含所有最新功能的虚拟 CPU 型号可以提高 VM Guest 工作负载的性能,但通常会牺牲可迁移性。除非群集中的所有主机都包含最新的 CPU 功能,否则如果目标主机缺少新功能,迁移便可能会失败。如果比起最新的 CPU 功能,更为重要的是虚拟 CPU的可迁移性,那么应当使用标准化的 CPU 型号和功能集。virsh cpu-baseline
命令可帮助定义可以跨所有主机迁移的标准化虚拟 CPU。下面的命令(在迁移群集中的每台主机上运行时)会在 all-hosts-caps.xml
中说明所有主机功能的集合。
>
sudo
virsh capabilities >> all-hosts-cpu-caps.xml
您可以使用 virsh cpu-baseline
根据 all-hosts-caps.xml 中收集的每个主机的功能创建跨所有主机兼容的虚拟 CPU 定义。
>
sudo
virsh cpu-baseline all-hosts-caps.xml
生成的 CPU 定义可用作 VM Guest 配置文件中的 cpu
元素。
在逻辑层面上而言,虚拟 CPU 固定是一种硬件直通形式。固定会将物理资源与虚拟资源进行配对,也可能会给迁移带来问题。例如,如果请求的物理资源在目标主机上不可用,或者源主机与目标主机的 NUMA 拓扑不同,迁移将会失败。有关实时迁移的更多建议,请参见第 11.7.1 节 “迁移要求”。
4.6 NUMA 微调 #
NUMA 是 Non Uniform Memory Access(非一致性内存访问)的首字母缩写。NUMA 系统具有多个物理 CPU,每个 CPU 都附有本地内存。每个 CPU 还可以访问其他 CPU 的内存(称为“远程内存访问”),但速度比访问本地内存要慢得多。如果调节不当,NUMA 系统会对 VM Guest 性能造成负面影响。本节介绍了在 NUMA 主机上部署 VM Guest 时应当考虑的控制,不过最终微调取决于工作负载。在配置和部署 VM 时,始终要考虑主机拓扑。
SUSE Linux Enterprise Server 包含一个 NUMA 自动平衡器,该平衡器通过将内存放置在与处理它的 CPU 相同的 NUMA 节点上来尽力减少远程内存访问。此外,标准工具(例如 cgset
)和虚拟化工具(例如 libvirt)提供了将 VM Guest 资源限制为物理资源的机制。
numactl
用于检查主机 NUMA 功能:
>
sudo
numactl --hardware available: 4 nodes (0-3) node 0 cpus: 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 node 0 size: 31975 MB node 0 free: 31120 MB node 1 cpus: 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 node 1 size: 32316 MB node 1 free: 31673 MB node 2 cpus: 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 node 2 size: 32316 MB node 2 free: 31726 MB node 3 cpus: 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 node 3 size: 32314 MB node 3 free: 31387 MB node distances: node 0 1 2 3 0: 10 21 21 21 1: 21 10 21 21 2: 21 21 10 21 3: 21 21 21 10
该 numactl
输出显示这是一个具有 4 个节点或单元的 NUMA 系统,每个节点或单元包含 36 个 CPU 和大约 32G 内存。virsh capabilities
也可用于检查系统 NUMA 功能和 CPU 拓扑。
4.6.1 NUMA 平衡 #
在 NUMA 计算机上,如果 CPU 访问远程内存,将会造成性能损失。NUMA 自动平衡功能会扫描任务的地址空间并取消页映射。这样做可以检测页是否正确放置,或者是否要将数据迁移到运行任务的本地内存节点。在定义的时间间隔内(使用 numa_balancing_scan_delay_ms
配置),该任务会扫描其地址空间中的下次扫描大小页数(使用 numa_balancing_scan_size_mb
配置)。在到达地址空间的末尾时,扫描器会从头重新开始。
较高的扫描率会导致较高的系统开销,因为必须捕获页错误,并需要迁移数据。但扫描率越高,当工作负载模式更改时,任务的内存迁移到本地节点的速度就越快。这样可最大限度减少远程内存访问对性能造成的影响。以下 sysctl
指令控制扫描延迟的阈值和扫描的页数:
>
sudo
sysctl -a | grep numa_balancing kernel.numa_balancing = 11 kernel.numa_balancing_scan_delay_ms = 10002 kernel.numa_balancing_scan_period_max_ms = 600003 kernel.numa_balancing_scan_period_min_ms = 10004 kernel.numa_balancing_scan_size_mb = 2565
启用/禁用基于页错误的 NUMA 自动平衡 | |
任务初始派生时用于任务的起始扫描延迟 | |
扫描任务的虚拟内存的最大时间(以毫秒为单位) | |
扫描任务的虚拟内存的最小时间(以毫秒为单位) | |
某次给定的扫描需要扫描的页大小(以兆字节为单位) |
有关更多信息,请参见第 10 章 “自动平衡非一致性内存访问 (NUMA)”。
NUMA 自动平衡的主要目标是在相同节点的内存上重新安排任务(以便 CPU 跟随内存),或者将内存的页复制到相同的节点上(以便内存跟随 CPU)。
由于不同的任务之间可能会共享内存,因此并没有可定义运行任务的最佳位置的通用规则。为了获得最佳性能,建议将共享同一节点上的内存的任务分成一组。使用 # cat /proc/vmstat | grep numa_
可查看 NUMA 统计信息。
4.6.2 使用 CPUset 控制器控制内存分配 #
cgroup cpuset 控制器可用于将进程使用的内存限制在一个 NUMA 节点。可用的 cpuset 内存策略模式有以下三种:
interleave
:此内存放置策略也称为轮替。对于需要将线程本地数据放到相应节点上的作业,此策略可提供显著的改进。当交错目标不可用时,它将被转移到另一个节点。bind
:此策略仅将内存放到一个节点上,这意味着如果内存不足,分配将会失败。preferred
:此策略应用首选项来向节点分配内存。如果此节点上没有足够的内存空间,则会回退到另一个节点。
您可以使用来自 libcgroup-tools 软件包的 cgset
工具更改内存策略模式:
>
sudo
cgset -r cpuset.mems=NODE sysdefault/libvirt/qemu/KVM_NAME/emulator
要将页迁移到某个节点,请使用 migratepages
工具:
>
migratepages PID FROM-NODE TO-NODE
要检查是否一切正常,请使用 cat /proc/PID/status | grep Cpus
。
有关详细信息,请参见内核 NUMA 内存策略和 cpusets 内存策略。另请查看 Libvirt NUMA Tuning(Libvirt NUMA 微调)文档。
4.6.3 VM Guest:NUMA 相关配置 #
libvirt
允许设置虚拟 NUMA 和内存访问策略。virt-install
或 virt-manager
不支持配置这些设置,需要使用 virsh edit
手动编辑 VM Guest 配置文件来完成该操作。
4.6.3.1 VM Guest 虚拟 NUMA 拓扑 #
创建类似于主机 NUMA 拓扑的 VM Guest 虚拟 NUMA (vNUMA) 通常可以提高传统的大型可扩展工作负载的性能。可以在 XML 配置中使用 numa
元素指定 VM Guest vNUMA 拓扑:
<cpu> ... <numa> <cell1 id="0"2 cpus='0-1'3 memory='512000' unit='KiB'/> <cell id="1" cpus='2-3' memory='256000'4 unit='KiB'5 memAccess='shared'6/> </numa> ... </cpu>
每个 | |
所有单元都应具有 | |
属于节点一部分的 CPU 或 CPU 范围 | |
节点内存 | |
指定节点内存时所用的单位 | |
可选属性,可控制将内存映射为 |
要查找 VM Guest 将其页分配到的位置,请使用 cat /proc/PID/numa_maps
和 cat /sys/fs/cgroup/memory/sysdefault/libvirt/qemu/KVM_NAME/memory.numa_stat
.
libvirt
VM Guest NUMA 规范目前仅适用于 QEMU/KVM。
4.6.3.2 使用 libvirt
控制内存分配 #
如果 VM Guest 具有 vNUMA 拓扑(请参见第 4.6.3.1 节 “VM Guest 虚拟 NUMA 拓扑”),便可使用 numatune
元素将内存固定到主机 NUMA 节点。此方法目前仅适用于 QEMU/KVM Guest。请参见重要:非 vNUMA VM Guest了解如何配置非 vNUMA VM Guest。
<numatune> <memory mode="strict"1 nodeset="1-4,^3"2/> <memnode3 cellid="0"4 mode="strict" nodeset="1"/> <memnode cellid="2" placement="strict"5 mode="preferred" nodeset="2"/> </numatune>
可用的策略包括 | |
指定 NUMA 节点。 | |
指定每个 Guest NUMA 节点的内存分配策略(如果未定义此元素,则会回退并使用 | |
对要应用设置的 Guest NUMA 节点寻址。 | |
可以使用 placement 属性来指示域进程的内存放置模式,值可以是 |
在非 vNUMA VM Guest 上,将内存固定到主机 NUMA 节点的命令如下例所示:
<numatune> <memory mode="strict" nodeset="0-1"/> </numatune>
本例中从主机节点 0
和 1
分配内存。如果无法满足这些内存要求,启动 VM Guest 的操作将会失败。virt-install
也通过 --numatune
选项支持此配置。
您应当避免跨 NUMA 节点分配 VM Guest 内存,并防止虚拟 CPU 跨 NUMA 节点浮动。
5 VM Guest 映像 #
映像是用于储存 VM Guest 的操作系统和数据的虚拟磁盘。可以使用 qemu-img
命令来创建、维护和查询映像。有关 qemu-img
工具和示例的详细信息,请参见第 34.2.2 节 “创建、转换和检查磁盘映像”。
5.1 VM Guest 映像格式 #
QEMU 可识别源自其他虚拟化技术的某些储存格式。通过识别这些格式,QEMU 可以利用最初用于在这些其他虚拟化技术下运行的数据储存或整个 Guest。有些格式只支持只读模式。要以读取/写入模式使用它们,请使用 qemu-img
将它们转换为完全受支持的 QEMU 储存格式。否则,它们在 QEMU Guest 中将只能用作只读数据储存。
使用 qemu-img info VMGUEST.IMG
可获取有关现有映像的信息,例如格式、虚拟大小、物理大小、快照(如果有)。
建议将磁盘映像转换为 raw 或 qcow2 格式以获得较好的性能。
创建映像时,无法在输出文件中使用压缩 (-c
) 的同时指定加密选项 (-e
)。
5.1.1 Raw 格式 #
此格式十分简单,并且容易导出到所有其他模拟器/超级管理程序。
它提供的性能最佳(I/O 开销最少)。
它会占用文件系统上的所有已分配空间。
Raw 格式允许将 VM Guest 映像复制到物理设备 (
dd if=VMGUEST.RAW of=/dev/sda
)。这与 VM Guest 看到的字节对字节相同,因此会浪费大量空间。
5.1.2 qcow2 格式 #
使用此格式可缩小映像大小(这在文件系统不支持空洞时很有用)。
它具有可选的 AES 加密(现已弃用)。
基于 Zlib 的压缩选项。
支持多个 VM 快照(内部、外部)。
可提升性能和稳定性。
支持更改后备文件。
支持一致性检查。
性能低于 raw 格式。
- l2-cache-size
qcow2 可以为随机读取/写入访问提供与 raw 格式相同的性能,但需要合适的缓存大小。默认情况下,缓存大小设置为 1 MB。这将提供最大 8 GB 磁盘大小的良好性能。如果您需要更大的磁盘大小,则需要调整缓存大小。假设磁盘大小为 64 GB (64*1024 = 65536),则缓存大小需为 65536 / 8192B = 8 MB(
-drive format=qcow2,l2-cache-size=8M
)。- 群集大小
qcow2 格式提供更改群集大小的功能。值必须介于 512 KB 到 2 MB 之间。较小的群集大小可以改善映像文件的大小,而较大的群集大小通常可提供更好的性能。
- 预分配
具有预分配元数据的映像最初便比较大,但在其需要增长时可以提升性能。
- 迟缓的引用计数
为了避免元数据 I/O 并提高性能,系统会延迟更新引用计数。这对于
cache=writethrough
的情况尤为有用。此选项不会批量进行元数据更新,但如果由于主机崩溃而必须重构建引用计数表,则在下次使用qemu-img check -r all
打开时会自动完成重构建。请注意,此过程需要一段时间。
5.1.3 qed 格式 #
qed 是一种改进型 qcow(QEMU 写入时复制)格式。由于 qcow2 可提供 qed 的所有优点以及其他功能,因此 qed 现已弃用。
5.1.4 VMDK 格式 #
VMware 3、4 或 6 映像格式,用于与该产品交换映像。
5.2 覆盖磁盘映像 #
qcow2 和 qed 格式提供了一种创建基本映像(也称为后备文件)和在基本映像之上覆盖映像的方法。后备文件对于还原到已知状态并丢弃覆盖非常有用。如果向映像写入数据,后备映像将保持不变,所有更改都将记录在覆盖映像文件中。除非使用 commit
监视命令(或 qemu-img commit
),否则后备文件永远都不会修改。
要创建覆盖映像,请运行以下命令:
#
qemu-img create -o1backing_file=vmguest.raw2,backing_fmt=raw3\
-f4 qcow2 vmguest.cow5
您不应更改后备映像的路径,否则将需要对其进行调整。路径储存在覆盖映像文件中。要更新路径,应当创建一个从原始路径到新路径的符号链接,然后使用 qemu-img
rebase
选项。
#
ln -sf /var/lib/images/OLD_PATH/vmguest.raw \ /var/lib/images/NEW_PATH/vmguest.raw#
qemu-img rebase1 -u2 -b3 \ /var/lib/images/OLD_PATH/vmguest.raw /var/lib/images/NEW_PATH/vmguest.cow
常见的用法是使用后备文件来启动新的 Guest。假设我们有一个可以使用的 sle15_base.img
VM Guest(未经任何修改的新安装)。这将是我们的后备文件。现在需要在更新后的系统和具有不同内核的系统上测试一个新软件包。我们可以使用 sle15_base.img
,通过创建指向此后备文件 (sle15_base.img
) 的 qcow2 覆盖文件来实例化新的 SUSE Linux Enterprise VM Guest。
在本例中,我们将为更新后的系统使用 sle15_updated.qcow2
,为具有不同内核的系统使用 sle15_kernel.qcow2
。
要创建这两个精简预配的系统,需使用带 -b
选项的 qemu-img
命令行:
#
qemu-img create -b /var/lib/libvirt/sle15_base.img -f qcow2 \ /var/lib/libvirt/sle15_updated.qcow2 Formatting 'sle15_updated.qcow2', fmt=qcow2 size=17179869184 backing_file='sle15_base.img' encryption=off cluster_size=65536 lazy_refcounts=off nocow=off#
qemu-img create -b /var/lib/libvirt/sle15_base.img -f qcow2 \ /var/lib/libvirt/sle15_kernel.qcow2 Formatting 'sle15_kernel.qcow2', fmt=qcow2 size=17179869184 backing_file='vmguest-sle15_base.img' encryption=off cluster_size=65536 lazy_refcounts=off nocow=off
映像现在便可供使用,您可以在不变动初始 sle15_base.img
后备文件的情况下执行测试。所有更改都将储存在新的覆盖映像中。此外,您还可以使用这些新映像作为后备文件来创建新的覆盖。
#
qemu-img create -b sle15_kernel.qcow2 -f qcow2 sle15_kernel_TEST.qcow2
将 --backing-chain
选项与 qemu-img info
结合使用时,该命令将会递归返回关于整个后备链的所有信息:
#
qemu-img info --backing-chain
/var/lib/libvirt/images/sle15_kernel_TEST.qcow2
image: sle15_kernel_TEST.qcow2
file format: qcow2
virtual size: 16G (17179869184 bytes)
disk size: 196K
cluster_size: 65536
backing file: sle15_kernel.qcow2
Format specific information:
compat: 1.1
lazy refcounts: false
image: sle15_kernel.qcow2
file format: qcow2
virtual size: 16G (17179869184 bytes)
disk size: 196K
cluster_size: 65536
backing file: SLE15.qcow2
Format specific information:
compat: 1.1
lazy refcounts: false
image: sle15_base.img
file format: qcow2
virtual size: 16G (17179869184 bytes)
disk size: 16G
cluster_size: 65536
Format specific information:
compat: 1.1
lazy refcounts: true
5.3 打开 VM Guest 映像 #
要访问映像的文件系统,请使用 guestfs-tools。如果系统上没有安装此工具,您可以使用其他 Linux 工具挂载映像。应避免访问不可信或未知的 VM Guest 的映像系统,因为这可能会导致安全问题(有关详细信息,请阅读 D. Berrangé 发布的帖子)。
5.3.1 打开 Raw 映像 #
要能够挂载映像,请找到一台空闲的循环设备。下面的命令会显示第一台未使用的循环设备(在本例中为
/dev/loop1
)。#
losetup -f /dev/loop1将映像(在本例中为
SLE15.raw
)与循环设备相关联:#
losetup /dev/loop1 SLE15.raw通过获取有关循环设备的详细信息来检查映像是否已成功与循环设备关联:
#
losetup -l NAME SIZELIMIT OFFSET AUTOCLEAR RO BACK-FILE /dev/loop1 0 0 0 0 /var/lib/libvirt/images/SLE15.raw使用
kpartx
查看映像的分区:#
kpartx -a1 -v2 /dev/loop1 add map loop1p1 (254:1): 0 29358080 linear /dev/loop1 2048现在挂载映像分区(在下面的示例中,挂载到
/mnt/sle15mount
):#
mkdir /mnt/sle15mount#
mount /dev/mapper/loop1p1 /mnt/sle15mount
如果 raw 映像包含 LVM 卷组,您应当使用 LVM 工具挂载分区。有关详细信息,请参见 第 5.3.3 节 “打开包含 LVM 的映像”.
卸载映像的所有已挂载分区,例如:
#
umount /mnt/sle15mount使用
kpartx
删除分区设备映射:#
kpartx -d /dev/loop1使用
losetup
解除设备关联:#
losetup -d /dev/loop1
5.3.2 打开 qcow2 映像 #
首先,您需要装载
nbd
(网络块设备)模块。下面的示例装载了该模块并支持 16 个块设备 (max_part=16
)。使用dmesg
检查操作是否成功:#
modprobe nbd max_part=16#
dmesg | grep nbd [89155.142425] nbd: registered device at major 43使用
qemu-nbd
命令将 VM Guest 映像(例如SLE15.qcow2
)与 NBD 设备(在下面的示例中为/debv/nbd0
)相连。请务必使用空闲的 NBD 设备:#
qemu-nbd -c1 /dev/nbd02 SLE15.qcow23提示:检查是否有空闲的 NBD 设备要检查 NBD 设备是否空闲,请运行以下命令:
#
lsof /dev/nbd0 COMMAND PID USER FD TYPE DEVICE SIZE/OFF NODE NAME qemu-nbd 15149 root 10u BLK 43,0 0t0 47347 /dev/nbd0如果命令生成如上所示的输出,则表示设备处于忙碌状态(非空闲)。还可以通过查看是否存在
/sys/devices/virtual/block/nbd0/pid
文件来确认设备是否空闲。使用
partprobe
通知操作系统有关分区表的更改:#
partprobe /dev/nbd0 -s /dev/nbd0: msdos partitions 1 2#
dmesg | grep nbd0 | tail -1 [89699.082206] nbd0: p1 p2在上面的示例中,
SLE15.qcow2
包含/dev/nbd0p1
和/dev/nbd0p2
这两个分区。在挂载这些分区之前,使用vgscan
检查它们是否属于 LVM 卷:#
vgscan -v Wiping cache of LVM-capable devices Wiping internal VG cache Reading all physical volumes. This may take a while... Using volume group(s) on command line. No volume groups found.如果没有找到 LVM 卷,可以使用
mount
挂载分区:#
mkdir /mnt/nbd0p2 # mount /dev/nbd0p1 /mnt/nbd0p2有关如何处理 LVM 卷的信息,请参见第 5.3.3 节 “打开包含 LVM 的映像”。
卸载映像的所有已挂载分区,例如:
#
umount /mnt/nbd0p2断开映像与
/dev/nbd0
设备的连接。#
qemu-nbd -d /dev/nbd0
5.3.3 打开包含 LVM 的映像 #
如果 VM 主机服务器使用的 VG 名称为 system
,而 Guest 映像使用的 VG 名称也是 system
,LVM 将在其激活过程中报错。一种变通方法是暂时重命名 Guest VG,而正确的做法是为 Guest 使用与 VM 主机服务器不同的 VG 名称。
要检查映像是否包含 LVM 组,请使用
vgscan -v
。如果映像包含 LVM 组,命令的输出将如下所示:#
vgscan -v Wiping cache of LVM-capable devices Wiping internal VG cache Reading all physical volumes. This may take a while... Finding all volume groups Finding volume group "system" Found volume group "system" using metadata type lvm2在系统上找到了
system
LVM 卷组。您可以使用vgdisplay VOLUMEGROUPNAME
(在此处的示例中,VOLUMEGROUPNAME 为system
)获取有关此卷的详细信息。应当激活这个卷组以将 LVM 分区作为设备公开,这样系统便能挂载它们。使用vgchange
:#
vgchange -ay -v Finding all volume groups Finding volume group "system" Found volume group "system" activation/volume_list configuration setting not defined: Checking only host tags for system/home Creating system-home Loading system-home table (254:0) Resuming system-home (254:0) Found volume group "system" activation/volume_list configuration setting not defined: Checking only host tags for system/root Creating system-root Loading system-root table (254:1) Resuming system-root (254:1) Found volume group "system" activation/volume_list configuration setting not defined: Checking only host tags for system/swap Creating system-swap Loading system-swap table (254:2) Resuming system-swap (254:2) Activated 3 logical volumes in volume group system 3 logical volume(s) in volume group "system" now active卷组中的所有分区都列于
/dev/mapper
目录中。现在即可挂载它们。#
ls /dev/mapper/system-* /dev/mapper/system-home /dev/mapper/system-root /dev/mapper/system-swap#
mkdir /mnt/system-root#
mount /dev/mapper/system-root /mnt/system-root#
ls /mnt/system-root/ bin dev home lib64 mnt proc root sbin srv tmp var boot etc lib lost+found opt read-write run selinux sys usr
使用
umount
卸载所有分区#
umount /mnt/system-root使用
vgchange -an VOLUMEGROUPNAME
停用 LVM 卷组#
vgchange -an -v system Using volume group(s) on command line Finding volume group "system" Found volume group "system" Removing system-home (254:0) Found volume group "system" Removing system-root (254:1) Found volume group "system" Removing system-swap (254:2) Deactivated 3 logical volumes in volume group system 0 logical volume(s) in volume group "system" now active现在有以下两种选择:
重要:检查卸载是否成功您应使用
losetup
、qemu-nbd
、mount
或vgscan
等系统命令确认卸载是否成功。如果没有成功卸载,您在使用 VM Guest 时可能会遇到问题,因为它的系统映像会在不同的地方使用。
6 VM Guest 配置 #
6.1 Virtio 驱动程序 #
为了提高 VM Guest 性能,建议在 VM Guest 中使用半虚拟化驱动程序。此类用于 KVM 的驱动程序的虚拟化标准是 virtio
驱动程序,它专为在虚拟环境中运行而设计。Xen 使用类似的半虚拟化设备驱动程序(例如 Windows* Guest 中的 VMDP)。
6.1.1 virtio blk
#
virtio_blk
是磁盘的 virtio 块设备。要为块设备使用 virtio blk
驱动程序,请在 disk
定义中指定 bus='virtio'
属性:
<disk type='....' device='disk'> .... <target dev='vda' bus='virtio'/> </disk>
virtio
磁盘设备命名为 /dev/vd[a-z][1-9]
。如果从非 virtio 磁盘迁移 Linux Guest,您需要调整 GRUB 配置中的 root=
参数,并重新生成 initrd
文件,否则系统将无法引导。在运行其他操作系统的 VM Guest 上,可能还需要相应地调整或重新安装引导加载器。
qemu-system-ARCH
使用 virtio
磁盘
运行 qemu-system-ARCH
时,请使用 -drive
选项来向 VM Guest 添加磁盘。请参见第 34.1 节 “使用 qemu-system-ARCH
进行基本安装”中的示例。-hd[abcd]
选项不适用于 virtio 磁盘。
6.1.2 virtio net #
virtio_net
是 virtio 网络设备。内核模块应在 Guest 引导时自动在其中装载。您需要启动该服务以使网络可用。
<interface type='network'> ... <model type='virtio' /> </interface>
6.1.3 virtio balloon #
virtio balloon 用于对 Guest 实施主机内存过量使用。对于 Linux Guest,气球驱动程序在 Guest 内核中运行;而对于 Windows Guest,气球驱动程序包含在 VMDP 软件包中。virtio_balloon
是用于从 VM Guest 提供或获取内存的 PV 驱动程序。
充气气球:将内存从 Guest 返回到主机内核(对于 KVM)或超级管理程序(对于 Xen)
放气气球:Guest 将有更多可用内存
它由 currentMemory
和 memory
选项控制。
<memory unit='KiB'>16777216</memory> <currentMemory unit='KiB'>1048576</currentMemory> [...] <devices> <memballoon model='virtio'/> </devices>
您也可以使用 virsh
来更改它:
>
virsh setmem DOMAIN_ID MEMORY in KB
6.1.4 检查 virtio 是否存在 #
可以使用以下命令检查 virtio 块 PCI:
>
find /sys/devices/ -name virtio*
/sys/devices/pci0000:00/0000:00:06.0/virtio0
/sys/devices/pci0000:00/0000:00:07.0/virtio1
/sys/devices/pci0000:00/0000:00:08.0/virtio2
要查找与 vdX
关联的块设备,请运行以下命令:
>
find /sys/devices/ -name virtio* -print -exec ls {}/block 2>/dev/null \;
/sys/devices/pci0000:00/0000:00:06.0/virtio0
/sys/devices/pci0000:00/0000:00:07.0/virtio1
/sys/devices/pci0000:00/0000:00:08.0/virtio2
vda
要获取有关 virtio 块的详细信息,请运行以下命令:
>
udevadm info -p /sys/devices/pci0000:00/0000:00:08.0/virtio2
P: /devices/pci0000:00/0000:00:08.0/virtio2
E: DEVPATH=/devices/pci0000:00/0000:00:08.0/virtio2
E: DRIVER=virtio_blk
E: MODALIAS=virtio:d00000002v00001AF4
E: SUBSYSTEM=virtio
要检查所有正在使用的 virtio 驱动程序,请运行以下命令:
>
find /sys/devices/ -name virtio* -print -exec ls -l {}/driver 2>/dev/null \;
/sys/devices/pci0000:00/0000:00:06.0/virtio0
lrwxrwxrwx 1 root root 0 Jun 17 15:48 /sys/devices/pci0000:00/0000:00:06.0/virtio0/driver -> ../../../../bus/virtio/drivers/virtio_console
/sys/devices/pci0000:00/0000:00:07.0/virtio1
lrwxrwxrwx 1 root root 0 Jun 17 15:47 /sys/devices/pci0000:00/0000:00:07.0/virtio1/driver -> ../../../../bus/virtio/drivers/virtio_balloon
/sys/devices/pci0000:00/0000:00:08.0/virtio2
lrwxrwxrwx 1 root root 0 Jun 17 14:35 /sys/devices/pci0000:00/0000:00:08.0/virtio2/driver -> ../../../../bus/virtio/drivers/virtio_blk
6.1.5 查找设备驱动程序选项 #
Virtio 设备和其他驱动程序具有各种选项。要列出所有选项,请使用 qemu-system-ARCH
命令的 help
参数。
>
qemu-system-x86_64 -device virtio-net,help
virtio-net-pci.ioeventfd=on/off
virtio-net-pci.vectors=uint32
virtio-net-pci.indirect_desc=on/off
virtio-net-pci.event_idx=on/off
virtio-net-pci.any_layout=on/off
.....
6.2 Cirrus 视频驱动程序 #
为了获得 16 位色、高兼容性和更佳性能,建议使用 cirrus
视频驱动程序。
libvirt
libvirt
会忽略 vram
值,因为视频大小已硬编码在 QEMU 中。
<video> <model type='cirrus' vram='9216' heads='1'/> </video>
6.3 更好的熵 #
Virtio RNG(随机数字生成器)是作为硬件 RNG 设备向 Guest 公开的半虚拟化设备。在主机端,如果没有硬件支持,可以将其连接到多个熵来源之一(包括一台真正的硬件 RNG 设备和主机的 /dev/random
)。Linux 内核包含 2.6.26 和更高版本的设备的 Guest 驱动程序。
系统熵收集自各种非确定性硬件事件,主要用于加密应用程序。虚拟随机数字生成器设备(半虚拟化设备)允许主机将熵传递到 VM Guest 操作系统。这将在 VM Guest 中产生更好的熵。
要使用 Virtio RNG,请在 virt-manager
中或直接在 VM Guest 的 XML 配置中添加 RNG
设备:
<devices> <rng model='virtio'> <backend model='random'>/dev/random</backend> </rng> </devices>
主机现在应该在使用 /dev/random
:
>
lsof /dev/random
qemu-syst 4926 qemu 6r CHR 1,8 0t0 8199 /dev/random
在 VM Guest 上,可使用以下命令检查熵的来源:
>
cat /sys/devices/virtual/misc/hw_random/rng_available
可使用以下命令检查当前用于熵的设备:
>
cat /sys/devices/virtual/misc/hw_random/rng_current
virtio_rng.0
您应在 VM Guest 上安装 rng-tools 软件包,启用该服务,然后将其启动。在 SUSE Linux Enterprise Server 15 下,执行以下命令:
#
zypper in rng-tools#
systemctl enable rng-tools#
systemctl start rng-tools
6.4 禁用未使用的工具和设备 #
对每台主机应仅使用一种虚拟化技术。例如,不要在同一台主机上使用 KVM 和 Xen。否则可能会出现可用资源减少、安全风险增加,以及软件更新队列变长的问题。即使仔细配置了分配给每种技术的资源量,主机也可能会出现整体可用性降低和性能下降的情况。
应尽量减少主机上可用的软件和服务的数量。大多数默认安装的操作系统都没有针对 VM 的使用进行优化。因此请安装真正需要的组件,并去除 VM Guest 中的所有其他组件。
Windows* Guest:
禁用屏幕保护程序
去除所有图像效果
禁用硬盘索引(如不需要)
检查已启动的服务列表并禁用不需要的服务
检查并去除所有不需要的设备
禁用系统更新(如不需要),或对其进行配置以避免重引导或关闭主机时出现任何延迟
检查防火墙规则
适当地安排备份和防病毒更新
安装 VMDP 半虚拟化驱动程序以获得最佳性能
查看操作系统建议,例如优化 Windows 以提高性能网页上的建议。
Linux Guest:
去除或不要启动 X Window 系统(如不需要)
检查已启动的服务列表并禁用不需要的服务
查看有关可实现更佳性能的内核参数的操作系统建议
仅安装真正需要的软件
优化可预测任务(系统更新、硬盘检查等)的调度
6.5 更新 Guest 计算机类型 #
QEMU 计算机类型定义与迁移和会话管理尤为相关的体系结构细节。随着对 QEMU 的更改或改进,新的计算机类型将会增加。出于兼容性原因,旧计算机类型仍然受支持,但是为了利用改进的功能,我们建议在升级时一律迁移到最新的计算机类型。
为 Linux Guest 更改 Guest 的计算机类型基本上是透明的。对于 Windows* Guest,我们建议截取 Guest 的快照或备份 Guest,以防出现 Windows* 在其检测到的更改的计算机类型上运行时有问题,随后用户决定还原到创建 Guest 时使用的原始计算机类型的情况。
相关文档,请参见第 15.2 节 “更改计算机类型”。
7 特定于 VM Guest 的配置和设置 #
本节内容仅适用于 QEMU / KVM 超级管理程序。
7.1 ACPI 测试 #
能否更改 VM Guest 的状态在很大程度上取决于操作系统。在生产环境中使用 VM Guest 之前,务必要测试此功能。例如,大多数 Linux 操作系统默认会禁用此功能,因此需要启用此操作(通常通过 PolKit)。
必须在 Guest 中启用 ACPI 才能正常关机。要检查是否已启用 ACPI,请运行以下命令:
>
virsh dumpxml VMNAME | grep acpi
如果没有列显任何内容,则说明计算机上没有启用 ACPI。使用 virsh edit
在 XML 的 <domain> 下添加以下内容:
<features> <acpi/> </features>
如果 ACPI 是在 Windows Server* Guest 安装期间启用的,那么仅在 VM Guest 配置中开启它并不够。有关详细信息,请参见 https://support.microsoft.com/en-us/kb/309283。
无论 VM Guest 的配置如何,始终都可以从 Guest 操作系统内部实现正常关机。
7.2 键盘布局 #
尽管您可以使用 qemu-system-ARCH
命令来指定键盘布局,但仍建议在 libvirt
XML 文件中配置键盘布局。要在使用 vnc 连接到远程 VM Guest 时更改键盘布局,应编辑 VM Guest XML 配置文件。例如,要添加 en-us
键映射,请在 <devices>
部分添加:
<graphics type='vnc' port='-1' autoport='yes' keymap='en-us'/>
检查 vncdisplay
配置并连接到 VM Guest:
>
virsh vncdisplay sles15 127.0.0.1:0
7.3 Spice 默认监听 URL #
如果主机上除了 lo
以外没有为其他网络接口指派 IPv4 地址,spice 服务器监听的默认地址将不起作用。将会出现如下错误:
>
virsh start sles15
error: Failed to start domain sles15
error: internal error: process exited while connecting to monitor: ((null):26929): Spice-Warning **: reds.c:2330:reds_init_socket: getaddrinfo(127.0.0.1,5900): Address family for hostname not supported
2015-08-12T11:21:14.221634Z qemu-system-x86_64: failed to initialize spice server
要解决此问题,可以将 /etc/libvirt/qemu.conf
中 spice_listen
的默认值更改为本地 IPv6 地址 ::1
。您也可以为每个 VM Guest 更改 spice 服务器监听地址,使用 virsh edit
向 graphics type='spice'
元素添加监听 XML 属性:
<graphics type='spice' listen='::1' autoport='yes'/>>
7.4 XML 到 QEMU 命令行 #
有时,使用 QEMU 命令行从 XML 文件启动 VM Guest 可能很有用。
>
virsh domxml-to-native1 qemu-argv2 SLE15.xml3
>
sudo
virsh domxml-to-native qemu-argv /etc/libvirt/qemu/SLE15.xml LC_ALL=C PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin \ QEMU_AUDIO_DRV=none /usr/bin/qemu-system-x86_64 -name SLE15 -machine \ pc-i440fx-2.3,accel=kvm,usb=off -cpu SandyBridge -m 4048 -realtime \ mlock=off -smp 4,sockets=4,cores=1,threads=1 -uuid 8616d00f-5f05-4244-97cc-86aeaed8aea7 \ -no-user-config -nodefaults -chardev socket,id=charmonitor,path=/var/lib/libvirt/qemu/SLE15.monitor,server,nowait \ -mon chardev=charmonitor,id=monitor,mode=control -rtc base=utc,driftfix=slew \ -global kvm-pit.lost_tick_policy=discard -no-hpet \ -no-shutdown -global PIIX4_PM.disable_s3=1 -global PIIX4_PM.disable_s4=1 \ -boot strict=on -device ich9-usb-ehci1,id=usb,bus=pci.0,addr=0x4.0x7 \ -device ich9-usb-uhci1,masterbus=usb.0,firstport=0,bus=pci.0,multifunction=on,addr=0x4 \ -device ich9-usb-uhci2,masterbus=usb.0,firstport=2,bus=pci.0,addr=0x4.0x1 \ -device ich9-usb-uhci3,masterbus=usb.0,firstport=4,bus=pci.0,addr=0x4.0x2 \ -drive file=/var/lib/libvirt/images/SLE15.qcow2,if=none,id=drive-virtio-disk0,format=qcow2,cache=none \ -device virtio-blk-pci,scsi=off,bus=pci.0,addr=0x6,drive=drive-virtio-disk0,id=virtio-disk0,bootindex=2 \ -drive if=none,id=drive-ide0-0-1,readonly=on,format=raw \ -device ide-cd,bus=ide.0,unit=1,drive=drive-ide0-0-1,id=ide0-0-1 -netdev tap,id=hostnet0 \ -device virtio-net-pci,netdev=hostnet0,id=net0,mac=52:54:00:28:04:a9,bus=pci.0,addr=0x3,bootindex=1 \ -chardev pty,id=charserial0 -device isa-serial,chardev=charserial0,id=serial0 \ -vnc 127.0.0.1:0 -device cirrus-vga,id=video0,bus=pci.0,addr=0x2 \ -device virtio-balloon-pci,id=balloon0,bus=pci.0,addr=0x5 -msg timestamp=on
7.5 在引导时更改内核参数 #
7.5.1 SUSE Linux Enterprise 11 #
要在引导时更改 SLE 11 产品的值,需要修改 /boot/grub/menu.lst
文件,在其中添加 OPTION=parameter
。然后重引导系统。
7.5.2 SUSE Linux Enterprise 12 和 15 #
要在引导时更改 SLE 12 和 15 产品的值,需要修改 /etc/default/grub
文件。查找以 GRUB_CMDLINE_LINUX_DEFAULT
开头的变量,然后在末尾添加 OPTION=parameter
(如已存在,则更改为使用正确的值)。
现在需要重新生成 grub2
配置:
# grub2-mkconfig -o /boot/grub2/grub.cfg
然后重引导系统。
7.6 在 XML 配置中添加设备 #
要基于 XML 文件创建新的 VM Guest,可使用特殊标记 qemu:commandline
来指定 QEMU 命令行。例如,要添加 virtio-balloon-pci,请在 XML 配置文件的末尾(</domain> 标记之前)添加此块:
<qemu:commandline> <qemu:arg value='-device'/> <qemu:arg value='virtio-balloon-pci,id=balloon0'/> </qemu:commandline>
7.7 添加和去除 CPU #
某些虚拟化环境允许在运行虚拟机的同时添加或去除 CPU。
要安全去除 CPU,请先执行以下命令将这些 CPU 停用
#
echo 0 > /sys/devices/system/cpu/cpuX/online
请将 X 替换为 CPU 编号。要使 CPU 重新联机,请执行
#
echo 1 > /sys/devices/system/cpu/cpuX/online