一、案列分析

1.1案列概述

        企业内部为了使服务器资源达到最大化利用,通常都会进行 KVM 虚拟化,每台服务器上运行多台 KVM 虚拟机。随着 KVM 虚拟机数量的不断增多,个别服务器会出现资源过载现象,这时候就需要对部分 KVM 虚拟机进行迁移,迁移到负载相对较低的服务器上。
        为了解决以上问题,针对可停机的KVM 虚拟机,可使用静态迁移的方式来迁移KVM虚拟机。针对在线提供服务、不可停机的KVM 虚拟机,可使用基于共享存储的动态迁移或基于数据块的动态迁移来完成迁移工作。最终按业务类型将虚拟机重新调配、合理布局,以保证服务器一直处于良好的运行状态。除了迁移之外,还可以在 KVM 宿主机上开启 KSM内核同页合并,以达到节省内存、降低负载的目的。

1.2案列前置知识点

1.KVM虚拟机

        KVM 虚拟机迁移,是将某一虚拟机上的环境和软件完全复制到另一台物理机上继续运行。KVM 虚拟机迁移可以优化系统负载、重新规划 KVM 虚拟机布局并简化 KVM 虚拟机的管理维护工作。
        KVM 虚拟机迁移的主要应用场景如下所示。

  • 当一台 KVM 宿主机的负载比较高时,可将源 KVM 宿主机上的部分虚拟机迁移到负载较低的 KVM 宿主机中,以保证服务质量。
  • 通过KVM 虚拟机迁移将多台负载较低的KVM 宿主机上的KVM 虚拟机集中迁移到某一台 KVM 宿主机上,从而达到节约资源的目的。
  • 在升级 KVM 宿主机硬件设备时,可以将 KVM 宿主机上运行的 KVM 虚拟机迁移到其他KVM 宿主机上,以解决对硬件的依赖,从而实现业务不中断情况下对物理硬件设备的升级。
  • 跨地域迁移,实现KVM 虚拟机的远程迁移。

根据迁移方式的不同,可将迁移分为静态迁移(staticmagration)和动态迁移(livemigration)。二者的区别是:静态迁移时会有一段时间虚拟机中的服务是不可用的,而动态迁移则没有明显的服务暂停时间。

(1)静态迁移

        静态迁移需要先关闭要迁移的 KVM 虚拟机,并拷贝它的磁盘文件和配置文件到目标KVM 宿主机,然后恢复启动,从而实现静态迁移。如果 KVM 虚拟机的磁盘文件存储在 KVM宿主机本地,在静态迁移时需要拷贝磁盘文件和配置文件:如果 KVM 虚拟机的磁盘文件存储在共享存储上,在静态迁移时,只需要拷贝 KVM 虚拟机的配置文件,KVM 虚拟机的磁盘文件可通过挂载共享存储到本地目录的方式来获取。针对 KVM 虚拟机磁盘文件存储位置的不同,在静态迁移时需要做适当的调整。

(2)动态迁移

        动态迁移是保证 KVM 虚拟机上运行的应用正常提供服务的同时,让 KVM 虚拟机在不同的 KVM 宿主机之间进行迁移。动态迁移的过程仅有非常短暂的停机时间,甚至可以忽略不计,同时 KVM 虚拟机上已经打开的应用连接不会断开,依然保持不变。KVM 的动态迁移有两种方式:一种是基于共享存储的动态迁移,另一种是基于数据块的动态迁移。

① 基于共享存储的动态迁移

        基于共享存储的动态迁移是在 KVM 虚拟机迁移开始后,被迁移的 KVM 虚拟机依然保持在源 KVM 宿主机上运行。与此同时,KVM 虚拟机的内存页被传输到目标 KVM 宿主机之上。QEMUIKVM 会监控并记录迁移过程中所有已被传输的内存页的任何修改,并在所有内存页传输完成后再开始传输在前面传输过程中被更改的内存页内容。QEMUIKVM 也会评估迁移过程中的传输速度,当剩余的内存数据量能够在一个可设定的时间周期内完成传输QEMU/KVM 将会关闭源宿主机上的 KVM 虚拟机,再将剩余的数据量传输到目标宿主机,最后通过传输过来的内存内容在目标宿主机上恢复 KVM 虚拟机的运行状态。如此即可完成KVM 基于共享存储的动态迁移。如果 KVM 虚拟机中内存使用量非常大且修改频繁,内存中数据被不断修改的速度大于 KVM 能够传输的内存速度,该情况下无法使用动态迁移,只能使用静态迁移方法来进行 KVM 虚拟机迁移。

②基于数据块的动态迁移

         如果对使用本地存储的 KVM 虚拟机进行在线迁移,就要用到基于数据块的动态迁移。上述基于共享存储的动态迁移,为了实现动态迁移,源KVM 宿主机和目标宿主机需要连接共享存储服务,而基于数据块的动态迁移,共享存储不再是动态迁移的必要条件。在迁移过程中,KVM 虚拟机只使用本地存储,不再需要共享存储的支持,因此迁移环境比较简单,迁移的源宿主机和目标宿主机只需要保持以太网连接即可。因为少了共享存储,所以降低了动态迁移的难度。

2.KSM内核同页合并

        KSM(KernelSamePage Merging)被称为内核同页合并。KSM 允许内核在两个或多个进程之间共享完全相同的内存页。KSM 让内核扫描正在运行中的程序并比较它们的内存,如果发现它们的内存区域或内存页是完全相同的,就将相同的内存合并为一个单一的内存页,并将其标识为“写时复制(copy-on-write)",这样可以起到节省系统内存使用量的作用。如果有进程试图去修改被合并且被标识为"写时复制"的内存页,就为该进程复制出一个新的内存页供其使用。
        在 QEMU/KVM 中,一个 KVM 虚拟机就是一个 QEMU 进程,所以使用 KSM 也可以实现多个 KVM 虚拟机之间相同内存合并。如果在同一 KVM 宿主机上的多个 KVM 虚拟机运行的是相同的操作系统或应用程序,则 KVM 虚拟机之间的相同内存页数量就可能比较多,这种情况下使用 KSM 的效果就会更加显著。在 KVM 环境下使用 KSM ,只有那些相同的内存页才是可以被共享合并的,并且 KSM 只会识别并合并那些不会干扰客户机运行、不会影响 KVM 宿主机或 KVM 虚拟机的安全内存页。因此,在 KVM 虚拟化环境中,KSM 能够提高内存的利用率。
        KSM 最初是为了在 KVM 虚拟化中使用而开发的,不过它对非虚拟化系统依然非常有用。KSM 可以提高KVM 宿主机中内存的使用效率,所以一般建议开启 KSM 功能。由于KSM 必须有一个或多个进程去检测和找出完全相同且可以用于合并的内存页,所以 KSM虽然能够让内存使用量降低,但是 KVM 宿主机中的 CPU 使用量会有一定程度的升高,因此可能会带来隐蔽的性能问题。在实际生产环境中使用 KSM 需要进行适当配置,以便达到较好的平衡。KSM 节省内存的效果与 KVM 虚拟机操作系统及 KVM 虚拟机中运行的应用程序有关,如果 KVM 虚拟机上的操作系统及其上运行的应用程序相同,节省内存的效果就会很显著,甚至有可能节省超过 50%的内存。反之,如果 KVM 虚拟机操作系统不同,且运行的应用程序也都大不相同,KSM 节省内存的效果就不明显,节省的内存甚至可能达不到5%。

        在使用 KSM 时,为了防止内存过载,最好保证系统的交换分区(swap space)足够大。虽然 KSM 可以通过内存页合并而减少内存使用量,但是 KVM 虚拟机在运行过程中可能会修改 KSM 合并的内存页。修改这些内存页采用的方式是将这些内存页先复制出来,再进行修改,这样就会占用内存空间,因此可能会导致系统内存不足,这时就需要足够的交换空间来保证系统的正常运行。

1.3案列环境

1.本案例环境

主机

操作系统

IP地址

主要软件

kvm01

CentOS7.9 x86_64

192.168.10.201

Qemu-kvm、libvirt

kvm02

CentOS7.9 x86_64

192.168.10.202

Qemu-kvm、libvirt、qemu-kvm-ev

kvmnfs

CentOS7.9 x86_64

192.168.10.101

nfs-utils

2.案列需求

1)通过静态迁移实现 KVM 虚拟机的迁移。

2)通过基于共享存储的动态迁移方式实现 KVM 虚拟机的迁移。

3)通过基于数据块的动态迁移方式实现 KVM 虚拟机的迁移。

4)实现 KSM 内存优化。

3.案列实现思路

1)通过拷贝磁盘文件和配置文件的方式实现静态迁移。

2)通过配置 NFS 共享服务,实现基于共享存储的动态迁移。

3)通过基于数据块的方式实现动态迁移。

4)针对同类型 KVM 虚拟机和应用使用 KSM 来优化内存。

二、案列实施

1.1利用VNC安装kvm虚拟机

先将CentOS-7-x86_64-DVD-2009.iso拷贝到/opt下

1.通过VNC Viewer安装虚拟机

在源宿主机上准备虚拟机

(1)用virt-install 命令安装虚拟机并设置VNC Viewer连接端口
[root@kvm01 ~]# systemctl stop firewalld
[root@kvm01 ~]# systemctl disable firewalld

[root@kvm1 ~]# mkdir -p /data_kvm/store
[root@kvm01 ~]# virt-install -n test01 -r 1024 --vcpus=1 --disk path=/data_kvm/store/test01.qcow2,size=10 -w bridge:br0 --virt-type=kvm --accelerate --autostart -c /opt/CentOS-7-x86_64-DVD-2009.iso --vnc --vncport=5901 --vnclisten=0.0.0.0

备注:

  •  -n:指定虚拟机的名字。
  •  -r:指定内存大小。
  •  --vcpu:指定虚拟 CPU 个数。
  •  --disk:指定磁盘文件放置位置及大小。
  •  -w:制定所使用的网桥。
  •  --autostart:设置虚拟机在宿主机开机时启动。
  •  -c:指定镜像文件。
  •  --vncport:通过 vnc viewer 连接的端口。
  •  --vnclisten:通过 vnc

--accelerate:当安装qemu客户机时,如果支持可用kvm或kqemu内核加速能力,KVM加速器

备注:

执行此命令时会有报错提示,如下所示,使用文本方式安装会有这个提示。意思是告诉用户没有图形界面,

可以使用VNC远程连接过来进行安装,

ERROR

unsupported format character '(0xffffffe7) at index 47

域安装失败,您可以运行下列命令重启您的域:

'virsh start virsh --connect qemu:///system start test01'

否则请重新开始安装。

2在windows宿主机上安装VNC Viewer

直接打开软件包

(3)打开VNC Viewer,新建一个连接,连接上后,安装虚拟机,

注意:填写的IP地址(192.168.10.201)是Linux宿主机的IP地址,开放的端口号5901映射到了test01虚拟机。连接成功后,就可以开始安装虚拟机了。

(4)安装后查看
[root@kvm01 ~]# virsh list --all
(5)启动虚拟机
[root@kvm01 ~]# virsh start test01

备注:

安装完后,虚拟机是关闭的状态
(6)在vnc终端上再次连接test01虚拟机并登录系统

1.2静态迁移

1.提取磁盘和配置文件

1)查看虚拟机 test01 当前状态
[root@kvm01 ~]# virsh list --all
2)关闭虚拟机 test01
[root@kvm01 ~]# virsh shutdown test01
[root@kvm01 ~]# virsh list --all 
3)导出虚拟机 test01 xml 配置文件
[root@kvm01 ~]# virsh dumpxml test01 > test01.xml 
[root@kvm01 ~]# ll 
4)定位虚拟机 test01 的磁盘文件
[root@kvm01 ~]# virsh domblklist test01
(5)拷贝配置文件和磁盘文件到目标宿主机 kvm02
现在kvm02上创建目录
[root@kvm2 ~]# mkdir -p /data_kvm/store

到kvm01上拷贝文件到kvm02上
[root@kvm01 ~]# scp test01.xml 192.168.10.202:/etc/libvirt/qemu/
[root@kvm01 ~]# scp /data_kvm/store/test01.qcow2 192.168.10.202:/data_kvm/store/

3.在kvm02上配置和启动目标虚拟机

1)查看被迁移过来的配置文件和磁盘文件
[root@kvm02 ~]# ls -l /etc/libvirt/qemu
[root@kvm02 ~]# ls -l /data_kvm/store/
2)重新定义虚拟机 test01
[root@kvm02 ~]# virsh list --all

[root@kvm02 ~]# virsh define /etc/libvirt/qemu/test01.xml 
[root@kvm02 ~]# virsh list --all
3)启动虚拟机 test01
[root@kvm02 ~]# virsh start test01
[root@kvm02 ~]# virsh list --all
4)连接虚拟机 test01 ,查看主机名
[root@kvm02 ~]# virt-manager

打开虚拟机管理器,查看虚拟机的运行

1.3基于共享存储的动态迁移

1. 配置 NFS 共享存储

(1)打开一个新的服务器kvmnfs ,在 kvmnfs 服务器上面安装 NFS 服务
[root@localhost ~]# systemctl stop firewalld
[root@localhost ~]# setenforce 0
[root@localhost ~]# hostnamectl set-hostname kvmnfs
[root@localhost ~]# bash

[root@kvmnfs ~]# yum -y install nfs-utils

备注:

两台kvm主机的selinux的状态要一致。

2)配置共享目录
[root@kvmnfs ~]# mkdir /data 
[root@kvmnfs ~]# chown -R 777 /data/
[root@kvmnfs ~]# vim /etc/exports
/data 192.168.10.0/24(rw,sync,no_root_squash)
3)启动并查看 NFS 服务
[root@kvmnfs ~]# systemctl enable nfs 
[root@kvmnfs ~]# systemctl enable rpcbind 
[root@kvmnfs ~]# systemctl start nfs 
[root@kvmnfs ~]# systemctl start rpcbind 
[root@kvmnfs ~]# showmount -e localhost

2. 挂载 NFS 目录

1)源宿主机 kvm01 上查看 NFS 共享目录
[root@kvm01 ~]# showmount -e 192.168.10.101
2)源宿主机 kvm01 和kvm02上创建 kgc 目录
[root@kvm01 ~]# mkdir /data_kvm/kgc
[root@kvm02 ~]# mkdir /data_kvm/kgc
3)源宿主机 kvm01 和kvm02上都挂载共享目录
[root@kvm01 ~]# mount -t nfs 192.168.10.101:/data /data_kvm/kgc 
[root@kvm01 ~]# mount

[root@kvm02 ~]# mount -t nfs 192.168.10.101:/data /data_kvm/kgc 
[root@kvm02 ~]# mount
4)源宿主机 kvm01 上设置自动挂载
[root@kvm01 ~]# vim /etc/fstab
192.168.10.101:/data /data_kvm/kgc nfs defaults 0 0

3.通过现有的磁盘文件生成虚拟机

(1)拷贝qcow2磁盘文件

将实验用到的系统镜像上传到KVM主机的root家目录中。这里直接使用CentOS官方提供的qcow2格式的系统镜像(CentOS-7-x86_64-GenericCloud-2009.qcow2),这个镜像可以直接部署到kvm或openstack的平台中。

[root@kvm01 ~]# cp /opt/CentOS-7-x86_64-GenericCloud-2009.qcow2 /data_kvm/store/test02.qcow2
(2)部署虚拟机
[root@kvm01 ~]# yum -y install libguestfs-tools
备注:
该工具提供了virt的高级命令,其中有一个virt-customize命令,可以为系统镜像设置密码。

[root@kvm01 ~]# virt-customize -a /data_kvm/store/test02.qcow2 --root-password password:aptech


[root@kvm01 ~]# virt-install \
--name=test02 \
-r 1024 \
--vcpus=1 \
--disk device=disk,bus=virtio,path='/data_kvm/store/test02.qcow2',size=10 \
-w bridge:br0 \
--virt-type=kvm \
--boot hd

备注:

--disk:指定存储设备及其属性

device:设备类型,如cdrom、disk或floppy等,默认为disk;

bus:磁盘总线类型,其值可以为ide、scsi、usb、virtio或xen

--virt-type:使用的hypervisor虚拟机监视器,如kvm、qemu、xen等

--boot cdrom,hd,network:指定引导次序;

3登录测试

备注:

如果觉得慢,此处可以将原有的虚拟机克隆出来

[root@kvm01 ~]# virt-clone -o test01 -n test02 -f /data_kvm/kgc/test02.qcow2 
[root@kvm01 ~]# virsh list --all
[root@kvm01 ~]# virsh domblklist test02

4.动态迁移

1)查看 kvm01 kvm02 两台宿主机上虚拟机的运行状态
[root@kvm01 ~]# virsh list --all
[root@kvm02 ~]# virsh list --all
2)在源宿主机 kvm01 上执行迁移命令
[root@kvm01 ~]# virsh shutdown test02 
[root@kvm01 ~]# virsh edit test02
添加红色部分
<devices> 
<emulator>/usr/libexec/qemu-kvm</emulator> 
<disk type='file' device='disk'> 
<driver name='qemu' type='qcow2' cache='none'/> 		
<source file='/data/kgc/test02.qcow2'/> 
<target dev='vda' bus='virtio'/> 
<address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x0'/>

[root@kvm01 ~]# virsh start test02 
Domain test02 started 
[root@kvm01 ~]# virsh list --all

[root@kvm01 ~]# virsh migrate --live --verbose test02 qemu+ssh://192.168.10.202/system tcp://192.168.10.202

备注:

migrate :迁移

--verbose :显示迁移的进度

--live:实时迁移

(3)查看迁移后虚拟机的状态
[root@kvm01 ~]# virsh list --all 
[root@kvm02 ~]# virsh list --all 

迁移之后源宿主机 kvm01 上虚拟机 test02 被关闭,目标宿主机 kvm02 上虚拟机 test02

处于启动状态

5. 生成配置文件

1)创建虚拟机 test02 配置文件
[root@kvm02 ~]# ls -l /etc/libvirt/qemu
[root@kvm02 ~]# virsh dumpxml test02 > /etc/libvirt/qemu/test02.xml 
[root@kvm02 ~]# cd /etc/libvirt/qemu/ 
[root@kvm02 qemu]# ll
2)定义虚拟机 test02 配置文件
[root@kvm02 qemu]# virsh define /etc/libvirt/qemu/test02.xml

1.4基于数据块的动态迁移

1. 在kvm01和kvm02上安装依赖包

设置好阿里的yum源
[root@kvm02 ~]# yum -y install centos-release-qemu-ev 
[root@kvm02 ~]# vim /etc/yum.repos.d/CentOS-QEMU-EV.repo
[centos-qemu-ev]
name=CentOS-$releasever - QEMU EV
#mirrorlist=http://mirrorlist.centos.org/?release=$releasever&arch=$basearch&repo=virt-kvm-common
baseurl=http://mirrors.aliyun.com/$contentdir/$releasever/virt/$basearch/kvm-common/
gpgcheck=1
enabled=1
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-CentOS-SIG-Virtualization
[root@kvm02 ~]# yum -y install qemu-kvm-ev

安装后重启系统

重启后注意检查防火墙的状态,要处于关闭状态

2. 迁移前准备工作

1)源宿主机 kvm01 上的准备
[root@kvm01 ~]# vim /etc/hosts
192.168.10.201 kvm01
192.168.10.202 kvm02

[root@kvm01 ~]# virsh list --all 
[root@kvm01 ~]# virsh shutdown test01

[root@kvm01 ~]# virt-clone -o test01 -n test03 -f /data_kvm/store/test03.qcow2 
2)目标宿主机 kvm02 上的准备
[root@kvm02 ~]# vim /etc/hosts
192.168.10.201 kvm01
192.168.10.202 kvm02

备注:
要确保kvm02主机没有同名的虚拟机
以下步骤是为了确保kvm02上没有同名的虚拟机,如果确定没有,就忽略
[root@kvm02 ~]# virsh list --all
[root@kvm02 ~]# virsh undefine test01
[root@kvm02 ~]# cd /data_kvm/store/
[root@kvm02 store]# ls
[root@kvm02 store]# rm -rf test01.qcow2 
[root@kvm02 store]# virsh list --all

3. 在kvm02主机上检查资源池

[root@kvm02 store]# virsh pool-list --all

备注:

如果没有创建存储池,此处可能什么都没有,这是正常的

4.在kvm02主机上创建同名磁盘文件

[root@kvm02 ~]# mkdir -p /data_kvm/store
[root@kvm02 store]# qemu-img create -f qcow2 /data_kvm/store/test03.qcow2 20G

5. 在kvm01主机上执行迁移操作

[root@kvm01 ~]# virsh start test03
[root@kvm01 ~]# virsh migrate test03 qemu+ssh://192.168.10.202/system --live --persistent --undefinesource --copy-storage-all --verbose

备注:

--live:实时迁移

--persistent :将域保留为目标主机物理机器的持久性状态

--undefinesource:删除源主机物理机器上的客户机虚拟机

--copy-storage-all :使用全磁盘复制的非共享存储进行迁移

--verbose:显示迁移的进度

备注:

如果提示:

“错误:不支持的配置:Hypervisor 不支持 CPU 型号 Broadwell-noTSX-IBRS“

需要安装软件包如下:

yum -y install centos-release-qemu-ev

yum -y install qemu-kvm-ev

6. 验证迁移结果

[root@kvm01 ~]# virsh list --all
[root@kvm02 store]# virsh list --all

1.5 KSM

1.KSM 服务介绍

Linux内核特性称为Kernel Shared Memory(基于内核的共享内存)或Kernel Samepage Merging。KSMD作为守护进程,能够合并内存页面来增加并发虚拟机的数量。KSM 适用于宿主机过载的情况下。KSM 通过减少每个虚拟机实际占用的内存数,可以让多个虚拟机分配的内存数量之和大于物理内存数量。而对于相同类型的虚拟机,在物理内存量不变的情况下,可以在一个宿主机中创建更多虚拟机,从而提高虚拟化部署的密度,同时也可以提高物理资源的利用效率。

(1)检查当前 Linux 系统是否支持 KSM
[root@kvm02 ~]# egrep -i ksm /boot/config-3.10.0-1160.el7.x86_64 
CONFIG_KSM=y
(2)ksmd服务的配置文件
[root@kvm02 ~]# ls -l /sys/kernel/mm/ksm/

备注:

KSM 的常用配置的作用分别如下所示。

  • max_page_sharing:设置每个 KSM 页面允许的最大共享数量。这个配置设置了重复数据删除限制,以避免虚拟内存 rmap 列表变得太大。max_page_sharing 最小值为 2,因为新创建的 KSM 页面至少有两个共享器。
  • merge_across_nodes:指定是否可以合并来自不同 numa 节点的页面。当设置为 0 时,ksm 只合并物理页面并驻留在同一 numa 节点的内存区域中,可以降低访问共享页面的延迟。
  • pages_to_scan:在 KSM 进程休眠之前会去扫描的内存数量。
  • run:控制 ksmd 进程是否运行,默认值为 0。要激活 ksm 必须设置其值为 1。如果设置为 0,表示停止运行 ksmd, 但会保留已经合并的内存页;如果设置为 1,表示马上运行 ksmd 进程;设置为 2 表示停止运行 ksmd,并分离已经合并的所有内存页,但是保留已经注册为合并的内存区域给下一次使用。
  • sleep_millisecs:设置 ksmd 进程休眠的时间(单位:毫秒),即为 ksmd 进程两次运行之间的间隔。
  • stable_node_chains_prune_millisecs: stable_node“ 中 链 接 的 整 个stable_node“dups”列表被周期性地扫描,以删除陈旧的 stable_nodes。该参数的值用于调节重复扫描的时间(单位:毫秒)。

2.配置 KSM 优化内存

(1)先将虚拟机test01克隆出三份
[root@kvm02 ~]# virt-clone -o test01 -n test02 -f /data_kvm/store/test02.qcow2
[root@kvm02 ~]# virt-clone -o test01 -n test03 -f /data_kvm/store/test03.qcow2
[root@kvm02 ~]# virt-clone -o test01 -n test04 -f /data_kvm/store/test04.qcow2

注意:

克隆虚拟机,源虚拟机需要关闭状态

(2)开启所有的虚拟机
[root@kvm02 ~]# virsh start test01
[root@kvm02 ~]# virsh start test02
[root@kvm02 ~]# virsh start test03
[root@kvm02 ~]# virsh start test04
(3)查看Linux宿主机的内存使用情况
[root@kvm02 ~]# free
              total        used        free      shared  buff/cache   available
Mem:        3861288     2464360      135440       15208     1261488     1157748
Swap:       4194300           0     4194300
(4)启动 KSM 服务
[root@kvm02 ~]# systemctl start ksm 
[root@kvm02 ~]# systemctl start ksmtuned

检查/sys/kernel/mm/ksm/run的值是否为1,如果不是,修改为1
[root@kvm02 ~]# echo 1 > /sys/kernel/mm/ksm/run
(5)再次查看Linux宿主机的内存使用情况
[root@kvm02 ~]# free
              total        used        free      shared  buff/cache   available
Mem:        3861288     2449008      103556       15212     1308724     1173004
Swap:       4194300           0     4194300

Logo

华为开发者空间,是为全球开发者打造的专属开发空间,汇聚了华为优质开发资源及工具,致力于让每一位开发者拥有一台云主机,基于华为根生态开发、创新。

更多推荐