KVM高级功能部署

KVM(Kernel-based Virtual Machine)是一个在Linux内核中实现的全虚拟化解决方案。除了基本的虚拟化功能外,KVM还提供了许多高级功能,以增强其性能、安全性和灵活性。以下是一些KVM的高级功能:

  • 硬件加速

    • Intel VT-x和AMD-V:KVM利用现代处理器提供的硬件虚拟化扩展,如Intel VT-x和AMD-V,提高虚拟机的性能和隔离性。
    • I/O虚拟化:通过Intel VT-d和AMD-Vi(IOMMU),可以直接将设备分配给虚拟机,提高I/O性能。
  • 内存管理

    • 内存过量使用(Memory Overcommitment):允许在物理内存不足的情况下创建和运行更多的虚拟机。
    • 内存气球(Memory Ballooning):动态调整虚拟机的内存使用,释放或分配内存给其他虚拟机。
    • 透明大页(Transparent Huge Pages, THP):提高内存访问性能,通过使用大页减少页表查找开销。
  • 网络虚拟化

    • 虚拟网络接口(Virtio-net):提供高效的网络通信,减少虚拟化开销。
    • 桥接(Bridging)NAT(Network Address Translation):支持多种网络配置模式,满足不同的网络需求。
    • **SDN(Software-Defined Networking)**集成:与Open vSwitch等SDN解决方案集成,实现复杂的网络拓扑和高级网络功能。
  • 存储虚拟化

    • 虚拟硬盘(Virtio-blk和Virtio-scsi):提供高效的磁盘I/O。
    • 精简配置(Thin Provisioning):减少实际存储使用量,仅在需要时分配存储空间。
    • 快照(Snapshots):支持对虚拟机的状态进行快照,方便备份和恢复。
  • 高可用性和容错

    • 实时迁移(Live Migration):在不停止虚拟机的情况下,将其从一台主机迁移到另一台主机。
    • 故障转移(Failover):在主机发生故障时,自动将虚拟机迁移到其他可用主机。
  • 安全性

    • 安全虚拟化扩展(Secure Virtualization Extensions):如Intel SGX和AMD SEV,提供更强的隔离和加密功能。
    • SELinux和AppArmor:结合KVM使用,增强虚拟机的安全性。
    • 虚拟机内存加密(VM Memory Encryption):保护虚拟机内存中的数据不被外部攻击者窃取。
  • 性能调优

    • CPU和I/O调度:提供多种调度器和参数,优化虚拟机的性能。
    • NUMA(Non-Uniform Memory Access)优化:在多处理器系统上优化内存和CPU的使用,提高性能。
  • 管理和自动化

    • libvirt:一个用于管理KVM虚拟机的API和工具集,支持脚本化和自动化管理。
    • 云平台集成:与OpenStack等云平台集成,实现大规模虚拟机管理和调度。

案例需求

1)通过静态迁移实现 KVM 虚拟机的迁移。

2)通过基于共享存储的动态迁移方式实现 KVM 虚拟机的迁移。

3)通过基于数据块的动态迁移方式实现 KVM 虚拟机的迁移。

4)实现 KSM 内存优化。

案例实现思路

1)通过拷贝磁盘文件和配置文件的方式实现静态迁移。

2)通过配置 NFS 共享服务,实现基于共享存储的动态迁移。

3)通过基于数据块的方式实现动态迁移。

4)针对同类型 KVM 虚拟机和应用使用 KSM 来优化内存。

案例实施

一:利用VNC安装kvm虚拟机

先将CentOS-7-x86_64-DVD-2009.iso拷贝到/opt下

1. 通过VNC Viewer安装虚拟机

在源宿主机上准备虚拟机

(1)用virt-install 命令安装虚拟机并设置VNC Viewer连接端口

[root@kvm01 ~]# systemctl stop firewalld

[root@kvm01 ~]# systemctl disable firewalld

[root@kvm1 ~]# mkdir -p /data_kvm/store

[root@kvm01 ~]# virt-install -n test01 -r 1024 --vcpus=1 --disk path=/data_kvm/store/test01.qcow2,size=10 -w bridge:br0 --virt-type=kvm --accelerate --autostart -c /opt/CentOS-7-x86_64-DVD-2009.iso --vnc --vncport=5901 --vnclisten=0.0.0.0

备注:

-n:指定虚拟机的名字。

-r:指定内存大小。

--vcpu:指定虚拟 CPU 个数。

--disk:指定磁盘文件放置位置及大小。

-w:制定所使用的网桥。

--autostart:设置虚拟机在宿主机开机时启动。

-c:指定镜像文件。

--vncport:通过 vnc viewer 连接的端口。

--vnclisten:通过 vnc

--accelerate:当安装qemu客户机时,如果支持可用kvmkqemu内核加速能力,KVM加速器

备注:

执行此命令时会有报错提示,如下所示,使用文本方式安装会有这个提示。意思是告诉用户没有图形界面,

可以使用VNC远程连接过来进行安装,

ERROR

unsupported format character '(0xffffffe7) at index 47

域安装失败,您可以运行下列命令重启您的域:

'virsh start virsh --connect qemu:///system start test01'

否则请重新开始安装。

(2)在windows宿主机上安装VNC Viewer

(3)打开VNC Viewer,新建一个连接,连接上后,安装虚拟机,

注意:填写的IP地址(192.168.10.201)是Linux宿主机的IP地址,开放的端口号5901映射到了test01虚拟机。连接成功后,就可以开始安装虚拟机了。

(4)安装后查看

[root@kvm01 ~]# virsh list --all

(5)启动虚拟机

[root@kvm01 ~]# virsh start test01

备注:

安装完后,虚拟机是关闭的状态

(6)在vnc终端上再次连接test01虚拟机并登录系统

二:静态迁移

2. 提取磁盘和配置文件

(1)查看虚拟机 test01 当前状态

[root@kvm01 ~]# virsh list --all

(2)关闭虚拟机 test01

[root@kvm01 ~]# virsh shutdown test01

[root@kvm01 ~]# virsh list --all

(3)导出虚拟机 test01 的 xml 配置文件

[root@kvm01 ~]# virsh dumpxml test01 > test01.xml

[root@kvm01 ~]# ll

(4)定位虚拟机 test01 的磁盘文件

[root@kvm01 ~]# virsh domblklist test01

  1. 拷贝配置文件和磁盘文件到目标宿主机 kvm02 上

现在kvm02上创建目录

[root@kvm2 ~]# mkdir -p /data_kvm/store

到kvm01上拷贝文件到kvm02上

[root@kvm01 ~]# scp test01.xml 192.168.10.202:/etc/libvirt/qemu/

[root@kvm01 ~]# scp /data_kvm/store/test01.qcow2 192.168.10.202:/data_kvm/store/

3. 在kvm02上配置和启动目标虚拟机

(1)查看被迁移过来的配置文件和磁盘文件

[root@kvm02 ~]# ls -l /etc/libvirt/qemu

[root@kvm02 ~]# ls -l /data_kvm/store/

(2)重新定义虚拟机 test01

[root@kvm02 ~]# virsh list --all

[root@kvm02 ~]# virsh define /etc/libvirt/qemu/test01.xml

[root@kvm02 ~]# virsh list --all

(3)启动虚拟机 test01

[root@kvm02 ~]# virsh start test01

[root@kvm02 ~]# virsh list --all

(4)连接虚拟机 test01 ,查看主机名

[root@kvm02 ~]# virt-manager

打开虚拟机管理器,查看虚拟机的运行

三:基于共享存储的动态迁移

1. 配置 NFS 共享存储

(1)打开一个新的服务器kvmnfs ,在 kvmnfs 服务器上面安装 NFS 服务

[root@localhost ~]# systemctl stop firewalld

[root@localhost ~]# setenforce 0

[root@localhost ~]# hostnamectl set-hostname kvmnfs

[root@localhost ~]# bash

[root@kvmnfs ~]# yum -y install nfs-utils

备注:

两台kvm主机的selinux的状态要一致。

(2)配置共享目录

[root@kvmnfs ~]# mkdir /data

[root@kvmnfs ~]# chown -R 777 /data/

[root@kvmnfs ~]# vim /etc/exports

/data 192.168.10.0/24(rw,sync,no_root_squash)

(3)启动并查看 NFS 服务

[root@kvmnfs ~]# systemctl enable nfs

[root@kvmnfs ~]# systemctl enable rpcbind

[root@kvmnfs ~]# systemctl start nfs

[root@kvmnfs ~]# systemctl start rpcbind

[root@kvmnfs ~]# showmount -e localhost

2. 挂载 NFS 目录

(1)源宿主机 kvm01 上查看 NFS 共享目录

[root@kvm01 ~]# showmount -e 192.168.10.101

(2)源宿主机 kvm01 和kvm02上创建 kgc 目录

[root@kvm01 ~]# mkdir /data_kvm/kgc

[root@kvm02 ~]# mkdir /data_kvm/kgc

(3)源宿主机 kvm01 和kvm02上都挂载共享目录

[root@kvm01 ~]# mount -t nfs 192.168.10.101:/data /data_kvm/kgc

[root@kvm01 ~]# mount

[root@kvm02 ~]# mount -t nfs 192.168.10.101:/data /data_kvm/kgc

[root@kvm02 ~]# mount

(4)源宿主机 kvm01 上设置自动挂载

[root@kvm01 ~]# vim /etc/fstab

192.168.10.101:/data /data_kvm/kgc nfs defaults 0 0

3:通过现有的磁盘文件生成虚拟机

(1)拷贝qcow2磁盘文件

将实验用到的系统镜像上传到KVM主机的root家目录中。这里直接使用CentOS官方提供的qcow2格式的系统镜像(CentOS-7-x86_64-GenericCloud-2009.qcow2),这个镜像可以直接部署到kvm或openstack的平台中。

[root@kvm01 ~]# cp /opt/CentOS-7-x86_64-GenericCloud-2009.qcow2 /data_kvm/store/test02.qcow2

(2)部署虚拟机

[root@kvm01 ~]# yum -y install libguestfs-tools

备注:

该工具提供了virt的高级命令,其中有一个virt-customize命令,可以为系统镜像设置密码。

[root@kvm01 ~]# virt-customize -a /data_kvm/store/test02.qcow2 --root-password password:aptech

[root@kvm01 ~]# virt-install \

--name=test02 \

-r 1024 \

--vcpus=1 \

--disk device=disk,bus=virtio,path='/data_kvm/store/test02.qcow2',size=10 \

-w bridge:br0 \

--virt-type=kvm \

--boot hd

备注:

--disk:指定存储设备及其属性

device:设备类型,如cdrom、disk或floppy等,默认为disk;

bus:磁盘总线类型,其值可以为ide、scsi、usb、virtio或xen

--virt-type:使用的hypervisor(虚拟机监视器),如kvm、qemu、xen等

--boot cdrom,hd,network:指定引导次序;

(3)登录测试

备注:

如果觉得慢,此处可以将原有的虚拟机克隆出来

[root@kvm01 ~]# virt-clone -o test01 -n test02 -f /data_kvm/kgc/test02.qcow2

[root@kvm01 ~]# virsh list --all

[root@kvm01 ~]# virsh domblklist test02

4. 动态迁移

(1)查看 kvm01 和 kvm02 两台宿主机上虚拟机的运行状态

[root@kvm01 ~]# virsh list --all

[root@kvm02 ~]# virsh list --all

(2)在源宿主机 kvm01 上执行迁移命令

[root@kvm01 ~]# virsh shutdown test02

[root@kvm01 ~]# virsh edit test02

添加红色部分

<devices>

<emulator>/usr/libexec/qemu-kvm</emulator>

<disk type='file' device='disk'>

<driver name='qemu' type='qcow2' cache='none'/>           

<source file='/data/kgc/test02.qcow2'/>

<target dev='vda' bus='virtio'/>

<address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x0'/>

[root@kvm01 ~]# virsh start test02

Domain test02 started

[root@kvm01 ~]# virsh list --all

[root@kvm01 ~]# virsh migrate --live --verbose test02 qemu+ssh://192.168.10.202/system tcp://192.168.10.202

备注:

migrate :迁移

--verbose :显示迁移的进度

--live:实时迁移

(4)查看迁移后虚拟机的状态

[root@kvm01 ~]# virsh list --all

[root@kvm02 ~]# virsh list --all

迁移之后源宿主机 kvm01 上虚拟机 test02 被关闭,目标宿主机 kvm02 上虚拟机 test02

处于启动状态

5. 生成配置文件

(1)创建虚拟机 test02 配置文件

[root@kvm02 ~]# ls -l /etc/libvirt/qemu

[root@kvm02 ~]# virsh dumpxml test02 > /etc/libvirt/qemu/test02.xml

[root@kvm02 ~]# cd /etc/libvirt/qemu/

[root@kvm02 qemu]# ll

(2)定义虚拟机 test02 配置文件

[root@kvm02 qemu]# virsh define /etc/libvirt/qemu/test02.xml

四: 基于数据块的动态迁移

1. 在kvm01和kvm02上安装依赖包

设置好阿里的yum源

[root@kvm02 ~]# yum -y install centos-release-qemu-ev

[root@kvm02 ~]# vim /etc/yum.repos.d/CentOS-QEMU-EV.repo

[centos-qemu-ev]

name=CentOS-$releasever - QEMU EV

#mirrorlist=http://mirrorlist.centos.org/?release=$releasever&arch=$basearch&repo=virt-kvm-common

baseurl=http://mirrors.aliyun.com/$contentdir/$releasever/virt/$basearch/kvm-common/

gpgcheck=1

enabled=1

gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-CentOS-SIG-Virtualization

[root@kvm02 ~]# yum -y install qemu-kvm-ev

安装后重启系统

重启后注意检查防火墙的状态,要处于关闭状态

2. 迁移前准备工作

(1)源宿主机 kvm01 上的准备

[root@kvm01 ~]# vim /etc/hosts

192.168.10.201 kvm01

192.168.10.202 kvm02

[root@kvm01 ~]# virsh list --all

[root@kvm01 ~]# virsh shutdown test01

[root@kvm01 ~]# virt-clone -o test01 -n test03 -f /data_kvm/store/test03.qcow2

(2)目标宿主机 kvm02 上的准备

[root@kvm02 ~]# vim /etc/hosts

192.168.10.201 kvm01

192.168.10.202 kvm02

备注:

要确保kvm02主机没有同名的虚拟机

以下步骤是为了确保kvm02上没有同名的虚拟机,如果确定没有,就忽略

[root@kvm02 ~]# virsh list --all

[root@kvm02 ~]# virsh undefine test01

[root@kvm02 ~]# cd /data_kvm/store/

[root@kvm02 store]# ls

[root@kvm02 store]# rm -rf test01.qcow2

[root@kvm02 store]# virsh list --all

3. 在kvm02主机上检查资源池

[root@kvm02 store]# virsh pool-list --all

备注:

如果没有创建存储池,此处可能什么都没有,这是正常的

  1. 在kvm02主机上创建同名磁盘文件

[root@kvm02 ~]# mkdir -p /data_kvm/store

[root@kvm02 store]# qemu-img create -f qcow2 /data_kvm/store/test03.qcow2 20G

5. 在kvm01主机上执行迁移操作

[root@kvm01 ~]# virsh start test03

[root@kvm01 ~]# virsh migrate test03 qemu+ssh://192.168.10.202/system --live --persistent --undefinesource --copy-storage-all --verbose

备注:

--live:实时迁移

--persistent :将域保留为目标主机物理机器的持久性状态

--undefinesource:删除源主机物理机器上的客户机虚拟机

--copy-storage-all :使用全磁盘复制的非共享存储进行迁移

--verbose:显示迁移的进度

备注:

如果提示:

“错误:不支持的配置:Hypervisor 不支持 CPU 型号 Broadwell-noTSX-IBRS“

需要安装软件包如下:

yum -y install centos-release-qemu-ev

yum -y install qemu-kvm-ev

6. 验证迁移结果

[root@kvm01 ~]# virsh list --all

[root@kvm02 store]# virsh list --all

五:KSM

1: KSM 服务介绍

Linux内核特性称为Kernel Shared Memory(基于内核的共享内存)或Kernel Samepage Merging。KSMD作为守护进程,能够合并内存页面来增加并发虚拟机的数量。KSM 适用于宿主机过载的情况下。KSM 通过减少每个虚拟机实际占用的内存数,可以让多个虚拟机分配的内存数量之和大于物理内存数量。而对于相同类型的虚拟机,在物理内存量不变的情况下,可以在一个宿主机中创建更多虚拟机,从而提高虚拟化部署的密度,同时也可以提高物理资源的利用效率。

(1)检查当前 Linux 系统是否支持 KSM

[root@kvm02 ~]# egrep -i ksm /boot/config-3.10.0-1160.el7.x86_64

CONFIG_KSM=y

(2)ksmd服务的配置文件

[root@kvm02 ~]# ls -l /sys/kernel/mm/ksm/

备注:

KSM 的常用配置的作用分别如下所示。

  • max_page_sharing:设置每个 KSM 页面允许的最大共享数量。这个配置设置了重复数据删除限制,以避免虚拟内存 rmap 列表变得太大。max_page_sharing 最小值为 2,因为新创建的 KSM 页面至少有两个共享器。
  • merge_across_nodes:指定是否可以合并来自不同 numa 节点的页面。当设置为 0 时,ksm 只合并物理页面并驻留在同一 numa 节点的内存区域中,可以降低访问共享页面的延迟。
  • pages_to_scan:在 KSM 进程休眠之前会去扫描的内存数量。
  • run:控制 ksmd 进程是否运行,默认值为 0。要激活 ksm 必须设置其值为 1。如果设置为 0,表示停止运行 ksmd, 但会保留已经合并的内存页;如果设置为 1,表示马上运行 ksmd 进程;设置为 2 表示停止运行 ksmd,并分离已经合并的所有内存页,但是保留已经注册为合并的内存区域给下一次使用。
  • sleep_millisecs:设置 ksmd 进程休眠的时间(单位:毫秒),即为 ksmd 进程两次运行之间的间隔。
  • stable_node_chains_prune_millisecs: stable_node“ 中 链 接 的 整 个stable_node“dups”列表被周期性地扫描,以删除陈旧的 stable_nodes。该参数的值用于调节重复扫描的时间(单位:毫秒)。

2:配置 KSM 优化内存

(1)先将虚拟机test01克隆出三份

[root@kvm02 ~]# virt-clone -o test01 -n test02 -f /data_kvm/store/test02.qcow2

[root@kvm02 ~]# virt-clone -o test01 -n test03 -f /data_kvm/store/test03.qcow2

[root@kvm02 ~]# virt-clone -o test01 -n test04 -f /data_kvm/store/test04.qcow2

注意:

克隆虚拟机,源虚拟机需要关闭状态

(2)开启所有的虚拟机

[root@kvm02 ~]# virsh start test01

[root@kvm02 ~]# virsh start test02

[root@kvm02 ~]# virsh start test03

[root@kvm02 ~]# virsh start test04

(3)查看Linux宿主机的内存使用情况

[root@kvm02 ~]# free

              total        used        free      shared  buff/cache   available

Mem:        3861288     2464360      135440       15208     1261488     1157748

Swap:       4194300           0     4194300

(4)启动 KSM 服务

[root@kvm02 ~]# systemctl start ksm

[root@kvm02 ~]# systemctl start ksmtuned

检查/sys/kernel/mm/ksm/run的值是否为1,如果不是,修改为1

[root@kvm02 ~]# echo 1 > /sys/kernel/mm/ksm/run

(5)再次查看Linux宿主机的内存使用情况

[root@kvm02 ~]# free

              total        used        free      shared  buff/cache   available

Mem:        3861288     2449008      103556       15212     1308724     1173004

Swap:       4194300           0     4194300

  • 25
    点赞
  • 18
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值