开始前,请看上一篇背景:虚拟化的简单理解
背景
首先看qemu,其中关键字emu,全称emulator模拟器,所以单纯使用qemu是采用的完全虚拟化的模式。
Qemu向Guest OS模拟CPU,也模拟其他的硬件,GuestOS认为自己和硬件直接打交道,其实是同Qemu模拟出来的硬件打交道,Qemu将这些指令转译给真正的硬件。由于所有的指令都要从Qemu里面过一手,因而性能比较差。
按照上一次的理论,完全虚拟化是非常慢的,所以要使用硬件辅助虚拟化技术Intel-VT,AMD-V,所以需要CPU硬件开启这个标志位,一般在BIOS里面设置。查看是否开启
- 对于Intel CPU 可用命令 grep "vmx" /proc/cpuinfo 判断
- 对于AMD CPU 可用命令 grep "svm" /proc/cpuinfo 判断
当确认开始了标志位之后,通过KVM,GuestOS的CPU指令不用经过Qemu转译,直接运行,大大提高了速度。
所以KVM在内核里面需要有一个模块,来设置当前CPU是Guest OS在用,还是Host OS在用。KVM内核模块通过/dev/kvm暴露接口,用户态程序可以通过ioctl来访问这个接口,例如书写下面的程序
Qemu将KVM整合进来,通过ioctl调用/dev/kvm接口,将有关CPU指令的部分交由内核模块来做,就是Qemu-KVM(qemu-system-xxx)。qemu和kvm整合之后,CPU的性能问题解决了,另外Qemu还会模拟其他的硬件,如Network、Disk,同样全虚拟化的方式也会影响这些设备的性能。
于是qemu采取半虚拟化或者类虚拟化的方式,让Guest OS加载特殊的驱动来做这件事情。例如网络需要加载virtio_net,存储需要加载virtio_blk,Guest需要安装这些半虚拟化驱动,GuestOS知道自己是虚拟机,所以数据直接发送给半虚拟化设备,经过特殊处理,例如排队,缓存,批量处理等性能优化方式,最终发送给真正的硬件,一定程度上提高了性能。
至此整个关系如下:
qemu-kvm会创建Guest OS,当需要执行CPU指令的时候,通过/dev/kvm调用kvm内核模块,通过硬件辅助虚拟化方式加速。如果需要进行网络和存储访问,则通过类虚拟化或者直通Pass through的方式,通过加载特殊的驱动,加速访问网络和存储资源。
然而直接用qemu或者qemu-kvm或者qemu-system-xxx的少,大多数还是通过virsh启动。virsh属于libvirt工具,libvirt是目前使用最为广泛的对KVM虚拟机进行管理的工具和API,可不止管理KVM。
Libvirt分服务端和客户端,Libvirtd是一个daemon进程,是服务端,可以被本地的virsh调用,也可以被远程的virsh调用,virsh相当于客户端。
Libvirtd调用qemu-kvm操作虚拟机,有关CPU虚拟化的部分,qemu-kvm调用kvm的内核模块来实现
这下子,整个相互关系才搞清楚了。
KVM
kvm就是一种中间件,是一个linux的内核模块,将linux变成一个hypervisor,可以虚拟化cpu和内存,在系统需要虚拟化功能的时候,内核把kvm模块调入内存中运行。但用户无法直接控制内核,所以需要一个处于linux内核和用户之间的一个桥梁-qemu
QEMU
qemu是一个完整独立的虚拟化方案,可以对各种底层硬件进行虚拟,用于模拟用户空间,比如I/O,kvm需要借助qemu
QEMU-KVM
kvm运行在内核空间,qemu运行在用户空间,两者结合起来,其中kvm实现对cpu和内存的虚拟化,qemu实现对其他硬件的虚拟化(比如网卡, 硬盘)和对虚拟硬件的调用管理,这样用户创建的虚拟机的cpu指令就不用经过qemu转译,可以直接运行,性能得到很大的提升。
Libvirt
libvirt是目前使用最为广泛的对KVM虚拟机进行管理的工具和API,libvirt调用qemu-kvm来管理虚拟机。个人理解它就是给用户提供对虚拟机控制的一个工具,可以用命令也可以用图形化对虚拟机进行控制,使用 C 语言编写,可以操作包括 KVM,vmware,XEN,Hyper-v, LXC 等 Hypervisor。