KVM 虚拟化原理探究— overview

KVM 虚拟化原理探究— overview

标签(空格分隔): KVM


写在前面的话

本文不介绍kvm和qemu的基本安装操作,希望读者具有一定的KVM实践经验。同时希望借此系列博客,能够对KVM底层有一些清晰直观的认识,当然我没有通读KVM的源码,文中的内容一部分来自于书籍和资料,一部分来自于实践,还有一些来自于自己的理解,肯定会有一些理解的偏差,欢迎讨论并指正。本系列文章敬代表我个人观点和实践,不代表公司层面。

KVM虚拟化简介

KVM 全称 kernel-based virtual machine,由Qumranet公司发起,2008年被RedHat收购。
KVM实现主要基于Intel-V或者AMD-V提供的虚拟化平台,利用普通的Linux进程运行于虚拟态的指令集,模拟虚拟机监视器和CPU。KVM不提供硬件虚拟化操作,其IO操作等都借助QEMU来完成。

image_1apkng413147jg181jlq1j3kjhsm.png-16.4kB

KVM有如下特点:

  • guest作为一个普通进程运行于宿主机
  • guest的CPU(vCPU)作为进程的线程存在,并受到宿主机内核的调度
  • guest继承了宿主机内核的一些属性,比如huge pages(大页表)
  • guest的磁盘IO和网络IO会受到宿主机的设置的影响
  • guest通过宿主机上的虚拟网桥与外部相连

KVM整体架构

image_1apknjokv7q91f5cif312h6jpu13.png-122.4kB

每一个虚拟机(guest)在Host上都被模拟为一个QEMU进程,即emulation进程。
我们创建一个虚拟机后,用普通的ps 命令就可以查看到。


   
   
  1. ➜ ~ virsh list -- all
  2. Id Name State
  3. ----------------------------------------------------
  4. 1 kvm- 01 running
  5. ➜ ~ ps aux | grep qemu
  6. libvirt+ 20308 15.1 7.5 5023928 595884 ? Sl 17: 29 0: 10 /usr/bin/qemu- system-x86_64 - name kvm- 01 -S -machine pc-i440fx-wily,accel=kvm,usb=off - m 2048 -realtime mlock=off -smp 2 qemu ....

可以看到,此虚拟机就是一个普通的Linux进程,他有自己的pid。并且有四个线程,线程数量不是固定的,但是至少会有三个(vCPU,IO,Signal)。其中有两个是vCPU线程,有一个IO线程还有一个信号处理线程。


   
   
  1. ➜ ~ pstree -p 20308
  2. qemu- system-x86( 20308)-+-{qemu- system-x86}( 20353)
  3. |-{qemu- system-x86}( 20408)
  4. |-{qemu- system-x86}( 20409)
  5. |-{qemu- system-x86}( 20412)

虚拟CPU

guest的所有用户级别(user)的指令集,都会直接由宿主机线程执行,此线程会调用KVM的ioctl方式提供的接口加载guest的指令并在特殊的CPU模式下运行,不需要经过CPU指令集的软件模拟转换,大大的减少了虚拟化成本,这也是KVM优于其他虚拟化方式的点之一。

KVM向外提供了一个虚拟设备/dev/kvm,通过ioctl(IO设备带外管理接口)来对KVM进行操作,包括虚拟机的初始化,分配内存,指令加载等等。

虚拟IO设备

guest作为一个进程存在,当然他的内核的所有驱动等都存在,只是硬件被QEMU所模拟(后面介绍virtio的时候特殊)。guest的所有硬件操作都会有QEMU来接管,QEMU负责与真实的宿主机硬件打交道。

虚拟内存

guest的内存在host上由emulator提供,对emulator来说,guest访问的内存就是他的虚拟地址空间,guest上需要经过一次虚拟地址到物理地址的转换,转换到guest的物理地址其实也就是emulator的虚拟地址,emulator再次经过一次转换,转换为host的物理地址。后面会有介绍各种虚拟化的优化手段,这里只是做一个overview。


虚拟机启动过程


   
   
  1. 第一步,获取到kvm句柄
  2. kvmfd = open( "/dev/kvm", O_RDWR);
  3. 第二步,创建虚拟机,获取到虚拟机句柄。
  4. vmfd = ioctl(kvmfd, KVM_CREATE_VM, 0);
  5. 第三步,为虚拟机映射内存,还有其他的 PCI,信号处理的初始化。
  6. ioctl(kvmfd, KVM_SET_USER_MEMORY_REGION, &mem);
  7. 第四步,将虚拟机镜像映射到内存,相当于物理机的boot过程,把镜像映射到内存。
  8. 第五步,创建vCPU,并为vCPU分配内存空间。
  9. ioctl(kvmfd, KVM_CREATE_VCPU, vcpuid);
  10. vcpu->kvm_run_mmap_size = ioctl(kvm->dev_fd, KVM_GET_VCPU_MMAP_SIZE, 0);
  11. 第五步,创建vCPU个数的线程并运行虚拟机。
  12. ioctl(kvm->vcpus->vcpu_fd, KVM_RUN, 0);
  13. 第六步,线程进入循环,并捕获虚拟机退出原因,做相应的处理。
  14. 这里的退出并不一定是虚拟机关机,虚拟机如果遇到 IO操作,访问硬件设备,缺页中断等都会退出执行,退出执行可以理解为将 CPU执行上下文返回到 QEMU

   
   
  1. open( "/dev/kvm")
  2. ioctl( KVM_CREATE_VM)
  3. ioctl( KVM_CREATE_VCPU)
  4. for ( ;;) {
  5. ioctl( KVM_RUN)
  6. switch ( exit_reason) {
  7. case KVM_EXIT_IO: /* ... */
  8. case KVM_EXIT_HLT: /* ... */
  9. }
  10. }

关于KVM_CREATE_VM参数的描述,创建的VM是没有cpu和内存的,需要QEMU进程利用mmap系统调用映射一块内存给VM的描述符,其实也就是给VM创建内存的过程。

KVM ioctl接口文档

先来一个KVM API开胃菜

下面是一个KVM的简单demo,其目的在于加载 code 并使用KVM运行起来.
这是一个at&t的8086汇编,.code16表示他是一个16位的,当然直接运行是运行不起来的,为了让他运行起来,我们可以用KVM提供的API,将这个程序看做一个最简单的操作系统,让其运行起来。
这个汇编的作用是输出al寄存器的值到0x3f8端口。对于x86架构来说,通过IN/OUT指令访问。PC架构一共有65536个8bit的I/O端口,组成64KI/O地址空间,编号从0~0xFFFF。连续两个8bit的端口可以组成一个16bit的端口,连续4个组成一个32bit的端口。I/O地址空间和CPU的物理地址空间是两个不同的概念,例如I/O地址空间为64K,一个32bit的CPU物理地址空间是4G。
最终程序理想的输出应该是,al,bl的值后面KVM初始化的时候有赋值。
4\n (并不直接输出\n,而是换了一行),hlt 指令表示虚拟机退出


   
   
  1. .globl _start
  2. .code16
  3. _start:
  4. mov $ 0x3f8, %dx
  5. add %bl, %al
  6. add $ '0', %al
  7. out %al, (%dx)
  8. mov $ '\n', %al
  9. out %al, (%dx)
  10. hlt

我们编译一下这个汇编,得到一个 Bin.bin 的二进制文件


   
   
  1. as -32 bin .S -o bin .o
  2. ld -m elf_i386 --oformat binary -N -e _ start -Ttext 0 x10000 -o Bin .bin bin .o

查看一下二进制格式


   
   
  1. ➜ demo1 hexdump -C bin.bin
  2. 00000000 ba f8 03 00 d8 04 30 ee b0 0a ee f4 |..... .0.....|
  3. 0000000c
  4. 对应了下面的code数组,这样直接加载字节码就不需要再从文件加载了
  5. const uint8_t code[] = {
  6. 0xba, 0xf8, 0x03, /* mov $0x3f8, %dx */
  7. 0x00, 0xd8, /* add %bl, %al */
  8. 0x04, '0', /* add $'0', %al */
  9. 0xee, /* out %al, (%dx) */
  10. 0xb0, '\n', /* mov $'\n', %al */
  11. 0xee, /* out %al, (%dx) */
  12. 0xf4, /* hlt */
  13. };

   
   
  1. #include <err.h>
  2. #include <fcntl.h>
  3. #include <linux/kvm.h>
  4. #include <stdint.h>
  5. #include <stdio.h>
  6. #include <stdlib.h>
  7. #include <string.h>
  8. #include <sys/ioctl.h>
  9. #include <sys/mman.h>
  10. #include <sys/stat.h>
  11. #include <sys/types.h>
  12. int main(void)
  13. {
  14. int kvm, vmfd, vcpufd, ret;
  15. const uint8_t code[] = {
  16. 0xba, 0xf8, 0x03, /* mov $0x3f8, %dx */
  17. 0x00, 0xd8, /* add %bl, %al */
  18. 0x04, '0', /* add $'0', %al */
  19. 0xee, /* out %al, (%dx) */
  20. 0xb0, '\n', /* mov $'\n', %al */
  21. 0xee, /* out %al, (%dx) */
  22. 0xf4, /* hlt */
  23. };
  24. uint8_t *mem;
  25. struct kvm_sregs sregs;
  26. size_t mmap_size;
  27. struct kvm_run *run;
  28. // 获取 kvm 句柄
  29. kvm = open( "/dev/kvm", O_RDWR | O_CLOEXEC);
  30. if (kvm == -1)
  31. err( 1, "/dev/kvm");
  32. // 确保是正确的 API 版本
  33. ret = ioctl(kvm, KVM_GET_API_VERSION, NULL);
  34. if (ret == -1)
  35. err( 1, "KVM_GET_API_VERSION");
  36. if (ret != 12)
  37. errx( 1, "KVM_GET_API_VERSION %d, expected 12", ret);
  38. // 创建一虚拟机
  39. vmfd = ioctl(kvm, KVM_CREATE_VM, ( unsigned long) 0);
  40. if (vmfd == -1)
  41. err( 1, "KVM_CREATE_VM");
  42. // 为这个虚拟机申请内存,并将代码(镜像)加载到虚拟机内存中
  43. mem = mmap( NULL, 0x1000, PROT_READ | PROT_WRITE, MAP_SHARED | MAP_ANONYMOUS, -1, 0);
  44. if (!mem)
  45. err( 1, "allocating guest memory");
  46. memcpy(mem, code, sizeof(code));
  47. // 为什么从 0x1000 开始呢,因为页表空间的前4K是留给页表目录
  48. struct kvm_userspace_memory_region region = {
  49. .slot = 0,
  50. .guest_phys_addr = 0x1000,
  51. .memory_size = 0x1000,
  52. .userspace_addr = ( uint64_t)mem,
  53. };
  54. // 设置 KVM 的内存区域
  55. ret = ioctl(vmfd, KVM_SET_USER_MEMORY_REGION, &region);
  56. if (ret == -1)
  57. err( 1, "KVM_SET_USER_MEMORY_REGION");
  58. // 创建虚拟CPU
  59. vcpufd = ioctl(vmfd, KVM_CREATE_VCPU, ( unsigned long) 0);
  60. if (vcpufd == -1)
  61. err( 1, "KVM_CREATE_VCPU");
  62. // 获取 KVM 运行时结构的大小
  63. ret = ioctl(kvm, KVM_GET_VCPU_MMAP_SIZE, NULL);
  64. if (ret == -1)
  65. err( 1, "KVM_GET_VCPU_MMAP_SIZE");
  66. mmap_size = ret;
  67. if (mmap_size < sizeof(*run))
  68. errx( 1, "KVM_GET_VCPU_MMAP_SIZE unexpectedly small");
  69. // 将 kvm run 与 vcpu 做关联,这样能够获取到kvm的运行时信息
  70. run = mmap( NULL, mmap_size, PROT_READ | PROT_WRITE, MAP_SHARED, vcpufd, 0);
  71. if (!run)
  72. err( 1, "mmap vcpu");
  73. // 获取特殊寄存器
  74. ret = ioctl(vcpufd, KVM_GET_SREGS, &sregs);
  75. if (ret == -1)
  76. err( 1, "KVM_GET_SREGS");
  77. // 设置代码段为从地址0处开始,我们的代码被加载到了0x0000的起始位置
  78. sregs.cs.base = 0;
  79. sregs.cs.selector = 0;
  80. // KVM_SET_SREGS 设置特殊寄存器
  81. ret = ioctl(vcpufd, KVM_SET_SREGS, &sregs);
  82. if (ret == -1)
  83. err( 1, "KVM_SET_SREGS");
  84. // 设置代码的入口地址,相当于32位main函数的地址,这里16位汇编都是由0x1000处开始。
  85. // 如果是正式的镜像,那么rip的值应该是类似引导扇区加载进来的指令
  86. struct kvm_regs regs = {
  87. .rip = 0x1000,
  88. .rax = 2, // 设置 ax 寄存器初始值为 2
  89. .rbx = 2, // 同理
  90. .rflags = 0x2, // 初始化flags寄存器,x86架构下需要设置,否则会粗错
  91. };
  92. ret = ioctl(vcpufd, KVM_SET_REGS, &regs);
  93. if (ret == -1)
  94. err( 1, "KVM_SET_REGS");
  95. // 开始运行虚拟机,如果是qemu-kvm,会用一个线程来执行这个vCPU,并加载指令
  96. while ( 1) {
  97. // 开始运行虚拟机
  98. ret = ioctl(vcpufd, KVM_RUN, NULL);
  99. if (ret == -1)
  100. err( 1, "KVM_RUN");
  101. // 获取虚拟机退出原因
  102. switch (run->exit_reason) {
  103. case KVM_EXIT_HLT:
  104. puts( "KVM_EXIT_HLT");
  105. return 0;
  106. // 汇编调用了 out 指令,vmx 模式下不允许执行这个操作,所以
  107. // 将操作权切换到了宿主机,切换的时候会将上下文保存到VMCS寄存器
  108. // 后面CPU虚拟化会讲到这部分
  109. // 因为虚拟机的内存宿主机能够直接读取到,所以直接在宿主机上获取到
  110. // 虚拟机的输出(out指令),这也是后面PCI设备虚拟化的一个基础,DMA模式的PCI设备
  111. case KVM_EXIT_IO:
  112. if (run->io.direction == KVM_EXIT_IO_OUT && run->io.size == 1 && run->io.port == 0x3f8 && run->io.count == 1)
  113. putchar(*((( char *)run) + run->io.data_offset));
  114. else
  115. errx( 1, "unhandled KVM_EXIT_IO");
  116. break;
  117. case KVM_EXIT_FAIL_ENTRY:
  118. errx( 1, "KVM_EXIT_FAIL_ENTRY: hardware_entry_failure_reason = 0x%llx",
  119. ( unsigned long long)run->fail_entry.hardware_entry_failure_reason);
  120. case KVM_EXIT_INTERNAL_ERROR:
  121. errx( 1, "KVM_EXIT_INTERNAL_ERROR: suberror = 0x%x", run->internal.suberror);
  122. default:
  123. errx( 1, "exit_reason = 0x%x", run->exit_reason);
  124. }
  125. }
  126. }

编译并运行这个demo


   
   
  1. gcc -g demo. c -o demo
  2. ➜ demo1 ./demo
  3. 4
  4. KVM_EXIT_HLT

另外一个简单的QEMU emulator demo

IBM的徐同学有做过介绍,在此基础上我再详细介绍一下qemu-kvm的启动过程。


   
   
  1. .globl _start
  2. .code16
  3. _start:
  4. xorw %ax, %ax # 将 ax 寄存器清零
  5. loop1:
  6. out %ax, $0x1 0 # 像 0x10 的端口输出 ax 的内容,at&t汇编的操作数和Intel的相反。
  7. inc %ax # ax 值加一
  8. jmp loop1 # 继续循环

这个汇编的作用就是一直不停的向0x10端口输出一字节的值。

从main函数开始说起


   
   
  1. int main(int argc, char **argv) {
  2. int ret = 0;
  3. // 初始化kvm结构体
  4. struct kvm *kvm = kvm_init();
  5. if (kvm == NULL) {
  6. fprintf( stderr, "kvm init fauilt\n");
  7. return -1;
  8. }
  9. // 创建VM,并分配内存空间
  10. if (kvm_create_vm(kvm, RAM_SIZE) < 0) {
  11. fprintf( stderr, "create vm fault\n");
  12. return -1;
  13. }
  14. // 加载镜像
  15. load_binary(kvm);
  16. // only support one vcpu now
  17. kvm->vcpu_number = 1;
  18. // 创建执行现场
  19. kvm->vcpus = kvm_init_vcpu(kvm, 0, kvm_cpu_thread);
  20. // 启动虚拟机
  21. kvm_run_vm(kvm);
  22. kvm_clean_vm(kvm);
  23. kvm_clean_vcpu(kvm->vcpus);
  24. kvm_clean(kvm);
  25. }

第一步,调用kvm_init() 初始化了 kvm 结构体。先来看看怎么定义一个简单的kvm。


   
   
  1. struct kvm {
  2. int dev_fd; // /dev/kvm 的句柄
  3. int vm_fd; // GUEST 的句柄
  4. __u64 ram_size; // GUEST 的内存大小
  5. __u64 ram_start; // GUEST 的内存起始地址,
  6. // 这个地址是qemu emulator通过mmap映射的地址
  7. int kvm_version;
  8. struct kvm_userspace_memory_region mem; // slot 内存结构,由用户空间填充、
  9. // 允许对guest的地址做分段。将多个slot组成线性地址
  10. struct vcpu *vcpus; // vcpu 数组
  11. int vcpu_number; // vcpu 个数
  12. };

初始化 kvm 结构体。


   
   
  1. struct kvm *kvm_init(void) {
  2. struct kvm *kvm = malloc ( sizeof ( struct kvm));
  3. kvm->dev_fd = open(KVM_DEVICE, O_RDWR); // 打开 /dev/kvm 获取 kvm 句柄
  4. if (kvm->dev_fd < 0) {
  5. perror( "open kvm device fault: ");
  6. return NULL;
  7. }
  8. kvm->kvm_version = ioctl(kvm->dev_fd, KVM_GET_API_VERSION, 0); // 获取 kvm API 版本
  9. return kvm;
  10. }

第二步+第三步,创建虚拟机,获取到虚拟机句柄,并为其分配内存。


   
   
  1. int kvm_create_vm(struct kvm *kvm, int ram_size) {
  2. int ret = 0;
  3. // 调用 KVM_CREATE_KVM 接口获取 vm 句柄
  4. kvm->vm_fd = ioctl(kvm->dev_fd, KVM_CREATE_VM, 0);
  5. if (kvm->vm_fd < 0) {
  6. perror( "can not create vm");
  7. return -1;
  8. }
  9. // 为 kvm 分配内存。通过系统调用.
  10. kvm->ram_size = ram_size;
  11. kvm->ram_start = (__u64)mmap( NULL, kvm->ram_size,
  12. PROT_READ | PROT_WRITE, MAP_PRIVATE | MAP_ANONYMOUS | MAP_NORESERVE,
  13. -1, 0);
  14. if ((void *)kvm->ram_start == MAP_FAILED) {
  15. perror( "can not mmap ram");
  16. return -1;
  17. }
  18. // kvm->mem 结构需要初始化后传递给 KVM_SET_USER_MEMORY_REGION 接口
  19. // 只有一个内存槽
  20. kvm->mem.slot = 0;
  21. // guest 物理内存起始地址
  22. kvm->mem.guest_phys_addr = 0;
  23. // 虚拟机内存大小
  24. kvm->mem.memory_size = kvm->ram_size;
  25. // 虚拟机内存在host上的用户空间地址,这里就是绑定内存给guest
  26. kvm->mem.userspace_addr = kvm->ram_start;
  27. // 调用 KVM_SET_USER_MEMORY_REGION 为虚拟机分配内存。
  28. ret = ioctl(kvm->vm_fd, KVM_SET_USER_MEMORY_REGION, &(kvm->mem));
  29. if (ret < 0) {
  30. perror( "can not set user memory region");
  31. return ret;
  32. }
  33. return ret;
  34. }

接下来就是load_binary把二进制文件load到虚拟机的内存中来,在第一个demo中我们是直接把字节码放到了内存中,这里模拟镜像加载步骤,把二进制文件加载到内存中。


   
   
  1. void load_binary(struct kvm *kvm) {
  2. int fd = open(BINARY_FILE, O_RDONLY); // 打开这个二进制文件(镜像)
  3. if (fd < 0) {
  4. fprintf( stderr, "can not open binary file\n");
  5. exit( 1);
  6. }
  7. int ret = 0;
  8. char *p = ( char *)kvm->ram_start;
  9. while( 1) {
  10. ret = read(fd, p, 4096); // 将镜像内容加载到虚拟机的内存中
  11. if (ret <= 0) {
  12. break;
  13. }
  14. printf( "read size: %d", ret);
  15. p += ret;
  16. }
  17. }

加载完镜像后,需要初始化vCPU,以便能够运行镜像内容


   
   
  1. struct vcpu {
  2. int vcpu_id; // vCPU id,vCPU
  3. int vcpu_fd; // vCPU 句柄
  4. pthread_t vcpu_thread; // vCPU 线程句柄
  5. struct kvm_run *kvm_run; // KVM 运行时结构,也可以看做是上下文
  6. int kvm_run_mmap_size; // 运行时结构大小
  7. struct kvm_regs regs; // vCPU的寄存器
  8. struct kvm_sregs sregs; // vCPU的特殊寄存器
  9. void *(*vcpu_thread_func)( void *); // 线程执行函数
  10. };
  11. struct vcpu *kvm_init_vcpu( struct kvm *kvm, int vcpu_id, void *(*fn)( void *)) {
  12. // 申请vcpu结构
  13. struct vcpu *vcpu = malloc( sizeof( struct vcpu));
  14. // 只有一个 vCPU,所以这里只初始化一个
  15. vcpu->vcpu_id = 0;
  16. // 调用 KVM_CREATE_VCPU 获取 vCPU 句柄,并关联到kvm->vm_fd(由KVM_CREATE_VM返回)
  17. vcpu->vcpu_fd = ioctl(kvm->vm_fd, KVM_CREATE_VCPU, vcpu->vcpu_id);
  18. if (vcpu->vcpu_fd < 0) {
  19. perror( "can not create vcpu");
  20. return NULL;
  21. }
  22. // 获取KVM运行时结构大小
  23. vcpu->kvm_run_mmap_size = ioctl(kvm->dev_fd, KVM_GET_VCPU_MMAP_SIZE, 0);
  24. if (vcpu->kvm_run_mmap_size < 0) {
  25. perror( "can not get vcpu mmsize");
  26. return NULL;
  27. }
  28. printf( "%d\n", vcpu->kvm_run_mmap_size);
  29. // 将 vcpu_fd 的内存映射给 vcpu->kvm_run结构。相当于一个关联操作
  30. // 以便能够在虚拟机退出的时候获取到vCPU的返回值等信息
  31. vcpu->kvm_run = mmap( NULL, vcpu->kvm_run_mmap_size, PROT_READ | PROT_WRITE, MAP_SHARED, vcpu->vcpu_fd, 0);
  32. if (vcpu->kvm_run == MAP_FAILED) {
  33. perror( "can not mmap kvm_run");
  34. return NULL;
  35. }
  36. // 设置线程执行函数
  37. vcpu->vcpu_thread_func = fn;
  38. return vcpu;
  39. }

最后一步,以上工作就绪后,启动虚拟机。


   
   
  1. void kvm_run_vm(struct kvm *kvm) {
  2. int i = 0;
  3. for (i = 0; i < kvm->vcpu_number; i++) {
  4. // 启动线程执行 vcpu_thread_func 并将 kvm 结构作为参数传递给线程
  5. if (pthread_create(&(kvm->vcpus->vcpu_thread), ( const pthread_attr_t *) NULL, kvm->vcpus[i].vcpu_thread_func, kvm) != 0) {
  6. perror( "can not create kvm thread");
  7. exit( 1);
  8. }
  9. }
  10. pthread_join(kvm->vcpus->vcpu_thread, NULL);
  11. }

启动虚拟机其实就是创建线程,并执行相应的线程回调函数。
线程回调函数在kvm_init_vcpu的时候传入


   
   
  1. void *kvm_cpu_thread(void *data) {
  2. // 获取参数
  3. struct kvm *kvm = (struct kvm *)data;
  4. int ret = 0;
  5. // 设置KVM的参数
  6. kvm_reset_vcpu(kvm->vcpus);
  7. while ( 1) {
  8. printf( "KVM start run\n");
  9. // 启动虚拟机,此时的虚拟机已经有内存和CPU了,可以运行起来了。
  10. ret = ioctl(kvm->vcpus->vcpu_fd, KVM_RUN, 0);
  11. if (ret < 0) {
  12. fprintf(stderr, "KVM_RUN failed\n");
  13. exit( 1);
  14. }
  15. // 前文 kvm_init_vcpu 函数中,将 kvm_run 关联了 vCPU 结构的内存
  16. // 所以这里虚拟机退出的时候,可以获取到 exit_reason,虚拟机退出原因
  17. switch (kvm->vcpus->kvm_run->exit_reason) {
  18. case KVM_EXIT_UNKNOWN:
  19. printf( "KVM_EXIT_UNKNOWN\n");
  20. break;
  21. case KVM_EXIT_DEBUG:
  22. printf( "KVM_EXIT_DEBUG\n");
  23. break;
  24. // 虚拟机执行了IO操作,虚拟机模式下的CPU会暂停虚拟机并
  25. // 把执行权交给emulator
  26. case KVM_EXIT_IO:
  27. printf( "KVM_EXIT_IO\n");
  28. printf( "out port: %d, data: %d\n",
  29. kvm->vcpus->kvm_run->io.port,
  30. *(int *)((char *)(kvm->vcpus->kvm_run) + kvm->vcpus->kvm_run->io.data_offset)
  31. );
  32. sleep( 1);
  33. break;
  34. // 虚拟机执行了memory map IO操作
  35. case KVM_EXIT_MMIO:
  36. printf( "KVM_EXIT_MMIO\n");
  37. break;
  38. case KVM_EXIT_INTR:
  39. printf( "KVM_EXIT_INTR\n");
  40. break;
  41. case KVM_EXIT_SHUTDOWN:
  42. printf( "KVM_EXIT_SHUTDOWN\n");
  43. goto exit_kvm;
  44. break;
  45. default:
  46. printf( "KVM PANIC\n");
  47. goto exit_kvm;
  48. }
  49. }
  50. exit_kvm:
  51. return 0;
  52. }
  53. void kvm_reset_vcpu (struct vcpu *vcpu) {
  54. if (ioctl(vcpu->vcpu_fd, KVM_GET_SREGS, &(vcpu->sregs)) < 0) {
  55. perror( "can not get sregs\n");
  56. exit( 1);
  57. }
  58. // #define CODE_START 0x1000
  59. /* sregs 结构体
  60. x86
  61. struct kvm_sregs {
  62. struct kvm_segment cs, ds, es, fs, gs, ss;
  63. struct kvm_segment tr, ldt;
  64. struct kvm_dtable gdt, idt;
  65. __u64 cr0, cr2, cr3, cr4, cr8;
  66. __u64 efer;
  67. __u64 apic_base;
  68. __u64 interrupt_bitmap[(KVM_NR_INTERRUPTS + 63) / 64];
  69. };
  70. */
  71. // cs 为code start寄存器,存放了程序的起始地址
  72. vcpu->sregs.cs.selector = CODE_START;
  73. vcpu->sregs.cs.base = CODE_START * 16;
  74. // ss 为堆栈寄存器,存放了堆栈的起始位置
  75. vcpu->sregs.ss.selector = CODE_START;
  76. vcpu->sregs.ss.base = CODE_START * 16;
  77. // ds 为数据段寄存器,存放了数据开始地址
  78. vcpu->sregs.ds.selector = CODE_START;
  79. vcpu->sregs.ds.base = CODE_START * 16;
  80. // es 为附加段寄存器
  81. vcpu->sregs.es.selector = CODE_START;
  82. vcpu->sregs.es.base = CODE_START * 16;
  83. // fs, gs 同样为段寄存器
  84. vcpu->sregs.fs.selector = CODE_START;
  85. vcpu->sregs.fs.base = CODE_START * 16;
  86. vcpu->sregs.gs.selector = CODE_START;
  87. // 为vCPU设置以上寄存器的值
  88. if (ioctl(vcpu->vcpu_fd, KVM_SET_SREGS, &vcpu->sregs) < 0) {
  89. perror( "can not set sregs");
  90. exit( 1);
  91. }
  92. // 设置寄存器标志位
  93. vcpu->regs.rflags = 0x0000000000000002ULL;
  94. // rip 表示了程序的起始指针,地址为 0x0000000
  95. // 在加载镜像的时候,我们直接将binary读取到了虚拟机的内存起始位
  96. // 所以虚拟机开始的时候会直接运行binary
  97. vcpu->regs.rip = 0;
  98. // rsp 为堆栈顶
  99. vcpu->regs.rsp = 0xffffffff;
  100. // rbp 为堆栈底部
  101. vcpu->regs.rbp= 0;
  102. if (ioctl(vcpu->vcpu_fd, KVM_SET_REGS, &(vcpu->regs)) < 0) {
  103. perror( "KVM SET REGS\n");
  104. exit( 1);
  105. }
  106. }

运行一下结果,可以看到当虚拟机执行了指令 out %ax, $0x10 的时候,会引起虚拟机的退出,这是CPU虚拟化里面将要介绍的特殊机制。
宿主机获取到虚拟机退出的原因后,获取相应的输出。这里的步骤就类似于IO虚拟化,直接读取IO模块的内存,并输出结果。


   
   
  1. ➜ kvmsample git:(master) ✗ ./kvmsample
  2. read size: 712288
  3. KVM start run
  4. KVM_EXIT_IO
  5. out port: 16, data: 0
  6. KVM start run
  7. KVM_EXIT_IO
  8. out port: 16, data: 1
  9. KVM start run
  10. KVM_EXIT_IO
  11. out port: 16, data: 2
  12. KVM start run
  13. KVM_EXIT_IO
  14. out port: 16, data: 3
  15. KVM start run
  16. KVM_EXIT_IO
  17. out port: 16, data: 4
  18. ...

总结

虚拟机的启动过程基本上可以这么总结:
创建kvm句柄->创建vm->分配内存->加载镜像到内存->启动线程执行KVM_RUN。从这个虚拟机的demo可以看出,虚拟机的内存是由宿主机通过mmap调用映射给虚拟机的,而vCPU是宿主机的一个线程,这个线程通过设置相应的vCPU的寄存器指定了虚拟机的程序加载地址后,开始运行虚拟机的指令,当虚拟机执行了IO操作后,CPU捕获到中断并把执行权又交回给宿主机。

当然真实的qemu-kvm比这个复杂的多,包括设置很多IO设备的MMIO,设置信号处理等。

下一篇将介绍CPU虚拟化相关知识。

上一篇文章笼统的介绍了一个虚拟机的诞生过程,从demo中也可以看到,运行一个虚拟机再也不需要像以前想象的那样,需要用软件来模拟硬件指令集了。虚拟机的指令集直接运行在宿主机物理CPU上,当虚拟机中的指令设计到IO操作或者一些特殊指令的时候,控制权转让给了宿主机(这里其实是转让给了vm monitor,下面检查VMM),也就是一个demo进程,他在宿主机上的表现形式也就是一个用户级进程。

用一张图来解释更为贴切。

vcpu-follow.png-102.9kB

VMM完成vCPU,内存的初始化后,通过ioctl调用KVM的接口,完成虚拟机的创建,并创建一个线程来运行VM,由于VM在前期初始化的时候会设置各种寄存器来帮助KVM查找到需要加载的指令的入口(main函数)。所以线程在调用了KVM接口后,物理CPU的控制权就交给了VM。VM运行在VMX non-root模式,这是Intel-V或者AMD-V提供的一种特殊的CPU执行模式。然后当VM执行了特殊指令的时候,CPU将当前VM的上下文保存到VMCS寄存器(这个寄存器是一个指针,保存了实际的上下文地址),然后执行权切换到VMM。VMM 获取 VM 返回原因,并做处理。如果是IO请求,VMM 可以直接读取VM的内存并将IO操作模拟出来,然后再调用VMRESUME指令,VM继续执行,此时在VM看来,IO操作的指令被CPU执行了。

Intel-V 技术

Intel-V 技术是Intel为了支持虚拟化而提供的一套CPU特殊运行模式。

Intel-V虚拟化技术结构

Intel-V 在IA-32处理器上扩展了处理器等级,原来的CPU支持ring0~ring3 4个等级,但是Linux只使用了其中的两个ring0,ring3。当CPU寄存器标示了当前CPU处于ring0级别的时候,表示此时CPU正在运行的是内核的代码。而当CPU处于ring3级别的时候,表示此时CPU正在运行的是用户级别的代码。当发生系统调用或者进程切换的时候,CPU会从ring3级别转到ring0级别。ring3级别是不允许执行硬件操作的,所有硬件操作都需要系统提供的API来完成。
比如说一个IO操作:

int nread = read(fd, buffer, 1024);
   
   

当执行到此段代码的时候,然后查找到系统调用号,保存到寄存器eax,然后会将对应的参数压栈后产生一个系统调用中断,对应的是 int $0x80。产生了系统调用中断后,此时CPU将切换到ring0模式,内核通过寄存器读取到参数,并完成最后的IO后续操作,操作完成后返回ring3模式。


   
   
  1. movel  $3,%eax
  2. movel  fd,%ebx
  3. movel  buffer,%ecx
  4. movel   1024,%edx      
  5. int   $0x8 0

Intel-V 在 ring0~ring3 的基础上,增加了VMX模式,VMX分为root和non-root。这里的VMX root模式是给VMM(前面有提到VM monitor),在KVM体系中,就是qemu-kvm进程所运行的模式。VMX non-root模式就是运行的Guest,Guest也分ring0~ring3,不过他并不感知自己处于VMX non-root模式下。

image_1appl048b1jqh1joj5hkthj1kdr29.png-169.9kB

Intel的虚拟架构基本上分两个部分:

  • 虚拟机监视器
  • 客户机(Guest VM)
虚拟机监视器(Virtual-machine monitors - VMM)

虚拟机监视器在宿主机上表现为一个提供虚拟机CPU,内存以及一系列硬件虚拟的实体,这个实体在KVM体系中就是一个进程,如qemu-kvm。VMM负责管理虚拟机的资源,并拥有所有虚拟机资源的控制权,包括切换虚拟机的CPU上下文等。

Guest

这个Guest在前面的Demo里面也提到,可能是一个操作系统(OS),也可能就是一个二进制程序,whatever,对于VMM来说,他就是一堆指令集,只需要知道入口(rip寄存器值)就可以加载。
Guest运行需要虚拟CPU,当Guest代码运行的时候,处于VMX non-root模式,此模式下,该用什么指令还是用什么指令,该用寄存器该用cache还是用cache,但是在执行到特殊指令的时候(比如Demo中的out指令),把CPU控制权交给VMM,由VMM来处理特殊指令,完成硬件操作。

VMM 与 Guest 的切换

image_1applkej22o6chnj5q1u6ffpq2m.png-18.5kB

Guest与VMM之间的切换分两个部分:VM entry 和 VM exit。有几种情况会导致VM exit,比如说Guest执行了硬件访问操作,或者Guest调用了VMCALL指令或者调用了退出指令或者产生了一个page fault,或者访问了特殊设备的寄存器等。当Guest处于VMX模式的时候,没有提供获取是否处于此模式下的指令或者寄存器,也就是说,Guest不能判断当前CPU是否处于VMX模式。当产生VM exit的时候,CPU会将exit reason保存到MSRs(VMX模式的特殊寄存器组),对应到KVM就是vCPU->kvm_run->exit_reason。VMM根据exit_reason做相应的处理。

VMM 的生命周期

如上图所示,VMM 开始于VMXON 指令,结束与VMXOFF指令。
第一次启动Guest,通过VMLAUNCH指令加载Guest,这时候一切都是新的,比如说起始的rip寄存器等。后续Guest exit后再entry,是通过VMRESUME指令,此指令会将VMCS(后面会介绍到)所指向的内容加载到当前Guest的上下文,以便Guest继续执行。

VMCS (Virtual-Machine control structure)

顾名思义,VMCS就是虚拟机控制结构,前面提到过很多次,Guest Exit的时候,会将当前Guest的上下文保存到VMCS中,Guest entry的时候把VMCS上下文恢复到VMM。VMCS是一个64位的指针,指向一个真实的内存地址,VMCS是以vCPU为单位的,就是说当前有多少个vCPU,就有多少个VMCS指针。VMCS的操作包括VMREAD,VMWRITE,VMCLEAR。

Guest exit Reason

下面是qemu-kvm定义的exit reason。可以看到有很多可能会导致Guest转让控制权。选取几个解释一下。


   
   
  1. static int (*const kvm_vmx_exit_handlers[])(struct kvm_vcpu *vcpu) = {
  2. [ EXIT_REASON_EXCEPTION_NMI] = handle_exception,
  3. [ EXIT_REASON_EXTERNAL_INTERRUPT] = handle_external_interrupt,
  4. [ EXIT_REASON_TRIPLE_FAULT] = handle_triple_fault,
  5. [ EXIT_REASON_NMI_WINDOW] = handle_nmi_window,
  6. // 访问了 IO 设备
  7. [ EXIT_REASON_IO_INSTRUCTION] = handle_io,
  8. // 访问了 CR 寄存器,地址寄存器,和 DR 寄存器(debug register)一样,用于调试
  9. [ EXIT_REASON_CR_ACCESS] = handle_cr,
  10. [ EXIT_REASON_DR_ACCESS] = handle_dr,
  11. [ EXIT_REASON_CPUID] = handle_cpuid,
  12. // 访问了 MSR 寄存器
  13. [ EXIT_REASON_MSR_READ] = handle_rdmsr,
  14. [ EXIT_REASON_MSR_WRITE] = handle_wrmsr,
  15. [ EXIT_REASON_PENDING_INTERRUPT] = handle_interrupt_window,
  16. // Guest 执行了 HLT 指令, Demo 开胃菜就是这个指令
  17. [ EXIT_REASON_HLT] = handle_halt,
  18. [ EXIT_REASON_INVD] = handle_invd,
  19. [ EXIT_REASON_INVLPG] = handle_invlpg,
  20. [ EXIT_REASON_RDPMC] = handle_rdpmc,
  21. // 不太清楚以下 VM 系列的指令有什么用,猜测是递归 VM (虚拟机里面运行虚拟机)
  22. [ EXIT_REASON_VMCALL] = handle_vmcall,
  23. [ EXIT_REASON_VMCLEAR] = handle_vmclear,
  24. [ EXIT_REASON_VMLAUNCH] = handle_vmlaunch,
  25. [ EXIT_REASON_VMPTRLD] = handle_vmptrld,
  26. [ EXIT_REASON_VMPTRST] = handle_vmptrst,
  27. [ EXIT_REASON_VMREAD] = handle_vmread,
  28. [ EXIT_REASON_VMRESUME] = handle_vmresume,
  29. [ EXIT_REASON_VMWRITE] = handle_vmwrite,
  30. [ EXIT_REASON_VMOFF] = handle_vmoff,
  31. [ EXIT_REASON_VMON] = handle_vmon,
  32. [ EXIT_REASON_TPR_BELOW_THRESHOLD] = handle_tpr_below_threshold,
  33. // 访问了高级 PCI 设备
  34. [ EXIT_REASON_APIC_ACCESS] = handle_apic_access,
  35. [ EXIT_REASON_APIC_WRITE] = handle_apic_write,
  36. [ EXIT_REASON_EOI_INDUCED] = handle_apic_eoi_induced,
  37. [ EXIT_REASON_WBINVD] = handle_wbinvd,
  38. [ EXIT_REASON_XSETBV] = handle_xsetbv,
  39. // 进程切换
  40. [ EXIT_REASON_TASK_SWITCH] = handle_task_switch,
  41. [ EXIT_REASON_MCE_DURING_VMENTRY] = handle_machine_check,
  42. // ept 是 Intel 的一个硬件内存虚拟化技术
  43. [ EXIT_REASON_EPT_VIOLATION] = handle_ept_violation,
  44. [ EXIT_REASON_EPT_MISCONFIG] = handle_ept_misconfig,
  45. // 执行了暂停指令
  46. [ EXIT_REASON_PAUSE_INSTRUCTION] = handle_pause,
  47. [ EXIT_REASON_MWAIT_INSTRUCTION] = handle_invalid_op,
  48. [ EXIT_REASON_MONITOR_INSTRUCTION] = handle_invalid_op,
  49. [ EXIT_REASON_INVEPT] = handle_invept,
  50. };

总结

KVM的CPU虚拟化依托于Intel-V提供的虚拟化技术,将Guest运行于VMX模式,当执行了特殊操作的时候,将控制权返回给VMM。VMM处理完特殊操作后再把结果返回给Guest。

CPU虚拟化可以说是KVM的最关键的核心,弄清楚了VM Exit和VM Entry。后续的IO虚拟化,内存虚拟化都是建立在此基础上。下一章介绍内存虚拟化。

前面文章中我们讲过Qemu、KVM、Guest OS这三种层次以及对应的三种模式,也知道这三种模式之间的配合,下面上一张图回顾一下。

    

    那现在我们就从代码的角度来讲一下这三层之间具体是如何配合的。

    前面我们也讲过,首先Qemu层用户发起启动虚拟机命令后会通过ioctl调用进入到kvm内核层,完成相关初始化工作之后就运行虚拟机。

    在kvm内核层中,当接收到ioctl的KVM_RUN命令后,实际调用的是kvm_arch_vcpu_ioctl_run()函数。

[objc] view plain copy
  1. case KVM_RUN:  
  2.                    r = -EINVAL;  
  3.                    if (arg)  
  4.                             goto out;  
  5.                    r =kvm_arch_vcpu_ioctl_run(vcpu, vcpu->run);//  
  6.                    trace_kvm_userspace_exit(vcpu->run->exit_reason,r);  
  7.                    break;  


    随后依次调用__vcpu_run(),vcpu_enter_guest(),kvm_x86_ops->run(),vmx_vcpu_run(),在vmx_vcpu_run()函数中有一段汇编语言被调用,这段汇编中执行了ASM_VMX_VMLAUNCH或者ASM_VMX_VMRESUME指令进入到客户模式。

[objc] view plain copy
  1. asm(  
  2.                    .........//省略部分代码  
  3.                    /* Enter guest mode */  
  4.                    "jne 1f \n\t"  
  5.                    __ex(ASM_VMX_VMLAUNCH)"\n\t"  
  6.                    "jmp 2f \n\t"  
  7.                    "1: "__ex(ASM_VMX_VMRESUME) "\n\t"  
  8.         ........//省略部分代码  
  9. );  


    执行汇编指令进入到客户模式能够实现是因为KVM采用了硬件虚拟化的技术,比如Intel的芯片上提供了硬件支持并提供了相关一系列指令。再具体我也不知道了,查看Intel手册吧。那么进入到客户模式后,客户模式因为一些异常需要退出到KVM内核进行处理,这个是怎么实现的呢?

    首先我们要说一下一个与异常处理相关的重要的数据结构VMCS。VMCS是虚拟机控制结构,他分为三部分:版本信息;终止标识符;VMCS数据域。其中VMCS数据域包含六类信息:客户状态域,宿主机状态域,VM-Entry控制域,VM-Execution控制域,VM-Exit控制域以及VM-Exit信息域。宿主机状态域保存了基本的寄存器信息,其中CS:RIP指向KVM中异常处理程序的入口地址,VM-Exit信息域中存放异常退出原因等信息。实际上,在KVM内核初始化vcpu时就将异常处理程序入口地址装载进VMCS中CS:RIP寄存器结构,当客户机发生异常时,就根据这个入口地址退出到内核模式执行异常处理程序。

    KVM内核中异常处理总入口函数是vmx_handle_exit()函数。

[objc] view plain copy
  1. static intvmx_handle_exit(struct kvm_vcpu *vcpu)  
  2. {  
  3.          struct vcpu_vmx *vmx = to_vmx(vcpu);  
  4.          u32 exit_reason = vmx->exit_reason;  
  5.          ........//一些处理,省略这部分代码  
  6.          if (exit_reason <kvm_vmx_max_exit_handlers  
  7.             && kvm_vmx_exit_handlers[exit_reason])  
  8.                    returnkvm_vmx_exit_handlers[exit_reason](vcpu);  
  9.          else {  
  10.                    vcpu->run->exit_reason= KVM_EXIT_UNKNOWN;  
  11.                    vcpu->run->hw.hardware_exit_reason= exit_reason;  
  12.          }  
  13.          return 0;  
  14. }  


    该函数中,首先读取exit_reason,然后进行一些必要的处理,最后调用kvm_vmx_exit_handlers[exit_reason](vcpu),我们来看一下这个结构,实际上是一个函数指针数组,里面对应着所有的异常相应的异常处理函数。

[objc] view plain copy
  1. static int(*const kvm_vmx_exit_handlers[])(struct kvm_vcpu *vcpu) = {  
  2.          [EXIT_REASON_EXCEPTION_NMI]           = handle_exception,  
  3.          [EXIT_REASON_EXTERNAL_INTERRUPT]      = handle_external_interrupt,  
  4.          [EXIT_REASON_TRIPLE_FAULT]            = handle_triple_fault,  
  5.          [EXIT_REASON_NMI_WINDOW]          = handle_nmi_window,  
  6.          [EXIT_REASON_IO_INSTRUCTION]          = handle_io,  
  7.          [EXIT_REASON_CR_ACCESS]               = handle_cr,  
  8.          [EXIT_REASON_DR_ACCESS]               = handle_dr,  
  9.          [EXIT_REASON_CPUID]                   = handle_cpuid,  
  10.          [EXIT_REASON_MSR_READ]                = handle_rdmsr,  
  11.          [EXIT_REASON_MSR_WRITE]               = handle_wrmsr,  
  12.          [EXIT_REASON_PENDING_INTERRUPT]       = handle_interrupt_window,  
  13.          [EXIT_REASON_HLT]                     = handle_halt,  
  14.          [EXIT_REASON_INVD]                     = handle_invd,  
  15.          [EXIT_REASON_INVLPG]               = handle_invlpg,  
  16.          [EXIT_REASON_RDPMC]                   = handle_rdpmc,  
  17.          [EXIT_REASON_VMCALL]                  = handle_vmcall,  
  18.          [EXIT_REASON_VMCLEAR]                    = handle_vmclear,  
  19.          [EXIT_REASON_VMLAUNCH]                = handle_vmlaunch,  
  20.          [EXIT_REASON_VMPTRLD]                 = handle_vmptrld,  
  21.          [EXIT_REASON_VMPTRST]                 = handle_vmptrst,  
  22.          [EXIT_REASON_VMREAD]                  = handle_vmread,  
  23.          [EXIT_REASON_VMRESUME]                = handle_vmresume,  
  24.          [EXIT_REASON_VMWRITE]                 = handle_vmwrite,  
  25.          [EXIT_REASON_VMOFF]                   = handle_vmoff,  
  26.          [EXIT_REASON_VMON]                    = handle_vmon,  
  27.          [EXIT_REASON_TPR_BELOW_THRESHOLD]     = handle_tpr_below_threshold,  
  28.          [EXIT_REASON_APIC_ACCESS]             = handle_apic_access,  
  29.          [EXIT_REASON_APIC_WRITE]              = handle_apic_write,  
  30.          [EXIT_REASON_EOI_INDUCED]             = handle_apic_eoi_induced,  
  31.          [EXIT_REASON_WBINVD]                  = handle_wbinvd,  
  32.          [EXIT_REASON_XSETBV]                  = handle_xsetbv,  
  33.          [EXIT_REASON_TASK_SWITCH]             = handle_task_switch,  
  34.          [EXIT_REASON_MCE_DURING_VMENTRY]      = handle_machine_check,  
  35.          [EXIT_REASON_EPT_VIOLATION]         = handle_ept_violation,  
  36.          [EXIT_REASON_EPT_MISCONFIG]           = handle_ept_misconfig,  
  37.          [EXIT_REASON_PAUSE_INSTRUCTION]       = handle_pause,  
  38.          [EXIT_REASON_MWAIT_INSTRUCTION]       =handle_invalid_op,  
  39.          [EXIT_REASON_MONITOR_INSTRUCTION]     = handle_invalid_op,  
  40. };  


    这里面比如handle_ept_violation就是影子页(EPT页)缺页异常的处理函数。

    我们以handle_ept_violation()为例向下说明,依次调用kvm_mmu_page_fault(),vcpu->arch.mmu.page_fault(),tdp_page_fault()等后续函数完成缺页处理。

    在这里,我们要注意kvm_vmx_exit_handlers[exit_reason](vcpu)的返回值,比如当实际调用handle_ept_violation()时返回值大于0,就直接切回客户模式。但是有时候可能需要Qemu的协助。在实际调用(r = kvm_x86_ops->handle_exit(vcpu);)时,返回值大于0,那么就说明KVM已经处理完成,可以再次切换进客户模式,但如果返回值小于等于0,那就说明需要Qemu的协助,KVM会在run结构体中的exit_reason中记录退出原因,并进入到Qemu中进行处理。这个判断过程是在__vcpu_run()函数中进行的,实际是一个while循环。

[objc] view plain copy
  1. static int__vcpu_run(struct kvm_vcpu *vcpu)  
  2. {  
  3.          ......//省略部分代码  
  4.          r = 1;  
  5.          while (r > 0) {  
  6.                    if (vcpu->arch.mp_state ==KVM_MP_STATE_RUNNABLE &&  
  7.                        !vcpu->arch.apf.halted)  
  8.                             r =vcpu_enter_guest(vcpu);  
  9.                    else {  
  10.                             ......//省略部分代码  
  11.                    }  
  12.                    if (r <= 0)  
  13.                             break;  
  14.            ......//省略部分代码  
  15.          }  
  16.          srcu_read_unlock(&kvm->srcu,vcpu->srcu_idx);  
  17.          vapic_exit(vcpu);  
  18.          return r;  
  19. }  


    上面函数中vcpu_enter_guest()我们前面讲过,是在kvm内核中转入客户模式的函数,他处于while循环中,也就是如果不需要Qemu的协助,即r>0,那就继续循环,然后重新切换进客户系统运行,如果需要Qemu的协助,那返回值r<=0,退出循环,向上层返回r。

    上面说的r一直往上层返回,直到kvm_vcpu_ioctl()函数中的

    case KVM_RUN:

    trace_kvm_userspace_exit(vcpu->run->exit_reason, r);

    这一条语句就是将退出原因注入到Qemu层。

    Qemu层这时候读取到ioctl的返回值,然后继续执行,就会判断有没有KVM的异常注入,这里其实我在前一篇文章中简单提及了一下。

[objc] view plain copy
  1. int kvm_cpu_exec(CPUArchState *env)  
  2. {  
  3.     .......  
  4.     do {  
  5.         ......  
  6.         run_ret = kvm_vcpu_ioctl(cpu, KVM_RUN,0);  
  7.         ......  
  8.         trace_kvm_run_exit(cpu->cpu_index,run->exit_reason);  
  9.         switch (run->exit_reason) {  
  10.         case KVM_EXIT_IO:  
  11.             ......  
  12.             break;  
  13.         case KVM_EXIT_MMIO:  
  14.             ......  
  15.             break;  
  16.         case KVM_EXIT_IRQ_WINDOW_OPEN:  
  17.             .......  
  18.            break;  
  19.         case KVM_EXIT_SHUTDOWN:  
  20.             ......  
  21.             break;  
  22.         case KVM_EXIT_UNKNOWN:  
  23.             ......  
  24.             break;  
  25.         case KVM_EXIT_INTERNAL_ERROR:  
  26.             ......  
  27.             break;  
  28.         default:  
  29.             ......  
  30.             break;  
  31.         }  
  32.     } while (ret == 0);  
  33. }  


    trace_kvm_run_exit(cpu->cpu_index,run->exit_reason);这条语句就是接收内核注入的退出原因,后面switch语句进行处理,每一个case对应一种退出原因,这里你也可以自己添加的。因为也是在while循环中,处理完一次后又进行ioctl调用运行虚拟机并切换到客户模式,这就形成了一个完整的闭环。



内存虚拟化简介

前一章介绍了CPU虚拟化的内容,这一章介绍一下KVM的内存虚拟化原理。可以说内存是除了CPU外最重要的组件,Guest最终使用的还是宿主机的内存,所以内存虚拟化其实就是关于如何做Guest到宿主机物理内存之间的各种地址转换,如何转换会让转换效率更高呢,KVM经历了三代的内存虚拟化技术,大大加快了内存的访问速率。

传统的地址转换

在保护模式下,普通的应用进程使用的都是自己的虚拟地址空间,一个64位的机器上的每一个进程都可以访问0到2^64的地址范围,实际上内存并没有这么多,也不会给你这么多。对于进程而言,他拥有所有的内存,对内核而言,只分配了一小段内存给进程,待进程需要更多的进程的时候再分配给进程。
通常应用进程所使用的内存叫做虚拟地址,而内核所使用的是物理内存。内核负责为每个进程维护虚拟地址到物理内存的转换关系映射。
首先,逻辑地址需要转换为线性地址,然后由线性地址转换为物理地址。

逻辑地址 ==> 线性地址 ==> 物理地址
   
   

逻辑地址和线性地址之间通过简单的偏移来完成。
image_1aq931k0p42710me1il511r1kin9.png-59.9kB

一个完整的逻辑地址 = [段选择符:段内偏移地址],查找GDT或者LDT(通过寄存器gdtr,ldtr)找到描述符,通过段选择符(selector)前13位在段描述符做index,找到Base地址,Base+offset就是线性地址。

为什么要这么做?据说是Intel为了保证兼容性。

逻辑地址到线性地址的转换在虚拟化中没有太多的需要介绍的,这一层不存在实际的虚拟化操作,和传统方式一样,最重要的是线性地址到物理地址这一层的转换。

传统的线性地址到物理地址的转换由CPU的页式内存管理,页式内存管理。
页式内存管理负责将线性地址转换到物理地址,一个线性地址被分五段描述,第一段为基地址,通过与当前CR3寄存器(CR3寄存器每个进程有一个,线程共享,当发生进程切换的时候,CR3被载入到对应的寄存器中,这也是各个进程的内存隔离的基础)做运算,得到页表的地址index,通过四次运算,最终得到一个大小为4K的页(有可能更大,比如设置了hugepages以后)。整个过程都是CPU完成,进程不需要参与其中,如果在查询中发现页已经存在,直接返回物理地址,如果页不存在,那么将产生一个缺页中断,内核负责处理缺页中断,并把页加载到页表中,中断返回后,CPU获取到页地址后继续进行运算。

image_1aq93m25p10v913qns5kpsfbjm.png-152.1kB

KVM中的内存结构

由于qemu-kvm进程在宿主机上作为一个普通进程,那对于Guest而言,需要的转换过程就是这样。


   
   
  1. Guest虚拟内存地址(GVA)
  2. |
  3. Guest线性地址
  4. |
  5. Guest物理地址(GPA)
  6. | Guest
  7. ------------------
  8. | HV
  9. HV虚拟地址(HVA)
  10. |
  11. HV线性地址
  12. |
  13. HV物理地址(HPA)

What's the fu*k ?这么多...
别着急,Guest虚拟地址到HV线性地址之间的转换和HV虚拟地址到线性地址的转换过程可以省略,这样看起来就更清晰一点。


   
   
  1. Guest虚拟内存地址(GVA)
  2. |
  3. Guest物理地址(GPA)
  4. | Guest
  5. ------------------
  6. | HV
  7. HV虚拟地址(HVA)
  8. |
  9. HV物理地址(HPA)

前面也说到KVM通过不断的改进转换过程,让KVM的内存虚拟化更加的高效,我们从最初的软件虚拟化的方式介绍。

软件虚拟化方式实现

第一层转换,由GVA->GPA的转换和传统的转换关系一样,通过查找CR3然后进行页表查询,找到对应的GPA,GPA到HVA的关系由qemu-kvm负责维护,我们在第二章KVM启动过程的demo里面就有介绍到怎样给KVM映射内存,通过mmap的方式把HV的内存映射给Guest。

image_1aq96r87sq6v12lp1r8119n0cd21t.png-37.4kB


   
   
  1. struct kvm_userspace_memory_region region = {
  2. .slot = 0,
  3. .guest_phys_addr = 0x1000,
  4. .memory_size = 0x1000,
  5. .userspace_addr = ( uint64_t)mem,
  6. };

可以看到,qemu-kvm的kvm_userspace_memory_region结构体描述了guest的物理地址起始位置和内存大小,然后描述了Guest的物理内存在HV的映射userspace_addr,通过多个slot,可以把不连续的HV的虚拟地址空间映射给Guest的连续的物理地址空间。

image_1aq965a4v18e1mnj15pb3du13pu1g.png-41.7kB

软件模拟的虚拟化方式由qemu-kvm来负责维护GPA->HVA的转换,然后再经过一次HVA->HPA的方式,从过程上来看,这样的访问是很低效的,特别是在当GVA到GPA转换时候产生缺页中断,这时候产生一个异常Guest退出,HV捕获异常后计算出物理地址(分配新的内存给Guest),然后重新Entry。这个过程会可能导致频繁的Guest退出,且转换过程过长。于是KVM使用了一种叫做影子页表的技术。

影子页表的虚拟化方式

影子页表的出现,就是为了减少地址转换带来的开销,直接把GVA转换到HVP的技术。在软件虚拟化的内存转换中,GVA到GPA的转换通过查询CR3寄存器来完成,CR3保存了Guest中的页表基地址,然后载入MMU来做地址转换。
在加入了影子页表的技术后,当访问到CR3寄存器的时候(可能是由于Guest进程后导致的),KVM捕获到这个操作,CPU虚拟化章节EXIT_REASON_CR_ACCESS,qemu-kvm通过载入特俗的CR3和影子页表来欺骗Guest这个就是真实的CR3,后面的操作就和传统的访问内存的方式一致,当需要访问物理内存的时候,只会经过一层的影子页表的转换。

image_1aq972tgu2tr15g216kh1u3s1s1q2a.png-47.2kB

影子页表由qemu-kvm进程维护,实际上就是一个Guest的页表到宿主机页表的映射,每一级的页表的hash值对应到qemu-kvm中影子页表的一个目录。在初次GVA->HPA的转换时候,影子页表没有建立,此时Guest产生缺页中断,和传统的转换过程一样,经过两次转换(VA->PA),然后影子页表记录GVA->GPA->HVA->HPA。这样产生GVA->GPA的直接关系,保存到影子页表中。

image_1aq97hvkm14lg14al112i1j1m1ren2n.png-19.4kB

影子页表的引入,减少了GVA->HPA的转换过程,但是坏处在于qemu-kvm需要为Guest的每个进程维护一个影子页表,这将带来很大的内存开销,同时影子页表的建立是很耗时的,如果Guest进程过多,将导致频繁的影子页表的导入与导出,虽然用了cache技术,但是还是软件层面的,效率并不是最好,所以Intel和AMD在此基础上提供了硬件虚拟化技术。

EPT硬件加速的虚拟化方式

image_1aq997mlo1rt01aka186abnob3134.png-65kB
EPT(extended page table)可以看做一个硬件的影子页表,在Guest中通过增加EPT寄存器,当Guest产生了CR3和页表的访问的时候,由于对CR3中的页表地址的访问是GPA,当地址为空时候,也就是Page fault后,产生缺页异常,如果在软件模拟或者影子页表的虚拟化方式中,此时会有VM退出,qemu-kvm进程接管并获取到此异常。但是在EPT的虚拟化方式中,qemu-kvm忽略此异常,Guest并不退出,而是按照传统的缺页中断处理,在缺页中断处理的过程中会产生EXIT_REASON_EPT_VIOLATION,Guest退出,qemu-kvm捕获到异常后,分配物理地址并建立GVA->HPA的映射,并保存到EPT中,将EPT载入到MMU,下次转换时候直接查询根据CR3查询EPT表来完成GVA->HPA的转换。以后的转换都由硬件直接完成,大大提高了效率,且不需要为每个进程维护一套页表,减少了内存开销。
在笔者的测试中,Guest和HV的内存访问速率对比为3756MB/s对比4340MB/s。可以看到内存访问已经很接近宿主机的水平了。

总结

KVM内存的虚拟化就是一个将虚拟机的虚拟内存转换为宿主机物理内存的过程,Guest使用的依然是宿主机的物理内存,只是在这个过程中怎样减少转换带来的开销成为优化的主要点。
KVM经过软件模拟->影子页表->EPT的技术的进化,效率也越来越高。

IO 虚拟化简介

前面的文章介绍了KVM的启动过程,CPU虚拟化,内存虚拟化原理。作为一个完整的风诺依曼计算机系统,必然有输入计算输出这个步骤。传统的IO包括了网络设备IO,块设备IO,字符设备IO等等,在KVM虚拟化原理探究里面,我们最主要介绍网络设备IO和块设备IO,其实他们的原理都很像,但是在虚拟化层又分化开了,这也是为什么网络设备IO虚拟化和块设备IO虚拟化要分开讲的原因。这一章介绍一下网络设备IO虚拟化,下一章介绍块设备IO虚拟化。

传统的网络IO流程

这里的传统并不是真的传统,而是介绍一下在非虚拟化环境下的网络设备IO流程。我们平常所使用的Linux版本,比如Debian或者CentOS等都是标准的Linux TCP/IP协议栈,协议栈底层提供了driver抽象层来适配不同的网卡,在虚拟化中最重要的是设备的虚拟化,但是了解整个网络IO流程后去看待虚拟化就会更加容易理解了。

标准的TCP/IP结构

在用户层,我们通过socket与Kernel做交互,包括创建端口,数据的接收发送等操作。
在Kernel层,TCP/IP协议栈负责将我们的socket数据封装到TCP或者UDP包中,然后进入IP层,加入IP地址端口信息等,进入数据链路层,加入Mac地址等信息后,通过驱动写入到网卡,网卡再把数据发送出去。如下图所示,比较主观的图。

image_1aqgfh90g3ip1gtmclm180313o4m.png-95.8kB

在Linux的TCP/IP协议栈中,每个数据包是有内核的skb_buff结构描述的,如下图所示,socket发送数据包的时候后,进入内核,内核从skb_buff的池中分配一个skb_buff用来承载数据流量。

image_1aqgg26d7gof1jaanlbtblvq13.png-114.6kB
当数据到了链路层,链路层做好相应的链路层头部封装后,调用驱动层适配层的发送接口 dev_queue_xmit,最终调用到 net_start_xmit 接口。
image_1aqgn9e3ak2g183g1s2j150713581g.png-268.7kB

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值