KVM计算虚拟化原理,偏基础。KVM计算虚拟化原理,偏基础。

KVM计算虚拟化原理,偏基础。KVM计算虚拟化原理,偏基础。

Technorati 标签:
云计算,虚拟化

Technorati 标签:
云计算,虚拟化

正文基于网上的素材整理而成为。

正文基于网上的资料整理而成。

第一章 服务器虚拟化概述

第一章 服务器虚拟化概述

1.1 为什么要服务器虚拟化

只要物理机上但安排一栽工作,资源利用率太没有,不便于省资金。如果说生区域用利用物理机来保证平稳,对于开发测试区使用虚拟机不但可省去有限的物理机资源,还可以快达标丝。

1.1 为什么用服务器虚拟化

假使物理机上仅安排一栽业务,资源利用率太没有,不便利节约本钱。如果说生区域需要运用物理机来保证安居,对于开发测试区使用虚拟机不但可以节约有限的物理机资源,还可以快快达标线。

1.2 虚拟化发展历史

  • 提出概念:1959年6月提出,在国际信息处理大会上上的《大型高速计算机中之光阴共享》论文被提出
  • 开发技术:20世纪60年份开始,IBM操作系统虚拟化技术以在了大型机和小型机上
  • 蓬勃发展:20世纪90年份,VMware公司率先实现了X86绑架构上的虚拟化,于1999年出了x86平台上之率先缓缓虚拟化商业软件VMware
    workstation。
  • 群雄逐鹿:更多之厂商参加了虚拟化技术的人马

第二章 服务器虚拟化

服务器虚拟化主要出些许栽方法:

  • 硬件虚拟化:通过Hypervisor层虚拟出硬件系统环境,将硬件系统CPU发出之通令经过处理后传至大体CPU上。

硬件虚拟化的关键在于Hypervisor层。

所谓Hypervisor层就是在大体服务器和操作系统中运行的软件层,可以针对法硬件系统,将顺序对之硬件系统CPU发送的通令经过处理以后,加以虚拟传到物理CPU上。同时她好协调访问服务器上的大体设备及虚拟机,也给虚拟机监视器(VMM
)。

  • 容器:只是虚拟化出用运行时之条件,是较轻量的虚拟化,层次较浅。

1.2 虚拟化发展历史

  • 提出概念:1959年6月提出,在列国信息处理大会上登载的《大型高速计算机中之日共享》论文被提出
  • 开发技术:20世纪60年间开始,IBM操作系统虚拟化技术使在了大型机和小型机上
  • 蓬勃发展:20世纪90年份,VMware公司率先落实了X86绑架构上的虚拟化,于1999年出了x86平台上之率先缓慢虚拟化商业软件VMware
    workstation。
  • 群雄逐鹿:更多之厂商参加了虚拟化技术的旅

第二章 服务器虚拟化

服务器虚拟化主要出点儿种植方法:

  • 硬件虚拟化:通过Hypervisor层虚拟出硬件系统环境,将硬件系统CPU发出之一声令下经过处理后传至大体CPU上。

硬件虚拟化的关键在于Hypervisor层。

所谓Hypervisor层就是于情理服务器和操作系统中运行的软件层,可以对法硬件系统,将先后对这个硬件系统CPU发送的下令经过处理后,加以虚拟传到物理CPU上。同时其可协调访问服务器上之情理设备以及虚拟机,也受虚拟机监视器(VMM
)。

  • 容器:只是虚拟化出以运行时的条件,是于轻量的虚拟化,层次较浅。

2.1 服务器虚拟化架构

  • 裸金属架构:Hypervisor层直接运行在硬件系统及。典型例证是KVM。KVM其实就算是Linux内核供的虚拟化架构,可将根本直接充当Hypervisor,KVM一般需要处理器本身支持虚拟化扩展技术,如Intel
    VT等。KVM使用内核模块kvm.ko来促成核心虚拟化功能,但是单独供了CPU和内存的虚拟化,必须结合QEMU才会成完整的虚拟化技术。

图片 1

  • 宿主架构:典型的即使是QEMU,它可以通过二进制转换来模拟CPU,使Guest
    OS认为好再次与硬件打交道。
    图片 2

2.1 服务器虚拟化架构

  • 裸金属架构:Hypervisor层直接运行于硬件系统及。典型事例是KVM。KVM其实就算是Linux内核供的虚拟化架构,可拿基本直接充当Hypervisor,KVM一般用处理器本身支持虚拟化扩展技术,如Intel
    VT等。KVM使用内核模块kvm.ko来落实核心虚拟化功能,但是偏偏提供了CPU和内存的虚拟化,必须做QEMU才会整合完整的虚拟化技术。

图片 3

  • 宿主架构:典型的便是QEMU,它好由此二进制转换来模拟CPU,使Guest
    OS认为好又和硬件打交道。
    图片 4

2.2 CPU虚拟化

过程的推行有个别种状态

  • 外核态:主要用以硬件访问,修改主要参数,
  • 因而户态:用户运行应用程序。

零星种植状态的权不同,对硬件的访必须在内核态,可以保证系统的可靠性,只给使用人员开放用户态,不会见对OS的周转带来格外的震慑。避免系统为人为攻击。

OS内核数据以及代码区应该跟用户区完全割裂,也就是说程序可以看来底地址都是用户态地址,当程序执行系统调用的时段,进程会切入内核态进行基本访问,这时候页表也待切换到内核态的页表,带来的题目是性质比不同。因为页表在内存中,切换会带来性能的低落。

于是时主流的OS的做法是将根本代码和数据区放到用户进程虚拟地址控制器的高位区,32bit系统放到3~4G,windows默认占用2~4G区,64bit系统也位于高位。这样拉动的功利是,进程空间的内核区也被射到大体内存区,进程的切换不见面招致TLB中之前缓存的对内核区页表失效,保证了性。

实在进程是无法访问内核区,因为强行访问的讲话,页表条目有权限位(进程时权限保存在寄存器的CPL字段,为Ring3,而根本页表的权为Ring0,所以CPU会禁止访问。)

总结一下不怕是x86 架构提供四个特权级别为操作系统和应用程序来拜会硬件。
Ring 是靠 CPU 的运行级别,Ring 0凡是最高级别,Ring1赖的,Ring2再度浅的……

  • 本需要一直看硬件与内存,因此其的代码需要周转在高高的运行级别
    Ring0上,这样它好运用特权指令以控制中断、修改页表、访问设备等等。
  • 应用程序的代码运行在低于运行级别达Ring3达成,如何如拜磁盘,那就是用实施系统调用,此时CPU的周转级别会发打ring3及ring0的切换,并超越反至网调用对应的基石代码位置执行,这样基本就吧汝就了设备看,完成之后再行起ring0返回ring3。本条过程吧称打算户态和内核态的切换。

图片 5

对于非虚拟化操作系统而言,应用程序和系发出的便指令都运行在用户级别指令中,只有特权指令运行在主导级别中,这样操作系统及以解耦合。

那么,虚拟化在此间就是碰见了一个难题,因为物理机OS是做事以 Ring0
的,虚拟机的操作系统就是无能够为当 Ring0
了,所以有特权指令是无执行权的

CPU虚拟化的方法就是

  • 特权解除:让Guest
    OS运行于用户级别,让hypervisor运行在基本级别,这样就败了Guest
    OS的特权级别。
  • 深陷模拟:运作在Guest
    OS的一般性指令像过去同样运行,当运行及特权指令时,会有大并让hypervisor捕获。
    图片 6

那难在:

  • 争模拟x86保护模式
  • 争堵住并实行虚拟机的Ring0指令。
    化解措施如下

2.2 CPU虚拟化

经过的行有少栽状态

  • 内核态:主要用来硬件访问,修改重点参数,
  • 用户态:用户运行应用程序。

星星栽状态的权柄不同,对硬件的看必须在内核态,可以保证系统的可靠性,只受使用人员放用户态,不见面针对OS的运行带来十分之熏陶。避免系统给人工攻击。

OS内核数据与代码区应该同用户区完全隔绝,也就是说程序可以见到的地方都是为此户态地址,当程序执行系统调用的时,进程会切入内核态进行基础访问,这时页表也用切换至外核态的页表,带来的问题是性质比差。因为页表在内存中,切换会带来性能的狂跌。

因此时主流的OS的做法是以根本代码和数据区放到用户进程虚拟地址控制器的高位区,32bit系统放到3~4G,windows默认占用2~4G区,64bit系统也坐落高位。这样带的补是,进程空间的内核区也受射到大体内存区,进程的切换不见面促成TLB中前缓存的针对性内核区页表失效,保证了性能。

实际进程是无法访问内核区,因为强行访问的讲话,页表条目有权限位(进程目前权限保存在寄存器的CPL字段,为Ring3,而根本页表的权柄为Ring0,所以CPU会禁止访问。)

小结一下纵是x86 架构提供四单特权级别为操作系统和应用程序来走访硬件。
Ring 是凭借 CPU 的运作级别,Ring 0凡最高级别,Ring1不好的,Ring2还不好的……

  • 水源需要直接访问硬件及内存,因此它们的代码用周转在高运行级别
    Ring0上,这样它们可行使特权指令以控制中断、修改页表、访问设备等等。
  • 应用程序的代码运行在低运行级别上Ring3直达,如何使顾磁盘,那即便需要实行系统调用,此时CPU的运行级别会来起ring3及ring0的切换,并超过反至网调用对应之基础代码位置执行,这样基本就为卿做到了配备看,完成后重新由ring0返回ring3。以此进程为如打算户态和内核态的切换。

图片 7

于非虚拟化操作系统而言,应用程序和体系发出的常见指令都运作在用户级别指令中,只有特权指令运行于基本级别中,这样操作系统和行使解耦合。

那,虚拟化在此处虽赶上了一个难题,因为物理机OS是办事在 Ring0
的,虚拟机的操作系统就是未克也以 Ring0
了,所以部分特权指令是没有实施权的

CPU虚拟化的方就是是

  • 特权解除:让Guest
    OS运行在用户级别,让hypervisor运行于中心级别,这样便脱了Guest
    OS的特权级别。
  • 陷于模拟:运作在Guest
    OS的通常指令像过去一模一样运行,当运行到特权指令时,会生异常并为hypervisor捕获。
    图片 8

这就是说困难在于:

  • 争模拟x86保护模式
  • 安堵住并尽虚拟机的Ring0指令。
    缓解方法如下
2.2.1 CPU虚拟化技术解决办法
  • 全虚拟化:客户操作系统运行于 Ring
    1,它以实施特权指令时,会沾异常,然后
    hypervisor捕获这个那个,在老大里面做翻译,最后回来到客户操作系统内,客户操作系统认为自己的特权指令工作正常,继续运行。所以呢被二进制翻译技术(Binary
    Translate)。
    唯独是特性损耗大的十分,简单的一致条指令现在倒是要通过复杂的不胜处理过程
    图片 9

    • 长:不用修改GuestOS内核可以直接以
    • 缺陷:在VMM捕获特权指令和翻译过程会造成性的降落。
      图片 10
      打上图可以看来,当虚拟机中的利用要运行在内核态的时段,会由此Hypervisor层的学,通过二进制翻译技术,将下令替换为其它的命令。
  • 半虚拟化:修改操作系统内核,替换掉不能够虚拟化的授命,通过超级调用(hypercall)直接跟底部的虚拟化层hypervisor来报道,
    对立于意虚拟化性能更强,因为省去了翻译的长河。但是急需对Guest
    OS进行改动,应用场景不多。
    图片 11
  • 硬件辅助虚拟化: 2005年后,CPU厂商Intel 和 AMD 开始支持虚拟化了。
    Intel 引入了 Intel-VT (Virtualization Technology)技术
    重中之重的实现方式是搭了一个VMX
    non-root操作模式,运行VM时,客户机OS运行在non-root模式,依然时有发生Ring0~ring3等级别
    当运行特权指令时抑或发生搁浅的时节,通过VM_EXIT就得切换至root模式,拦截VM对虚拟硬件的访问。执行完毕,通过VM_ENTRY回到non-root即可。
    图片 12
    这种技能主要代表也intel VT-X,AMD的AMD-V
    图片 13

全虚拟化

半虚拟化

硬件辅助虚拟化

实现技术

BT和直接执行

Hypercall

客户操作系统修改/兼容性

无需修改客户操作系统,最佳兼容性

客户操作系统需要修改来支持hypercall,因此它不能运行在物理硬件本身或其他的hypervisor上,兼容性差,不支持Windows

性能

好。半虚拟化下CPU性能开销几乎为0,虚机的性能接近于物理机。

应用厂商

VMware Workstation/QEMU/Virtual PC

Xen

KVM 是基于CPU
拉的全虚拟化方案,它需要CPU虚拟化特性的支撑。
总结:
图片 14

2.2.1 CPU虚拟化技术解决方法
  • 全虚拟化:客户操作系统运行于 Ring
    1,它于推行特权指令时,会接触异常,然后
    hypervisor捕获这个充分,在很里面做翻译,最后回来到客户操作系统内,客户操作系统认为自己之特权指令工作正常化,继续运行。所以呢被二进制翻译技术(Binary
    Translate)。
    而是特性损耗大之杀,简单的一样修指令现在倒只要透过复杂的慌处理过程
    图片 15

    • 亮点:不用修改GuestOS内核可以一直用
    • 短:在VMM捕获特权指令与翻译过程会招性的下降。
      图片 16
      由上图可以看,当虚拟机中之采取要运行在内核态的时节,会经Hypervisor层的法,通过二进制翻译技术,将命替换为任何的吩咐。
  • 半虚拟化:修改操作系统内核,替换掉不能够虚拟化的命令,通过顶尖调用(hypercall)直接与脚的虚拟化层hypervisor来报道,
    相对于完全虚拟化性能更胜,因为省去了翻译的经过。但是用针对Guest
    OS进行改动,应用场景不多。
    图片 17
  • 硬件辅助虚拟化: 2005年晚,CPU厂商Intel 和 AMD 开始支持虚拟化了。
    Intel 引入了 Intel-VT (Virtualization Technology)技术
    重大的兑现方式是多了一个VMX
    non-root操作模式,运行VM时,客户机OS运行于non-root模式,依然有Ring0~ring3等级别
    当运行特权指令时或发中断的当儿,通过VM_EXIT就足以切换到root模式,拦截VM对虚拟硬件的访。执行了,通过VM_ENTRY回到non-root即可。
    图片 18
    这种技能主要代表为intel VT-X,AMD的AMD-V
    图片 19

全虚拟化

半虚拟化

硬件辅助虚拟化

实现技术

BT和直接执行

Hypercall

客户操作系统修改/兼容性

无需修改客户操作系统,最佳兼容性

客户操作系统需要修改来支持hypercall,因此它不能运行在物理硬件本身或其他的hypervisor上,兼容性差,不支持Windows

性能

好。半虚拟化下CPU性能开销几乎为0,虚机的性能接近于物理机。

应用厂商

VMware Workstation/QEMU/Virtual PC

Xen

KVM 是基于CPU
援的全虚拟化方案,它需CPU虚拟化特性的支持。
总结:
图片 20

2.3 内存虚拟化原理

外存虚拟化指的凡共享物理系统内存,动态分配给虚拟机。虚拟机的内存虚拟化很象虚拟内存方式

虚拟内存是计算机体系内存管理之等同种植技术,目的是吃应用程序认为她有着连续的可用的内存(一个连接完整的地址空间)。其实就算是操作系统将内存资源的虚拟化,屏蔽了内存调用底底细,对应用程序而言,不待关怀内存访问的细节,可以将内存当作线性的外存池。

x86 CPU 都包括了一个称内存管理的模块MMU(Memory Management Unit)和
TLB(Translation Lookaside Buffer),通过MMU和TLB来优化虚拟内存的习性。

OS将内存以4KB为单位展开分页,形成虚拟地址和情理地址之映射表。若是OS在物理机上运行,只要OS提供者页表,MMU会于访存时自动开虚拟地址(Virtual
address, VA)到大体地址(Physical address, PA)的倒车。

可是一旦虚拟机上运行OS,Guest
OS经过地方转化到的“物理地址”实际上是QEMU的逻辑地址,因此还得动用软件将那个转会为实际物理内存地址

于OS运行在物理机上的景

图片 21

若果经过看内存的时候,发现映射表中尚没有物理内存进行相应。如下图

图片 22

这MMU向CPU发出缺页中断,操作系统会根据页表中之外存地址,在外存中找到所缺的一律页,将该调入内存。同时更新页表的照射关系。下一样软拜访的时候可以直接命中物理内存。

图片 23

对于OS在虚拟机中的情事,过程将复杂很多。

于虚拟机内的长河的转移,需要进行两次更换。也就是说首先以采用的逻辑地址转换为虚拟机的物理地址,而及时实际上是QEMU进程的逻辑地址,所以要投到实在内存的物理地址还索要开一样次等变。

图片 24

  • VA:应用的虚拟地址
  • PA:虚拟机物理地址,也是QEMU进程的逻辑地址
  • MA:物理机的情理地址

可见,KVM
为了以平等令机械及运行多独虚拟机,需要增加一个新的外存虚拟化层,也就是说,必须虚拟
MMU 来支持客户OS,实现 VA -> PA -> MA 的翻译。

客户操作系统继续控制虚拟地址到客户内存物理地址的映射 (VA ->
PA),但是客户操作系统不能够一直看实际机器内存,因此VMM
需要负担映射客户物理内存到实际机器内存 (PA -> MA)。

图片 25

VMM 内存虚拟化的贯彻方式:

  • 软件方式:通过软件实现内存地址的翻,比如 Shadow page table
    (影子页表)技术
  • 硬件实现:基于 CPU 的协助虚拟化功能,比如 AMD 的 NPT 和 Intel 的 EPT
    技术

2.3 内存虚拟化原理

内存虚拟化指的是共享物理系统内存,动态分配给虚拟机。虚拟机的内存虚拟化很象虚拟内存方式

虚拟内存是电脑体系内存管理的平种植技术,目的是叫应用程序认为它具有连续的可用之内存(一个接连完整的地点空间)。其实就算是操作系统将内存资源的虚拟化,屏蔽了外存调用之底细,对应用程序而言,不欲关爱内存访问的底细,可以拿内存当作线性的内存池。

x86 CPU 都囊括了一个叫做内存管理之模块MMU(Memory Management Unit)和
TLB(Translation Lookaside Buffer),通过MMU和TLB来优化虚拟内存的属性。

OS将内存以4KB为单位展开分页,形成虚拟地址和情理地址的映射表。苟OS在物理机上运行,只要OS提供这页表,MMU会在做客存时自动开虚拟地址(Virtual
address, VA)到大体地址(Physical address, PA)的转向。

只是倘若虚拟机上运行OS,Guest
OS经过地方转化及之“物理地址”实际上是QEMU的逻辑地址,因此还用运用软件将该转会为真实物理内存地址

对OS运行于物理机上的事态

图片 26

假设经过看内存的上,发现映射表中还尚无物理内存进行相应。如下图

图片 27

此刻MMU向CPU发出缺页中断,操作系统会依据页表中的外存地址,在外存中找到所缺乏的等同页,将其调入内存。同时更新页表的投关系。下同样糟糕走访的上可直接命中物理内存。

图片 28

于OS在虚拟机中之状,过程将复杂很多。

对于虚拟机内之进程的变换,需要进行两次易。也就是说首先以采取之逻辑地址转换为虚拟机的大体地址,而立即实则是QEMU进程的逻辑地址,所以若投到实在内存的情理地址还需要开同不行变。

图片 29

  • VA:应用之虚拟地址
  • PA:虚拟机物理地址,也是QEMU进程的逻辑地址
  • MA:物理机的大体地址

可见,KVM
为了以同样尊机械及运行多单虚拟机,需要增加一个初的内存虚拟化层,也就是说,必须虚拟
MMU 来支持客户OS,实现 VA -> PA -> MA 的翻。

客户操作系统继续控制虚拟地址到客户内存物理地址之映射 (VA ->
PA),但是客户操作系统不克一直访问实际机器内存,因此VMM
需要背映射客户物理内存到实际机器内存 (PA -> MA)。

图片 30

VMM 内存虚拟化的兑现方式:

  • 软件方式:通过软件实现内存地址的翻,比如 Shadow page table
    (影子页表)技术
  • 硬件实现:基于 CPU 的帮助虚拟化功能,比如 AMD 的 NPT 和 Intel 的 EPT
    技术
2.3.1 软件方式

阴影页表(SPT,shadow page
table):Hypervisor为虚拟机保安了一个虚拟机的虚拟地址顶宿主机大体地址投的底页表。也就是说,在原先的星星叠地址层次基础及加了相同重合地下物理地址层次,通过就张表可以拿客户机虚拟地址宿主机物理地址中展开映射。

客户OS创建之后,Hypervisor创建其对诺影子页表。刚开影子页表是空的,此时别客户OS的访存操作都见面起缺页中断,然后Hypervisor捕获缺页异常

图片 31

由此简单赖地址映射转换获得虚拟机虚拟地址物理机物理地址的照耀关系,写副影子页表,逐步做到有着虚拟地址到宿主机机器地址的投射。
图片 32

代价是要保持虚拟机的页表和宿主机的黑影页表的联名。

2.3.1 软件方式

黑影页表(SPT,shadow page
table):Hypervisor为虚拟机保护了一个虚拟机的虚拟地址至宿主机物理地址炫耀的之页表。也就是说,在原的有数重合地址层次基础及加以了相同交汇地下物理地址层次,通过这张表可以用客户机虚拟地址宿主机物理地址期间进行映射。

客户OS创建之后,Hypervisor创建其对许影子页表。刚开头影子页表是拖欠的,此时任何客户OS的访存操作都见面发出缺页中断,然后Hypervisor捕获缺页异常

图片 33

由此个别不成地址映射转换获得虚拟机虚拟地址物理机物理地址的照射关系,写副阴影页表,逐步做到具有虚拟地址到宿主机机器地址之映照。
图片 34

代价是欲保持虚拟机的页表和宿主机的影子页表的一路。

2.3.2 通过INTEL EPT技术来落实

KVM 中,虚机的物理内存不畏为 qemu-kvm 进程所占的内存空间。KVM 使用
CPU 辅助的内存虚拟化方式。在 Intel 和 AMD
平台,其内存虚拟化的兑现方式分别吗:

  • AMD 平台及之 NPT (Nested Page Tables) 技术
  • Intel 平台上的 EPT (Extended Page Tables)技术
    EPT 和 NPT采用类似的规律,都是当做 CPU
    中新的平叠,通过硬件故此来以客户机的情理地址翻译为主机的物理地址。也就是说Guest
    OS完成虚拟机虚拟地址–>虚拟机物理地址第一重合转化,硬件同时做到虚拟机物理地址及物理机物理地址这第二叠转化。第二叠转换对Guest
    OS来说是晶莹剔透的,Guest
    OS访问内存时和于物理机运行时凡一模一样的。这种方法以曰内存辅助虚拟化。

故此内存辅助虚拟化就是一直用硬件来促成虚拟机的大体地址及宿主机的情理地址之一步到位映射。VMM不用再保留一份
SPT (Shadow Page
Table),通过EPT技术,不再用联合两只页表,虚拟机内部的切换为非欲qemu进程切换,所待之是单纯是简单不好页表查找,而且是由此硬件来完成的,性能损耗低。

流程如下:

  • VM中的使用发现页没分片,MMU发起中断,从虚拟机的情理地址(QEMU的逻辑地址)中分配一页,然后更新页表。
    图片 35
  • 这儿虚拟机页的物理地址还不曾针对承诺物理内存的地方,所以触发了qemu进程在宿主机的page
    fault。宿主机内核分配内存页,并创新页表。
    图片 36
  • 下次看就可借助EPT来拓展,只需要查阅两赖表明即可。

图片 37

总结:
图片 38

2.3.2 通过INTEL EPT技术来贯彻

KVM 中,虚机的物理内存就是为 qemu-kvm 进程所占的内存空间。KVM 使用
CPU 辅助的内存虚拟化方式。在 Intel 和 AMD
平台,其内存虚拟化的实现方式分别吗:

  • AMD 平台及的 NPT (Nested Page Tables) 技术
  • Intel 平台上的 EPT (Extended Page Tables)技术
    EPT 和 NPT采用类似的规律,都是当做 CPU
    中初的相同叠,通过硬件为此来以客户机的情理地址翻译啊主机的物理地址。也就是说Guest
    OS完成虚拟机虚拟地址–>虚拟机物理地址第一重合转化,硬件同时形成虚拟机物理地址及物理机物理地址这第二重叠转化。第二重叠转换对Guest
    OS来说是透明的,Guest
    OS访问内存时和以物理机运行时是如出一辙的。这种艺术以称作内存辅助虚拟化。

于是内存辅助虚拟化就是一直用硬件来兑现虚拟机的情理地址及宿主机的物理地址的一步到位映射。VMM不用还保留一卖
SPT (Shadow Page
Table),通过EPT技术,不再需要共同两个页表,虚拟机内部的切换为不需要qemu进程切换,所用之凡仅是个别不行页表查找,而且是透过硬件来形成的,性能损耗低。

流程如下:

  • VM中之采用发现页没分片,MMU发起中断,从虚拟机的大体地址(QEMU的逻辑地址)中分红一页,然后更新页表。
    图片 39
  • 这虚拟机页的物理地址还不曾针对诺物理内存的地方,所以触发了qemu进程在宿主机的page
    fault。宿主机内核分配内存页,并创新页表。
    图片 40
  • 下次造访就可借助EPT来拓展,只待查阅两不良表明即可。

图片 41

总结:
图片 42

2.4 KVM其他内存管理技术

2.4 KVM其他内存管理技术

2.4.1 KSM (Kernel SamePage Merging 或者 Kernel Shared Memory)

KSM 是水源中之医护进程(称为
ksmd),它见面定期进行页面扫描,将副本页面进行统一,然后释放多余的页面。KVM使用KSM来减少多单一般的虚拟机的内存占用,提高内存的应用频率,在虚拟机使用相同镜像和操作系统时,效果进一步鲜明。但是会多基础开发,所以为了提升效率,可以用是特性关闭。

2.4.1 KSM (Kernel SamePage Merging 或者 Kernel Shared Memory)

KSM 是本中的守护进程(称为
ksmd),它会定期进行页面扫描,将副本页面进行联合,然后释放多余的页面。KVM使用KSM来减多单一般之虚拟机的内存占用,提高内存的施用频率,在虚拟机使用同一镜像和操作系统时,效果更为显眼。但是会增加基础开发,所以为了提升效率,可以将是特性关闭。

2.4.2 KVM Huge Page Backed Memory (巨页内存技术)

Intel 的 x86 CPU 通常采取4Kb内存页,当是通过安排,也能够使用巨页(huge
page): (4MB on x86_32, 2MB on x86_64 and x86_32
PAE)使用巨页,KVM的虚拟机的页表将动用更不见的内存,并且用增强CPU的频率。最高情况下,可以加强20%的效率!

2.4.2 KVM Huge Page Backed Memory (巨页内存技术)

Intel 的 x86 CPU 通常使用4Kb内存页,当是经过安排,也能够使巨页(huge
page): (4MB on x86_32, 2MB on x86_64 and x86_32
PAE)使用巨页,KVM的虚拟机的页表将运用更不见之内存,并且用提高CPU的频率。最高情况下,可以增长20%的效率!

2.5 IO虚拟化

  • 法(完全虚拟):使用 QEMU 纯软件的不二法门来模拟 I/O
    设备。使用一个Service VM来模拟实硬件,性能特别不同。
    客户机的配备驱动程序发起 I/O
    请求操作请求,KVM会捕获此IO请求,然后嵌入IO共享页,同时用户空间的QEMU进程,QEMU模拟出此次IO操作,同样置于共享页中连同时KVM进行结果的取回。

在意:当客户机通过DMA (Direct Memory Access)访问大块I/O时,QEMU
模拟程序将无见面拿结果放上一道享页中,而是经过内存映射的点子以结果一直写到客户机的内存中,然后通知KVM模块告诉客户机DMA操作都就。

图片 43

  • 半虚拟化: KVM/QEMU就使用这种模式,它于 Guest OS 内核中设置前端驱动
    (Front-end driver)和在 QEMU
    中贯彻后端驱动(Back-end)的办法。前后端驱动通过 vring
    (实现虚拟队列的环形缓冲区)直接通信,这就绕了了通过 KVM
    内核模块的经过,提高了IO性能,相对于意虚拟的模式,
    省失去了纯粹模仿模式下之雅捕获环节,Guest OS 可以与 QEMU 的 I/O
    模块直接通信。

图片 44

  • IO-through:直接拿机物理设备分配受虚拟机,不过需要硬件具备IO透传技术;,Intel
    定义之 I/O 虚拟化技术变成 VT-d,AMD 的名 AMD-V。
    KVM 支持客户机以占方式访是宿主机的 PCI/PCI-E
    设备。通过硬件支持的 VT-d
    技术将配备分吃客户机后,在客户机看来,设备是大体及连接于PCI或者PCI-E总线上的
    几乎有的 PCI 和 PCI-E
    设备都支持直接分配,除了显卡以外(显卡的特殊性在此地)。PCI
    Pass-through 需要硬件平台 Intel VT-d 或者 AMD IOMMU
    的支持。这些特点必须于 BIOS 中为启用
    图片 45

    • 利益:减少了 VM-Exit 陷入到 Hypervisor
      的过程,极大地提高了性,可以达到几乎和原生系统一样的性能。而且VT-d
      克服了 virtio 兼容性不好以及 CPU 使用频率比较高的题材。
    • 不足:独占设备的话,无法落实设备的共享,成本提高。
    • 相差之化解方案:(1)在同样高物理宿主机及,仅少数 I/O
      如网性要求比高的客户机使用
      VT-d直接分配设备,其他的运纯模仿或 virtio
      已达标多个客户机共享同一个配备的目的
      (2)对于网I/O的解决办法,可以择 SR-IOV
      是一个网卡产生多独独立的虚拟网卡,将每个虚拟网卡分配个一个客户机使用。

总结
图片 46

2.5 IO虚拟化

  • 拟(完全虚拟):使用 QEMU 纯软件的方式来学 I/O
    设备。使用一个Service VM来模拟实硬件,性能非常不同。
    客户机的设施驱动程序发起 I/O
    请求操作请求,KVM会捕获此IO请求,然后坐IO共享页,同时用户空间的QEMU进程,QEMU模拟出本次IO操作,同样置于共享页中并同时KVM进行结果的取回。

小心:当客户机通过DMA (Direct Memory Access)访问大块I/O时,QEMU
模拟程序将非会见将结果放上同享页中,而是通过内存映射的法子拿结果一直写及客户机的内存中,然后通知KVM模块告诉客户机DMA操作都完结。

图片 47

  • 半虚拟化: KVM/QEMU就利用这种模式,它当 Guest OS 内核中安前端驱动
    (Front-end driver)和在 QEMU
    中贯彻后端驱动(Back-end)的措施。前后端驱动通过 vring
    (实现虚拟队列的环形缓冲区)直接通信,这就是绕了了经 KVM
    内核模块的长河,提高了IO性能,相对于意虚拟的模式,
    省夺了纯粹模仿模式下之不行捕获环节,Guest OS 可以和 QEMU 的 I/O
    模块直接通信。

图片 48

  • IO-through:直接把机物理设备分配为虚拟机,不过要硬件具备IO透传技术;,Intel
    定义之 I/O 虚拟化技术变为 VT-d,AMD 的称为 AMD-V。
    KVM 支持客户机以占方式访这个宿主机的 PCI/PCI-E
    设备。通过硬件支持的 VT-d
    技术以装备分给客户机后,在客户机看来,设备是情理上总是于PCI或者PCI-E总线上之
    几乎有的 PCI 和 PCI-E
    设备还支持直接分配,除了显卡以外(显卡的特殊性在这里)。PCI
    Pass-through 需要硬件平台 Intel VT-d 或者 AMD IOMMU
    的支撑。这些特点必须以 BIOS 中吃启用
    图片 49

    • 利:减少了 VM-Exit 陷入到 Hypervisor
      的经过,极大地提高了性能,可以高达几乎与原生系统一样的特性。而且VT-d
      克服了 virtio 兼容性不好以及 CPU 使用频率比较高的题目。
    • 相差:独占设备的话,无法实现设备的共享,成本增高。
    • 相差之解决方案:(1)在同等玉物理宿主机及,仅少数 I/O
      如网性要求于高之客户机使用
      VT-d直接分配设备,其他的行使纯模仿或 virtio
      已达成多独客户机共享同一个设备的目的
      (2)对于网络I/O的解决办法,可以选取 SR-IOV
      是一个网卡产生多只独立的虚拟网卡,将每个虚拟网卡分配个一个客户机使用。

总结
图片 50

2.6 网卡虚拟化

VM发出之流量一般生有限栽

  • 及物理机外部的设施,
  • 暨地头物理服务器上的虚拟机。

据此我们用保证不同虚拟机流量的竞相隔离,同时还要使考虑情理设备外虚拟机的互联互通。

釜底抽薪方法:
对此对物理机外部的流量,给每个VM分配一个专用通道,共享物理网卡资源。
重点出如下几栽模式:

  • Bridge桥通模式:把物理主机及之网卡当交换机,然后虚拟生一个Bridge来接收发于物理机的管教。
    图片 51
  • isolation mode:仅guest OS之间通信;不跟外表网络及宿主机通信。
    图片 52
  • routed mode:与表面主机通信,通过静态路由使得各Guest OS
    的流量用经过物理网卡
    图片 53
  • nat:地址转换;在编造网卡和物理网卡之间成立一个nat转发服务器;对数码包进行源地址转换。
    图片 54

针对里面流量:

  • 每当hypervisor上成立virtual
    switch,不过会吃CPU资源,而且是于生安全隐患。(intel的VT-c用VMDq技术如果网卡芯片处理局部vswitch的做事,同时用vFW来保障安全)
  • 可以先叫流量产生服务器通过安全设备区域开展数量清洗以后又回来。主流方式采用硬件SR-IOV对VM流量进行识别和处理

总结

图片 55

2.6 网卡虚拟化

VM发出的流量一般生些许栽

  • 交物理机外部的设施,
  • 到地头物理服务器上之虚拟机。

所以我们得确保不同虚拟机流量的竞相隔离,同时以要考虑情理设备外虚拟机的互联互通。

化解方法:
对此针对物理机外部的流量,给每个VM分配一个专用通道,共享物理网卡资源。
首要有如下几栽模式:

  • Bridge桥搭模式:把物理主机及之网卡当交换机,然后虚拟发一个Bridge来接收发于物理机的管教。
    图片 56
  • isolation mode:仅guest OS之间通信;不跟表面网络及宿主机通信。
    图片 57
  • routed mode:与外表主机通信,通过静态路由使得各Guest OS
    的流量用通过物理网卡
    图片 58
  • nat:地址转换;在虚拟网卡和大体网卡之间建立一个nat转发服务器;对数据包进行源地址转换。
    图片 59

本着其中流量:

  • 当hypervisor上建virtual
    switch,不过会消耗CPU资源,而且在比较充分安全隐患。(intel的VT-c用VMDq技术使网卡芯片处理局部vswitch的做事,同时用vFW来保障安全)
  • 可事先为流量产生服务器通过安全设备区域拓展数据清洗以后再返回。主流方式使用硬件SR-IOV对VM流量进行分辨与处理

总结

图片 60

2.7 Hypervisor层底虚拟化实现

操作系统是用户与物理机的接口,也是使用与大体硬件的接口。核心职能在于任务调度和硬件抽象。

不同操作系统的绝充分不同在内核。

单内核、混合本、微内核、外内核的别
图片 61

  • 单内核:内核所有的效用代码全部都运作于与一个根本空间内,优点是性性能大高,缺点是规划复杂,稳定性不敷好;
  • 微内核:类似C/S服务模式,只有极端基础的代码会运行为本空间,其他的还运行为用户空间,优点是泰强,缺点性能于逊色;
  • 错落本:性能与安宁的降产物,完全是因为设计者进行用户从定义;
  • 外内核:比微内核更加极端,连硬件抽象工作还交给用户空间,内核只待确保应用程序访问硬件资源时,硬件是空的

图片 62

2.7 Hypervisor层的虚拟化实现

操作系统是用户以及物理机的接口,也是运用和情理硬件的接口。核心作用在任务调度和硬件抽象。

差操作系统的极可怜异在内核。

单内核、混合本、微内核、外内核的别
图片 63

  • 单内核:内核所有的效应代码全部都运作于跟一个本空间内,优点是性性能特别高,缺点是规划复杂,稳定性不足够好;
  • 微内核:类似C/S服务模式,只有极基础的代码会运行为本空间,其他的还运作于用户空间,优点是稳定强,缺点性能于逊色;
  • 掺杂本:性能与平稳之低头产物,完全是因为设计者进行用户从定义;
  • 外内核:比微内核更加极端,连硬件抽象工作还付用户空间,内核只待确保应用程序访问硬件资源时,硬件是空的

图片 64

2.7.1 主流的Hypervisor总结

Hypervisor的类别

KVM

Xen

Hyper-v

ESX/ESXi

内核类型

Linux

Linux(修改)&Nemesis

Windows&Hyper-V

Linux&VMernel

内核

单核

外内核

外内核

混合内核

I/O虚拟化方式

类Service VM Model

Service VM Model

Service VM Model

Monolithic Model

特点

集成在Linux内核中

有被KVM取代之势,性能低于KVM

捆绑Windows Server

技术积累深厚,Vmkernel是核心竞争力

2.7.1 主流的Hypervisor总结

Hypervisor的类别

KVM

Xen

Hyper-v

ESX/ESXi

内核类型

Linux

Linux(修改)&Nemesis

Windows&Hyper-V

Linux&VMernel

内核

单核

外内核

外内核

混合内核

I/O虚拟化方式

类Service VM Model

Service VM Model

Service VM Model

Monolithic Model

特点

集成在Linux内核中

有被KVM取代之势,性能低于KVM

捆绑Windows Server

技术积累深厚,Vmkernel是核心竞争力

admin

网站地图xml地图