openstack bdm基础

在代码中,文档中,接口中经常看见bdm或者block_device_mapping,直译就是块设备映射?
但它到底是什么东东?有没有一直心存困惑?
让我们来一探究竟。

块设备

指对其信息的存取以“块”为单位,如通常的光盘、硬磁盘、软磁盘、磁带等
本人机器上块设备信息如下:

Nova服务创建的虚拟机,如何为其指派块设备?
猜的没错,可以通过块设备映射。
把原有的一些东东(比如cinder的卷,glance的镜像)映射给虚拟机,作为块设备使用。

命令行(CLI)

在nova help boot可以看到参数如下:

mapping 的格式是 =::<size(GB)>: 其中:

dev-name

A device name where the volume is attached in the system at /dev/dev_name .
在虚拟机实例中的挂载点

id

The ID of the volume to boot from, as shown in the output of nova volume-list.
卷id,就是nova volume-list

type

Either snap, which means that the volume was created from a snapshot,
or anything other than snap (a blank string is valid). In the example above,
the volume was not created from a snapshot, so we leave this field blank in our example below.
类型,一般留空。

size (GB)

The size of the volume in gigabytes.
It is safe to leave this blank and have the Compute Service infer the size.
卷大小(G),可留空

delete-on-terminate

A boolean to indicate whether the volume should be deleted when the instance is terminated.
True can be specified as True or 1. False can be specified as False or 0.
实例挂球之后卷是否删除此设备

这里我们用镜像启动一个虚拟机,同时挂载磁盘818f15ec-3c5d-4791-b72e-528f82e97584到虚拟机vdc(type和size留空):

root@controller1:~# nova boot --image 6eacf3fe-7fe2-4262-b42a-98f624e688c4 --flavor 189aed07-77e3-43ce-a687-56abd5990974 --block-device-mapping vdc=818f15ec-3c5d-4791-b72e-528f82e97584:::0 --nic net-id=47921b66-3e9d-4939-a260-db913d0550f4  test_bdm_win7

虚拟机创建完成后,查看创建的虚拟机详情
会发现818f15ec-3c5d-4791-b72e-528f82e97584(名为block_device_mapping)的块被挂载

仔细一瞅,nova boot里怎么还有block-device这么个参数,看看说明,好像也是块映射

Block Device Mapping看到这句注释一阵阵想抽过去,到底和上面–block_device_mapping啥关系啊?
后面还有一大堆东西。
先不管,太乱了,不能忍,东西整理如下:

id=UUID(image_id,snapshot_id,volume_id)
souce=源类型(image,snapshot,volume,blank)
dest=目的类型(volume,local
bus=总线类型(uml,lxc,virtio等,常用virtio
type=设备类型(disk,cdrom,Floppy,Flash,默认是disk
device=设备名称(vda,xda
size=块大小
format=格式(ext4ISO,swap,ntfs
bootindex=定义启动盘,是启动盘的话需要是0
shutdown=关机对应动作(prserve,remove

优雅的打开代码,找到nova-client,找到创建虚拟机流程部分(cli在novaclient数据流分析点击这里)
代码在novaclient/v2/shell.py的_boot方法 可见从block_device_mapping取出值放入block_device_mapping
从_parse_block_device_mapping_v2取出值放入block_device_mapping_v2
两者不能兼容,也就是指定了–block_device_mapping,就不能指定参数–boot_volume、–snapshot、–block_device

为什么整出两套不兼容的东东?
因为EC2就是按照–block_device_mapping这种方式搞的,openstack照抄不误。
后来openstack 兼容多种虚拟化,有的虚拟化不支持直接指定虚拟机的挂载点。
因此推出了加强版块设备映射(block_device_mapping_v2)
同时,为了向上兼容block_device_mapping没有干掉,就导致了这种局面。下面让我们看看–block_device参数
由于源类型(image,snapshot,volume,blank)有这么几种可选,目的类型(volume,local)有这两种可选
上面参数可以组合出几种形态,依据不同的形态有不同的含义:

API接口中

创建虚拟机实例的API有block_device_mapping_v2字段。(为什么是v2?我们上面已揭晓)
在nova/api/openstack/compute/servers.py的create方法中只有这么一段代码

然后通过handler调用到同目录下的block_device_mapping.py中的servier_create
(不明白这么调用到的,猜测应该是通过某种统一的方式,调用到各个扩展部分,回头再看吧,有知道的同学也请告知)
具体原因如下:依次会调用到setup.cfg的nova.api.v3.extensions.server.create的各个插件的server_create

block_device_mapping.py文件的开头声明了几个常量字符串,对,就有我们此节的主角block_device_mapping_v2

代码逻辑如下图,从入参server_dict中根据上述常量值,取出对应的参数bdm,或者legacy_bdm(legacy遗产的意思)
然后调用block_device.BlockDeviceDict.from_api将取出的bdm转化为BlockDeviceDict对象最后将参数放入create_kwargs[‘block_device_mapping’],传入底层去创建虚拟了。
(这里需要注意block_device_mapping_v2和block_device_mapping互斥
因为block_device_mapping_v2是升级版,为了解决老版问题引入的,详细情况容后表)

数据表

在nova的数据表中有block_device_mapping
查询上面一个创建的虚拟机
可见有个/dev/hda 其source是image dest是local 对应到上表发现是镜像启动,和我们的启动方式相符。

代码流程

对象转换

一般情况会从数据库block_device_mapping表中查出磁盘信息

然后将数据库类型的bdms封装成对于的blockdevice类

也就是

这里我们重点关注下convert_all_volumes这个方法
就是依次判断每个磁盘的类型,然后返回对应的对象

这里以convert_volumes为例

就是说,使用_convert_block_devices方法判断block_device_mapping是不是对于的类型
出错就跳过

下面上几个类的类图

所有的类初始化,都会调用DriveBlockDevice的init方法
init方法最后会调用一下_transform方法

总结一下

需要注意这里不会转换下面这种情况
也就是说这种磁盘类型会过滤掉

磁盘操作

磁盘操作,以磁盘挂载为例,是调用的各个不同类型磁盘的attach方法,见上面的类图。

给虚拟机挂载磁盘

实际上也是这段代码,注意参数do_driver_attach为true
因为创建虚拟机的时候挂在磁盘也会调用这里
如果do_driver_attach会在虚拟机启动的时候挂载
但是构造bdm对象的时候,指定source_type和destination_type都是volume

也就是说bdm.attach的时候,bdm是 DriverVolumeBlockDevice
调用的也是DriverVolumeBlockDevice.attach方法

  1. 从cinder中获取磁盘的连接信息
    通过断电调试发现connection_info如下图(我们使用的ceph)
    注意:这里调用的cinder的接口/v2/​{tenant_id}​/types/​{volume_type}​/action
    接口文档中说没有返回,其实是有返回的

  2. 调用hypervisor的attach_volume方法

  3. 如果需要的话,在cinder上建立instance和volume的对应关系
    cinder数据库中记录

这里深入看下第2步hypervisor的attach_volume方法
也就是libvirt的driver.py中的attach_volume方法
实际就是获取到虚拟机的domain然后调用attachDeviceFlags方法
入参是根据磁盘信息生成的xml,整理后如下

另外,如果需要的话,会把盘和当前计算节点进行connect
我们这里用的ceph,什么也不做
也就是connection_info.get(‘driver_volume_type’)为rbd
从而rbd=nova.virt.libvirt.volume.LibvirtNetVolumeDriver
中connect_volume

参考文档:http://docs.openstack.org/developer/nova/block_device_mapping.html#id3
https://wiki.openstack.org/wiki/BlockDeviceConfig

转自:http://www.hanbaoying.com/2015/02/03/block_device_mapping.html

  • 2
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
OpenStack是一个开源的云计算平台,提供了一套完整的云计算解决方案,包括计算、存储、网络等方面的服务。基础运维是OpenStack的重要组成部分,包括安装、配置、监控、维护等方面的工作。以下是云计算OpenStack基础运维的一些常见任务和技巧: 1. 安装和配置OpenStack 安装和配置OpenStack需要了解操作系统、网络和存储等方面的知识。可以使用OpenStack官方提供的安装脚本和文档,也可以使用第三方工具如Mirantis Fuel、Red Hat OpenStack Platform等来快速安装和配置OpenStack。 2. 管理OpenStack的虚拟机 管理OpenStack的虚拟机需要了解虚拟化技术和操作系统的基础知识。可以使用OpenStack Dashboard或者命令行工具来创建、删除、启动、停止和挂载虚拟机。 3. 管理OpenStack的网络 管理OpenStack的网络需要了解网络拓扑、子网、路由、安全组等方面的知识。可以使用OpenStack Dashboard或者命令行工具来创建、删除、配置和监控网络。 4. 管理OpenStack的存储 管理OpenStack的存储需要了解存储技术和存储协议等方面的知识。可以使用OpenStack Dashboard或者命令行工具来创建、删除、配置和监控存储。 5. 监控和维护OpenStack 监控和维护OpenStack需要了解系统监控、日志分析、错误排除等方面的知识。可以使用OpenStack提供的监控工具如Ceilometer、Aodh等来监控OpenStack系统的运行情况,也可以使用第三方工具如Nagios等来监控OpenStack系统。 总之,云计算OpenStack基础运维需要掌握多方面的知识和技能,需要不断学习和实践,才能提高自己的运维能力。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值