在使用openstack过程中发现的问题:
1.cpu:vcpu过载使用;
2.ram:ram过载使用;
3.宿主机安装系统时分区不合理;
4.cinder-volume在企业中的使用;
5. virt-manager使用

我今天先来简单说一下以上问题的解决思路;

1-2.在了解qemu-kvm 了解当中的原理对于cpu和内存的过载使用应该是明白;
但是好多兄弟们在使用rdo安装openstack的时候;在修改应答文件中会看到有2行是有关设置cpu:vcpu和内存的比值大小的;疑问openstack到底能虚拟多少个VCPU呢;在创建vm的时候给多少个VCPU合适呢?包括内存也一样,给多少是合适呢?

在这里我给说一下,如有不合理地方欢迎兄弟们给我反馈,我一定虚心接受;
虽说可以过载的使用cpu和内存的资源,但是在创建vm的时候,vm的VCPU最好是宿主机CPU核数的倍数,而且最好不要超过宿主机的cpu总核数;比如(宿主机8个cpu,vm创建的时候可以选择1,2,4,6,)如果超出了反而性能会不好,导致其他的vm性能也下降;
例如所创建的vm有的是网站服务器那么一般白天的负载较高,晚上的话是备份的vm运行负载高,所以vm的高峰期都错开了,这样一来使用cpu过载qemu-kvm自己会去调度;

3-4-5,宿主机的分区(这个大家分区肯定是都会,但是如何能合理的分配)
在openstack中使用空间最多的分区是/var/分区,包括cinder glance nova/instance 都是在/var/lib/下,所以在给宿主机分区的时候可以分几种情况来分;

预算(cpu8,内存48GB,硬盘2TB 上面跑4台vm(每台的 根空间大小预计是200-300GB))

那么这2TB的盘大小就的考虑一下给/var应该是多一些(/boot 512 /200GB /var 1.5TB 其他);因为在多个openstack环境中, (如把你环境中的vm,拷贝到我的环境中再启动起来 这个我不知道你们测试过没,我测试过了,是可以成功的;但是我现在有个疑惑是,vm挂载的volume这个我没测试过是否可以迁移;(如果一个环境中多个cinder节点,cinder节点间可以迁移volume),如果是你的环境和我的环境呢,比如你用的是cinder-lvm,我用的是cinder-glusterf,或者是cinder-ceph;这样一来是否还能把vlume恢复呢!如果volume作为启动镜像岂不是问题更多了!所以我只留有其他那部分空间可以给cinder-volume使用;

备份一定要做的;vm的主要的数据是保存在instance/$number/disk文件中;所以在备份和迁移的时候备份迁移这个disk文件就好了;

那么考虑到cinder-volume这个空间如何利用起来,在使用virt-manager制作镜像的时候,如果开始把/空间分区大一点的话呢,那么volume挂载到vm上可以放一些不太重要的数据,因为我暂时还没研究明白如何能保证这部分数据完好,主要数据存放到disk文件中就好,备份和还原的时候数据遗失几率更小;