**
【dir,lvm,nfs,iSCSI,glusterfs】 存储池,存储卷,创建虚拟机
** 池
virsh pool-list --all 查看所有存储池
virsh pool-info xxx 查看某一存储池信息
创建基于目录的存储池;
mkdir -p /mykvm
定义存储池
virsh pool-define-as [poolname] dir --target [/mykvm]
构建存储池
virsh pool-build [poolname]
启动存储池
virsh pool-start [poolname]
开机自启
virsh pool-autostart [poolname]
创建基于lvm存储池;
添加一块磁盘
echo “- - -” > /sys/class/scsi_host/host0/scan
创建物理卷
pvcreate /dev/sdb
创建卷组
vgcreate [卷组名] /dev/sdb
定义LVM存储池
virsh pool-define-as [lvpool_name] logical(lvm的类型) --source-name 卷组名 --target [卷组路径]
构建存储池
virsh pool-build [poolname]
启动存储池
virsh pool-start [poolname]
开机自启
virsh pool-autostart [poolname]
.创建基于NFS的存储池:
一台虚拟机做nfs服务器并添加一块硬盘sdb
安装软件(两台都安装):yum -y install rpcbind nfs-utils
关闭防火墙
客户端启动并开机自启
systemctl start rpcbind && systemctl enable rpcbind
nfs服务器做逻辑卷:
(1)pvcreate /dev/sdb
(2)vgcreate nfsvg /dev/sdb
(3)lvcreate -n nfslv -L 20G /dev/nfsvg -l (vgdisplay:PE值)
格式化:
mkfs.xfs /dev/nfsvg/nfslv
挂载到目录:
mount /dev/nfsvg/nfslv /mnt/nfs
开机自动挂载:vim /etc/fstab
/dev/nfsvg/nfslv /mnt/nfs xfs defaults 0 0
配置权限:vim /etc/exports
/mnt/nfs *(rw,sync,no_root_squash)
exportfs -av
检查测试是否成功
systemctl start rpmbind
systemctl start nfs-server
systemctl enable rpmbind
systemctl enable nfs-server
(kvm服务器)检查是否可以检测到nfs服务器的挂载点:
showmount -e [nfs服务器IP]
创建挂载目录: mkdir /kvm-vm/nfspool
定义存储池
virsh pool-define-as [nfspool] netfs --source-host 192.168.168.130 --source-path /mnt/nfs --target /kvm-vm/nfspool
(因为不是本地源,所以需要指定源ip,指定远程源的挂载目录,因为nfs服务器是用/mnt/nfs目录作为共享目录, netfs: nfs的类型。
构建:virsh pool-build nfspool
启动:virsh pool-start nfspool
测试效果
################################################
**
存储卷
**
基于目录的存储池中创建存储卷:
virsh vol-create-as [dirpool] dirvm1.qcow2 8G --format qcow2
名称
基于lvm的存储池中创建存储卷:
virsh vol-create-as [lvpool] lvvm1 8G
基于nfs的存储池中创建存储卷:
virsh vol-create-as [nfspool] nfsvm3.qcow2 8G --format qcow2
######################################################
基于不同
存储卷创建域
:
nfs存储卷创建的域:
virt-install -n nfs
-r 512
–vcpus 1
-l /mykvm/iso/centos7.iso
–disk /mykvm/nfspool/nfsvm3.qcow2
–nographics -x ‘console=ttyS0’
本地lvm存储卷创建的域:
virt-install -n lvvm1
-r 512
–vcpus 1
-l /mykvm/iso/centos7.iso
–disk vol=lvpool/lvvm1
–nographics -x ‘console=ttyS0’
“vol=”参数来指定上面创建过的存储卷名
正常创建的域都是基于目录的。
#################################################
小top:出现过问题
删除未创建成功池
virsh pool-undefine [pool_name]
解决yum被占进程运行问题
rm -f /var/run/yum.pid 将该文件删除
################################################
glusterfs分布式
三台节点
yum -y install libyum install -y gcc gcc-c++ flex flex-devel bison bison-devel openssl openssl-devel libxml2 libxml2-devel
yum -y install centos-release-gluster
yum -y install glusterfs-server ntf-utils samba rpcbind
vi /etc/hosts 主机名互通
开启服务-添加节点
gluster peer probe node1
gluster peer probe node2
gluster peer status 检查节点
【gluster主机2台】
fdisk -l
60 pvcreate /dev/sdb1
61 vgcreate gfs /dev/sdb1
62 vgdisplay
63 lvcreate -n gfs -l 5119 /dev/gfs
64 lvs
65 mkfs.xfs /dev/gfs/gfs
66 mount /dev/gfs/gfs /mnt/
[129]
mkdir /gv0
gluster volume create node1:/mnt node2:/mnt/ force
开启:gluster volume start gv0
查看信息: gluster volume info gv0
挂载: mount -t glusterfs node1:gv0 /gv0
【kvm】
yum -y install glusterfs glusterfs-fuse
gluster volume create node1:/mnt node2:/mnt/ force
gluster
mkdir /gfspool
[virsh]
pool-define-as --name gfspool
-type netfs
–source-host 192.168.168.129
gluster主机
–source-path /gv0
gluster卷挂载目录
–source-format glusterfs
格式
–target /gfspool/
目标kvm存储池目录
pool-bulid
pool-start
创建卷
virsh vol-create-as [gfspool] gluster.qcow2 5G --format qcow2
###########################################
iSCSI存储池
详细图文浏览:https://www.cnblogs.com/flowers-hellow/p/14734488.html#_label5
安装Targetcli软件包
yum -y install targetcli
targetcli 打开管理界面
配置Target
添加新磁盘,创建分区:
fdisk /dev/sdb n -p-w
将添加的分区sdd1给target做存储;
创建存储对象:
targetcli
cd /backstores/block
create block1 dev=/dev/sdb1
ls
创建fileio对象:
cd …
cd fileio
create fileio1 /tmp/fool.img 20M
exit
cd /tmp
ll
创建ramdisk对象:
targetcli
cd …
cd ramdisk
create ramdisk1 1M
ls
创建iSCSI Target 并查看:
cd iscsi
create iqn.2010-05.org.linuxplus.srv1:tomstor1
ls
配置target portal group(TGP)
①配置protals
cd iqn.2010-05.org.linuxplus.srv1:tomstor1/tpq1/portals
ls
create
配置LUMN:添加块设备、rmadisk、fileio三个LUN
【kvm】
打开客户机(黑底),查看IP地址并ping target存储设备:
使用target存储机ping客户机;
修改IQN:
记录:iqn.1994-05.com.redhat:tomkvm1
virsh pool-define-as --name iSCSI
–type iscsi
–source-host 192.168.2.20 存储服务器的地址
–source-dev iqn.1994-05.com.redhat:tomkvm1
–target /dev/disk/by-path 默认磁盘卷目录
virt-install -n iscsi
-r 512
–vcpus 1
-l /mykvm/iso/centos7.iso
–disk /dev/disk/by-path/ip-192.168…isi…
–nographics -x ‘console=ttyS0’