kvm虚拟化-存储池,存储卷实验文本总结

**

【dir,lvm,nfs,iSCSI,glusterfs】 存储池,存储卷,创建虚拟机

** 池

virsh pool-list --all 查看所有存储池
virsh pool-info xxx 查看某一存储池信息

创建基于目录的存储池;
mkdir -p /mykvm
定义存储池
virsh pool-define-as [poolname] dir --target [/mykvm]
构建存储池
virsh pool-build [poolname]
启动存储池
virsh pool-start [poolname]
开机自启
virsh pool-autostart [poolname]

创建基于lvm存储池;
添加一块磁盘
echo “- - -” > /sys/class/scsi_host/host0/scan
创建物理卷
pvcreate /dev/sdb
创建卷组
vgcreate [卷组名] /dev/sdb
定义LVM存储池
virsh pool-define-as [lvpool_name] logical(lvm的类型) --source-name 卷组名 --target [卷组路径]
构建存储池
virsh pool-build [poolname]
启动存储池
virsh pool-start [poolname]
开机自启
virsh pool-autostart [poolname]

.创建基于NFS的存储池:
一台虚拟机做nfs服务器并添加一块硬盘sdb
安装软件(两台都安装):yum -y install rpcbind nfs-utils
关闭防火墙
客户端启动并开机自启
systemctl start rpcbind && systemctl enable rpcbind
nfs服务器做逻辑卷:
(1)pvcreate /dev/sdb
(2)vgcreate nfsvg /dev/sdb
(3)lvcreate -n nfslv -L 20G /dev/nfsvg -l (vgdisplay:PE值)
格式化:
mkfs.xfs /dev/nfsvg/nfslv
挂载到目录:
mount /dev/nfsvg/nfslv /mnt/nfs
开机自动挂载:vim /etc/fstab
/dev/nfsvg/nfslv /mnt/nfs xfs defaults 0 0
配置权限:vim /etc/exports
/mnt/nfs *(rw,sync,no_root_squash)
exportfs -av
检查测试是否成功

systemctl start rpmbind
systemctl start nfs-server
systemctl enable rpmbind
systemctl enable nfs-server

(kvm服务器)检查是否可以检测到nfs服务器的挂载点:
showmount -e [nfs服务器IP]

创建挂载目录: mkdir /kvm-vm/nfspool
定义存储池
virsh pool-define-as [nfspool] netfs --source-host 192.168.168.130 --source-path /mnt/nfs --target /kvm-vm/nfspool
(因为不是本地源,所以需要指定源ip,指定远程源的挂载目录,因为nfs服务器是用/mnt/nfs目录作为共享目录, netfs: nfs的类型。
构建:virsh pool-build nfspool
启动:virsh pool-start nfspool
测试效果
################################################

**

存储卷

**
基于目录的存储池中创建存储卷:
virsh vol-create-as [dirpool] dirvm1.qcow2 8G --format qcow2
名称
基于lvm的存储池中创建存储卷:
virsh vol-create-as [lvpool] lvvm1 8G

基于nfs的存储池中创建存储卷:
virsh vol-create-as [nfspool] nfsvm3.qcow2 8G --format qcow2

######################################################

基于不同

存储卷创建域


nfs存储卷创建的域
virt-install -n nfs
-r 512
–vcpus 1
-l /mykvm/iso/centos7.iso
–disk /mykvm/nfspool/nfsvm3.qcow2
–nographics -x ‘console=ttyS0’

本地lvm存储卷创建的域
virt-install -n lvvm1
-r 512
–vcpus 1
-l /mykvm/iso/centos7.iso
–disk vol=lvpool/lvvm1
–nographics -x ‘console=ttyS0’

“vol=”参数来指定上面创建过的存储卷名
正常创建的域都是基于目录的。
#################################################

小top:出现过问题

删除未创建成功池
virsh pool-undefine [pool_name]
解决yum被占进程运行问题
rm -f /var/run/yum.pid 将该文件删除
################################################

glusterfs分布式

三台节点
yum -y install libyum install -y gcc gcc-c++ flex flex-devel bison bison-devel openssl openssl-devel libxml2 libxml2-devel
yum -y install centos-release-gluster
yum -y install glusterfs-server ntf-utils samba rpcbind
vi /etc/hosts 主机名互通
开启服务-添加节点
gluster peer probe node1
gluster peer probe node2
gluster peer status 检查节点

【gluster主机2台】
fdisk -l
60 pvcreate /dev/sdb1
61 vgcreate gfs /dev/sdb1
62 vgdisplay
63 lvcreate -n gfs -l 5119 /dev/gfs
64 lvs
65 mkfs.xfs /dev/gfs/gfs
66 mount /dev/gfs/gfs /mnt/

[129]
mkdir /gv0
gluster volume create node1:/mnt node2:/mnt/ force
开启:gluster volume start gv0
查看信息: gluster volume info gv0
挂载: mount -t glusterfs node1:gv0 /gv0

【kvm】
yum -y install glusterfs glusterfs-fuse
gluster volume create node1:/mnt node2:/mnt/ force
gluster
mkdir /gfspool
[virsh]
pool-define-as --name gfspool
-type netfs
–source-host 192.168.168.129
gluster主机
–source-path /gv0
gluster卷挂载目录
–source-format glusterfs
格式
–target /gfspool/
目标kvm存储池目录
pool-bulid
pool-start
创建卷
virsh vol-create-as [gfspool] gluster.qcow2 5G --format qcow2
###########################################

iSCSI存储池

详细图文浏览:https://www.cnblogs.com/flowers-hellow/p/14734488.html#_label5

安装Targetcli软件包
yum -y install targetcli
targetcli 打开管理界面

配置Target
添加新磁盘,创建分区:
fdisk /dev/sdb n -p-w

将添加的分区sdd1给target做存储;
创建存储对象:
targetcli
cd /backstores/block
create block1 dev=/dev/sdb1
ls
创建fileio对象:
cd …
cd fileio
create fileio1 /tmp/fool.img 20M
exit

cd /tmp
ll
创建ramdisk对象:
targetcli
cd …
cd ramdisk
create ramdisk1 1M
ls
创建iSCSI Target 并查看:
cd iscsi
create iqn.2010-05.org.linuxplus.srv1:tomstor1
ls
配置target portal group(TGP)
①配置protals
cd iqn.2010-05.org.linuxplus.srv1:tomstor1/tpq1/portals
ls
create
配置LUMN:添加块设备、rmadisk、fileio三个LUN
【kvm】
打开客户机(黑底),查看IP地址并ping target存储设备:
使用target存储机ping客户机;
修改IQN:
记录:iqn.1994-05.com.redhat:tomkvm1

virsh pool-define-as --name iSCSI
–type iscsi
–source-host 192.168.2.20 存储服务器的地址
–source-dev iqn.1994-05.com.redhat:tomkvm1
–target /dev/disk/by-path 默认磁盘卷目录

virt-install -n iscsi
-r 512
–vcpus 1
-l /mykvm/iso/centos7.iso
–disk /dev/disk/by-path/ip-192.168…isi…
–nographics -x ‘console=ttyS0’

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值