scsiadm使用
iscsiadm -m discovery -t sendtargets -p 172.6.6.66 #发现iscsi目标
iscsiadm -m node -L all #登陆iscsi目标
iscsiadm -m session --rescan #扫描iscsi目标端磁盘
iscsiadm -m node -o update -n node.startup -v automatic #设置开机自启动
iscsiadm -m node #查看target记录
iscsiadm -m session #查看所有iscsi连接
1、网络准备
1.1确认服务器到存储的网络 是通的
ping 10.0.1.181/182
1.2 确认服务器到存储的3260端口可通
[root@fq-test ~]# nc -zv 10.0.1.181 3260
2、安装iscsiadm软件
rpm -qa |grep -i iscsi
如找不到,则安装
#yum install iscsi-initiator
3、修改iSCSI启动器的名称。
当存储系统与多台应用服务器建立连接时,为了快速定位需要添加的启动器,建议修改启动器的名称。各启动器的名称不能重复,否则将导致应用服务器与存储系统连接失败。
- 在根目录下运行命令vi /etc/iscsi/initiatorname.iscsi,打开“initiatorname.iscsi”文件。
- 按“i”进入编辑模式,编辑“initiatorname.iscsi”文件。
在“InitiatorName=”字段后修改iSCSI启动器的名称。
例如,将启动器名称修改为 InitiatorName=iqn.2023-07.com.centos:fq-test-szzb,修改后界面显示如下
[root@fq-test ~]# cat /etc/iscsi/initiatorname.iscsi
#InitiatorName=iqn.1994-05.com.redhat:d3e046b854
InitiatorName=iqn.2023-07.com.centos:fq-test-szzb
c.重启iscsi服务
[root@fq-test ~]# systemctl restart iscsid
[root@fq-test ~]# systemctl status iscsid
4、 配置目标器的IP地址。
说明:标器的IP地址是指与应用服务器连接的存储系统iSCSI前端端口的IP地址。
运行命令配置目标器的IP地址。以如下命令为例:
iscsiadm -m discovery -t sendtargets -p 10.0.1.181
# iscsiadm -m discovery -t st -p 10.0.1.181
在此例中,配置的目标器的IP地址为10.0.1.181
5、 登录目标器。
运行命令登录目标器。以如下命令为例:
# iscsiadm -m node -p 10.0.1.181 -l
在此例中,登录的目标器的IP地址为10.0.1.181
运行命令后,界面显示如下:
6、设置目标器为自动启动模式。
设置目标器为自动启动模式后,每次应用服务器重新启动后会自动登录与其连接的目标器。
运行命令vim /etc/iscsi/iscsid.conf,打开“iscsid.conf”文件。
按“i”,进入编辑模式,编辑“iscsid.conf”文件。
在“Startup settings”区域中,将node.startup=字段设置为automatic。若是首次配置,请将“node.startup”前的“#”删除。
设置完成后界面显示如下信息:
#***************** # Startup settings #*****************
# To request that the iscsi initd scripts startup a session set to "automatic".
node.startup = automatic
#
:wq
# To manually startup the session set to "manual". The default is automatic.
# node.startup = automatic
说明:
“iscsid.conf”文件中“node.startup”前的“#”表示注释。
配置时只需使一条配置生效即可。
按“ESC”退出编辑模式。
运行命令:wq,保存设置并退出“iscsid.conf”文件。
7、 运行 systemctl restart iscsid 命令,重新启动iSCSI业务并使配置生效。
8、操作结果
运行命令 iscsiadm -m node,查询已经登录的目标器。
如果登录成功,界面显示如下:
显示的信息说明,当前应用服务器已经登录IP地址为“10.0.1.181”的目标器。
如果界面无任何显示,则说明登录失败。请进行相应的故障处理后重新登录。
应用服务器与存储系统之间的网线连接是否断开。
应用服务器是否响应。
存储系统是否故障。
扩展命令:
iscsiadm -m node -p 10.0.1.181 -u 登出
iscsiadm -m node -p 10.0.1.182 -l 登录
[root@fq-test ~]# iscsiadm -m session
[root@fq-test ~]# iscsiadm -m session -P 3
9、继续添加 10.0.1.182的路径,重复上面4-7步骤
[root@fq-test ~]# iscsiadm -m discovery -t sendtargets -p 10.0.1.182
10.0.1.182:3260,13 iqn.2006-08.com.huawei:oceanstor:21002c9d1e5b86ba::1020002:10.0.1.182
[root@fq-test ~]# iscsiadm -m node -p 10.0.1.182 -l
Logging in to [iface: default, target: iqn.2006-08.com.huawei:oceanstor:21002c9d1e5b86ba::1020002:10.0.1.182, portal: 10.0.1.182,3260] (multiple)
Login to [iface: default, target: iqn.2006-08.com.huawei:oceanstor:21002c9d1e5b86ba::1020002:10.0.1.182, portal: 10.0.1.182,3260] successful.
[root@fq-test ~]# iscsiadm -m node
10.0.1.181:3260,3 iqn.2006-08.com.huawei:oceanstor:21002c9d1e5b86ba::20002:10.0.1.181
10.0.1.182:3260,13 iqn.2006-08.com.huawei:oceanstor:21002c9d1e5b86ba::1020002:10.0.1.182
10、磁盘扫描
lsblk /fdisk -l
iscsi多路径聚合
11、使用命令查看 ”sdb“和”sdc“的WWN,同一个LUN的WWN是相同的。
[root@fq-test ~]# /usr/lib/udev/scsi_id --whitelisted /dev/sdb
362c9d1e1005b86ba2c2774c400000008
[root@fq-test ~]# /usr/lib/udev/scsi_id --whitelisted /dev/sdc
362c9d1e1005b86ba2c2774c400000008
12、编辑/etc/multipath.conf配置文件 ,在末尾添加
vim/etc/multipath.conf
multipaths {
multipath {
wwid 362c9d1e1005b86ba2c2774c400000008
alias HW5300v3
path_grouping_policy multibus
path_selector "round-robin 0"
failback manual
rr_weight priorities
no_path_retry 5
}
}
13、重启服务,把mulitpathd ,iscsid服务重启
[root@fq-test ~]# systemctl restart multipathd.service
[root@fq-test ~]# systemctl restart iscsid
14、登出,登录iscsi
[root@fq-test ~]# iscsiadm -m node -p 10.0.1.181 -u
[root@fq-test ~]# iscsiadm -m node -p 10.0.1.182 -u
[root@fq-test ~]# iscsiadm -m node -p 10.0.1.181 -l
[root@fq-test ~]# iscsiadm -m node -p 10.0.1.182 -l
15、查看聚合盘
[root@fq-test ~]# multipath -ll
16、查看 fdisk -l
创建逻辑卷
17、创建PV
[root@fq-test ~]# pvcreate /dev/mapper/HW5300v3
Physical volume "/dev/mapper/HW5300v3" successfully created.
18、创建VG
[root@fq-test ~]# vgcreate multipath-VG /dev/mapper/HW5300v3
Volume group "multipath-VG" successfully created
19、创建LV
[root@fq-test ~]# lvcreate -l 100%VG -n multipath-LV01 multipath-VG
Logical volume "multipath-LV01" created.
[root@fq-test ~]# lvs
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
home centos -wi-ao---- 503.37g
root centos -wi-ao---- 50.00g
swap centos -wi-ao---- 4.00g
multipath-LV01 multipath-VG -wi-a----- <20.00g
20、格式化文件系统
[root@fq-test ~]# mkfs.ext4 /dev/mapper/multipath--VG-multipath--LV01
mke2fs 1.42.9 (28-Dec-2013)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=0 blocks, Stripe width=0 blocks
1310720 inodes, 5241856 blocks
262092 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=2153775104
160 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks:
32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
4096000
Allocating group tables: done
Writing inode tables: done
Creating journal (32768 blocks): done
Writing superblocks and filesystem accounting information: done
[root@fq-test ~]# df -Th
Filesystem Type Size Used Avail Use% Mounted on
/dev/mapper/centos-root xfs 50G 5.4G 45G 11% /
devtmpfs devtmpfs 378G 0 378G 0% /dev
tmpfs tmpfs 378G 0 378G 0% /dev/shm
tmpfs tmpfs 378G 12M 378G 1% /run
tmpfs tmpfs 378G 0 378G 0% /sys/fs/cgroup
/dev/sda1 xfs 1014M 167M 848M 17% /boot
/dev/mapper/centos-home xfs 504G 37M 504G 1% /home
tmpfs tmpfs 76G 24K 76G 1% /run/user/42
tmpfs tmpfs 76G 0 76G 0% /run/user/0
21、挂载目录
[root@fq-test ~]# mount /dev/mapper/multipath--VG-multipath--LV01 /tmp
[root@fq-test ~]# df -Th
Filesystem Type Size Used Avail Use% Mounted on
/dev/mapper/centos-root xfs 50G 5.4G 45G 11% /
devtmpfs devtmpfs 378G 0 378G 0% /dev
tmpfs tmpfs 378G 0 378G 0% /dev/shm
tmpfs tmpfs 378G 12M 378G 1% /run
tmpfs tmpfs 378G 0 378G 0% /sys/fs/cgroup
/dev/sda1 xfs 1014M 167M 848M 17% /boot
/dev/mapper/centos-home xfs 504G 37M 504G 1% /home
tmpfs tmpfs 76G 24K 76G 1% /run/user/42
tmpfs tmpfs 76G 0 76G 0% /run/user/0
/dev/mapper/multipath--VG-multipath--LV01 ext4 20G 45M 19G 1% /tmp
22、写/etc/fstab
[root@fq-test ~]# cat /etc/fstab
#
# /etc/fstab
# Created by anaconda on Mon Feb 27 22:11:23 2023
#
# Accessible filesystems, by reference, are maintained under '/dev/disk'
# See man pages fstab(5), findfs(8), mount(8) and/or blkid(8) for more info
#
/dev/mapper/centos-root / xfs defaults 0 0
UUID=58cc8ccc-da8a-48f8-81ea-62aed8f30c35 /boot xfs defaults 0 0
/dev/mapper/centos-home /home xfs defaults 0 0
/dev/mapper/centos-swap swap swap defaults 0 0
/dev/mapper/multipath--VG-multipath--LV01 /tmp ext4 defaults 0 0