集群ASM磁盘组扩容
**
一、获取新增磁盘设备的wwn号
(由信息中心提供新增磁盘的WWN号)
例如:**
360002ac0000000000000007700022f12
360002ac0000000000000007800022f12**
二、检查集群服务器上新增磁盘的wwn号和磁盘大小
数据库集群两台服务器都要核对新增磁盘wwn号和容量是否正确。
查看这些WWN号磁盘是否挂载成功;
使用多路径命令来查看挂载的磁盘: **multipath –l|grep wwn号
**
可以看出磁盘已经挂载,有四条路径指向该磁盘,即便有一条路径损坏,也不影响磁盘的读写操作。
三、在99-asmdisk.rules文件添加新增配置内容
文件路径:/etc/udev/rules.d/99-asmdisk.rules****
1.根据udev规则在99-asmdisk.rules文件中添加以下内容。(集群的各个个节点都要加)
KERNEL=="dm-*", SUBSYSTEM=="block", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", **RESULT=="360002ac0000000000000007700022f12", NAME="ASMNEWDATA01", OWNER="grid", GROUP="asmadmin", MODE="0660"**
KERNEL=="dm-*", SUBSYSTEM=="block", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", **RESULT=="360002ac0000000000000007800022f12", NAME="ASMNEWDATA02", OWNER="grid", GROUP="asmadmin", MODE="0660"**
1. --NAME为新创建的ASM磁盘名字,不能与现有的磁盘名字重复;
2. – MODE=“0660”,为磁盘读写权限;
3. --OWNER=“grid”;RESULT==填写wwn号。
系统ASM磁盘查看:ll /dev/ASM 可以看到服务器现用的ASM磁盘;*
1.2:重新启动uedv (root用户下,各个节点都要执行)
**/sbin/start_udev**
1.3:确认2个节点识别到的磁盘一致(root,各个节点都要确认)
**ll /dev/ASM***
(可以看到服务器现用的ASM磁盘)
四、磁盘组添加新增的ASM磁盘(grid用户)
1.5:检查asm中是否识别到新建的候选磁盘:
Select GROUP_NUMBER,NAME,DISK_NUMBER,HEADER_STATUS,STATE,PATH,TOTAL_MB FROM v$asm_disk;
–注意:新加的磁盘HEADER_STATUS 状态为CANDIDATE
1.6:添加磁盘;只需要其中一个节点下执行即可(grid用户下)
sqlplus / as sysasm
查看磁盘组:select state,name from v$asm_diskgroup;
添加新增的磁盘组:8个并行就可以了
alter diskgroup DATA add disk '/dev/ASMNEWDATA01' rebalance power 8;
alter diskgroup DATA add disk '/dev/ASMNEWDATA02' rebalance power 8;
1.7:查看平衡进度:
Sql>select * from V$asm_operation;
GROUP_NUMBER OPERA STAT POWER ACTUAL SOFAR EST_WORK EST_RATE EST_MINUTES ERROR_CODE
------------ ----- ---- ---------- ---------- ---------- ---------- ---------- ----------- --------------------------------------------
2 REBAL RUN 8 8 57725 80642 3391 6
SQL> select * from V$asm_operation;
no rows selected
当查不到记录时说明磁盘组数据平衡完毕。
1.7查看扩容后的磁盘组大小是否正确:
select state,name,total_mb/1024/1024||’G’,free_mb/1024/1024||’G’from v$asm_diskgroup;
1.7最后检查集群资源是否运行正常(root、grid用户下)
[grid@gsswkjhs ~]$ crsctl stat res –t
查看集群资源是否online