点击上方"蓝字"
关注我们,享更多干货!
ASM扩容本来是件很简单的事,当ASM磁盘准备好之后,直接一条命令就会添加上。但是也会有异常情况,最近就碰到Oracle 19c在扩容时报错的故障,供大家参考。
集群处于ROLLING PATCH模式
背景
某ERP数据库采用Oracle 19c RAC集群,部署架构为传统架构即两台计算节点外挂集中存储。ASM的DATA磁盘组空闲较小需扩容,执行对DATA磁盘组的扩容操作,但报错失败。
报错ORA-15137。这个报错还没见过。我们通过完整的分析过程来展现分析思路。
收集信息
1、查看ASM磁盘组现有状态
通过命令查询,ASM的DATA磁盘组用于存放数据文件;ARCH磁盘组用于存放归档文件。
其中DATA磁盘组总量2TB,目前空闲可用约300GB;ARCH磁盘组总量1TB,目前空闲可用约700GB。
[root@erp1 ~]# su - gridLast login: Fri Jan 15 15:37:01 CST 2021
[grid@erp1 ~]$ asmcmd
ASMCMD> lsdg
State Type Rebal Sector Logical_Sector Block AU Total_MB Free_MB Req_mir_free_MB Usable_file_MB Offline_disks Voting_files Name
MOUNTED EXTERN N 512 512 4096 1048576 1048576 716705 0 716705 0 N ARCH/
MOUNTED NORMAL N 512 512 4096 4194304 15360 14388 5120 4634 0 Y CRS/
MOUNTED EXTERN N 512 512 4096 1048576 2097152 323132 0 323132 0 N DATA/
ASMCMD>
2、查看磁盘(权限和属组)
①通过lsblk命令查询sdf、sdg、sdh、sdi,均为1TB磁盘;
②通过scsi_id命令查询磁盘ID;
③通过查看99-oracle-asmdevices.rules文件。在1月14日进行了修改,将3604fe8d100d5d230b888210a00000038磁盘绑定了别名asm-data03;
④在/dev目录下查看绑定状态正确无误。
[root@erp1 ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 558.7G 0 disk
├─sda1 8:1 0 1G 0 part /boot
└─sda2 8:2 0 557.7G 0 part
├─centos-root 253:0 0 493.7G 0 lvm /
└─centos-swap 253:1 0 64G 0 lvm [SWAP]
sdb 8:16 0 5.5T 0 disk
└─sdb1 8:17 0 5T 0 part /backup
sdc 8:32 0 5G 0 disk
sdd 8:48 0 5G 0 disk
sde 8:64 0 5G 0 disk
sdf 8:80 0 1T 0 disk
sdg 8:96 0 1T 0 disk
sdh 8:112 0 1T 0 disk
sdi 8:128 0 1T 0 disk
up-0 252:0 0 5G 0 disk
up-1 252:1 0 5G 0 disk
up-2 252:2 0 5G 0 disk
up-3 252:3 0 1T 0 disk
up-4 252:4 0 1T 0 disk
up-5 252:5 0 1T 0 disk
up-6 252:6 0 5G 0 disk
up-7 252:7 0 5G 0 disk
loop0