Oracle批量更新任务分解(数据量过亿)

--游标更新,批量提交
--设定一万条数据提交一次,耗时十多个小时未得到任何反馈,中断执行,重新分解
--维保信息(目标),T_BIZ_Temp,数据量7500万行
--维修工时(源表),T_MTD_Time,数据量1.5亿行,150列
--源表批量更新目标表,根据两表之间的关联字段(VohId),源表有多行记录匹配目标表
--按照要求,源表中取任意一条相匹配的记录更新目标表即可
declare
v_count number; --计数器
begin
for data in(
select temp.rowid, time.SrvCode
from T_BIZ_Temp temp, T_MTD_Time time
where time.VohId = temp.VohId
) loop
update T_BIZ_Temp temp set temp.SrvCode = data.SrvCode where temp.rowid = data.rowid;
v_count := v_count + 1;
if v_count >= 10000 then 
commit;
v_count := 1;
end if;
end loop;
commit;
end;

--脚本优化,任务分解
--最终耗时也达到十多个小时,但是最终执行成功
--源表中取任意一条相匹配的记录更新目标表即可,为了使用merge into,源表需去除重复数据
--创建临时表,维修工时,源表含有150列数据,对源表进行简化,只抽取有用的数据列
create table t_time as select VohId, SrvCode from T_MTD_Time where rownum = 1;
--删除预设数据
delete from t_time;
--临时表设置主键,去除重复数据后,唯一匹配加快检索速度
alter table t_time add constraint pk_time primary key(VohId);

--临时表插入数据,耗时330分钟,74562964行;
--分组之后,去除重复数据(任取一行),数据量由原来的1.5亿行减少一半
insert into /*+ APPEND parallel(4) NOLOGGING*/ t_time(VohId, SrvCode)
select VohId, min(SrvCode)
from T_MTD_Time group by VohId;

--批量更新,耗时320分钟
--去除重复数据之后,实现源表中记录唯一匹配目标表
merge /*+parallel(temp, 4)*/ into T_BIZ_Temp temp
using t_time time
on (temp.VohId = time.VohId)
when matched then
update set temp.SrvCode = time.SrvCode

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值