一次使用临时表优化数据处理的过程

一次使用临时表优化数据处理的过程

 

写了一个数据处理程序,从远程的一数据库中,将符合要求的数据过滤后插入到本地数据库中。数据涉及两张表AB,其中A表的记录六十万条左右,B表的记录二十万条左右。

需要从A表中,查询某种交易类型(每种交易类型有若干“套”(即几条记录的集合,类似会计分录),每套中有若干条记录),然后将得到的结果的每一条,再和该交易类型内的一套记录中查找该套内是否有对应的记录,有的话才算一条满足要求的记录。对B表的处理类似。要求A表中处理四种交易类型,B表中处理一种交易类型。

1.远程数据库是生产库,不允许私自连接,只能通过DBLINK

2.两表上只有主键,没有我查询需要使用的索引,无法创建索引。

3AB两表不可以创建在本地。

写了一个数据处理程序,使用游标,将查询得到的结果循环处理。查询某种交易类型的数据的游标打开就要二分钟。然后循环在套中校验数据的时候,都要使用全表扫描,五种交易类型处理下竟然要用四个多小时,处理的记录数大概有两百多万条。得到大概一千五百条满足条件的记录。

 

需要改写程序。不能创建索引,不能将数据存到本地,于是就想到了使用临时表。

 

创建会话级临时表,在会话退出时Truncata 临时表。并在创建的临时表上创建几个索引,数据处理的时候要用的索引。

drop table vhh;

drop table txn;

create global temporary table vhh on commit preserve rows as select * from A@dblink_Remote where 1=2;

create global temporary table txn on commit preserve rows as select * from B@dblink_Remote where 1=2;

drop index vhh_0;

drop index vhh_1;

drop index vhh_2;

drop index vhh_3;

create index vhh_0 on vhh(vchdat,apcode,curcde);

create index vhh_1 on vhh(apcode,vchdat);

create index vhh_2 on vhh(curcde,vchdat);

create index vhh_3 on vhh(orgidt,tlrnum,vchset,vchdat);

drop index txn_0;

create index txn_0 on txn(boknum,txndat);

 

创建存储过程,将远程库中的数据插入到本地数据库中,及一百万的记录,差不多需要十分钟多一点。然后接着使用本地的临时表,执行数据的处理。速度比直接使用DBLINK到远程库进行处理提高了很多。

 

数据的处理整个过程就由原来的4小时15分钟,缩短到了1449.995 seconds,也就是25分钟。

在处理远程数据或因磁盘空间不够又要处理大量数据的时候,就可以考虑使用临时表。临时表的使用和普通表一样操作。

Author:丁亚军

Date: 2005-10-30

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值