sql语句去重

海量数据(百万以上),其中有些全部字段都相同,有些部分字段相同,怎样高效去除重复?

如果要删除手机(mobilePhone),电话(officePhone),邮件(email)同时都相同的数据,以前一直使用这条语句进行去重:

Sql代码  复制代码  收藏代码
  1. delete from 表 where id not in     
  2.   
  3. (select max(id) from 表 group by mobilePhone,officePhone,email )     
  4.   
  5. or    
  6.   
  7. delete from 表 where id not in     
  8.   
  9.  (select min(id) from 表 group by mobilePhone,officePhone,email )   
[sql]  view plain copy
  1. delete from 表 where id not in    
  2.   
  3. (select max(id) from 表 group by mobilePhone,officePhone,email )    
  4.   
  5. or   
  6.   
  7. delete from 表 where id not in    
  8.   
  9.  (select min(id) from 表 group by mobilePhone,officePhone,email )   

 

其中下面这条会稍快些。上面这条数据对于100万以内的数据效率还可以,重复数1/5的情况下几分钟到几十分钟不等,但是如果数据量达到300万以上,效率骤降,如果重复数据再多点的话,常常会几十小时跑不完,有时候会锁表跑一夜都跑不完。无奈只得重新寻找新的可行方法,今天终于有所收获:

Java代码  复制代码  收藏代码
  1. //查询出唯一数据的ID,并把他们导入临时表tmp中     
  2.   
  3. select min(id) as mid into tmp from 表 group by mobilePhone,officePhone,email     
  4.   
  5.      
  6.   
  7.  //查询出去重后的数据并插入finally表中     
  8.   
  9. insert into finally select (除ID以外的字段) from customers_1 where id in (select mid from tmp)   
[java]  view plain copy
  1. //查询出唯一数据的ID,并把他们导入临时表tmp中    
  2.   
  3. select min(id) as mid into tmp from 表 group by mobilePhone,officePhone,email    
  4.   
  5.     
  6.   
  7.  //查询出去重后的数据并插入finally表中    
  8.   
  9. insert into finally select (除ID以外的字段) from customers_1 where id in (select mid from tmp)   

 

效率对比:用delete方法对500万数据去重(1/2重复)约4小时。4小时,很长的时间。

用临时表插入对500万数据去重(1/2重复)不到10分钟。

其实用删除方式是比较慢的,可能是边找边删除的原因吧,而使用临时表,可以将没有重复的数据ID选出来放在临时表里,再将表的信息按临时表的选择出来的ID,将它们找出来插入到新的表,然后将原表删除,这样就可以快速去重啦。

SQL语句去掉重复记录,获取重复记录

按照某几个字段名称查找表中存在这几个字段的重复数据并按照插入的时间先后进行删除,条件取决于order by 和row_num。

方法一按照多条件重复处理:

Sql代码  复制代码  收藏代码
  1. delete tmp from(     
  2.   
  3. select row_num = row_number() over(partition by 字段,字段 order by 时间 desc)     
  4.   
  5.     from 表 where 时间> getdate()-1     
  6.   
  7.  ) tmp     
  8.   
  9.  where row_num > 1   
[sql]  view plain copy
  1. delete tmp from(    
  2.   
  3. select row_num = row_number() over(partition by 字段,字段 order by 时间 desc)    
  4.   
  5.     from 表 where 时间> getdate()-1    
  6.   
  7.  ) tmp    
  8.   
  9.  where row_num > 1   

 

方法二按照单一条件进行去重:

Sql代码  复制代码  收藏代码
  1. delete from 表 where 主键ID not in(     
  2.   
  3. select max(主键ID) from 表 group by 需要去重的字段 having count(需要去重的字段)>=1     
  4.   
  5.  )   
[sql]  view plain copy
  1. delete from 表 where 主键ID not in(    
  2.   
  3. select max(主键ID) from 表 group by 需要去重的字段 having count(需要去重的字段)>=1    
  4.   
  5.  )   

 

注意:为提高效率如上两个方法都可以使用临时表, not in 中的表可以先提取临时表#tmp,

然后采用not exists来执行,为避免数量过大,可批量用Top控制删除量

Java代码  复制代码  收藏代码
  1. delete top(2) from 表      
  2.   
  3.          where  not exists (select 主键ID     
  4.   
  5.    from #tmp where #tmp.主键ID=表.主键ID)  
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值