数据库去重

由于我的个人失误,在通过接口拉取数据的时候,重复插入数据库,为此,我们要将数据库中重复数据删除,为此我们百度了数据库去重的方法。

我们尝试了其中的一个方法,

delete from user where name in (select name from (select name from user group by name having count(name) > 1) as s1)2 and id not in (select id from (select min(id) as id from user group by name having count(name)>1) as s2);

但是数据库报错提示我们无法一边删除一边查询数据库,网上说要绕一下,但是我们暂时没想到怎么绕,然后我们想到了另外一个方法,既然可以用group by 找出没有重复的数据,那直接把这个数据存进新的数据库就好了,于是就找了将搜索结果插入其copy表

insert into xxx_copy4 (SELECT * from xxx GROUP BY xxx_code )
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值