python去重

由于在python 爬虫过程中有爬取到重复的链接,并没有进行去重操作,故,这里再通过python自带的set再次进行去重一次。

下面是给出来的代码


# -*- coding: utf-8 -*-

# @Time    : 2018/9/21 13:31
# @Author  : 蛇崽
# @Email   : 643435675@QQ.com
# @Site    : http://www.ltc622.com/
# @File    : get_only_teaminfo.py
# @Software: PyCharm 队员信息去重
import json


def read_json():
    f = open('team_all2.json', encoding='utf-8')
    link_datas = []
    f2 = open('all_teaminfos.jason', 'a', encoding='utf-8')
    while 1:
        line = f.readline()
        if not line:
            break
        jline = json.loads(line)
        teamName = jline['teamName']
        teamLink = jline['teamLink']
        teamId = jline['teamId']
        print('link  ======   >>>>   ', teamLink)
        data = {
            'teamName':teamName,
            'teamLink':teamLink,
            'teamId':str(teamId),
        }
        data = json.dumps(data, ensure_ascii=False)
        link_datas.append(data)

    link_datas_final = set(link_datas)
    for data in link_datas_final:
        print(data)
        f2.write(data+'\n')
    f2.close()
if __name__ == '__main__':
    read_json()

说下主要思路:主要是把一个list放进到set里面,然后取出来,便是已经去重过的数据了。

--------------------------------------- 下面是广告 ------------------------------------------------

个人微信:hll643435675(备注:博客)

更多资源请访问:

https://blog.csdn.net/xudailong_blog/article/details/78762262

欢迎光临我的小网站:http://www.00reso.com

欢迎光临这个妹子的SEO优化网站:http://www.ltc622.com/

陆续优化中,后续会开发更多更好玩的有趣的小工具

--------------------------------------- 上面是广告 ------------------------------------------------

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值