全量爬取搜狗词库并且转化为 txt/csv 格式

参考

https://blog.csdn.net/u012424313/article/details/82222188
https://www.cnblogs.com/yumingle/p/6675487.html
https://blog.csdn.net/python36/article/details/83029661

下载原始的 scel 词库文件

# coding=utf-8
import os
import sys
import requests

from urllib.request import urlretrieve
from bs4 import BeautifulSoup


class SouGSpider(object):
    def __init__(self):
        self.base_url = "http://pinyin.sogou.com"
        self.homepage_url = "http://pinyin.sogou.com/dict/"
        self.base_dir = "/Users/furuiyang/gitzip/JustSimpleSpider/soug/csv"

    def callbackfunc(self, blocknum, blocksize, totalsize):
        """
        回调函数
        :param blocknum: 已经下载的数据块
        :param blocksize:  数据块的大小
        :param totalsize: 远程文件的大小
        :return:
        """
        percent = 100.0 * blocknum * blocksize / totalsize
        if percent > 100:
            percent = 100
        sys.stdout.write("\r%6.2f%%" % percent)
        sys.stdout.flush()

    def load(self):
        html = requests.get(self.homepage_url).text
        soup = BeautifulSoup(html, "html.parser")
        soup = soup.find(id="dict_category_show").find_all('div', class_='dict_category_list')
        fc = 0
        sc = 0
        tc = 0
        for ii in soup:
            fc += 1
            print("Level 1 :" + ii.find(class_='dict_category_list_title').find('a').contents[0])
            first_dir = os.path.join(self.base_dir, ii.find(class_='dict_category_list_title').find('a').contents[0])
            os.makedirs(first_dir, exist_ok=True)

            for k in ii.find(class_='catewords').find_all('a'):
                secondclass = k.contents[0]
                second_url = self.base_url + "%s" % (k['href'])
                print(" " * 4 + "Level 2 :" + secondclass)
                second_dir = os.path.join(first_dir, secondclass)
                os.makedirs(second_dir, exist_ok=True)

                sc += 1
                soup2 = BeautifulSoup(requests.get(second_url).text, "html.parser")
                totalpagenum = soup2.find(id='dict_page_list').find('ul').find_all('span')[-2].a.contents[0]

                os.chdir(second_dir)
                for pageind in range(1, int(totalpagenum) + 1):
                    soup2 = BeautifulSoup(requests.get("%s/default/%d" % (second_url.replace("?rf=dictindex", ""), pageind)).text, "html.parser")
                    for kk in soup2.find_all('div', class_='dict_detail_block'):
                        thirdclass = kk.find(class_='detail_title').find('a').contents[0]
                        third_url = kk.find(class_='dict_dl_btn').a['href']
                        print(" " * 8 + "Level 3 :" + thirdclass + " " * 10 + "Downloading")
                        tc += 1
                        try:
                            urlretrieve(third_url, "{}.scel".format(thirdclass), self.callbackfunc)
                        except Exception as e:
                            print(e)
                            print(secondclass)
                            print(thirdclass)

        print("Total :%d, %d, %d" % (fc, sc, tc))


if __name__ == "__main__":

    sg = SouGSpider()
    sg.load()

将 scel 文件转换为 csv 格式

参考: https://blog.csdn.net/python36/article/details/83029661 完成。

全量爬取词库

第一次提交了代码之后, 需求方将是全量爬取,而我只拉取了首页展示的示例部分。
适当修改起始页后, 即可。

如果希望全量爬取,可参考:https://github.com/furuiyang0715/JustSimpleSpider/blob/master/soug/loader0439.py
进行爬取。

需要注意的是:大分类与更细分类之间的包含关系。 设计好合适自己的层次结构,避免重复获取数据。

详细代码

https://github.com/furuiyang0715/JustSimpleSpider/tree/master/soug

最新更新时间

2020-05-05

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值