爬虫练习_

参考:小说爬虫_zhangyajunna的博客-CSDN博客_小说爬虫

 

'''
author: moechancee
createtime: 2021/09/11
'''
 
import re
import requests
from bs4 import BeautifulSoup
import random  # 取随机数
from conda._vendor.tqdm._tqdm import trange
import time  # 时间相关操作

class downloader(object):
    def __init__(self):
        self.server = 'https://www.biqugek.cc'     #这里是首页,不用修改(每一页前缀)
        self.url = "https://www.biqugek.cc/xs/77/77856/"    #这里是你想要下载的具体的小说的网页链接,根据需要修改
        self.names = []  # 章节名
        self.urls = []  # 章节链接
        self.nums = 0  # 章节数

    """
    获取html文档内容
    """
    def get_content(self, url):
        # 设置headers是为了模拟浏览器访问 否则的话可能会被拒绝 可通过浏览器获取,这里不用修改
        header = {
            'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36 QIHU 360SE'
        }

        # 设置一个超时时间 取随机数 是为了防止网站被认定为爬虫,不用修改
        timeout = random.choice(range(80, 180))

        while True:
            try:
                req = requests.get(url=url, headers=header, timeout=timeout)
                req.encoding = 'utf-8'       #这里是网页的编码转换,根据网页的实际需要进行修改,经测试这个编码没有问题
                break
            except Exception as e:
                print('3', e)
                time.sleep(random.choice(range(5, 10)))
        return req.text

    """
    获取下载的章节目录
    """
    def get_catalog(self,url):
        html = self.get_content(url)
        bf = BeautifulSoup(html,"html.parser")
        texts = bf.find_all('div', {'class': 'book-chapter-list'})
        data = bf.find_all('ul', {'class': 'cf'})
        ul = data[1]
        a_s = ul.find_all('a')
        self.nums = len(a_s)  # 我们需要去掉不想下载的章节列表,前面9个章节是重复的
        for each in a_s:
            self.names.append(each.string)
            self.urls.append(self.server + each.get('href'))
    
    """
    获取下载的具体章节
    """
    def get_download_content(self, url):
        html = self.get_content(url)
        bf = BeautifulSoup(html, 'html.parser')
        texts = bf.find_all('div', {'class': 'txt', 'id': 'txt'})
        text = texts[0].text.replace('\xa0' * 7, '\n\n')  # \xa0表示连续的空白格,去掉这些空格
        return text

    """
    将文章写入文件
    """
    def writer(self, name, path, text):
        write_flag = True
        with open(path, 'a', encoding='utf-8') as f:
            f.write(name + '\n')
            f.writelines(text)
            f.write('\n\n')

 
 
if __name__ == '__main__':

    dl = downloader()
    # dl.get_content(dl.url)
    dl.get_catalog(dl.url)
    # dl.get_download_content(dl.urls[i])
    
    for i in range(dl.nums):
        dl.writer(dl.names[i], '柳鞭.txt', dl.get_download_content(dl.urls[i]))     #保存的文件名根据需要进行修改
        print("已下载:%.2f%%" % float((i + 1) / dl.nums * 100) + '\r')
    print('下载完成!')

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值