利用python的bs4、urllib、re库对笔q阁爬取解析,生成txt文本

该博客介绍了如何使用Python的requests、BeautifulSoup和tqdm库爬取笔趣阁网站的小说内容,并将其保存为txt文本。通过找到内容div,提取章节名和内容,对每个章节进行遍历并写入文件。示例中针对特定书名和URL进行了爬取操作。
摘要由CSDN通过智能技术生成

利用python的bs4、urllib、re库对笔趣阁爬取解析,生成txt文本
博客地址

import requests
from tqdm import tqdm
from bs4 import BeautifulSoup


def get_content(target):
    req = requests.get(url=target)
    req.encoding = 'utf-8'
    html = req.text
    bf = BeautifulSoup(html, 'lxml')
    texts = bf.find('div', id='content')
    content = texts.text.strip().split('\xa0' * 4)
    return content


class spider(object):
    def __init__(self, book_name, target):
        self.__book_name = book_name
        self.__target = target
        self.__server = 'https://www.xsbiquge.com'

    def do_project(self):
        req = requests.get(url=self.__target)
        req.encoding = 'utf-8'
        html = req.text
        chapter_bs = BeautifulSoup(html, 'lxml')
        chapters = chapter_bs.find('div', id='list')
        chapters = chapters.find_all('a')
        for chapter in tqdm(chapters):
            chapter_name = chapter.string
            url = self.__server + chapter.get('href')
            content = get_content(url)
            with open(self.__book_name, 'a', encoding='utf-8') as f:
                f.write(chapter_name)
                f.write('\n')
                f.write('\n'.join(content))
                f.write('\n')


def main():
    spider1 = spider("book_name.txt", "https://www.xsbiquge.com/88_88080/")
    spider1.do_project()
    print("运行结束")


if __name__ == '__main__':
    main()

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

麦滋堡的摸鱼芝士

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值