python爬取小说

该代码适用于下面这个小说网站(给这个网站打广告)

小说网

# 网页解析  数据抓取
import os

import requests
from bs4 import BeautifulSoup


def parseHtml(url, fictionName):
    # 设置爬虫的header
    headers = {
        "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36 SE 2.X MetaSr 1.0"}

    # 得到网页内容
    response = requests.get(url, headers=headers)
    # 设置编码
    response.encoding = 'gbk'
    # 得到html
    html = response.text
    # 准备解析
    info = BeautifulSoup(html, "html.parser")
    # 抓取标题
    title = info.find_all('h1', class_="articleH1")
    # 抓取内容
    paragraphs = info.find_all('p')

    title = title[0].text  # 得到标题
    with open(fictionName + '.txt', mode='a', encoding='utf8') as file:
        file.write('\n' + title + '\n')  # 写入标题
        for i in range(len(paragraphs) - 2):
            file.write(paragraphs[i].text + '\n')  # 写入正文


if __name__ == '__main__':
    # 获取第一章URL
    firstChapterURL = input('输入小说第一章的URL:')
    firstChapterURL = firstChapterURL.strip()
    # 获取最后一章URL
    lastChapterURL = input('输入小说最后一章的URL:')
    lastChapterURL = lastChapterURL.strip()
    # 获取文本名称
    fictionName = input('你想给这个文本起什么名字?:')
    # 获取两个URL对应的数字
    firstChapterNumber = int(firstChapterURL.split('/')[-1].split('.')[0])
    lastChapterNumber = int(lastChapterURL.split('/')[-1].split('.')[0])

    # 递减
    if firstChapterNumber >= firstChapterNumber:
        downloadChapterNumber = 1  # 下载第n章
        for i in range(firstChapterNumber, lastChapterNumber - 1, -1):
            url = firstChapterURL.split('.html')[0][:-len(str(firstChapterNumber))] + str(i) + '.html'
            # 爬取网页
            parseHtml(url, fictionName)
            # 显示日志
            print("\033[37;41m 下载第" + str(downloadChapterNumber) + "章完成 \033[0m")
            downloadChapterNumber += 1
    # 递加
    if int(firstChapterNumber) < int(firstChapterNumber):
        downloadChapterNumber = 1
        for i in range(firstChapterNumber, lastChapterNumber + 1, 1):
            url = firstChapterURL.split('.html')[0][:-len(str(firstChapterNumber))] + str(i) + '.html'
            # 爬取网页
            parseHtml(url, fictionName)
            # 显示日志
            print("\033[37;41m 下载第" + str(downloadChapterNumber) + "章完成 \033[0m")
            downloadChapterNumber += 1
    # 告诉文件的位置
    print('文本保存在:\'' + os.getcwd() + '\'    它的名字:\'' + fictionName + '.txt\'')

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值