前言
闲的无聊,现在没得什么好剧追(你们或许可以给我推荐推荐)
朋友都在看小说,那我就来用Python搞一个小说下载器吧
顺便打包一下
实现步骤
爬虫基本四个步骤:
采集一章小说内容
- 发送请求, 模拟浏览器对于url地址发送请求
小说章节链接:
https://***不屏蔽不给过.com/book/5613/4217210.html
-
获取数据, 获取网页源代码
-
解析数据, 提取我们想要的数据内容
小说章节名
小说内容 -
保存数据, 把小说内容本地文件 txt
实现代码
导入数据请求模块
import requests
导入数据解析模块
import parsel
导入正则
import re
# 导入格式化打印
import prettytable as pt
导入进度条
from tqdm import tqdm
请求头 字典数据类型, 构建完整键值对
headers = {
# user-agent 用户代理 表示浏览器基本身份信息
'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/101.0.0.0 Safari/537.36'
}
def get_response(html_url):
- 发送请求, 模拟浏览器对于url地址发送请求
python学习交流Q群:309488165 ### 源码领取
自定义函数:
def 关键字 定义函数
get_response 函数名 自定义
html_url 形式参数
:param html_url: 给个网址就可以了
:return:response 返回响应对象
模拟浏览器对于url地址发送请求
headers 请求头 --> 可以直接复制粘贴
"""
# 发送请求
response = requests.get(url=html_url, headers=headers)
# return 关键字 返回 response 响应对象
# <Response [200]> 响应对象 表示请求成功
return response
- 获取小说名字 / 小说章节url
def get_novel_info