python爬虫获取小说_手把手教你使用Python网络爬虫获取小说

/1 前言/

随着网络的时代的发展,人们很少去安静的去看一本书。而是选择看网络小说,可是网络小说有些要钱才能看。

无限小说网

https://www.555x.org/

里边的内容是完全免费的,提供了各种种类的小说。满足用户的需要。可一页一页看小说太麻烦,直接下载多方便。

今天教大家爬取无限小说网,把小说的下载链接通过网络请求直接下载。

/2 项目目标/

获取对应小说的下载链接,点击下载链接网址,下载对应的txt文件。

/3 项目准备/

软件:PyCharm

需要的库:requests、lxml、fake_useragent

网站如下:

https://www.555x.org/html/wuxiaxianxia/list_29_{}.html

点击下一页时,list_29_{}每增加一页自增加1,用{}代替变换的变量,再用for循环遍历这网址,实现多个网址请求。

/4 项目实现/

1、定义一个class类继承object,定义init方法继承self,主函数main继承self。导入需要的库和网址,代码如下所示。import requests

from lxml import etree

from fake_useragent import UserAgent

import time

class xiaoshuo(object):

def __init__(self):

self.url = "https://www.xiachufang.com/explore/?page={}"

def main(self):

pass

if __name__ == '__main__':

imageSpider = xiaoshuo()

imageSpider.main()

2、随机产生UserAgent。for i in range(1, 50):

self.headers = {

'User-Agent': ua.random,

}

3、发送请求,获取响应, 页面回调,方便下次请求。def get_page(self, url):

res = requests.get(url=url, headers=self.headers)

html = res.content.decode("utf-8")

return html

4、xpath解析一级页面数据,获取页面信息。

1)f12运行浏览器,右键检查。找到对应二级页面的地址。

2)二级页面,右键检查。点击下载按钮,找到对应三级页面的地址。

5、三级页面,先找到对应的父节点,再for循环遍历进行爬取。for rd in three:

b = rd.xpath('..//div[@class="shutou"]//b/text()')[0].strip()

tress = rd.xpath('..//div[@class="shuji"]//ul/li/a/@href')[0].strip()

# print(tress)

6、定义read保存对应的小说名字,下载链接。read = '''《%s》 下 载 链 接 : %s ''' % (b, tress)

print(read)

7、调用方法,实现功能。html = self.get_page(url)

self.parse_page(html)

/5 效果展示/

1、点击绿色小三角运行输入起始页,终止页。

2、运行程序后,结果显示在控制台,如下图所示。

3、点击蓝色下载链接, 网络下载

4、双击小说文件,内容如下图所示。

/6 小结/

1、不建议抓取太多数据,容易对服务器造成负载,浅尝辄止即可。

2、本文基于Python网络爬虫,利用爬虫库,实现爬取小说下载链接,网络请求直接下载。

3、实现的时候,总会有各种各样的问题,切勿眼高手低,勤动手,才可以理解的更加深刻。

4、希望通过这个项目,能够帮助一些上班族,在空闲时能够直接通过网络去获取自己想要的小说 。

5、懒人是科技进步的动力。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值