学会用Python爬取小说网站,想看什么就爬什么,广告也不用看了

今天以爬取笔趣阁小说网站为例,练习 Python 爬虫技术。

通过这个爬虫,可以完成在批量爬取一本小说的所有章节,并将所有章节内容按顺序保存到一个 txt 文档内,下面我们就开始吧。

首先,百度搜索“笔趣阁”,发现有很多网站都叫笔趣阁。

我们可以随便挑选一个网站尝试,本文我以‘https://www.biquge11.cc/’这个网站为例。(本文首发在“程序员coding”公众号)

以爬取《斗破苍穹》这本热门小说为例,《斗破苍穹》是网络作家天蚕土豆所著的系列长篇玄幻小说,首次在 2009 年 4 月 14 日于起点中文网连载,于 2011 年 7 月 20 日完结。这本小说全文有 1600 多章节,大约 530 万字,如果这个都能顺利爬下来,换个别的小说爬也不在话下。

在网站内搜索《斗破苍穹》,我们来到了小说主页,网址是https://www.biquge11.cc/read/12972/

通过分析网页源代码,可以发现每个章节的网址都是https://www.biquge11.cc拼接上/read/12972/XXXX.html这种固定格式,也就是下面图片中红框内容,我们可以用正则表达式轻松拿下。

分析一下思路,我们可以:

第 1 步:用 requests 库请求https://www.biquge11.cc/read/12972/这个网址,将返回的网页信息转为text,再用re库的正则表达式取出每一章节的地址,放在一个info_lists列表里。

第 2 步:用 requests 库循环请求每个章节的地址,也就是 info_lists 列表的链接,获取每个章节的网页内容,并且用 re 库正则表达式取出小说的正文内容。

第 3 步:将第 2 步获取到的每章节的正文,进行换行处理,拼接写入到一个 txt 文件里。

这样,我们就能完整的爬取到一本小说的所有章节,并且保存到一个 txt 文档内。 完整代码如下:(本文首发在“程序员coding”公众号)

import requests
import re
#(本文首发在“程序员coding”公众号)


headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/119.0.0.0 Safari/537.36"}

if __name__ == '__main__':
    #main_url是小说首页地址,切换成你想要爬的小说网页
    main_url = 'https://www.biquge11.cc/read/12972/'
    #发送请求
    mainText = requests.get(main_url, headers = headers).text
    info_lists = re.findall('<dd><a href ="(.*?)">(.*?)</a></dd>',mainText)
    for info in info_lists:
        url = 'https://www.biquge11.cc' +  info[0]

        #获取数据
        response = requests.get(url)
        html_data = response.text

        #解析数据
        content = re.findall('<div id="chaptercontent" class="Readarea ReadAjax_content">(.*?)<br /><br />  请收藏本站:https://www.biquge11.cc。笔趣阁手机版:https://m.biquge11.cc <br /><br />',html_data)[0]
        #替换换行符
        text ='\n\n' + info[1] + '\n\n'
        text+= content.replace("<br /><br />", '\n')
        print("正在获取" + info[1] + url)
        #保存到文件
        f = open('斗破苍穹.txt',mode='a',encoding='utf-8')
        f.write(text)




爬取过程 pycharm 控制台如下:(本文首发在“程序员coding”公众号)

结果,我们顺利爬取了《斗破苍穹》这本小说,保存为斗破苍穹.txt 文档,这个 txt 文档 15.3MB。

之后,我们还可以用 jieba 库对这个 txt 文档进行词频的统计,获得这本小说的高频词汇等信息,这也是一件非常有意思的事,这个下次我再写一篇如何使用 jieba 库。

不过,这个爬虫效率有点儿低,每分钟可以爬 30 章节左右,之后可以使用多线程提高效率。

以上就是“学会用Python爬取小说网站,想看什么就爬什么,广告也不用看了
”的全部内容,希望对你有所帮助。

关于Python技术储备

学好 Python 不论是就业还是做副业赚钱都不错,但要学会 Python 还是要有一个学习规划。最后大家分享一份全套的 Python 学习资料,给那些想学习 Python 的小伙伴们一点帮助!

一、Python所有方向的学习路线

Python所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。

在这里插入图片描述

二、Python必备开发工具

img

三、Python视频合集

观看零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

img

四、实战案例

光学理论是没用的,要学会跟着一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。

img

五、Python练习题

检查学习结果。

img

六、面试资料

我们学习Python必然是为了找到高薪的工作,下面这些面试题是来自阿里、腾讯、字节等一线互联网大厂最新的面试资料,并且有阿里大佬给出了权威的解答,刷完这一套面试资料相信大家都能找到满意的工作。

img

最后祝大家天天进步!!

上面这份完整版的Python全套学习资料已经上传至CSDN官方,朋友如果需要可以直接微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】。

  • 16
    点赞
  • 24
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值