手机写python爬虫_我用手机写了一个Python爬虫,爬下了《凡人修仙传》……

前言

舞剑很喜欢阅读网络小说。

凡人修仙传,知北游,无限恐怖……等等,优秀的网络小说很多,为此,我在三年前创办了一个推书公众号@无梦解书荒。

专门用来推荐我觉得好看的网络小说。

小说爬虫

起因

老书虫一般有两个烦心事,第一,不知道看什么。第二,不知道去哪看。

第一个,可以去找推书公众号,以及各大榜单扫榜。

第二个,就没那么容易了。

翻开百度一搜,广告横行,弹窗关都关不完,阅读体验差的一批。

这时候,我们可以用 Python 爬虫,将小说从网页端爬取下来,整理成 TXT 文本,导入喜欢的阅读APP观看。

准备

舞剑前面介绍了两款 Python 集成开发环境,分别是 QPython 和  Pydroid 。

a8cf852932f8

这一次,就用 Pydroid 来爬取小说。

获得 Pydroid * 1

Python 爬虫,必须要观看源码,从源码中寻找需要的资源与文本。可以直接用 Python 扒源码,我这里建议用网页源码查看器,简单直观。

获得 Alook浏览器 * 1

开始

1. 获取小说地址

①我这里准备爬取凡人流小说《凡人修仙传》

②随机选取网址:

m.9txs.com/book/61781.html

a8cf852932f8

2. 分析源码地址

①  首先爬取第一章《山边小村》的文本内容,点进去第一章,可以发现网址链接后缀改变了。

m.9txs.com/book/61781/868469.html

多出了 /868469.html。

②  用Milk浏览器打开网址,运行脚本,可以查看源码。

a8cf852932f8

3. 爬取首页 TXT 文本

① 爬取整页源码。

舞剑这里准备使用 requests 库,大家记得安装好。

首先自定义方法 get_one _page(),用来爬取源码并返回给 main()  方法。

接下来,在  main()  函数中输出源代码。

代码如下:

import requests

#获取首页源码

def get_one_page( url ):

response = requests.get( url )

return response.text

def main():

url = 'http://m.9txs.com/book/61781/868469.html'

html = get_one_page( url )

print( html )

main()

②解析页面,筛选内容。

首先,来看看正文部分究竟在源码的哪里。

a8cf852932f8

嗯,在 div id=“main”>……中间。

章节标题在 h1 class=“headline”>

正文内容在 div class=“content”>

至于作者与书名,我们暂时不需要。

③编写代码,提取内容

这里准备使用 lxml 库来爬取正文,没安装的小伙伴记得先安装,很方便的。

首先,导入 lxml 库的 etree 模块。

然后,使用 etree 的 HTML() 方法来初始化源码。

最后,使用xpath语法来抽取我们需要的内容。

这里,新建一个方法 parse_one _page() 用来爬取资源。

代码如下:

#解析源码,提取正文

def parse_one_page( html ):

html = etree.HTML( html )

#标题

title = html.xpath('//div[@id="main"]/h1/text()')

#正文

content = html.xpath('//div[@id="main"]/div[@class="content"]//text()')

print( title )

print( content )

需要的内容为 title(标题) 和 content(正文)。

这里的代码输出后,会得到两个数组,分别记录着标题和正文的内容。

内容如下所示:

[‘第1章 山边小村’]

[’\n\t’, ‘二愣子睁大着双眼,直直望着茅草和烂泥糊成的黑屋顶,身上盖 着的旧棉被,已呈深黄色,看不出原来的本来面目,还若有若无的散发着淡 淡的霉味。’, ‘\n’, ‘在他身边紧挨着的另一人,是二哥韩铸,酣睡的十分 香甜,从他身上不时传来轻重不一的阵阵打呼声。’, ‘\n’, ‘离床大约半丈 远的地方,是一堵黄泥糊成的……’, ‘……’, ‘\n\t’]

可以看到,这两个数组的确是我们需要的内容。

那么,就剩下最终的一步,将 爬取的小说标题和正文保存到 TXT 文本中。

写入文档,保存为TXT||4

保存为 TXT 文本很简单,只需要使用 Python 自带的文件系统就可以了。

这里先新建一个方法 write_txt(), 用来保存 TXT文本。

接着使用内置方法,创建 txt 文件 凡人修仙传.txt,设置参数为 a+,表示可以追加内容,最后使用 **write()**方法写入即可。

代码如下所示:

#保存TXT文本

def write_txt( result ):

with open( '/sdcard/凡人修仙传.txt', 'a+' ) as f:

f.write( result )

接下来,就是在 main() 方法中调用 **write_txt()**方法就行了,但这里有两个问题:

① parse_one _page()方法返回的是列表(list),不能直接写入到 TXT 文本中。

②列表正文(content)中,除了小说正文外,还包含了 “\n \t” 这些符号,必须要去除后再写入 txt文档,才不会影响阅读体验。

取出标题

我们先取出 title(标题)中的内容, title 中只有一个内容,所以只需要使用下标为0的中括号就能取出,代码如下所示:

write_txt( title[0] )

取出正文

接着要取出 content(正文)中的内容, content 内部包含了换行符(\n)和制表符(\t),它们散落在每一段文字的开头与结尾,这里直接使用 join() 方法,用 \n 将内容连接为 str(字符串)。

代码如下所示:

write_txt( '\n'.join(content) )

最终会在手机根目录生成 凡人修仙传.txt 文本,打开后可以看到爬取的内容一切正常。

a8cf852932f8

后记

就这样,用 Python 爬虫爬下了凡人修仙传第一章的内容,是不是很简单。

至于其他章节的内容,留在下一节继续写。

另外,源码很简单,总共也就30行,如果有需要的小伙伴,记得关注我,后台回复:爬虫01,获取本次的代码。

关于 Pydroid ,可以去翻翻我以前的文章,也可以后台直接回复:0003, 免费领取。

文中用到的 Alook,嫌麻烦的小伙伴可以用其他的 via 等浏览器取代,只要可以查看源码就行。

当然,也可以后台回复:0008,或者直接回复: Alook, 即可免费获取。

  • 3
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值