python语言 正则表达式 -小说网站爬虫开发

作业要求:

网址:http://www.kanunu8.com/book3/6879
从上述网址爬取《动物农场》所有章节的网址,再通过一个多线程爬虫将每一章的内容爬取下来。在本地创建一个“动物农场”文件夹,并将小说中的每一章分别保存到这个文件夹中。

涉及的知识点如下:

使用requests获取网页源代码。
使用正则表达式获取内容。
文件操作。

爬虫原理

就是模拟客服端Client向服务器Server发起Request请求,接收Server的Response并解析、提取所需信息

第一步:获取网站源代码

上次是手动获取,这次需要可以使用requests的get()方法获取网页的源代码(有些网页只能使用POST方法访问,否则出错),另外爬虫开发中要用到第三方库Requests,用于请求网站获取网页数据HTTP

import requests        #第三方库 获取网页数据
import re              #解释正则表达式
url = 'http://www.kanunu8.com/book3/6879'
html = requests.get(url).content.decode('GBK')
                       #获取每个章节的网址
searchObj = re.findall(r'"1317(.*?)">(.*?)</a>',html)
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值