python爬虫正则教程_Python爬虫之正则表达式

dab4798b5bc26476a4632d286f496464.png

爬虫——爬虫中使用正则表达式

下面我们尝试爬取内涵段子网站:http://www.neihan8.com/article/list_5_1.html

打开之后,当你进行翻页的时候,不难注意到,url地址的变化:

第一页url: http: //www.neihan8.com/article/list_5_1 .html

第二页url: http: //www.neihan8.com/article/list_5_2 .html

第三页url: http: //www.neihan8.com/article/list_5_3 .html

第四页url: http: //www.neihan8.com/article/list_5_4 .html

这样,我们把url规律找到了,要想爬取所有的段子,只需要修改一个参数即可。下面,我们就开始一步一步将所有的段子爬取下来。

第一步:获取网页数据(网页上全部内容)

1.按照我们之前的用法,我们需要写一个加载页面的方法。

这里我们定义一个类,将url请求作为一个成员方法处理。

我们创建一个duanzi_spider.py文件。

然后定义一个Spider类,并且添加一个加载页面的成员方法。#!/usr/bin/python3

# -*- coding:utf-8 -*-

import requests

class Spider(object):

"""

一个爬虫类

"""

def loadPage(self, url):

"""

下载指定url页面的内容

:return:

"""

# User-Agent头

header = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko)

Chrome/39.0.2171.71 Safari/537.36'}

response = requests.get(url = url, headers = header)

html = response.content.decode("gb18030")

# 打印页面内容

print(html)

# 返回页面内容

return html

2.写main函数测试loadPage()方法if __name__ == '__main__':

# 实例化类对象

my_spider = Spider()

# 让用户输入需爬取页面的页码

page = int(input("请输入你需要爬取的页码:"))

# 拼接用户需爬取页面的url地址

url = "http://www.neihan8.com/article/list_5_{}.html".format(page)

html = my_spider.loadPage(url)

第二步:筛选数据

我们已经得到了整个页面的数据。但是,里面有很多内容我们并不需要,所以下一步我们需要对上面爬取的内容进行筛选。如果筛选,这里就用到了我们前面讲到的正则表达式。

首先import re

然后:在我们得到的html中进行筛选匹配。

我们需要一个匹配规则:

我们可以打开内涵段子的网页,鼠标点击右键“查看源代码”,你会发现,我们需要的每个段子的内容都是在一个

标签中,而且每个div都有一个属性class="f18 mb20"。

所以,我们只需要匹配到网页中所有

的数据就可以了。

根据正则表达式,我们可以推算出一个公式是:

(.*?)

这个表达式实际上就是匹配到所有div中class="f18 mb20"里面的内容

然后将这个正则应用到代码中,我们会得到以下代码:#!/usr/bin/python3

# -*- coding:utf-8 -*-

import requests

import re

class Spider(object):

"""

一个爬虫类

"""

def loadPage(self, url):

"""

下载指定url页面的内容

:return:

"""

# User-Agent头

header = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko)

Chrome/39.0.2171.71 Safari/537.36'}

response = requests.get(url = url, headers = header)

html = response.content

return html.decode("gb18030")

def screenPage(self, html):

"""

筛选html内容,返回列表

:param html:

:return:

"""

...

pattern = re.compile(r'

(.*?)
', re.S)

item_list = pattern.findall(html)

return item_list

if __name__ == '__main__':

# 实例化类对象

my_spider = Spider()

# 让用户输入需爬取页面的页码

page = int(input("请输入你需要爬取的页码:"))

# 拼接用户需爬取页面的url地址

url = "http://www.neihan8.com/article/list_5_{}.html".format(page)

# 下载网页内容

html = my_spider.loadPage(url)

# 筛选数据

item_list = my_spider.screenPage(html)

这里需要注意的是re.S是正则表达式中匹配的一个参数。

如果没有re.S,则是只匹配一行中有没有符合规则的字符串,如果没有则下一行重新匹配。

如果加上re.S则是将所有的字符串作为一个整体进行匹配,findall将所有匹配到的结果返回列表中。

相关推荐:《Python相关教程》

第三步:保存数据

我们可以将所有的段子存放在文件中。def writePage(self, list):

"""

以追加的形式存储筛选后的内容

:param list: 筛选后的数据,列表形式

:return:

"""

with open(self.file_name, "a", encoding = "utf-8") as f:

for content in list:

# 段子内容:因为段子中有很多


。。。,还有一些转义字符。在这里作下替换

content = content.replace("…", "…").replace("“", "“").replace("”", "”")

content = content.replace(" ", "").replace("", "").replace(":", ":")

content = content.replace("

", "").replace("

", "").replace("
", "").replace(" ", "")

content = content.replace("u3000", "").replace("

", "

")

content = content.strip()

# 写入一个段子的内容

f.write(content)

# 我是分割线

f.write("*" * 30)

第四步:完整的程序#!/usr/bin/python3

# -*- coding:utf-8 -*-

import requests

import re

class Spider(object):

"""

一个爬虫类

"""

def __init__(self, start_page, end_page):

"""

类的初始化函数

:param start_page:

:param end_page:

:return:

"""

self.start_page = start_page

self.end_page = end_page

self.file_name = "duanzi.txt"

def loadPage(self, url):

"""

下载指定url页面的内容

:return:

"""

# User-Agent头

header = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko)

Chrome/39.0.2171.71 Safari/537.36'}

response = requests.get(url = url, headers = header)

html = response.content

return html.decode("gb18030")

def screenPage(self, html):

"""

筛选html内容,返回列表

:param html:

:return:

"""

...

pattern = re.compile(r'

(.*?)
', re.S)

item_list = pattern.findall(html)

return item_list

def writePage(self, list):

"""

以追加的形式存储筛选后的内容

:param list: 筛选后的数据,列表形式

:return:

"""

with open(self.file_name, "a", encoding = "utf-8") as f:

for content in list:

# 段子内容:因为段子中有很多


。。。,还有一些转义字符。在这里作下替换

content = content.replace("…", "…").replace("“", "“").replace("”", "”")

content = content.replace(" ", "").replace("", "").replace(":", ":")

content = content.replace("

", "").replace("

", "").replace("
", "").replace(" ", "")

content = content.replace("u3000", "").replace("

", "

").replace("

", "

")

content = content.strip()

# 写入一个段子的内容

f.write(content)

# 我是分割线

f.write("*" * 30)

def run(self):

"""

让爬虫开始工作

:return:

"""

# 循环处理我们需要爬取的页面

for page in range(self.start_page, self.end_page + 1):

# 拼接当前页码page的url地址

url = "http://www.neihan8.com/article/list_5_{}.html".format(str(page))

print("正在下载第{}页".format(str(page)))

# 下载url对应的全部内容

html = self.loadPage(url)

# 筛选数据

item_list = self.screenPage(html)

# 存储筛选后的数据

self.writePage(item_list)

# 主函数

if __name__ == '__main__':

# 让用户输入需爬取页面的起始页码

start_page = int(input("请输入您需要爬取的起始页:"))

# 让用户输入需爬取页面的终止页码

end_page   = int(input("请输入您需要爬取的终止页:"))

# 实例化类对象

mySpider = Spider(start_page, end_page)

# 让爬虫开始工作

mySpider.run()

最后,我们执行上面的代码,完成后查看当前路径下的duanzi.txt文件,里面已经有我们要的内涵段子。

以上便是一个非常精简的小爬虫程序,使用起来很方便,如果想要爬取其他网站的信息,只需要修改其中某些参数和一些细节就行了。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值