正则表达式re模式(python爬虫糗事百科热点段子)

python编程快速上手(持续更新中…)

python爬虫从入门到精通


非结构化数据与结构化数据提取

概述

一般来讲对我们而言,需要抓取的是某个网站或者某个应用的内容,提取有用的价值。内容分为两部分,非结构化的数据 和 结构化的数据。

非结构化数据:先有数据,再有结构,
结构化数据:先有结构、再有数据
不同类型的数据,我们需要采用不同的方式来处理。

非结构化的数据处理

文本、电话号码、邮箱地址:正则表达式
HTML 文件:正则表达式/XPath/CSS选择器

结构化的数据处理

JSON 文件:JSON Path,转化成Python类型进行操作(json类)
XML 文件:转化成Python类型(xmltodict),XPath,CSS选择器,正则表达式

正则表达式re模式

实际上爬虫一共就四个主要步骤:

明确目标 (要知道你准备在哪个范围或者网站去搜索)
爬 (将所有的网站的内容全部爬下来)
取 (去掉对我们没用处的数据)
处理数据(按照我们想要的方式存储和使用)
我们在昨天的案例里实际上省略了第3步,也就是"取"的步骤。因为我们down下了的数据是全部的网页,这些数据很庞大并且很混乱,大部分的东西使我们不关心的,因此我们需要将之按我们的需要过滤和匹配出来。

那么对于文本的过滤或者规则的匹配,最强大的就是正则表达式,是Python爬虫世界里必不可少的神兵利器。

什么是正则表达式

正则表达式,又称规则表达式,通常被用来检索、替换那些符合某个模式(规则)的文本。

给定一个正则表达式和另一个字符串,我们可以达到如下的目的:

给定的字符串是否符合正则表达式的过滤逻辑(“匹配”);
通过正则表达式,从文本字符串中获取我们想要的特定部分(“过滤”)。

正则表达式匹配规则

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

Python 的 re 模块

在 Python 中,我们可以使用内置的 re 模块来使用正则表达式。

有一点需要特别注意的是,正则表达式使用 对特殊字符进行转义,所以如果我们要使用原始字符串,只需加一个 r 前缀,示例:

r’wangdaye\t.\tpython’

re 模块的一般使用步骤如下:

1.使用 compile() 函数将正则表达式的字符串形式编译为一个 Pattern 对象

2.通过 Pattern 对象提供的一系列方法对文本进行匹配查找,获得匹配结果,一个 Match 对象。

3.最后使用 Match 对象提供的属性和方法获得信息,根据需要进行其他的操作

compile 函数
import re
# 将正则表达式编译成 Pattern 对象
pattern = re.compile(r'\d+')

Pattern 对象的一些常用方法主要有:

match 方法:从起始位置开始查找,一次匹配
search 方法:从任何位置开始查找,一次匹配
findall 方法:全部匹配,返回列表
finditer 方法:全部匹配,返回迭代器
split 方法:分割字符串,返回列表
sub 方法:替换

match 方法

match 方法用于查找字符串的头部(也可以指定起始位置),它是一次匹配,只要找到了一个匹配的结果就返回,而不是查找所有匹配的结果。它的一般使用形式如下:

match(string[, pos[, endpos]])

其中,string 是待匹配的字符串,pos 和 endpos 是可选参数,指定字符串的起始和终点位置,默认值分别是 0 和 len (字符串长度)。因此,当你不指定 pos 和 endpos 时,match 方法默认匹配字符串的头部。

当匹配成功时,返回一个 Match 对象,如果没有匹配上,则返回 None。

>>> import re
>>> pattern = re.compile(r'\d+')  # 用于匹配至少一个数字
>>> m = pattern.match('one12twothree34four')  # 查找头部,没有匹配
>>> print mNone
>>> m = pattern.match('one12twothree34four', 2, 10) # 从'e'的位置开始匹配,没有匹配
>>> print mNone
>>> m = pattern.match('one12twothree34four', 3, 10) # 从'1'的位置开始匹配,正好匹配
>>> print m                                         # 返回一个 Match 对象
<_sre.SRE_Match object at 0x10a42aac0>
>>> m.group(0)   # 可省略 0'12'
>>> m.start(0)   # 可省略 03
>>> m.end(0)     # 可省略 05
>>> m.span(0)    # 可省略 0
(3, 5)

在上面,当匹配成功时返回一个 Match 对象,其中:

group([group1, …]) 方法用于获得一个或多个分组匹配的字符串,当要获得整个匹配的子串时,可直接使用 group() 或 group(0);

start([group]) 方法用于获取分组匹配的子串在整个字符串中的起始位置(子串第一个字符的索引),参数默认值为 0;

end([group]) 方法用于获取分组匹配的子串在整个字符串中的结束位置(子串最后一个字符的索引+1),参数默认值为 0;
span([group]) 方法返回 (start(group), end(group))。

再看看一个例子:

>>> import re
>>> pattern = re.compile(r'([a-z]+) ([a-z]+)', re.I)  # re.I 表示忽略大小写
>>> m = pattern.match('Hello World Wide Web')
>>> print m     # 匹配成功,返回一个 Match 对象
<_sre.SRE_Match object at 0x10bea83e8>
>>> m.group(0)  # 返回匹配成功的整个子串'Hello World'
>>> m.span(0)   # 返回匹配成功的整个子串的索引
(0, 11)
>>> m.group(1)  # 返回第一个分组匹配成功的子串'Hello'
>>> m.span(1)   # 返回第一个分组匹配成功的子串的索引
(0, 5)
>>> m.group(2)  # 返回第二个分组匹配成功的子串'World'
>>> m.span(2)   # 返回第二个分组匹配成功的子串
(6, 11)
>>> m.groups()  # 等价于 (m.group(1), m.group(2), ...)
('Hello', 'World')
>>> m.group(3)   # 不存在第三个分组
Traceback (most recent call last):
  File "<stdin>", line 1, in <module>
IndexError: no such group
search 方法

search 方法用于查找字符串的任何位置,它也是一次匹配,只要找到了一个匹配的结果就返回,而不是查找所有匹配的结果,它的一般使用形式如下:
search(string[, pos[, endpos]])
其中,string 是待匹配的字符串,pos 和 endpos 是可选参数,指定字符串的起始和终点位置,默认值分别是 0 和 len (字符串长度)。
当匹配成功时,返回一个 Match 对象,如果没有匹配上,则返回 None。
让我们看看例子:

>>> import re
>>> pattern = re.compile('\d+')
>>> m = pattern.search('one12twothree34four')  # 这里如果使用 match 方法则不匹配
>>> m<_sre.SRE_Match object at 0x10cc03ac0
>>>> m.group()'12'
>>> m = pattern.search('one12twothree34four', 10, 30)  # 指定字符串区间
>>> m<_sre.SRE_Match object at 0x10cc03b28
>>>> m.group()'34'
>>> m.span()
(13, 15)

再来看一个例子:

# -*- coding: utf-8 -*-
import re# 将正则表达式编译成 Pattern 对象
pattern = re.compile(r'\d+')# 使用 search() 查找匹配的子串,不存在匹配的子串时将返回 None# 这里使用 match() 无法成功匹配
m = pattern.search('hello 123456 789')if m:
    # 使用 Match 获得分组信息
    print 'matching string:',m.group()
    # 起始位置和结束位置
    print 'position:',m.span()

执行结果:

matching string: 123456
position: (6, 12)
findall 方法

上面的 match 和 search 方法都是一次匹配,只要找到了一个匹配的结果就返回。然而,在大多数时候,我们需要搜索整个字符串,获得所有匹配的结果。

findall 方法的使用形式如下:

findall(string[, pos[, endpos]])

其中,string 是待匹配的字符串,pos 和 endpos 是可选参数,指定字符串的起始和终点位置,默认值分别是 0 和 len (字符串长度)。
findall 以列表形式返回全部能匹配的子串,如果没有匹配,则返回一个空列表。

看看例子:

import re
pattern = re.compile(r'\d+')   # 查找数字

result1 = pattern.findall('hello 123456 789')
result2 = pattern.findall('one1two2three3four4', 0, 10)
print result1print result2

执行结果:

['123456', '789']
['1', '2']

再先看一个例子:

import re
#re模块提供一个方法叫compile模块,提供我们输入一个匹配的规则#然后返回一个pattern实例,我们根据这个规则去匹配字符串
pattern = re.compile(r'\d+\.\d*')
#通过partten.findall()方法就能够全部匹配到我们得到的字符串
result = pattern.findall("123.141593, 'bigcat', 232312, 3.15")
#findall 以 列表形式 返回全部能匹配的子串给resultfor item in result:
    print item

运行结果:

123.1415933.15
finditer 方法

finditer 方法的行为跟 findall 的行为类似,也是搜索整个字符串,获得所有匹配的结果。但它返回一个顺序访问每一个匹配结果(Match 对象)的迭代器。
看看例子:

import re
pattern = re.compile(r'\d+')

result_iter1 = pattern.finditer('hello 123456 789')
result_iter2 = pattern.finditer('one1two2three3four4', 0, 10)
print type(result_iter1)
print type(result_iter2)
print 'result1...'for m1 in result_iter1:   # m1 是 Match 对象
print 'matching string: {}, position: {}'.format(m1.group(), m1.span())
print 'result2...'for m2 in result_iter2:
print 'matching string: {}, position: {}'.format(m2.group(), m2.span())

执行结果:

<type 'callable-iterator'>
<type 'callable-iterator'>
result1...
matching string: 123456, position: (6, 12)
matching string: 789, position: (13, 16)
result2...
matching string: 1, position: (3, 4)
matching string: 2, position: (7, 8)
split 方法

split 方法按照能够匹配的子串将字符串分割后返回列表,它的使用形式如下:
split(string[, maxsplit])
其中,maxsplit 用于指定最大分割次数,不指定将全部分割。
看看例子:

import re
p = re.compile(r'[\s\,\;]+')
print p.split('a,b;; c   d')

执行结果:

['a', 'b', 'c', 'd']

sub 方法
sub 方法用于替换。它的使用形式如下:
sub(repl, string[, count])
其中,repl 可以是字符串也可以是一个函数:

如果 repl 是字符串,则会使用 repl 去替换字符串每一个匹配的子串,并返回替换后的字符串,另外,repl 还可以使用 id 的形式来引用分组,但不能使用编号 0;

如果 repl 是函数,这个方法应当只接受一个参数(Match 对象),并返回一个字符串用于替换(返回的字符串中不能再引用分组)。

count 用于指定最多替换次数,不指定时全部替换。

看看例子:

import re
p = re.compile(r'(\w+) (\w+)') # \w = [A-Za-z0-9_]
s = 'hello 123, hello 456'
print p.sub(r'hello world', s)  # 使用 'hello world' 替换 'hello 123''hello 456'print p.sub(r'\2 \1', s)        # 引用分组
def func(m):
    return 'hi' + ' ' + m.group(2)
print p.sub(func, s)print p.sub(func, s, 1)         # 最多替换一次

执行结果:

hello world, hello world
123 hello, 456 hello
hi 123, hi 456
hi 123, hello 456

案例:糗事百科段子爬虫(正则版)

现在拥有了正则表达式这把神兵利器,我们就可以进行对爬取到的全部网页源代码进行筛选了。

下面我们一起尝试一下爬取糗事百科网站: https://www.qiushibaike.com/text/page/2/

打开之后,不难看到里面一个一个灰常有内涵的段子,当你进行翻页的时候,注意url地址的变化:

第一页url: https://www.qiushibaike.com/hot/page/1/

第二页url: https://www.qiushibaike.com/hot/page/2/

第三页url: https://www.qiushibaike.com/hot/page/3/

第四页url: https://www.qiushibaike.com/hot/page/4/

这样我们的url规律找到了,要想爬取所有的段子,只需要修改一个参数即可。 下面我们就开始一步一步将所有的段子爬取下来吧。

第一步:获取数据

1. 按照我们之前的用法,我们需要写一个加载页面的方法。
这里我们统一定义一个类,将url请求作为一个成员方法处理。
我们创建一个文件,叫duanzi_spider.py
然后定义一个Spider类,并且添加一个加载页面的成员方法:

import urllib.request

class Spider:
    """
        糗事百科爬虫类
    """

    def loadPage(self, page):
        """
            @brief 定义一个url请求网页的方法
            @param page 需要请求的第几页
            @returns 返回的页面html
        """

        url = "https://www.qiushibaike.com/text/page/" + str(page) + "/"
        #User-Agent头
        user_agent = 'Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Trident/5.0'

        headers = {'User-Agent': user_agent}
        req = urllib.request.Request(url, headers = headers)
        response = urllib.request.urlopen(req)
        html = response.read()
        print (html)

        #return html

以上的loadPage的实现体想必大家应该很熟悉了,需要注意定义python类的成员方法需要额外添加一个参数self.

那么loadPage(self, page) 中的page是我们指定去请求第几页。

最后通过 print html打印到屏幕上。

然后我们写一个main函数见到测试一个loadPage方法

2. 写main函数测试一个loadPage方法

if __name__ == '__main__':
    """
        ======================
            糗事百科小爬虫
        ======================
    """

    # 定义一个Spider对象
    mySpider = Spider()
    mySpider.loadPage(1)
  

**注意 :**对于每个网站对中文的编码各自不同,所以html.decode(‘utf-8)的写法并不是通用写法,根据网站的编码而异

第二步:筛选数据

接下来我们已经得到了整个页面的数据。 但是,很多内容我们并不关心,所以下一步我们需要进行筛选。 如何筛选,就用到了上一节讲述的正则表达式。

首先

import re

然后, 在我们得到的gbk_html中进行筛选匹配。

我们需要一个匹配规则:
我们可以打开内涵段子的网页,鼠标点击右键 “ 查看源代码 ” 你会惊奇的发现,我们需要的每个段子的内容都是在一个

标签中,而且每个div都有一个属性 class = "content"
在这里插入图片描述
所以,我们只需要匹配到网页中所有
的数据就可以了

根据正则表达式,我们可以推算出一个公式是:

<div.?class="author.?>.?<a.?.?<a.?>(.?).?<div.?class=“content”.?>(.?)(.?)<div class="stats.?class=“number”>(.?)

这个表达式实际上就是匹配到所有div中class="f18 mb20 里面的内容(具体可以看前面正则介绍)

然后将这个正则应用到代码中,我们优化loadPage代码:

"""
    糗事百科爬虫类
"""

def loadPage(self, page):
    """
        @brief 定义一个url请求网页的方法
        @param page 需要请求的第几页
        @returns 返回的页面html
    """

    url = 'http://www.qiushibaike.com/hot/page/' + str(page)
    #User-Agent头
    user_agent = 'Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Trident/5.0'

    headers = {'User-Agent': user_agent}
    req = urllib.request.Request(url, headers = headers)
    response = urllib.request.urlopen(req)
    html = response.read().decode("utf-8")

    # 找到所有的段子内容<div class = "content"></div>
    # re.S 如果没有re.S 则是只匹配一行有没有符合规则的字符串,如果没有则下一行重新匹配
    # 如果加上re.S 则是将所有的字符串将一个整体进行匹配
    pattern = re.compile(r'<div.*?class="author.*?>.*?<a.*?</a>.*?<a.*?>(.*?)</a>.*?<div.*?class' +
                         '="content".*?>(.*?)</div>(.*?)<div class="stats.*?class="number">(.*?)</i>', re.S)
    item_list = re.findall(pattern, html)
    # print (item_list)

    pageStories = []
    for item in item_list:
        replaceBR = re.compile('<br/>')
        text = re.sub(replaceBR, "\n", item[1])
        pageStories.append([item[0].strip(), text.strip(), item[2].strip(), item[3].strip()])

    # print(pageStories)
    return pageStories


第三步:保存数据

我们可以将所有的段子存放在文件中。比如,我们可以将得到的每个item不是打印出来,而是存放在一个叫 duanzi.txt 的文件中也可以。

def printOnePage(self, item_list, page):
    '''
        @brief 处理得到的段子列表
        @param item_list 得到的段子列表
        @param page 处理第几页
    '''
    #print("******* 第 %d 页 爬取完毕...*******" % page)
    for item in item_list:
        # print "================"
        # item = item.replace("<p>", "").replace("</p>", "").replace("<br />", "")
        # print item
        self.writeToFile(item)


def writeToFile(self, text):
    '''
        @brief 将数据追加写进文件中
        @param text 文件内容
    '''

    myFile = open("./duanzi.txt", 'a')  # 追加形式打开文件
    myFile.write(text)
    myFile.write("-----------------------------------")
    myFile.close()

第四步:显示数据
接下来我们就通过参数的传递对page进行叠加来遍历 内涵段子吧的全部段子内容。

只需要在外层加一些逻辑处理即可。

def doWork(self):
    '''
        让爬虫开始工作
    '''
    while self.enable:
        try:
            item_list = self.loadPage(self.page)
        except urllib.error.URLError as e:
            print e.reason
            continue

        #对得到的段子item_list处理
        self.printOnePage(item_list, self.page)
        self.page += 1 #此页处理完毕,处理下一页
        print "按回车继续..."
        print "输入 quit 退出"
        command = input()
        if (command == "quit"):
            self.enable = False
            break

最后,我们执行我们的代码,完成后查看当前路径下的duanzi.txt文件,里面已经有了我们要的内涵段子。

if __name__ == '__main__':
    """
        ======================
            糗事百科小爬虫
        ======================
    """

    # 定义一个Spider对象
    mySpider = Spider()   
    mySpider.doWork()

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值