Python之网络爬虫---正则表达式

1.网络爬虫概念

说明:网络爬虫就是从互联网中定向或者不定向的采集信息的一种程序。网络爬虫有很多类型:通用网络爬虫、聚焦网络爬虫等等
应用:
(1)搜索引擎
(2)采集金融数据
(3)采取商品信息
(4)自动过滤广告
(5)采集信息,进行相关数据分析等等

2.正则表达式

说明:要用正则表达式,要导入模块import re

2.1 原子

说明:是正则表达式中最基本的单位,每个正则表达式中至少要包含一个原子,常见的原子有:普通字符作为原子、非打印字符作为原子,通用字符作为原子、原子表四类。

  1. 普通字符作为原子

    import re
    str = 'Hello123Python!'
    pat = '123'     #pat为正则表达式
    result = re.search(pat, str)
    print(result)
    # 结果:<re.Match object; span=(5, 8), match='123'>
    
  2. 非打印字符作为原子:
    ① 换行符:\n
    ② 制表符:\t
    ③ 回车符:\r
    等等

    import re
    str = 'Hello123Python!'
    pat2 = '\n'
    print(re.search(pat2, str))
    # 结果:None
    
  3. 通用字符作为原子

    • \w 字母、数字、下划线
    • \W 非字母、数字、下划线
    • \d 十进制数
    • \D 非十进制数
    • \s 匹配任何不可见字符,包括空格、制表符、换页符等等。等价于[ \f\n\r\t\v]。
    • \S 匹配任何可见字符。等价于[^ \f\n\r\t\v]。
    import re
    str = 'Hello123Python!'
    pat3 = '\w\d\d'
    print(re.search(pat3, str))
    
    # 结果:<re.Match object; span=(4, 7), match='o12'>
    
  4. 原子表:[一个或多个原子],这表示一个原子表,匹配时从中选一个符合要求的原子,若没有,返回None
    还可以通过[^一个或多个原子]进行取反,表示除了原子表中的元素都可以提取

    import re
    str = 'Hello123Python!'
    
    pat4 = '\w[139]\d'  
    print(re.search(pat4, str))
    # 结果:<re.Match object; span=(4, 7), match='o12'>
    
    pat5 = 'l[^alo]'           #表示除了原子表[alo]内的元素外我都可以提取
    print(re.search(pat5, str))
    # 结果:None
    

2.2 元字符

说明:元字符就是正则表达式中具有一些特殊含义的字符。

  • .表示 \n\r 以外的任何一个字符
    • 如果想匹配任意字符,则可以使用[\s\S]
  • ^表示后一个原子处于开始位置
  • $表示前一个原子处于结束位置
  • *表示前面的原子接着出现01多次
  • ?表示前面的原子接着出现01
  • +表示前面的原子接着出现1多次
  • {n}表示前面一个原子出现恰好n次(操作时n用具体的数字代替)
  • {n,}表示前面一个原子出现至少n次
  • {n, m}表示最少匹配 n 次且最多匹配 m 次
  • |表示模式选择或
    1. 直接使用:"\da|\db"表示为\da\db
    2. 搭配原子表使用:此时最小匹配单元不再是原子,而是或元素。比如,[.com|.cn]表示为.com.cn
  • ()表示模式单元,直接提取正则式中的某部分
  • [\s\S].*[\d\D].*[\w\W].* 都可以无限匹配,包括换行符

eg:

import re
str = 'Hello1ooo123Python!'

pat = '^He..'     #pat为正则表达式
result = re.search(pat, str)
print(result)

pat2 = '..on!$'     #pat2为正则表达式
result = re.search(pat2, str)
print(result)

pat3 = '1o*'     #pat3为正则表达式
result = re.search(pat3, str)
print(result)

pat4 = 'e.*'     #pat4为正则表达式
result = re.search(pat4, str)
print(result)

pat5 = '1o{4}'     #pat5为正则表达式
result = re.search(pat5, str)
print(result)

pat6 = 'o(\d*?)P'
result = re.compile(pat6).findall(str)
print(result)

#结果:
<re.Match object; span=(0, 4), match='Hell'>
<re.Match object; span=(14, 19), match='thon!'>
<re.Match object; span=(5, 9), match='1ooo'>
<re.Match object; span=(1, 19), match='ello1ooo123Python!'>
None
['123']

2.3 模式修正符

  • 字母I 匹配时忽略大小写
  • 字母S.能够匹配换行符
  • 字母M 多行匹配
  • 字母U unicode
  • 字母L 本地化识别匹配

注意:以上字母必须为大写
eg:

import re
str = 'Hello1ooo123Python!'

pat = 'hell'     #pat为原子
result = re.search(pat, str, re.I)
print(result)

str = '''Hello1ooo
123Python!'''
pat = 'oo.1'     #pat为原子
result = re.search(pat, str, re.S)
print(result)

#结果:
<re.Match object; span=(0, 4), match='Hell'>
<re.Match object; span=(7, 11), match='oo\n1'>

2.4 贪婪模式与懒惰模式

说明:

  • 贪婪模式就是尽可能多的匹配,语法.*\d*等等,就是元字符或原子与符号*的组合
  • 懒惰模式就是尽可能少的匹配,语法.*?\d*?等等,就是元字符或原子与符号*?的组合

eg:

import re

str = 'HelloPython!'
pat = 'H.*o'     #贪婪模式
pat2 = 'H.*?o'     #懒惰模式
result = re.search(pat, str)
result2 = re.search(pat2, str)
print(result)
print(result2)

#结果:
<re.Match object; span=(0, 10), match='HelloPytho'>
<re.Match object; span=(0, 5), match='Hello'>

2.5 正则表达式函数

  • re.match()函数,对数据从头开始匹配,结果只有一个
  • re.search()函数,任意位置匹配,结果只有一个
  • 全局匹配函数,任意位置匹配,结果是一个list,语法:re.compile(正则表达式).findall(数据)
  • re.sub(正则表达式, 字符串, 数据)函数,任意位置匹配,结果是多个,用指定的字符串代替匹配到的字符串

eg:

import re

#match()函数
str = 'HelloPython!'
pat = 'H.*?o'     #懒惰模式
print(re.match(pat, str))
pat = 'h.*?o'    
print(re.match(pat, str))

str = 'HelloHsadoHazzzoHo'
pat = 'H.*?o'
print(re.search(pat, str))
#全局匹配函数
result = re.compile(pat).findall(str)
print(result)
#sub()函数
out = re.sub(pat, 'J', str)
print(out)

#结果:
<re.Match object; span=(0, 5), match='Hello'>
None
<re.Match object; span=(0, 5), match='Hello'>
['Hello', 'Hsado', 'Hazzzo', 'Ho']
JJJJ

re.sub()函数能替换所有符合要求的正则表达式,下面举一个清洗数据的例子:

import re


str = '<a>abc<b>defg<c>'
pat = '<.*?>'
data = re.sub(pat, '', str)
print(data)

# 结果:
abcdefg

3. 案例

3.1 实例之匹配.com.cn网址

eg:

import re

str = '<a href=http://www.baidu.com>百度首页</a>'
#[a-zA-Z]表示从a到z和A到Z的所有字母
#|为模式选择或   [.com|.cn]表示为.com或.cn
pat = '[a-zA-Z]+://[^\s]*[.com|.cn]'
print(re.compile(pat).findall(str))

#结果:
['http://www.baidu.com']

3.2 实例之匹配电话号码

说明:电话号码有两种

  • 前3位为域名+后8位
  • 前4位为域名+后7位

eg:

import re

str = 'dsadasdgs031-1564653233adads2312-24644567dZDxz'
pat = '\d{3}-\d{8}|\d{4}-\d{7}'
print(re.compile(pat).findall(str))

#结果:
['031-15646532', '2312-2464456']

3.3 实战之爬取网址上的QQ号

eg:爬取该网址内的QQ号

#简单爬虫编写,自动爬取上面两个QQ号
import urllib.request
import re
data = urllib.request.urlopen("https://www.yiibai.com/python3").read().decode("utf-8") #decode()函数是设置读取编码格式
pat = 'QQ群:(\d*)'
result = re.compile(pat).findall(data)
print(result)
#结果:
['227270512', '479429477']
    
#简单爬虫编写,自动爬取该网页所有QQ群
import urllib.request
import re
data = urllib.request.urlopen("https://www.yiibai.com/python3").read().decode("utf-8") #decode()函数是设置读取编码格式
pat = '[1-9]{6,10}'
result = re.compile(pat).findall(data)
# 去除重复的QQ号
result = list(set(result))
print('该网站共有'+str(len(result))+'个QQ群:')
print(result)
# 结果:
该网站共有17个QQ群:
['769728683', '65515455', '5798217', '415553199', '1932146371', '6215498', '175248146', '9485766451', '944874', '6494738921', '456236', '816911', '629264796', '153241', '397883996', '479429477', '851549']
  • 5
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 6
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

ElegantCodingWH

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值