python 爬虫基础之正则表达式

在python爬虫中正则表达式是一种强大的工具,可以帮助我们从网页中提取出需要的信息。正则表达式是由一些特殊字符和普通字符组成的模式,用来匹配字符串中的文本或者数字等。

  • . 表示任意字符
  • ^ 表示以某个字符开头
  • $ 表示以某个字符结尾
    • 表示前面的字符重复0次或多次
    • 表示前面的字符重复1次或多次
  • ? 表示前面的字符重复0次或1次
  • [] 表示匹配括号内的任意一个字符

可能讲概念不容易懂,而且超级难理解,所以我直接举例,方便大家理解

1. 匹配URL地址

import re

text = "Visit my website at https://www.example.com"

pattern = r'https?://(?:[-\w.]|(?:%[\da-fA-F]{2}))+'
url = re.findall(pattern, text)

print(url)

上述代码使用正则表达式找到字符串中的URL地址,并将其存储在列表中。正则表达式‘https?://(?:[-\w.]|(?:%[\da-fA-F]{2}))+'表示匹配以http或https开头的URL地址。

2. 匹配电子邮件地址

import re

text = "My email address is example@example.com"

pattern = r'\b[A-Za-z0-9._%+-]+@[A-Za-z0-9.-]+\.[A-Z|a-z]{2,}\b'
email = re.findall(pattern, text)

print(email)

上述代码使用正则表达式找到字符串中的电子邮件地址,并将其存储在列表中。正则表达式\b[A-Za-z0-9._%+-]+@[A-Za-z0-9.-]+\.[A-Z|a-z]{2,}\b表示匹配符合电子邮件格式的地址

3. 匹配HTML标签

import re

html = '<div class="container"><p>Hello, World!</p></div>'

pattern = r'<.*?>'
tags = re.findall(pattern, html)

print(tags)

上述代码使用正则表达式找到HTML标签,并将其存储在列表中。正则表达式<.*?>表示匹配所有的HTML标签。

除了re.findall()函数外,还有其他许多re模块中的正则表达式函数,例如re.search()、re.match()和re.sub()等。这些函数可用于在文本中查找、替换和提取信息。

那么该怎么和爬虫联系在一起,提取到我们想要的东西勒?

下面是,演示如何使用正则表达式在HTML页面中查找超链接: 

import re
import requests

url = "https://www.example.com"
response = requests.get(url)

pattern = r'<a .*?href="(.*?)".*?>'
links = re.findall(pattern, response.text)

for link in links:
    print(link)

上述代码中,我们请求了网页,使用requests库发送HTTP请求获取目标页面的内容,并使用re.findall()函数在HTML页面中查找与正则表达式匹配的所有超链接。正则表达式<a .*?href="(.*?)".*?>表示匹配所有的超链接,并且提取出其中的URL地址。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Python 爬虫中,正则表达式是非常常用的工具。它可以帮助我们从网页中抓取需要的信息,过滤掉不需要的内容,提高爬取效率和准确性。以下是一些常用的正则表达式应用场景: 1. 匹配 URL 链接:可以使用正则表达式提取出页面中的所有链接,便于进一步抓取和分析页面内容。 2. 匹配特定文本:如果我们只需要网页中某个特定文本,可以使用正则表达式来匹配并提取。 3. 过滤 HTML 标签:网页中的 HTML 标签对于我们的数据分析来说是无用的,可以使用正则表达式去除标签。 4. 匹配时间日期:有些网站会包含时间日期等信息,可以使用正则表达式来提取这些信息。 Python 中可以使用 re 模块来实现正则表达式的应用。具体使用方法可以参考以下示例代码: ```python import re import requests # 抓取网页内容 r = requests.get('https://www.example.com') html = r.content.decode() # 匹配 URL 链接 urls = re.findall('<a href="(.*?)".*?>.*?</a>', html) print(urls) # 匹配特定文本 text = re.search('<title>(.*?)</title>', html).group(1) print(text) # 过滤 HTML 标签 clean = re.compile('<.*?>') content = re.sub(clean, '', html) print(content) # 匹配时间日期 dates = re.findall('\d{4}-\d{2}-\d{2}', html) print(dates) ``` 上述代码演示了如何使用正则表达式抓取网页内容并进行一些简单的数据处理。需要注意的是,在实际应用中,正则表达式应该根据具体情况进行调整和优化。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值