爬虫3:re正则表达式获取数据

在上一章中,我们基本上掌握了抓取整个网页的基本技能.但是呢,大多数情况下,我们并不需要整个网页的内容,只是 需要那么一小部分,怎么办呢?这就涉及到了数据提取的问题.
本课程中,提供三种解析方式: 1.re解析 2.bs4解析 3.xpath解析
这三种方式可以混合进行使用,完全以结果做导向,只要能拿到你想要的数据.用什么方案并不重要,当你掌握了这些之 后.再考虑性能的问题.

re模块

import re

# findall:找到所有匹配的内容
lst = re.findall(r'\d+', '123abc456')  # ['123', '456']

# finditer: 匹配字符串中所有的内容,返回一个迭代器,迭代器中拿到内容需要.group()
it = re.finditer(r'\d+', '123abc456')
# for i in it:
#     print(i.group())  # 123  456

# search返回结果是match对象,需要.group()获取内容,找到第一个结果
s = re.search(r'\d+', 'abc123def456')
# print(s.group())

# match是从头开始匹配,如果开头没有匹配的内容,返回None;就是固定第一个字符开始匹配
s = re.match(r'\d+', '123abc456')

# 预加载正则表达式
obj = re.compile(r'\d+')

ret = obj.finditer('abc123def456')

# (?P<分组名字>正则表达式) 可以单独从正则匹配的内容中提取出想要的内容
obj = re.compile(r'<div class=\'(.*?)\'>(?P<wahaha>.*?)</div>', re.S)
res = obj.finditer('<div class=\'123\'>哈哈哈哈</div>')
for it in res:
    print(it.group('wahaha'))

经典豆瓣电影练手

import requests
import re

url = 'https://movie.douban.com/top250'
headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/126.0.0.0 Safari/537.36 Edg/126.0.0.0",

}
resp = requests.get(url, headers=headers)

page_content = resp.text

obj = re.compile(r'<li>.*?<div class="item">.*?<span class="title">(?P<name>.*?)</span>.*?'
                 r'<p class="">.*?<br>.*?(?P<year>.*?)&nbsp.*?<span class="rating_num" property="v:average">'
                 r'(?P<score>.*?)</span>.*?<span>(?P<num>.*?)人评价</span>', re.S)


result = obj.finditer(page_content)
data = []
for it in result:
    ele = []
    ele.append(it.group('name'))
    ele.append(it.group('year').strip())
    ele.append(it.group('score'))
    ele.append(it.group('num'))
    data.append(ele)

    dic = it.groupdict()  # 变字典方便写入文件

print(data)
resp.close()

电影天堂,代码需要小小修改,有些问题

import requests

# import urllib.request
# import http.cookiejar


# filename = 'cookie.txt'
#
# cookie = http.cookiejar.MozillaCookieJar(filename)
#
# handler = urllib.request.HTTPCookieProcessor(cookie)
#
# opener = urllib.request.build_opener(handler)
# response = opener.open("https://www.dytt89.com")
# cookie.save(ignore_discard=True, ignore_expires=True)

domain = 'https://www.dytt89.com'


headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/126.0.0.0 Safari/537.36 Edg/126.0.0.0",
    "cookie":'xxx'
}


resp = requests.get(domain,headers=headers, verify=False)
resp.encoding = 'gb2312' # 指定字符集
# 去掉安全验证

result1 = obj1.finditer(resp.text)
child_href_list =[]
for it in result1:
    ul = it.group(m)
    result2 = obj2.finditer(ul)
    for itt in result2:
        child_href = domain + itt.group(hme).strip("/")
        child_href_list.append(child_href)#把子页面ứ报保存起来

# 再次访问子页面爬
resp.close()
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值