Python爬虫数据解析:正则表达式解析;xpath解析数据;BeautifulSoup(bs4)解析

本文介绍了Python爬虫中三种常见的数据解析方法:正则表达式、XPath和BeautifulSoup(bs4)。通过实例详细讲解了正则如何逐级匹配,XPath如何从不同起点进行匹配,以及如何利用BeautifulSoup解析网页结构。
摘要由CSDN通过智能技术生成

爬虫爬取到的数据一般要进行解析,常用解析数据的方法一般有以下几种:

  1. 正则表达式解析
  2. xpath解析
  3. BeautifulSoup解析

其它不常用的不再介绍

1、正则表达式解析

2、xpath解析

xpath下标从1开始

(1)匹配路径中只有一个/(表示从根节点开始一级一级往下进行匹配)

首先网页代码是我博客主页代码,如下所示:
在这里插入图片描述
接下来是Python代码:

import requests
from lxml import etree

''' 定义函数获取CSDN的博客标题 '''
def get_title():
    # 网址及请求头
    url = 'https://blog.csdn.net/weixin_42603129'
    headers = {
   'User-Agent': '"Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_0) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.56 Safari/535.11"'}

    # 获取页面信息
    response = requests.get(url, headers =
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值