网络爬虫-解析网页数据

学习目标

了解解析网页的技术,能够说出正则表达式、Xpath 、Beautiful Soup与JSONPath的特点
熟悉正则表达式的语法,能够归纳元字符与预定义字符集的含义
掌握re模块的用法,能够灵活应用re模块解析网页数据
了解XPath的概念,能够说出XPath的路径表达式的搜索方法

章节概述

通过对前面章节的学习,我们已经将整个静态网页的源代码全部抓取下来了,并且源代码包
含了最终要提取的数据。这些数据分为非结构化数据和结构化数据两种。由于这两种数据
各有各的特点,因此需要采用不同的技术进行解析,提取与目标有关的数据。本章将围绕
着解析网页数据的相关知识进行详细讲解。

一.解析网页数据的技术

Python中提供了多种解析网页数据的技术,包括正则表达式、XPath 、Beautiful、Soup、JSONPath 。

正则表达式是一种文本模式,这种模式描述了匹配字符串的规则,用于检索字符串中是否有符合该模式的子串,或者对匹配到的子串进行替换。正则表达式的优点是功能强大,应用广泛,缺点是只适合匹配文本的字面意义,而不适合匹配文本意义。例如,正则表达式在匹配嵌套了HTML内容的文本时,会忽略HTML内容本身存在的层次结构,而是将HTML内容作为普通文本进行搜索。

XPath是XML路径语言,用于从HTML或XML格式的数据中提取所需的数据。XPath适合处理层次结构比较明显的数据,它能够基于HTML或XML的节点树确定目标节点所在的路径,顺着这个路径便可以找到节点对应的文本或属性值。

Beautiful Soup是一个可以从HTML或XML文件中提取数据的Python库,它同样可以使用XPath语法提取数据,并且也在此基础上做^了方便开发者的封装,提供了更多选取节点的方式。

JSONPath的作用类似XPath,它也是以表达式的方式解析数据的,但只能解析JSON格式的数据。

若要解析纯文本,则可以选择正则表达式;若要解析HTML或XML格式的数据,则可以选择正则表达式、XPath 、BeautifulSoup ;若要解析JSON格式的数据,则可以选择JSONPath。为便于开发者使用这些技术,Python 提供了- -些库或模块进行支持,包括re、lxml、 bs4、 jsonpath ,其中re模块支持正则表达式; lxml 库和bs4库支持XPath ; jsonpath 模块支持JSONPath。

二.正则表达式与re模块

正则表达式

正则表达式是对字符串操作的一种逻辑公式,它会将事先定义好的一-些特定字符,以及这些特定字符的组合,组成- -个规则字符串,并且通过这个规则字符串表达对给定字符串的过滤逻辑。


一条正则表达式也称为一-个模式,使用每个模式可以匹配指定文本中与表达式模式相同的字符串。正则表达式由普通字符、元字符或预定义字符集组成,其中普通字符包括大小写字母和数字。

re模块的使用

Python中提供了re模块操作正则表达式,该模块中提供了丰富的函数或方法来实现文本匹配查找、文本替换、文本分割等功能。re模块的使用一般可以分为两步,分别是创建Pattern对象和全文匹配。

创建Pattern对象

为了节省每次编译正则表达式的开销,保证正则表达式可以重复使用,我们可以使用compile()函数对正则表达式进行预编译,从而生成一个代表正则表达式的Pattern对象。

                                                        compile(pattern, flags=0)

以上函数中,参数pattern表示一个正则表达式;参数flags用于指定正则表达式匹配的模式,该参数的常用取值及其含义如下。

re.I忽略大小写
re.L做本地化识别(locale-aware)匹配,使预定义字符集\w、\W、\b、\B、\s、\S取决于当前区域设定
re.M多行匹配,影响“^”和“$”
re.S使字符“.”匹配所有字符,包括换行符
re.U根据Unicode字符集匹配字符
re.A根据ASCII字符集匹配字符
re.X允许使用更灵活的格式(多行、忽略空白字符、加入注释)书写正则表达式

全文匹配

如果希望从全部文本中匹配所有符合正则表达式的字符串,则可以使用Pattern对象的findall()与finditer()函数,其中findall()函数用于获取目标文本中所有与正则表达式匹配的内容,并将所有匹配的内容以列表的形式返回;finditer()函数同样可以获取目标文本中所有与正则表达式匹配的内容,但该方法会将匹配到的子串以迭代器的形式返回。

findall()函数的声明如下:

                                        findall(pattern, string, flags=0)

pattern:表示一个正则表达式。

string:表示待匹配的文本。

flags:用于指定正则表达式匹配的模式,该参数支持的取值与compile()函数中参数flags的取值相同。

当处理XML文档时,XPath是一种非常有用的工具。它是一种用于在XML文档中定位和选择节点的语言。在Python中,我们可以使用lxml库来使用XPath来解析XML文档。本文将介绍XPath的基本概念和lxml库的使用方法。

什么是XPath?

XPath是一种用于在XML文档中定位和选择节点的语言。它使用路径表达式来描述节点的位置。XPath表达式可以基于节点的标签名称、属性、文本内容等来选择节点。XPath提供了一种简洁而强大的方式来解析和提取XML文档中的数据。

安装lxml库

在使用lxml库之前,我们需要先安装它。可以使用pip命令来安装lxml库:

pip install lxml

使用lxml库解析XML文档

假设我们有一个名为example.xml的XML文档,内容如下:

<root>
    <book>
        <title>Python编程入门</title>
        <author>John Smith</author>
        <year>2021</year>
    </book>
    <book>
        <title>数据结构与算法</title>
        <author>Jane Doe</author>
        <year>2020</year>
    </book>
</root>

现在,我们想要使用XPath来提取所有书籍的标题和作者信息。下面是使用lxml库和XPath来实现的代码:

from lxml import etree

# 加载XML文档
tree = etree.parse("example.xml")

# 使用XPath选择所有的book节点
books = tree.xpath("//book")

# 遍历每个book节点,提取标题和作者信息
for book in books:
    title = book.xpath("title/text()")[0]
    author = book.xpath("author/text()")[0]
    print("书名:", title)
    print("作者:", author)
    print()

在这段代码中,我们首先使用etree.parse()函数加载XML文档,并将其存储在一个名为tree的对象中。然后,我们使用tree.xpath()函数来执行XPath查询。在这个例子中,我们使用"//book"来选择所有的book节点。

接下来,我们使用for循环遍历每个book节点,并使用book.xpath()函数来提取标题和作者信息。在XPath表达式中,我们使用"title/text()"来选择title节点的文本内容,使用"author/text()"来选择author节点的文本内容。

最后,我们打印出每本书的标题和作者信息。

运行这段代码,输出将会是:

书名: Python编程入门
作者: John Smith

书名: 数据结构与算法
作者: Jane Doe

通过使用lxml库和XPath,我们可以方便地解析XML文档,并提取所需的数据。XPath提供了丰富的语法和功能,可以根据节点的层次结构、属性、文本内容等进行定位和选择。结合lxml库的强大功能,我们可以轻松地处理和分析XML数据。

小结

在本章中,我们围绕解析网页数据的相关内容进行介绍,首先介绍了解析网页数据的技术,然后依次介绍了正则表达式与re模块、XPath与lxml库,。希望读者通过本章内容的学习,可以掌握每种解析网页数据的方式。

  • 20
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值