python_spider 06 XPATH,基础解析方法

XML解析神奇-- XPath。

需要先将 HTML文件 转换成 XML文档,然后用 XPath 查找 HTML 节点或元素。

什么是XML

XML 指可扩展标记语言(EXtensible Markup Language)
XML 是一种标记语言,很类似 HTML
XML 的设计宗旨是传输数据,而非显示数据
XML 的标签需要我们自行定义。
XML 被设计为具有自我描述性。
XML 是 W3C 的推荐标准

XML文档示例

1 <?xml version="1.0" encoding="utf-8"?>
2 <bookstore>
3   <book category="cooking">
4     <title lang="en">this is title</title>
5     <content>hello world</>
6   </book>
7 </bookstore>

在这里插入图片描述

什么是XPath

XPath (XML Path Language) 是一门在 XML 文档中查找信息的语言,可用来在 XML 文档中对元素和属性进行遍历。
XPath 开发工具
开源的XPath表达式编辑工具:XMLQuire(XML格式文件可用)
Chrome插件 XPath Helper
Firefox插件 XPath Checker

选取节点
XPath 使用路径表达式来选取 XML 文档中的节点或者节点集。这些路径表达式和我们在常规的电脑文件系统中看到的表达式非常相似。

下面列出了最常用的路径表达式:

表达式	描述
nodename	选取此节点的所有子节点。
/	从根节点选取。
//	从匹配选择的当前节点选择文档中的节点,而不考虑它们的位置。
.	选取当前节点。
..	选取当前节点的父节点。
@	选取属性。

在下面的表格中,我们已列出了一些路径表达式以及表达式的结果:

路径表达式 结果

bookstore	选取 bookstore 元素的所有子节点。
/bookstore	选取根元素 bookstore。注释:假如路径起始于正斜杠( / ),则此路径始终代表到某元素的绝对路径!
bookstore/book	选取属于 bookstore 的子元素的所有 book 元素。
//book	选取所有 book 子元素,而不管它们在文档中的位置。
bookstore//book	选择属于 bookstore 元素的后代的所有 book 元素,而不管它们位于 bookstore 之下的什么位置。
//@lang	选取名为 lang 的所有属性。

路径表达式 结果

/bookstore/book[1]	选取属于 bookstore 子元素的第一个 book 元素。
/bookstore/book[last()]	选取属于 bookstore 子元素的最后一个 book 元素。
/bookstore/book[last()-1]	选取属于 bookstore 子元素的倒数第二个 book 元素。
/bookstore/book[position()<3]	选取最前面的两个属于 bookstore 元素的子元素的 book 元素。
//title[@lang]	选取所有拥有名为 lang 的属性的 title 元素。
//title[@lang=’eng’]	选取所有 title 元素,且这些元素拥有值为 eng 的 lang 属性。
/bookstore/book[price>35.00]	选取 bookstore 元素的所有 book 元素,且其中的 price 元素的值须大于 35.00。
/bookstore/book[price>35.00]/title	选取 bookstore 元素中的 book 元素的所有 title 元素,且其中的 price 元素的值须大于 35.00。

选取未知节点

XPath 通配符可用来选取未知的 XML 元素。

通配符	描述
*	匹配任何元素节点。
@*	匹配任何属性节点。
node()	匹配任何类型的节点。

路径表达式

/bookstore/*	选取 bookstore 元素的所有子元素。
//*	选取文档中的所有元素。
//title[@*]	选取所有带有属性的 title 元素。

通过在路径表达式中使用“|”运算符,您可以选取若干个路径

//book/title | //book/price	选取 book 元素的所有 title 和 price 元素。
//title | //price	选取文档中的所有 title 和 price 元素。
/bookstore/book/title | //price	选取属于 bookstore 元素的 book 元素的所有 title 元素,以及文档中所有的 price 元素

XPath的运算符 :

在这里插入图片描述

lxml库

lxml 是 一个HTML/XML的解析器,主要的功能是如何解析和提取 HTML/XML 数据。
lxml和正则一样,也是用 C 实现的,是一款高性能的 Python HTML/XML 解析器,我们可以利用之前学习的XPath语法,来快速的定位特定元素以及节点信息。
可使用 pip 安装:

pip install lxml (或通过wheel方式安装)

我们利用它来解析 HTML 代码,简单示例:

 1 from lxml import etree
 2 
 3 text = '''
 4 <div>
 5     <ul>
 6          <li class="item-0"><a href="link1.html">first item</a></li>
 7          <li class="item-1"><a href="link2.html">second item</a></li>
 8          <li class="item-inactive"><a href="link3.html">third item</a></li>
 9          <li class="item-1"><a href="link4.html">fourth item</a></li>
10          <li class="item-0"><a href="link5.html">fifth item</a> # 注意,此处缺少一个 li 闭合标签
11      </ul>
12  </div>
13 '''
14 
15 # 利用etree.HTML,将字符串解析为HTML文档
16 html = etree.HTML(text)
17 
18 # 按字符串序列化HTML文档
19 # html = etree.tostring(html).decode("utf8")  # 不能正常显示中文
20 html = etree.tostring(html, encoding="utf-8", pretty_print=True, method="html").decode("utf-8")  # 可以正常显示中文
21 
22 print(html)

运行结果如下:

 1 <html><body>
 2 <div>
 3     <ul>
 4          <li class="item-0"><a href="link1.html">first item</a></li>
 5          <li class="item-1"><a href="link2.html">second item</a></li>
 6          <li class="item-inactive"><a href="link3.html">third item</a></li>
 7          <li class="item-1"><a href="link4.html">fourth item</a></li>
 8          <li class="item-0">
 9 <a href="link5.html">fifth item</a> # 注意,此处缺少一个 li 闭合标签
10      </li>
11 </ul>
12  </div>
13 </body></html>

lxml 可以自动修正 html 代码,例子里不仅补全了 li 标签,还添加了 body,html 标签。
文件读取:
除了直接读取字符串,lxml还支持从文件里读取内容。我们新建一个 index.html 文件:

1 <div>
2     <ul>
3          <li class="item-0"><a href="link1.html">first item</a></li>
4          <li class="item-1"><a href="link2.html">second item</a></li>
5          <li class="item-inactive"><a href="link3.html"><span class="bold">third item</span></a></li>
6          <li class="item-1"><a href="link4.html">fourth item</a></li>
7          <li class="item-0"><a href="link5.html">fifth item</a></li>
8      </ul>
9  </div>

再利用 etree.parse() 方法来读取文件。

1 from lxml import etree
2 
3 # 读取外部文件 hello.html
4 html = etree.parse('./index.html', etree.HTMLParser())  # 指定解析器HTMLParser会根据文件修复HTML文件中缺失的如声明信息
5 html = etree.tostring(html, encoding="utf-8", pretty_print=True, method="html").decode("utf-8")
6 
7 print(html)

 1 <!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.0 Transitional//EN" "http://www.w3.org/TR/REC-html40/loose.dtd">
 2 <html><body><div>
 3     <ul>
 4          <li class="item-0"><a href="link1.html">first item</a></li>
 5          <li class="item-1"><a href="link2.html">second item</a></li>
 6          <li class="item-inactive"><a href="link3.html"><span class="bold">third item</span></a></li>
 7          <li class="item-1"><a href="link4.html">fourth item</a></li>
 8          <li class="item-0"><a href="link5.html">fifth item</a></li>
 9      </ul>
10  </div></body></html>

接下来我们看一下 XPath 的实力测试。

1. 获取所有的

  • 标签
  • 1 from lxml import etree
     2 
     3 html = etree.parse('./index.html', etree.HTMLParser())
     4 print(type(html))  # <class 'lxml.etree._ElementTree'>
     5 
     6 result = html.xpath('//li')
     7 
     8 print(result)  # [<Element li at 0x109c66248>, <Element li at 0x109c66348>, <Element li at 0x109c66388>, <Element li at 0x109c663c8>, <Element li at 0x109c66408>]
     9 print(len(result))  # 5
    10 print(type(result))  # <class 'list'>
    11 print(type(result[0]))  # <class 'lxml.etree._Element'>
    

    2. 继续获取

  • 标签的所有 class属性
  •   1 from lxml import etree
        2 
        3 html = etree.parse('./index.html', etree.HTMLParser())
        4 result = html.xpath('//li/@class')
        5 
        6 print(result)  # ['item-0', 'item-1', 'item-inactive', 'item-1', 'item-0']
    

    3. 继续获取

  • 标签下hre 为 link1.html 的 标签
  • 1 from lxml import etree
    2 
    3 html = etree.parse('./index.html', etree.HTMLParser())
    4 result = html.xpath('//li/a[@href="link1.html"]')
    5 
    6 print(result)  # [<Element a at 0x10b324288>]
    

    4. 获取

  • 标签下的所有 标签
  • 1 from lxml import etree
    2 
    3 html = etree.parse('./index.html', etree.HTMLParser())
    4 # result = html.xpath('//li/span')
    5 # 注意这么写是不对的:因为 / 是用来获取子元素的,而 <span> 并不是 <li> 的子元素,所以,要用双斜杠
    6 
    7 result = html.xpath('//li//span')
    8 
    9 print(result)  # [<Element span at 0x10a59b308>]
    

    5. 获取

  • 标签下的标签里的所有 class
  • 1 from lxml import etree
    2 
    3 html = etree.parse('./index.html', etree.HTMLParser())
    4 result = html.xpath('//li/a//@class')
    5 
    6 print(result)  # ['bold']
    

    6. 获取最后一个 href

    1 from lxml import etree
    2 
    3 html = etree.parse('./index.html', etree.HTMLParser())
    4 result = html.xpath('//li[last()]/a/@href')
    5 # 谓语 [last()] 可以找到最后一个元素
    6 
    7 print(result)  # ['link5.html']
    

    7. 获取倒数第二个元素的内容

    1 from lxml import etree
    2 
    3 html = etree.parse('./index.html', etree.HTMLParser())
    4 result = html.xpath('//li[last()-1]/a')
    5 
    6 # text 方法可以获取元素内容
    7 print(result[0].text)  # fourth item
    

    8. 获取 class 值为 bold 的标签名

    1 from lxml import etree
    2 
    3 html = etree.parse('./index.html', etree.HTMLParser())
    4 result = html.xpath('//*[@class="bold"]')
    5 
    6 # tag方法可以获取标签名
    7 print(result[0].tag)  # span
    

    XPath的更多用法参考:http://www.w3school.com.cn/xpath/index.asp

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值