xpath的总结

1. XPath语法

XPath 是一门在 XML 文档中查找信息的语言。XPath 可用来在 XML 文档中对元素和属性进行遍历。XPath 是 W3C XSLT 标准的主要元素,并且 XQuery 和 XPointer 都构建于 XPath 表达之上

1.1 节点的关系
  • 父(Parent)
  • 子(Children)
  • 同胞(Sibling)
  • 先辈(Ancestor)
  • 后代(Descendant)
1.2 选取节点
1.2.1 常用的路径表达式
表达式描述
nodename选取此节点的所有子节点
/从根节点选取
//从匹配选择的当前节点选择文档中的节点,而不考虑它们的位置
.选取当前节点
选取当前节点的父节点
@选取属性
1.2.2 通配符

XPath 通配符可用来选取未知的 XML 元素。

通配符描述举例结果
*匹配任何元素节点xpath(‘div/*’)获取div下的所有子节点
@*匹配任何属性节点xpath(‘div[@*]’)选取所有带属性的div节点
node()匹配任何类型的节点
1.2.3 选取若干路径

通过在路径表达式中使用“|”运算符,您可以选取若干个路径

表达式结果
xpath(’//div|//table’)获取所有的div与table节点
1.2.4 谓语

谓语被嵌在方括号内,用来查找某个特定的节点或包含某个制定的值的节点

表达式结果
xpath(’/body/div[1]’)选取body下的第一个div节点
xpath(’/body/div[last()]’)选取body下最后一个div节点
xpath(’/body/div[last()-1]’)选取body下倒数第二个节点
xpath(’/body/div[positon()< 3]’)选取body下前丙个div节点
xpath(’/body/div[@class]’)选取body下带有class属性的div节点
xpath(’/body/div[@class=“main”]’)选取body下class属性为main的div节点
xpath(’/body/div[price>35.00]’)选取body下price元素大于35的div节点
1.2.5 XPath 运算符
运算符描述实例返回值
计算两个节点集//book//cd
+加法6 + 410
减法6 – 42
*乘法6 * 424
div除法8 div 42
=等于price=9.80如果 price 是 9.80,则返回 true。如果 price 是 9.90,则返回 false。
!=不等于price!=9.80如果 price 是 9.90,则返回 true。如果 price 是 9.80,则返回 false。
<小于price<9.80如果 price 是 9.00,则返回 true。如果 price 是 9.90,则返回 false。
<=小于或等于price<=9.80如果 price 是 9.00,则返回 true。如果 price 是 9.90,则返回 false。
>大于price>9.80如果 price 是 9.90,则返回 true。如果 price 是 9.80,则返回 false。
>=大于或等于price>=9.80如果 price 是 9.90,则返回 true。如果 price 是 9.70,则返回 false。
orprice=9.80 or price=9.70如果 price 是 9.80,则返回 true。如果 price 是 9.50,则返回 false。
andprice>9.00 and price<9.90如果 price 是 9.80,则返回 true。如果 price 是 8.50,则返回 false。
mod计算除法的余数5 mod 21
2 使用
2.1 小例子
from lxml import etree
text = '''
<div>
    <ul>
         <li class="item-0"><a href="link1.html">first item</a></li>
         <li class="item-1"><a href="link2.html">second item</a></li>
         <li class="item-inactive"><a href="link3.html">third item</a></li>
         <li class="item-1"><a href="link4.html">fourth item</a></li>
         <li class="item-0"><a href="link5.html">fifth item</a>
     </ul>
 </div>
'''
html = etree.HTML(text)
result = etree.tostring(html)
print(result)

首先我们使用 lxml 的 etree 库,然后利用 etree.HTML 初始化,然后我们将其打印出来。

其中,这里体现了 lxml 的一个非常实用的功能就是自动修正 html 代码,大家应该注意到了,最后一个 li 标签,其实我把尾标签删掉了,是不闭合的。不过,lxml 因为继承了 libxml2 的特性,具有自动修正 HTML 代码的功能。

所以输出结果是这样的

<html><body>
<div>
    <ul>
         <li class="item-0"><a href="link1.html">first item</a></li>
         <li class="item-1"><a href="link2.html">second item</a></li>
         <li class="item-inactive"><a href="link3.html">third item</a></li>
         <li class="item-1"><a href="link4.html">fourth item</a></li>
         <li class="item-0"><a href="link5.html">fifth item</a></li>
</ul>
 </div>

</body></html>

不仅补全了 li 标签,还添加了 body,html 标签。
文件读取

除了直接读取字符串,还支持从文件读取内容。比如我们新建一个文件叫做 hello.html,内容为

<div>
    <ul>
         <li class="item-0"><a href="link1.html">first item</a></li>
         <li class="item-1"><a href="link2.html">second item</a></li>
         <li class="item-inactive"><a href="link3.html"><span class="bold">third item</span></a></li>
         <li class="item-1"><a href="link4.html">fourth item</a></li>
         <li class="item-0"><a href="link5.html">fifth item</a></li>
     </ul>
 </div>

利用 parse 方法来读取文件

from lxml import etree
html = etree.parse('hello.html')
result = etree.tostring(html, pretty_print=True)
print(result)

同样可以得到相同的结果

3.2 XPath具体使用

依然以上一段程序为例

  1. 获取所有的 <li> 标签
from lxml import etree
html = etree.parse('hello.html')
print (type(html))
result = html.xpath('//li')
print (result)
print (len(result))
print (type(result))
print (type(result[0]))

运行结果

<type 'lxml.etree._ElementTree'>
[<Element li at 0x1014e0e18>, <Element li at 0x1014e0ef0>, <Element li at 0x1014e0f38>, <Element li at 0x1014e0f80>, <Element li at 0x1014e0fc8>]

<type 'list'>
<type 'lxml.etree._Element'>

可见,etree.parse 的类型是 ElementTree,通过调用 xpath 以后,得到了一个列表,包含了 5 个 <li> 元素,每个元素都是 Element 类型

  1. 获取<li>标签的所有 class
result = html.xpath('//li/@class')
print (result)

运行结果

['item-0', 'item-1', 'item-inactive', 'item-1', 'item-0']
  1. 获取 <li> 标签下 href 为 link1.html 的 <a> 标签
result = html.xpath('//li/a[@href="link1.html"]')
print (result)

运行结果

[<Element a at 0x10ffaae18>]
  1. 获取<li>标签下的所有 <span> 标签

注意: 这么写是不对的

result = html.xpath('//li/span')

#因为 / 是用来获取子元素的,而 <span> 并不是 <li> 的子元素,所以,要用双斜杠
result = html.xpath('//li//span')
print(result)

运行结果

[<Element span at 0x10d698e18>]
  1. 获取 <li> 标签下的所有 class,不包括<li>
result = html.xpath('//li/a//@class')
print (resul)t
#运行结果
['blod']
  1. 获取最后一个 <li><a> 的 href
result = html.xpath('//li[last()]/a/@href')
print (result)

运行结果

['link5.html']
  1. 获取倒数第二个元素的内容
result = html.xpath('//li[last()-1]/a')
print (result[0].text)

运行结果

fourth item
  1. 获取 class 为 bold 的标签名
result = html.xpath('//*[@class="bold"]')
print (result[0].tag)

运行结果

span
选择XML文件中节点:
  • element(元素节点)
  • attribute(属性节点)
  • text (文本节点)
  • concat(元素节点,元素节点)
  • comment (注释节点)
  • root (根节点)
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
使用BeautifulSoup库获取xpath的内容是不直接支持的,因为BeautifulSoup是一个用于解析HTML和XML文档的库,而xpath是一种用于在XML文档中定位元素的查询语言。然而,你可以使用BeautifulSoup和xpath结合使用来实现这个功能。 首先,你需要使用BeautifulSoup解析HTML或XML文档,得到一个BeautifulSoup对象。然后,你可以使用BeautifulSoup对象的find_all方法来查找符合特定条件的元素。在find_all方法中,你可以使用标签名、属性名和属性值等来指定要查找的元素。 例如,假设你有一个BeautifulSoup对象soup,你想要获取所有a标签的href属性值,你可以使用以下代码: ``` links = soup.find_all('a') for link in links: href = link.get('href') print(href) ``` 这样就可以获取到所有a标签的href属性值了。 需要注意的是,BeautifulSoup的find_all方法返回的是一个列表,你可以通过遍历列表来获取每个元素的属性值或文本内容。 希望这个回答对你有帮助!\[1\] \[2\] \[3\] #### 引用[.reference_title] - *1* [Python爬虫常用库requests、beautifulsoup、selenium、xpath总结](https://blog.csdn.net/qq_45176548/article/details/118187068)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^koosearch_v1,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [BeautifulSoup 与 Xpath](https://blog.csdn.net/kermitJam/article/details/82634865)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^koosearch_v1,239^v3^insert_chatgpt"}} ] [.reference_item] - *3* [python爬虫之bs4解析和xpath解析](https://blog.csdn.net/m0_52656075/article/details/122896071)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^koosearch_v1,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值