python中xpath库知识点记录

本文详细介绍了XPath的安装、解析流程、使用方法,包括XPath语法、路径表达式、谓语、通配符、逻辑运算、属性查询和内容查询等,帮助读者掌握在HTML文档中高效查找和提取信息的技巧。
摘要由CSDN通过智能技术生成
# xpath

### 1、xpath安装与使用

**安装**

- 安装lxml库

  pip install lxml  -i pip源


### 2、解析流程与使用

**解析流程**

+ 实例化一个etree的对象,把即将被解析的页面源码加载到该对象
+ 调用该对象的xpath方法结合着不同形式的xpath表达进行标签定位和数据提取

**使用**

- 导入lxml.etree

  from lxml import etree

- etree.parse()

  解析本地html文件

  html_tree = etree.parse('XX.html')

- etree.HTML()(建议)

  解析网络的html字符串

  html_tree = etree.HTML(html字符串)

- html_tree.xpath()

  使用xpath路径查询信息,返回一个列表

注意:如果lxml解析本地HTML文件报错可以安装如下添加参数

```python
parser = etree.HTMLParser(encoding="utf-8")
selector = etree.parse('./lol_1.html',parser=parser)
result=etree.tostring(selector)
```

### 3、xpath语法

XPath 是一门在 XML 文档中查找信息的语言。XPath 用于在 XML 文档中通过元素和属性进行导航。

// 的作用是:无论在html文档中的哪个位置,都匹配。

+ **路径表达式**

  | 表达式  | 描述                            |
  | :--- | :---------------------------- |
  | /    | 从根节点选取。                       |
  | //   | 从匹配选择的当前节点选择文档中的节点,而不考虑它们的位置。 |
  | ./   | 当前节点再次进行xpath                 |
  | @    | 选取属性。                         |

  **实例**

  在下面的表格中,我们已列出了一些路径表达式以及表达式的结果:

  | 路径表达式               | 结果                                       |
  | :------------------ | :--------------------------------------- |
  | /html               | 选取根元素 bookstore。注释:假如路径起始于正斜杠( / ),则此路径始终代表到某元素的绝对路径! |
  | //li                | 选取所有li 子元素,而不管它们在文档中的位置。                 |
  | //ul//a             | 选择属于 ul元素的后代的所有 li元素,而不管它们位于 ul之下的什么位置。  |
  | 节点对象.xpath('./div') | 选择当前节点对象里面的第一个div节点                      |
  | //@href             | 选取名为 href 的所有属性。                         |

+ **谓语(Predicates)**

  谓语用来查找某个特定的节点或者包含某个指定的值的节点。

  谓语被嵌在方括号中。

  **实例**

  在下面的表格中,我们列出了带有谓语的一些路径表达式,以及表达式的结果:

  | 路径表达式                              | 结果                                       |
  | :--------------------------------- | :--------------------------------------- |
  | /ul/li[1]                          | 选取属于 ul子元素的第一个 li元素。                     |
  | /ul/li[last()]                     | 选取属于 ul子元素的最后一个 li元素。                    |
  | /ul/li[last()-1]                   | 选取属于 ul子元素的倒数第二个 li元素。                   |
  | //ul/li[position()<3]              | 选取最前面的两个属于 ul元素的子元素的 li元素。               |
  | //a[@title]                        | 选取所有拥有名为 title的属性的 a元素。                  |
  | //a[@title='xx']                   | 选取所有 a元素,且这些元素拥有值为 xx的 title属性。          |
  | //a[@title>10]   `> < >= <= !=`    | 选取 a元素的所有 title元素,且其中的 title元素的值须大于 10。  |
  | /bookstore/book[price>35.00]/title | 选取 bookstore 元素中的 book 元素的所有 title 元素,且其中的 price 元素的值须大于 35.00。 |

+ **选取未知节点**

  XPath 通配符可用来选取未知的 XML 元素。

  | 通配符    | 描述                              |
  | :----- | :------------------------------ |
  | *      | 匹配任何元素节点。  一般用于浏览器copy xpath会出现 |
  | @*     | 匹配任何属性节点。                       |
  | node() | 匹配任何类型的节点。                      |

  **实例**

  在下面的表格中,我们列出了一些路径表达式,以及这些表达式的结果:

  | 路径表达式       | 结果                     |
  | :---------- | :--------------------- |
  | /ul/*       | 选取 bookstore 元素的所有子元素。 |
  | //*         | 选取文档中的所有元素。            |
  | //title[@*] | 选取所有带有属性的 title 元素。    |
  | //node()    | 获取所有节点                 |

  **选取若干路径**

  通过在路径表达式中使用“|”运算符,您可以选取若干个路径。

  **实例**

  在下面的表格中,我们列出了一些路径表达式,以及这些表达式的结果:

  | 路径表达式                            | 结果                                       |
  | :------------------------------- | :--------------------------------------- |
  | //book/title \| //book/price     | 选取 book 元素的所有 title 和 price 元素。          |
  | //title \| //price               | 选取文档中的所有 title 和 price 元素。               |
  | /bookstore/book/title \| //price | 选取属于 bookstore 元素的 book 元素的所有 title 元素,以及文档中所有的 price 元素。 |

+ 逻辑运算

  - 查找所有id属性等于head并且class属性等于s_down的div标签

    ```python
    //div[@id="head" and @class="s_down"]
    ```

  - 选取文档中的所有 title 和 price 元素。

    ```python
    //title | //price
    ```

    注意: “|”两边必须是完整的xpath路径

+ 属性查询

  - 查找所有包含id属性的div节点

    ```python
    //div[@id]
    ```

  - 查找所有id属性等于maincontent的div标签

    ```python
    //div[@id="maincontent"]
    ```

  - 查找所有的class属性

    ```python
    //@class
    ```

  - //@attrName

    ```python
    //li[@name="xx"]//text()  # 获取li标签name为xx的里面的文本内容
    ```

+ 获取第几个标签  索引从1开始

  ```python
  tree.xpath('//li[1]/a/text()')  # 获取第一个
  tree.xpath('//li[last()]/a/text()')  # 获取最后一个
  tree.xpath('//li[last()-1]/a/text()')  # 获取倒数第二个
  ```

+ 模糊查询

  - 查询所有id属性中包含he的div标签

    ```python
    //div[contains(@id, "he")]
    ```

  - 查询所有id属性中包以he开头的div标签

    ```python
    //div[starts-with(@id, "he")]
    ```

+ 内容查询

  查找所有div标签下的直接子节点h1的内容

  ```python
  //div/h1/text()
  ```

+ 属性值获取

  ```python
  //div/a/@href   获取a里面的href属性值
  ```

+ 获取所有

  ```python
  //*  #获取所有
  //*[@class="xx"]  #获取所有class为xx的标签
  ```

+ 获取节点内容转换成字符串

  ```python
  c = tree.xpath('//li/a')[0]
  result=etree.tostring(c, encoding='utf-8')
  print(result.decode('UTF-8'))
  ```

使用案例:

from lxml import etree
tree = etree.HTML(open('./素材/豆瓣.html', 'r', encoding='UTF-8').read())
# print(tree)
# 匹配所有的a
# // 代表无论在HTML文档中的哪个位置 都匹配
# all_a = tree.xpath('//a')
# 使用tostring将节点对象转换为标签
# print(etree.tostring(all_a[0], encoding='UTF-8').decode('UTF-8'))
# print(etree.tostring(all_a[1], encoding='UTF-8').decode('UTF-8'))

# 获取第一个a标签中的文本内容
# 根据第一个节点a 在接着往下进行匹配
# print(all_a[0].xpath('./text()'))


# all_a = tree.xpath('//a')
# all_a = tree.xpath('/html/body/div/div/div/a/text()')
# xpath里从第一个开始
# 取第一个div里面的超链接的文本内容
# all_a = tree.xpath('/html/body/div/div/div[1]/a/text()')
# print(all_a)

# 匹配虚构类的ul
# ul = tree.xpath('//ul[@class="cover-col-4 clearfix"]')
# print(etree.tostring(ul[0], encoding='UTF-8').decode('UTF-8'))
# 获取第一个li
# ul = tree.xpath('//ul[@class="cover-col-4 clearfix"]/li')
# print(ul[0])

# ul = tree.xpath('//ul[@class="cover-col-4 clearfix"]/li[1]')
# ul = tree.xpath('//ul[@class="cover-col-4 clearfix"]/li[1]//text()')
# 获取第二个li的所有文本
# ul = tree.xpath('//ul[@class="cover-col-4 clearfix"]/li[2]//text()')
# 获取最后一个
# ul = tree.xpath('//ul[@class="cover-col-4 clearfix"]/li[last()]//text()')
# 倒数第二个
# ul = tree.xpath('//ul[@class="cover-col-4 clearfix"]/li[last()-1]//text()')
# 从第四个
# ul = tree.xpath('//ul[@class="cover-col-4 clearfix"]/li[position() > 3]//text()')
# < 3 头两个
# ul = tree.xpath('//ul[@class="cover-col-4 clearfix"]/li[position() < 3]//text()')

# 进行二次xpath
# ul = tree.xpath('//ul[@class="cover-col-4 clearfix"]')
# 进行匹配li  从当前这个ul继续往后匹配
# print(ul[0].xpath('./li[1]//text()'))

# 获取所有的img标签
# img = tree.xpath('//img')

# 限定img的范围
# img = tree.xpath('//a[@class="cover"]/img')
# for i in img:
#     print(etree.tostring(i, encoding='UTF-8').decode('UTF-8'))

# 获取img的src属性
# img = tree.xpath('//a[@class="cover"]/img/@src')
# for i in img:
#     print(i)

# 获取所有price属性的值
# price = tree.xpath('//a/@price')
# price = tree.xpath('//a[@price="10"]//text()')
# price = tree.xpath('//a[@price>"10"]//text()')
# price = tree.xpath('//a[@price<"20"]//text()')
# price = tree.xpath('//a[@price>="20"]//text()')
# price = tree.xpath('//a[@price<="20"]//text()')
# print(etree.tostring(price[0], encoding='UTF-8').decode('UTF-8'))
# print(price)

# 无论是什么标签,只要有price属性我们就要
# print(tree.xpath('//*[@price]'))
# print(tree.xpath('//@price'))

# node()
# price = tree.xpath('//*[@price][last()]')

# @*
# price = tree.xpath('//a[@*]')
# print(price)

# | 或  匹配id为test1或者test2的
# test_or = tree.xpath('//div[@id="test1"] | //div[@id="test2"]')
# print(test_or)

# and
# test_or = tree.xpath('//div[@id="test1" and @class="div1"]')
# print(test_or)


# 包含
# div = tree.xpath('//div[contains(@id, "st1")]')
# div = tree.xpath('//div[contains(@id, "ST1")]')
# div = tree.xpath('//div[contains(@id, "ST1")]')
# print(div)

# 以什么开头
# div = tree.xpath('//div[starts-with(@id, "t")]')
# print(div)

print(tree.xpath('//*[@id="content"]/div/div[2]/ul/li[1]/div/h2/a//text()'))

 

  • 9
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
当涉及到编写Python爬虫时,有一些核心概念和技术是必不可少的。以下是一些必备的知识点: 1. HTTP协议:了解HTTP请求和响应的工作原理,包括请求方法、状态码、头部信息等。 2. HTML解析:熟悉HTML标记语言的基本结构和常见标签,以及如何使用HTML解析(如BeautifulSoup、lxml等)来提取网页的数据。 3. CSS选择器和XPath:掌握CSS选择器和XPath的基本语法,用于在HTML文档定位和提取特定的元素。 4. 正则表达式:了解正则表达式的基本语法,可以用它来匹配和提取文本的特定模式。 5. 网络请求:熟悉Python常用的网络请求,如requests、urllib等,用于发送HTTP请求并处理响应。 6. Cookie和Session管理:了解Cookie和Session的概念,并学会使用相应的方法来管理和处理它们。 7. 数据存储:学习如何将爬取到的数据存储到文件(如CSV、JSON)或数据,以便后续处理和分析。 8. 反爬虫机制:了解网站常用的反爬虫机制,如验证码、IP封禁等,以及相应的应对策略,如使用代理、设置请求头部信息等。 9. 频率控制和并发处理:合理控制爬取的频率,以避免给目标网站带来过大的负载。并学会使用多线程或异步(如concurrent.futures、asyncio等)来提高爬取效率。 10. 法律和道德问题:遵守爬取网站的相关规定和法律法规,尊重网站的隐私和使用条款。 除了以上知识点,编写Python爬虫时还需要具备一定的编程基础和调试能力。同时也需要有良好的网络素养和信息安全意识。综合运用这些知识和技能,才能编写出高效、稳定、可靠的爬虫程序。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值