xpath
XPath 使用路径表达式在 XML 文档中进行导航.
XPath 使用路径表达式来选取 XML 文档中的节点或者节点集。这些路径表达式和我们在常规的电脑文件系统中看到的表达式非常相似。
1) 可在XML中查找信息
2) 支持HTML的查找
3) 通过元素和属性进行导航
安装
Windows
#pip安装
pip3 install lxml
#wheel安装
#下载对应系统版本的wheel文件:http://www.lfd.uci.edu/~gohlke/pythonlibs/#lxml
pip3 install lxml-4.2.1-cp36-cp36m-win_amd64.whl
Linux
yum install -y epel-release libxslt-devel libxml2-devel openssl-devel
pip3 install lxml
术语
节点(Node)
在 XPath 中,有七种类型的节点:元素、属性、文本、命名空间、处理指令、注释以及文档(根)节点。XML 文档是被作为节点树来对待的。树的根被称为文档节点或者根节点。
XPath的使用方法
nodename 选取此节点的所有子节点
/ 从当前节点选取直接子节点
// 从当前节点选取子孙节点
. 用来选取当前节点
.. 选取当前节点的父节点
@ 选取属性
* 通配符,选择所有元素节点与元素名
@* 选取所有属性
[@attrib]选取具有给定属性的所有元素
[@attrib='value']选取给定属性具有给定值的所有元素
[tag]选取所有具有指定元素的直接子节点
[tag='text']选取所有具有指定元素并且文本内容是text节点
/text() 获取当前路径下的文本内容
/@xxxx 提取当前路径下标签的属性值
| 可选符 使用|可选取若干个路径 如//p | //div 即在当前路径下选取所有符合条件的p标签和div标签。
另外还有starts-with(@属性名称,属性字符相同部分),string(.)两种重要的特殊方法
使用
读取文本解析节点
from lxml import etree
text='''
'''
html=etree.HTML(text) #初始化生成一个XPath解析对象
result=etree.tostring(html,encoding='utf-8') #解析对象输出代码
print(type(html))
print(type(result))
print(result.decode('utf-8'))
#etree会修复HTML文本节点
读取HTML文件进行解析
from lxml import etree
html=etree.parse('test.html',etree.HTMLParser()) #指定解析器HTMLParser会根据文件修复HTML文件中缺失的如声明信息
result=etree.tostring(html) #解析成字节
#result=etree.tostringlist(html) #解析成列表
print(type(html))
print(type(result))
print(result)
#
b'\n
- \n
- first item \n
- second item \n
- third item \n
- fourth item \n
- fifth item \n
获取节点
html=etree.parse('test',etree.HTMLParser())
result=html.xpath('//*') #//代表获取子孙节点,*代表获取所有
html.xpath('//li') #获取所有子孙节点的li节点
result=html.xpath('//li/a') #通过追加/a选择所有li节点的所有直接a节点,因为//li用于选中所有li节点,/a用于选中li节点的所有直接子节点a
##获取父节点
查找父节点可以使用..来实现也可以使用parent::来获取父节点
text='''
'''
html=etree.HTML(text,etree.HTMLParser())
result=html.xpath('//a[@href="link2.html"]/../@class')
result1=html.xpath('//a[@href="link2.html"]/parent::*/@class')
属性匹配
#用@符号进行属性过滤
from lxml import etree
from lxml.etree import HTMLParser
text='''
'''
html=etree.HTML(text,etree.HTMLParser())
result=html.xpath('//li[@class="item-1"]')
print(result)
获取节点后的结果为列表
print(etree.tostring(result[0]))
b'
second item\n 'print(etree.tostring(result[0]).decode('utf-8'))
second item获取文本
from lxml import etree
text='''
'''
html=etree.HTML(text,etree.HTMLParser())
result=html.xpath('//li[@class="item-1"]/a/text()') #获取a节点下的内容
result1=html.xpath('//li[@class="item-1"]//text()') #获取li下所有子孙节点的内容
print(result)
print(result1)
获取属性
使用@符号即可获取节点的属性,如下:获取所有li节点下所有a节点的href属性
result=html.xpath('//li/a/@href') #获取a的href属性
result=html.xpath('//li//@href') #获取所有li子孙节点的href属性
多属性值匹配
如果某个属性的值有多个时,我们可以使用contains()函数来获取
from lxml import etree
text1='''
'''
html=etree.HTML(text1,etree.HTMLParser())
result=html.xpath('//li[@class="aaa"]/a/text()')
result1=html.xpath('//li[contains(@class,"aaa")]/a/text()')
print(result)
print(result1)
#通过第一种方法没有取到值,通过contains()就能精确匹配到节点了
[]
['第一个']
多属性匹配
根据多个属性确定一个节点,这时就需要同时匹配多个属性,此时可用运用and运算符来连接使用
from lxml import etree
text1='''
'''
html=etree.HTML(text1,etree.HTMLParser())
result=html.xpath('//li[@class="aaa" and @name="fore"]/a/text()')
result1=html.xpath('//li[contains(@class,"aaa") and @name="fore"]/a/text()')
print(result)
print(result1)
#
['second item']
['second item']
XPath中的运算符
运算符
描述
实例
返回值
or
或
age=19 or age=20
如果age等于19或者等于20则返回true反正返回false
and
与
age>19 and age<21
如果age等于20则返回true,否则返回false
mod
取余
5 mod 2
1
|
取两个节点的集合
//book | //cd
返回所有拥有book和cd元素的节点集合
+
加
6+4
10
-
减
6-4
2
*
乘
6*4
24
div
除法
8 div 4
2
=
等于
age=19
true
!=
不等于
age!=19
true
<
小于
age<19
true
<=
小于或等于
age<=19
true
>
大于
age>19
true
>=
大于或等于
age>=19
true
按序选择
我们在选择的时候某些属性可能同时匹配多个节点,但我们只想要其中的某个节点,如第二个节点或者最后一个节点,这时可以利用中括号引入索引的方法获取特定次序的节点
from lxml import etree
text1='''
'''
html=etree.HTML(text1,etree.HTMLParser())
result=html.xpath('//li[contains(@class,"aaa")]/a/text()') #获取所有li节点下a节点的内容
result1=html.xpath('//li[1][contains(@class,"aaa")]/a/text()') #获取第一个
result2=html.xpath('//li[last()][contains(@class,"aaa")]/a/text()') #获取最后一个
result3=html.xpath('//li[position()>2 and position()<4][contains(@class,"aaa")]/a/text()') #获取第一个
result4=html.xpath('//li[last()-2][contains(@class,"aaa")]/a/text()') #获取倒数第三个
print(result)
print(result1)
print(result2)
print(result3)
print(result4)
#
['第一个', '第二个', '第三个', '第四个']
['第一个']
['第四个']
['第三个']
['第二个']
last()、position()函数,在XPath中,提供了100多个函数,包括存取、数值、字符串、逻辑、节点、序列等处理功
节点轴选择
获取子元素、兄弟元素、父元素、祖先元素等
from lxml import etree
text1='''
'''
html=etree.HTML(text1,etree.HTMLParser())
result=html.xpath('//li[1]/ancestor::*') #获取所有祖先节点
result1=html.xpath('//li[1]/ancestor::div') #获取div祖先节点
result2=html.xpath('//li[1]/attribute::*') #获取所有属性值
result3=html.xpath('//li[1]/child::*') #获取所有直接子节点
result4=html.xpath('//li[1]/descendant::a') #获取所有子孙节点的a节点
result5=html.xpath('//li[1]/following::*') #获取当前子节之后的所有节点
result6=html.xpath('//li[1]/following-sibling::*') #获取当前节点的所有同级节点
#
[, , , ]
[]
['aaa', 'item']
[]
[]
[, , , , , ]
[, , ]
XPath的特殊用法
starts-with 解决标签属性值以相同字符串开头的情况
from lxml import etree
html="""
"""
selector=etree.HTML(html)
content=selector.xpath('//div[starts-with(@id,"a")]/text()') #这里使用starts-with方法提取div的id标签属性值开头为a的div标签
for each in content:
print each
#输出结果为:
aa
ab
ac
string(.) 标签套标签
获取一个标签,然后获取标签内的所有文本
html="""
left
right
up
downeast
west
"""
#下面是没有用string方法的输出
sel=etree.HTML(html)
con=sel.xpath('//div[@id="a"]/text()')
for i in con:
print(i) #输出内容为left west
#输出,会有换行
left
west
data=sel.xpath('//div[@id="a"]')[0]
info=data.xpath('string(.)') ##会将当前获取的element内的所有字符串提取出来,并保留空格和换行
content=info.replace('\n','').replace(' ','')##将换行和空格删除
print(info)
print(content)
for i in content:
print(i) #输出为 全部内容
XPath中需要取的标签如果没有属性,可以使用text(),posision()来识别标签
from lxml import etree
html="""
H
"""
sel=etree.HTML(html)
con=sel.xpath('//div[text()="hello"]/p/text()') #使用text()的方法来判别是哪个div标签
print con[0]
#H
from lxml import etree
html="""
H
J
I
"""
sel=etree.HTML(html)
con=sel.xpath('//div[text()="hello"]/p[posision()=2]/text()')
print con[0]
#J
在XPath中可以使用多重过滤方法寻找标签,例如ul[3][@id=”a”] 这里使用【3】来寻找第三个ul标签 并且它的id属性值为a
对结果继续使用xpath
如果XPath语句用于查找节点, 那么返回的就是一个HtmlElement对象的列表,既然是HtmlElemtn对象,我们就还可以对其调用xpath()方法
注意:
在对xpath返回的对象再次执行xpath时,子xpath开头不需要添加斜线,直接以标签名开始即可
useful = selector.xpath('//div[@class="useful"]')
info_list = useful.xpath('ul/li/text()')
_Element对象和HtmlElement对象$
from lxml import etree
text = '''
'''
#(1)
html = etree.HTML(text)
#调用HTML类进行初始化,构造一个节点对象,一个XPath解析对象,(顺便也修正了HTML字符串)
#type(html):
#lxml 使用etree._Element和 etree._ElementTree来分别代表树中的节点和树
#(2)
html2 = etree.parse(r"C:\Users\byqpz\Desktop\html.html",etree.HTMLParser())
#读取html文件进行解析
#构造一个节点树对象,一个XPath解析对象
#type(html2):
'''
result = etree.tostring(html) #调用tostring()方法可以输出修正后的HTML代码,但结果是bytes类型
#type(result):
print(result.decode('utf-8')) #这里用decode()方法将其转成str类型
#type(result.decode('utf-8')):
#或 str()方法
print(str(result,encoding='utf-8'))
print(type(result)) #两种方法都不会改变result
获取XPath的方式有两种(这个好):
1) 使用以上等等的方法通过观察找规律的方式来获取XPath
2) 使用Chrome浏览器来获取 在网页中右击->选择审查元素(或者使用F12打开) 就可以在elements中查看网页的html标签了,找到你想要获取XPath的标签,右击->Copy XPath 就已经将XPath路径复制到了剪切板。
案例
#!/usr/bin/env python
#coding:utf-8
import requests
from requests.exceptions import RequestException
from lxml import etree
from lxml.etree import ParseError
import json
def one_to_page(html):
headers={
'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.62 Safari/537.36'
}
try:
response=requests.get(html,headers=headers)
body=response.text #获取网页内容
except RequestException as e:
print('request is error!',e)
try:
html=etree.HTML(body,etree.HTMLParser()) #解析HTML文本内容
result=html.xpath('//table[contains(@class,"table-top20")]/tbody/tr//text()') #获取列表数据,获取的text()会生成列表,每5个为一行
pos = 0
#####
###生成器:执行到yield时就会停下来,直到循环获取该生成器才会逐个产生值
####
for i in range(20):
if i == 0:
yield result[i:5]
else:
yield result[pos:pos+5] #返回排名生成器数据
pos+=5
except ParseError as e:
print(e.position)
def write_file(data): #将数据重新组合成字典写入文件并输出
for i in data:
sul={
'2018年6月排行':i[0],
'2017年6排行':i[1],
'开发语言':i[2],
'评级':i[3],
'变化率':i[4]
}
with open('test.txt','a',encoding='utf-8') as f:
f.write(json.dumps(sul,ensure_ascii=False) + '\n') #必须格式化数据
f.close()
print(sul)
return None
def main():
url='https://www.tiobe.com/tiobe-index/'
data=one_to_page(url)
revaule=write_file(data)
if revaule == None:
print('ok')
if __name__ == '__main__':
main()
#
{'2018年6月排行': '1', '2017年6排行': '1', '开发语言': 'Java', '评级': '15.368%', '变化率': '+0.88%'}
{'2018年6月排行': '2', '2017年6排行': '2', '开发语言': 'C', '评级': '14.936%', '变化率': '+8.09%'}
{'2018年6月排行': '3', '2017年6排行': '3', '开发语言': 'C++', '评级': '8.337%', '变化率': '+2.61%'}
{'2018年6月排行': '4', '2017年6排行': '4', '开发语言': 'Python', '评级': '5.761%', '变化率': '+1.43%'}
{'2018年6月排行': '5', '2017年6排行': '5', '开发语言': 'C#', '评级': '4.314%', '变化率': '+0.78%'}
{'2018年6月排行': '6', '2017年6排行': '6', '开发语言': 'Visual Basic .NET', '评级': '3.762%', '变化率': '+0.65%'}
{'2018年6月排行': '7', '2017年6排行': '8', '开发语言': 'PHP', '评级': '2.881%', '变化率': '+0.11%'}
{'2018年6月排行': '8', '2017年6排行': '7', '开发语言': 'JavaScript', '评级': '2.495%', '变化率': '-0.53%'}
{'2018年6月排行': '9', '2017年6排行': '-', '开发语言': 'SQL', '评级': '2.339%', '变化率': '+2.34%'}
{'2018年6月排行': '10', '2017年6排行': '14', '开发语言': 'R', '评级': '1.452%', '变化率': '-0.70%'}
{'2018年6月排行': '11', '2017年6排行': '11', '开发语言': 'Ruby', '评级': '1.253%', '变化率': '-0.97%'}
{'2018年6月排行': '12', '2017年6排行': '18', '开发语言': 'Objective-C', '评级': '1.181%', '变化率': '-0.78%'}
{'2018年6月排行': '13', '2017年6排行': '16', '开发语言': 'Visual Basic', '评级': '1.154%', '变化率': '-0.86%'}
{'2018年6月排行': '14', '2017年6排行': '9', '开发语言': 'Perl', '评级': '1.147%', '变化率': '-1.16%'}
{'2018年6月排行': '15', '2017年6排行': '12', '开发语言': 'Swift', '评级': '1.145%', '变化率': '-1.06%'}
{'2018年6月排行': '16', '2017年6排行': '10', '开发语言': 'Assembly language', '评级': '0.915%', '变化率': '-1.34%'}
{'2018年6月排行': '17', '2017年6排行': '17', '开发语言': 'MATLAB', '评级': '0.894%', '变化率': '-1.10%'}
{'2018年6月排行': '18', '2017年6排行': '15', '开发语言': 'Go', '评级': '0.879%', '变化率': '-1.17%'}
{'2018年6月排行': '19', '2017年6排行': '13', '开发语言': 'Delphi/Object Pascal', '评级': '0.875%', '变化率': '-1.28%'}
{'2018年6月排行': '20', '2017年6排行': '20', '开发语言': 'PL/SQL', '评级': '0.848%', '变化率': '-0.72%'}
参考