xpath:最常用且最便携高效的一种解析方式,通用性。
xpath解析原理:
1.实例化一个etree的对象,且 需要将被解析的页面源码数据加载到该对象中。
2.调用etree对象中的xpath 方法结合着xpath表达式实现标签的定位和内容的捕获。
环境的安装:
pip install lxml
如何实例化一个etree对象
from lxml import etree
1.将本地的 HTML文档中的 源码数据加载到 etree对象中:
etree.parse(filePath)
2.可以将从互联网上获取的源码数据加载到该对象中
etree.HTML(‘page_text’)
xpath(‘xpath表达式’)
xpath表达式
/表示一个层级
//表示的是多个层级
下面三种表达方式得到的结果是一样的hg
/html/body/div
/html//div
//div
属性定位://div[@class=‘song’]/ tag[@attrName=“attrValue”]
输出第三个P索引是从1开始的,不是0
//div[@class=“song”]/p[3]
取文本
/text() 获取的是便签中 直系的文本内容
//text()获取的是标签中非直系的文本,在多个层级之后的标签中的文本也能获得。
取属性
/@属性名
例:爬58同城二手房信息
from lxml import etree
import requests
if __name__ == '__main__':
headers = {
'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/83.0.4103.97 Safari/537.36'
}
#爬取到页面源码数据
url = 'https://bj.58.com/ershoufang/'
response = requests.get(url=url, headers=headers).text
#数据解析
tree = etree.HTML(response)
#存储li标签对象
li_list = tree.xpath('//ul[@class="house-list-wrap"]/li')
fp = open('58.txt','w',encoding='utf-8')
#解析单独的li标签
for li in li_list:
title = li.xpath('./div[2]/h2/a/text()')[0]
fp.write(title +'\n')
例:解析下载图片数据
#需求:解析下载图片数据 http://pic.netbian.com/4kmeinv
import requests
from lxml import etree
import os
if __name__ == "__main__":
url = 'http://pic.netbian.com/4kmeinv'
headers = {
'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/83.0.4103.97 Safari/537.36'
}
response = requests.get(url=url, headers=headers)
#设定响应数据的编码格式
# response.encoding = response.apparent_encoding
page_text = response.text
#数据解析:src的属性值 alt属性
tree = etree.HTML(page_text)
li_list = tree.xpath('//div[@class="slist"]//li')
#创建一个文件夹
if not os.path.exists('./picLibs'):
os.mkdir('./picLibs')
for li in li_list:
img_src = 'http://pic.netbian.com' + li.xpath('./a/img/@src')[0]
img_name = li.xpath('./a/img/@alt')[0] + '.jpg'
#通用处理中文乱码的解决方案
img_name = img_name.encode('iso-8859-1').decode('gbk')
# print(img_name, img_src)
#print(img_name, img_src)
#请求图片进行持久化存储
img_data = requests.get(url=img_src,headers=headers).content
img_path = 'picLibs/' + img_name
with open(img_path, 'wb') as fp:
fp.write(img_data)
print(img_name,'下载成功!!!')