python爬虫学习笔记(10)xpath

xpath:最常用且最便携高效的一种解析方式,通用性。
xpath解析原理:
1.实例化一个etree的对象,且 需要将被解析的页面源码数据加载到该对象中。
2.调用etree对象中的xpath 方法结合着xpath表达式实现标签的定位和内容的捕获。
环境的安装:
pip install lxml
如何实例化一个etree对象
from lxml import etree
1.将本地的 HTML文档中的 源码数据加载到 etree对象中:
etree.parse(filePath)
2.可以将从互联网上获取的源码数据加载到该对象中
etree.HTML(‘page_text’)
xpath(‘xpath表达式’)

xpath表达式
/表示一个层级
//表示的是多个层级
下面三种表达方式得到的结果是一样的hg
/html/body/div
/html//div
//div
属性定位://div[@class=‘song’]/ tag[@attrName=“attrValue”]
输出第三个P索引是从1开始的,不是0
//div[@class=“song”]/p[3]
取文本
/text() 获取的是便签中 直系的文本内容
//text()获取的是标签中非直系的文本,在多个层级之后的标签中的文本也能获得。
取属性
/@属性名

例:爬58同城二手房信息

from lxml import etree
import requests
if __name__ == '__main__':
    headers = {
        'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/83.0.4103.97 Safari/537.36'
    }
    #爬取到页面源码数据
    url =  'https://bj.58.com/ershoufang/'
    response = requests.get(url=url, headers=headers).text

    #数据解析
    tree = etree.HTML(response)
    #存储li标签对象
    li_list = tree.xpath('//ul[@class="house-list-wrap"]/li')
    fp = open('58.txt','w',encoding='utf-8')
    #解析单独的li标签
    for li in li_list:
        title = li.xpath('./div[2]/h2/a/text()')[0]

        fp.write(title +'\n')

例:解析下载图片数据

#需求:解析下载图片数据 http://pic.netbian.com/4kmeinv
import requests
from lxml import etree
import os

if  __name__ == "__main__":
    url = 'http://pic.netbian.com/4kmeinv'

    headers = {
        'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/83.0.4103.97 Safari/537.36'
    }
    response = requests.get(url=url, headers=headers)
    #设定响应数据的编码格式
    # response.encoding = response.apparent_encoding
    page_text = response.text
    #数据解析:src的属性值 alt属性
    tree = etree.HTML(page_text)
    li_list = tree.xpath('//div[@class="slist"]//li')
    #创建一个文件夹
    if not os.path.exists('./picLibs'):
        os.mkdir('./picLibs')

    for li in li_list:
        img_src = 'http://pic.netbian.com' +  li.xpath('./a/img/@src')[0]
        img_name = li.xpath('./a/img/@alt')[0] + '.jpg'
        #通用处理中文乱码的解决方案
        img_name = img_name.encode('iso-8859-1').decode('gbk')
        # print(img_name, img_src)

        #print(img_name, img_src)
        #请求图片进行持久化存储
        img_data = requests.get(url=img_src,headers=headers).content
        img_path = 'picLibs/' + img_name
        with open(img_path, 'wb') as fp:
            fp.write(img_data)
            print(img_name,'下载成功!!!')
            
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值