【requests爬虫用xpath解析_1】

安装模块

在这里插入图片描述
输入两条命令

pip install requests
pip install etree

或者直接鼠标悬浮下载
在这里插入图片描述

爬虫代码

# 引入两个模块
from lxml import etree
import requests

# 打开html网站(聚美优品)
html = requests.get('http://bj.jumei.com/')
# 输出整个网站的html代码
print(html.text)


# 对 html文本进行处理 获得一个_Element对象
dom = etree.HTML(html.text)

# 通过 xpath 获取 a标签下的文本
img = dom.xpath('//ul/li//img/@src')
print('img:'+str(img.__len__()))

# 通过 xpath 获取 p标签下的文本
name = dom.xpath('//ul/li//p/text()')
print('name:'+str(name.__len__()))

# 通过 xpath 获取 span标签下的文本
price = dom.xpath('//ul/li//span[@class="pnum"]/text()')
print('price:'+str(price.__len__()))


# 循环输出得到的结果
# img、name、price
for t in img:
    # print(t.split('/')[2]) 可以根据split分割符进行二次数据处理
    print(t)

XPath解析简单讲解

1.打开浏览器

进入想爬取的网站

2.按右键打开“检查”或“F12”打开 开发者模式

在这里插入图片描述

3.在元素里面按Ctrl+F 查找内容

在这里插入图片描述
在这里插入图片描述
其他xpath命令符请查找相关的文档—》

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值