Xpath与案例

什么是XML

  • XML 指可扩展标记语言(EXtensible Markup Language)
  • XML 是一种标记语言,很类似 HTML
  • XML 的设计宗旨是传输数据,而非显示数据
  • XML 的标签需要我们自行定义。
  • XML 被设计为具有自我描述性。
  • XML 是 W3C 的推荐标准
XML 和 HTML 的区别
数据格式
描述
设计目标
XML
Extensible Markup Language  (可扩展标记语言)
被设计为传输和存储数据,其焦点是数据的内容。
HTML
HyperText Markup Language  (超文本标记语言)
显示数据以及如何更好显示数据。
HTML DOM
Document Object Model for HTML  (文档对象模型)
通过 HTML DOM,可以访问所有的 HTML 元素,连同它们所包含的文本和属性。可以对其中的内容进行修改和删除,同时也可以创建新的元素。

HTML DOM 模型示例
HTML DOM 定义了访问和操作 HTML 文档的标准方法,以树结构方式表达 HTML 文档。

选取节点

XPath 使用路径表达式来选取 XML 文档中的节点或者节点集。这些路径表达式和我们在常规的电脑文件系统中看到的表达式非常相似。
下面列出了最常用的路径表达式:
表达式
描述
nodename
选取此节点的所有子节点。
/
从根节点选取。
//
从匹配选择的当前节点选择文档中的节点,而不考虑它们的位置。
.
选取当前节点。
..
选取当前节点的父节点。
@
选取属性。
在下面的表格中,我们已列出了一些路径表达式以及表达式的结果:
 
路径表达式
结果
bookstore
选取 bookstore 元素的所有子节点。

/bookstore
选取根元素 bookstore。注释:假如路径起始于正斜杠( / ),则此路径始终代表到某元素的绝对路径!

bookstore/book
选取属于 bookstore 的子元素的所有 book 元素。

//book
选取所有 book 子元素,而不管它们在文档中的位置。

bookstore//book
选择属于 bookstore 元素的后代的所有 book 元素,而不管它们位于 bookstore 之下的什么位置。

//@lang
选取名为 lang 的所有属性。

谓语(Predicates)

谓语用来查找某个特定的节点或者包含某个指定的值的节点,被嵌在方括号中。
在下面的表格中,我们列出了带有谓语的一些路径表达式,以及表达式的结果:
路径表达式
结果
/bookstore/book[1]
选取属于 bookstore 子元素的第一个 book 元素。
/bookstore/book[last()]
选取属于 bookstore 子元素的最后一个 book 元素。
/bookstore/book[last()-1]
选取属于 bookstore 子元素的倒数第二个 book 元素。
/bookstore/book[position()<3]
选取最前面的两个属于 bookstore 元素的子元素的 book 元素。
//title[@lang]
选取所有拥有名为 lang 的属性的 title 元素。
//title[@lang=’eng’]
选取所有 title 元素,且这些元素拥有值为 eng 的 lang 属性。
/bookstore/book[price>35.00]
选取 bookstore 元素的所有 book 元素,且其中的 price 元素的值须大于 35.00。
/bookstore/book[price>35.00]/title
选取 bookstore 元素中的 book 元素的所有 title 元素,且其中的 price 元素的值须大于 35.00。

选取未知节点

XPath 通配符可用来选取未知的 XML 元素。
通配符
描述
*
匹配任何元素节点。
@*
匹配任何属性节点。
node()
匹配任何类型的节点。
在下面的表格中,我们列出了一些路径表达式,以及这些表达式的结果:
路径表达式
结果
/bookstore/*
选取 bookstore 元素的所有子元素。
//*
选取文档中的所有元素。
//title[@*]
选取所有带有属性的 title 元素。

选取若干路径

通过在路径表达式中使用“|”运算符,您可以选取若干个路径。
实例
在下面的表格中,我们列出了一些路径表达式,以及这些表达式的结果:
路径表达式
结果
//book/title | //book/price
选取 book 元素的所有 title 和 price 元素。
//title | //price
选取文档中的所有 title 和 price 元素。
/bookstore/book/title | //price
选取属于 bookstore 元素的 book 元素的所有 title 元素,以及文档中所有的 price 元素。
这些就是XPath的语法内容,在运用到Python抓取时要先转换为xml。

案例:使用XPath的爬虫

现在我们用XPath来做一个简单的爬虫,我们尝试爬取某个贴吧里的所有帖子,并且将该这个帖子里每个楼层发布的图片下载到本地。
# tieba_xpath.py


#!/usr/bin/env python# -*- coding:utf-8 -*-

import os
import urllib
import urllib2
from lxml import etree

class Spider :
def __init__ (self) :
self.tiebaName = raw_input("请需要访问的贴吧:")
self.beginPage = int(raw_input("请输入起始页:"))
self.endPage = int(raw_input("请输入终止页:"))

self.url = ' http://tieba.baidu.com/f '
self.ua_header = { "User-Agent" : "Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1 Trident/5.0;" }

# 图片编号
self.userName = 1

def tiebaSpider (self) :
for page in range(self.beginPage, self.endPage + 1 ):
pn = (page - 1 ) * 50 # page number
word = { 'pn' : pn, 'kw' : self.tiebaName}

word = urllib.urlencode(word) #转换成url编码格式(字符串)
myUrl = self.url + "?" + word

# 示例:http://tieba.baidu.com/f? kw=%E7%BE%8E%E5%A5%B3 & pn=50
# 调用 页面处理函数 load_Page
# 并且获取页面所有帖子链接,
links = self.loadPage(myUrl) # urllib2_test3.py

# 读取页面内容
def loadPage (self, url) :
req = urllib2.Request(url, headers = self.ua_header)
html = urllib2.urlopen(req).read()

# 解析html 为 HTML 文档
selector=etree.HTML(html)

#抓取当前页面的所有帖子的url的后半部分,也就是帖子编号
# http://tieba.baidu.com/p/4884069807里的 “p/4884069807”
links = selector.xpath('//div[@class="threadlist_lz clearfix"]/div/a/@href')

# links 类型为 etreeElementString 列表
# 遍历列表,并且合并成一个帖子地址,调用 图片处理函数 loadImage
for link in links:
link = " http://tieba.baidu.com " + link
self.loadImages(link)

# 获取图片
def loadImages (self, link) :
req = urllib2.Request(link, headers = self.ua_header)
html = urllib2.urlopen(req).read()

selector = etree.HTML(html)

# 获取这个帖子里所有图片的src路径
imagesLinks = selector.xpath('//img[@class="BDE_Image"]/@src')

# 依次取出图片路径,下载保存
for imagesLink in imagesLinks:
self.writeImages(imagesLink)

# 保存页面内容
def writeImages (self, imagesLink) :
'''
将 images 里的二进制内容存入到 userNname 文件中
'''

print imagesLink
print "正在存储文件 %d ..." % self.userName
# 1. 打开文件,返回一个文件对象
file = open( './images/' + str(self.userName) + '.png' , 'wb' )

# 2. 获取图片里的内容
images = urllib2.urlopen(imagesLink).read()

# 3. 调用文件对象write() 方法,将page_html的内容写入到文件里
file.write(images)

# 4. 最后关闭文件
file.close()

# 计数器自增1
self.userName += 1

# 模拟 main 函数
if __name__ == "__main__" :

# 首先创建爬虫对象
mySpider = Spider()
# 调用爬虫对象的方法,开始工作
mySpider.tiebaSpider()


主要步骤:
拿到url发送请求,通过read()方法获取到响应内容,内容是一大串字符串,
通过etree.HTML(响应内容)来构建html dom模型(content),也就是把字符串转换成html  dom 模型(content) ,
然后在通过content.xpath("节点位置")获取内容。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值