上一篇文章,介绍了使用正则来处理HTML文档,功能和效率很强大,但是写起来有点繁琐,那么有没有其他方法呢?答案是肯定的,那么这一篇,就简单来介绍一下XPath解析以及示例。
XPath是基于XML文档进行信息查找的,那么介绍XPath之前,先来认识一下XML吧。
XML
概念
- XML 指可扩展标记语言(EXtensible Markup Language)
- XML 是一种标记语言,很类似 HTML
- XML 的设计宗旨是传输数据,而非显示数据
- XML 的标签需要我们自行定义。
- XML 被设计为具有自我描述性。
- XML 是 W3C 的推荐标准
XML和HTML区别
数据格式 | 描述 | 设计目标 |
---|---|---|
XML | Extensible Markup Language (可扩展标记语言) | 被设计为传输和存储数据,其焦点是数据的内容 |
HTML | HyperText Markup Language (超文本标记语言) | 显示数据以及如何更好显示数据 |
HTML DOM | Document Object Model for HTML (文档对象模型) | 通过 HTML DOM,可以访问所有的 HTML 元素,连同它们所包含的文本和属性。可以对其中的内容进行修改和删除,同时也可以创建新的元素 |
XML文档示例
<?xml version="1.0" encoding="utf-8"?>
<bookstore>
<book category="cooking">
<title lang="en">Everyday Italian</title>
<author>Giada De Laurentiis</author>
<year>2005</year>
<price>30.00</price>
</book>
<book category="children">
<title lang="en">Harry Potter</title>
<author>J K. Rowling</author>
<year>2005</year>
<price>29.99</price>
</book>
<book category="web">
<title lang="en">XQuery Kick Start</title>
<author>James McGovern</author>
<author>Per Bothner</author>
<author>Kurt Cagle</author>
<author>James Linn</author>
<author>Vaidyanathan Nagarajan</author>
<year>2003</year>
<price>49.99</price>
</book>
<book category="web" cover="paperback">
<title lang="en">Learning XML</title>
<author>Erik T. Ray</author>
<year>2003</year>
<price>39.95</price>
</book>
</bookstore>
HTML DOM模型示例
HTML DOM 定义了访问和操作 HTML 文档的标准方法,以树结构方式表达 HTML 文档。
XML的节点关系
父(Parent)
每个元素以及属性都有一个父。
下面是一个简单的XML例子中,book 元素是 title、author、year 以及 price 元素的父:
<?xml version="1.0" encoding="utf-8"?>
<book>
<title>Harry Potter</title>
<author>J K. Rowling</author>
<year>2005</year>
<price>29.99</price>
</book>
子(Children)
元素节点可有零个、一个或多个子。
在下面的例子中,title、author、year 以及 price 元素都是 book 元素的子:
<?xml version="1.0" encoding="utf-8"?>
<book>
<title>Harry Potter</title>
<author>J K. Rowling</author>
<year>2005</year>
<price>29.99</price>
</book>
同胞(Sibling)
拥有相同的父的节点
在下面的例子中,title、author、year 以及 price 元素都是同胞:
<?xml version="1.0" encoding="utf-8"?>
<book>
<title>Harry Potter</title>
<author>J K. Rowling</author>
<year>2005</year>
<price>29.99</price>
</book>
先辈(Ancestor)
某节点的父、父的父,等等。
在下面的例子中,title 元素的先辈是 book 元素和 bookstore 元素:
<?xml version="1.0" encoding="utf-8"?>
<bookstore>
<book>
<title>Harry Potter</title>
<author>J K. Rowling</author>
<year>2005</year>
<price>29.99</price>
</book>
</bookstore>
后代(Descendant)
某个节点的子,子的子,等等。
在下面的例子中,bookstore 的后代是 book、title、author、year 以及 price 元素:
<?xml version="1.0" encoding="utf-8"?>
<bookstore>
<book>
<title>Harry Potter</title>
<author>J K. Rowling</author>
<year>2005</year>
<price>29.99</price>
</book>
</bookstore>
XPath
概念
XPath 是一门在 XML 文档中查找信息的语言。XPath 可用来在 XML 文档中对元素和属性进行遍历。
XPath 是 W3C XSLT 标准的主要元素,并且 XQuery 和 XPointer 都构建于 XPath 表达之上。
因此,对 XPath 的理解是很多高级 XML 应用的基础。
XPath开发工具
- 开源的XPath表达式编辑工具:XMLQuire(XML格式文件可用)
- Chrome插件 XPath Helper
- Firefox插件 XPath Checker
选取节点
XPath 使用路径表达式来选取 XML 文档中的节点或者节点集。这些路径表达式和我们在常规的电脑文件系统中看到的表达式非常相似。
下面列出了最常用的路径表达式:
表达式 | 描述 |
---|---|
nodename | 选取此节点的所有子节点 |
/ | 从根节点选取 |
// | 从匹配选择的当前节点选择文档中的节点,而不考虑它们的位置 |
. | 选取当前节点 |
.. | 选取当前节点的父节点 |
@ | 选取属性 |
示例
路径表达式 | 描述 |
---|---|
bookstore | 选取 bookstore 元素的所有子节点 |
/bookstore | 选取根元素 bookstore。注释:假如路径起始于正斜杠( / ),则此路径始终代表到某元素的绝对路径! |
bookstore/book | 选取属于 bookstore 的子元素的所有 book 元素 |
//book | 选取所有 book 子元素,而不管它们在文档中的位置 |
bookstore//book | 选择属于 bookstore 元素的后代的所有 book 元素,而不管它们位于 bookstore 之下的什么位置。 |
//@lang | 选取名为lang的所有属性 |
谓语(Predicates)
谓语用来查找某个特定的节点或者包含某个指定的值的节点。
谓语被嵌在方括号中。
实例:
路径表达式 | 描述 |
---|---|
/bookstore/book[1] | 选取属于 bookstore 子元素的第一个 book 元素 |
/bookstore/book[last()] | 选取属于 bookstore 子元素的最后一个 book 元素 |
/bookstore/book[last()-1] | 选取属于 bookstore 子元素的倒数第二个 book 元素 |
/bookstore/book[position()<3] | 选取最前面的两个属于 bookstore 元素的子元素的 book 元素 |
//title[@lang] | 选取所有拥有名为 lang 的属性的 title 元素 |
//title[@lang=’eng’] | 选取所有 title 元素,且这些元素拥有值为 eng 的 lang 属性 |
/bookstore/book[price>35.00] | 选取 bookstore 元素的所有 book 元素,且其中的 price 元素的值须大于 35.00 |
/bookstore/book[price>35.00]/title | 选取 bookstore 元素中的 book 元素的所有 title 元素,且其中的 price 元素的值须大于 35.00 |
选取未知节点
XPath 通配符可用来选取未知的 XML 元素。
通配符 | 描述 |
---|---|
* | 匹配任何元素节点 |
@* | 匹配任何属性节点 |
node() | 匹配任何类型的节点 |
实例:
路径表达式 | 描述 |
---|---|
/bookstore/* | 选取 bookstore 元素的所有子元素 |
//* | 选取文档中的所有元素 |
//title[@*] | 选取所有带有属性的 title 元素 |
选取若干路径
通过在路径表达式中使用“|”运算符,您可以选取若干个路径。
实例:
路径表达式 | 描述 |
---|---|
//book/title | //book/price | 选取 book 元素的所有 title 和 price 元素 |
//title | //price | 选取文档中的所有 title 和 price 元素 |
/bookstore/book/title | //price | 选取属于 bookstore 元素的 book 元素的所有 title 元素,以及文档中所有的 price 元素 |
XPath的运算符
lxml
概念
- lxml 是 一个HTML/XML的解析器,主要的功能是如何解析和提取 HTML/XML 数据。
- lxml和正则一样,也是用 C 实现的,是一款高性能的 Python HTML/XML 解析器,我们可以利用之前学习的XPath语法,来快速的定位特定元素以及节点信息。
- lxml python 官方文档:http://lxml.de/index.html
- 需要安装C语言库,可使用 pip 安装:pip install lxml (或通过wheel方式安装)
基本使用
利用lxml解析html,示例如下:
from lxml import etree
def demo():
text = '''
<div>
<ul>
<li class="item-0"><a href="link1.html">first item</a></li>
<li class="item-1"><a href="link2.html">second item</a></li>
<li class="item-inactive"><a href="link3.html">third item</a></li>
<li class="item-1"><a href="link4.html">fourth item</a></li>
<li class="item-0"><a href="link5.html">fifth item</a>
</ul>
</div>
'''
# 利用etree.HTML,将字符串解析为HTML文档
html = etree.HTML(text)
# 按字符串序列化HTML文档
result = etree.tostring(html)
print(result.decode('utf-8'))
if __name__ == '__main__':
demo()
其中最后一个<a>
标签缺少<li>
,那么我们看一下解析后的html内容为:
<html>
<body>
<div>
<ul>
<li class="item-0"><a href="link1.html">first item</a></li>
<li class="item-1"><a href="link2.html">second item</a></li>
<li class="item-inactive"><a href="link3.html">third item</a></li>
<li class="item-1"><a href="link4.html">fourth item</a></li>
<li class="item-0"><a href="link5.html">fifth item</a>
</li></ul>
</div>
</body>
</html>
通过输出结果,可以看到,已经将缺少的li
标签自动补全了,并且添加了body html标签。
读取文件
除了直接读取字符串,lxml还支持从文件里读取内容。我们新建一个hello.html文件:
<!-- hello.html -->
<div>
<ul>
<li class="item-0"><a href="link1.html">first item</a></li>
<li class="item-1"><a href="link2.html">second item</a></li>
<li class="item-inactive"><a href="link3.html"><span class="bold">third item</span></a></li>
<li class="item-1"><a href="link4.html">fourth item</a></li>
<li class="item-0"><a href="link5.html">fifth item</a></li>
</ul>
</div>
利用 etree.parse() 方法来读取文件:
from lxml import etree
def demo():
html = etree.parse('./hello.html')
result = etree.tostring(html, pretty_print=True)
print(result.decode('utf-8'))
if __name__ == '__main__':
demo()
输出结果为:
<div>
<ul>
<li class="item-0"><a href="link1.html">first item</a></li>
<li class="item-1"><a href="link2.html">second item</a></li>
<li class="item-inactive"><a href="link3.html"><span class="bold">third item</span></a></li>
<li class="item-1"><a href="link4.html">fourth item</a></li>
<li class="item-0"><a href="link5.html">fifth item</a></li>
</ul>
</div>
通过打印日志发现,将html内容完整读取出来了。
XPath实例测试
获取所有的li
标签
from lxml import etree
def getContent():
html = etree.parse('./hello.html')
result = etree.tostring(html, pretty_print=True)
return html
def getAllLi():
html = getContent()
# 打印etree.parse返回类型
print(html)
result = html.xpath('//li')
# 打印查找到的集合
print(result)
# 打印查找集合长度
print(len(result))
# 打印集合类型
print(type(result))
# 打印集合中第一个元素类型
print(type(result[0]))
if __name__ == '__main__':
getAllLi()
输出结果为:
<lxml.etree._ElementTree object at 0x104c719c8>
[<Element li at 0x104c71948>, <Element li at 0x104c71a08>, <Element li at 0x104c71a48>, <Element li at 0x104c71a88>, <Element li at 0x104c71ac8>]
5
<class 'list'>
<class 'lxml.etree._Element'>
获取li
的class属性
def getLiClass():
html = getContent()
result = html.xpath('//li/@class')
print(result)
输出结果为:
def getLiClass():
html = getContent()
result = html.xpath('//li/@class')
print(result)
获取<li>
标签下href
为 link1.html
的 <a>
标签
def getLiHref():
html = getContent()
result = html.xpath('//li/a[@href="link1.html"]')
print(result)
输出结果为:
[<Element a at 0x104c71c48>]
获取<li>
标签下的所有 <span>
标签
def getLiSpan():
html = getContent()
result = html.xpath('//li//span')
print(result)
输出结果为:
[<Element span at 0x104c72cc8>]
获取 <li>
标签下的<a>
标签里的所有 class
def getLiAClass():
html = getContent()
result = html.xpath('//li/a//@class')
print(result)
输出结果为:
['bold']
获取最后一个 <li>
的 <a>
的 href
def getLastLiAHref():
html = getContent()
result = html.xpath('//li[last()]/a/@href')
print(result)
输出结果为:
['link5.html']
获取倒数第二个元素的内容
def getLast2Content():
html = getContent()
result = html.xpath('//li[last()-1]/a')
print(result[0].text)
输出为:
fourth item
获取 class
值为 bold 的标签名
def getClassBoldTag():
html = getContent()
result = html.xpath('//*[@class="bold"]')
print(result[0].tag)
输出结果为:
span
综合示例:抓取红袖添香小说列表及小说章节
废话不多说,直接上代码。其中类有很大优化空间,鉴于只演示本节内容,在此就不做过多优化了。
from urllib import request
import ssl
import zlib
import gzip
from lxml import etree
from io import StringIO, BytesIO
class Spider():
def __init__(self, baseurl, url):
# 通过Chrome开发者工具,查看浏览器中发送请求是header,同步下来
self.headers = {
'Cookie': '_csrfToken=h2SMbKQwIwllQZriok57byvGBpPi8oOBUmjvItL2; newstatisticUUID=1520855551_762608354',
'User-Agent': 'Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.186 Mobile Safari/537.36',
'Host': 'www.hongxiu.com',
'Referer': 'https://www.hongxiu.com/rank/hxyuepiao',
'Upgrade-Insecure-Requests': '1',
'Connection': 'keep-alive',
'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8',
'Accept-Language': 'zh-CN,zh;q=0.9',
'Cache-Control': 'max-age=0',
'Accept-Encoding': 'gzip, deflate, br',
'Content-Type': 'text/html;charset=utf-8',
}
# 忽略https校验
self.context = ssl._create_unverified_context()
self.baseurl = baseurl
self.url = url
def gzipData(self, data):
"""
使用gzip方式解压缩数据
:param data:
:return:
"""
buf = BytesIO(data)
f = gzip.GzipFile(fileobj=buf)
return f.read()
def deflate_data(self, data):
"""
使用deflate方式解压缩数据
:param data:
:return:
"""
try:
return zlib.decompress(data, -zlib.MAX_WBITS)
except zlib.error:
return zlib.decompress(data)
def ungzip(self, data):
"""
使用gzip方式解压缩数据
"""
data = gzip.decompress(data)
return data
def loadPageContent(self, url):
"""
加载数据
:param url:
:return:
"""
req = request.Request(url, headers=self.headers)
response = request.urlopen(req, context=self.context)
content = response.read()
encoding = response.info().get('Content-Encoding')
# 判断返回的encoding格式
if encoding == 'gzip':
content = self.gzipData(content)
elif encoding == 'deflate':
content = self.deflate_data(content)
content = content.decode('utf-8')
return content
def load_list_page(self):
# 加载列表数据
content = self.loadPageContent(self.url)
# with open('a.html', 'w+', encoding='utf-8') as f:
# f.write(content)
# print(content)
content = etree.HTML(content)
articleTitleList = content.xpath('//*[@id="rank-view-list"]/div[1]/ul/li/div[2]/h4/a/text()')
print(articleTitleList)
articleLinkList = content.xpath('//*[@id="rank-view-list"]/div[1]/ul/li/div[2]/h4/a/@href')
print(articleLinkList)
# 开始加载每个小说对应的详情数据
for i, value in enumerate(articleLinkList):
print('开始获取:' + articleTitleList[i] + ' ulr ---> ' + value)
# 拼接详情页url
newurl = self.baseurl + value
html = self.loadPageContent(newurl)
content = etree.HTML(html)
chapterTitleList = content.xpath('//*[@id="j-catalogWrap"]/div[2]/div[1]/ul/li/a/text()')
print(chapterTitleList)
print('获取结束:' + articleTitleList[i])
# 此处break,只获取第一个
break
def startWork(self):
self.load_list_page()
if __name__ == '__main__':
baseurl = 'https://www.hongxiu.com'
url = 'https://www.hongxiu.com/rank/hxyuepiao?pageNum=2'
spider = Spider(baseurl, url)
spider.startWork()
输出日志为:
['限时蜜爱,总裁强行撩妻100天', '重生军婚:霍爷,请低调', '快穿:皇后只能我来当!', '宝贝轻轻:总裁的独家宠爱', '新欢索婚:厉先生,请动心!', '至尊毒后:王爷,喂不饱!', '命里缺你:总裁的第25根肋骨', '法医娇宠,扑倒傲娇王爷', '重生六零俏媳妇', '萌妻出没,闷骚老公求抱抱']
['/book/7667979903133901', '/book/8464916904192403', '/book/6286710404616401', '/book/6926220404129001', '/book/8754775003830503', '/book/5908830903614801', '/book/7661915503921503', '/book/7314126504700601', '/book/7142259204580201', '/book/5969520903659001']
开始获取:限时蜜爱,总裁强行撩妻100天 ulr ---> /book/7667979903133901
['001一次一百万', '002婚讯公布提前', '003应该,是怀孕了吧', '004直接点的?', '005我是黎沫', '006沫儿,你让我好难找!', '007记性那么差?想我想的?', '008这女人,确实有毒', '009三年后,又是因为他。', '010 再遇。', '011老鼠见到猫', '012我是真的想结婚了。', '013拿回属于她的一切。', '014我不会娶苏绾绾', '015沐衍琛让她来这里干嘛?', '016你觉得全北城还能有谁有能力帮你?', '017真是个伶牙俐齿的女人', '018我怎么得罪你了', '019被苏绾绾打了?', '020我沐衍琛的女人,只能欺负别人。', '021苏总认识我未婚妻?', '022她何尝不知沐衍琛的危险?', '023没有必要再见了', '024那你喜不喜欢欺负别人?', '025苏黎,好自为之。', '026肯定是跟女人有关系。', '027我这次回北城就是要跟他结婚的。', '028为什么你不等我!', '029等他对你腻了,你将一无所有!', '030这是苏黎第一次给他打电话', '031得不到就要毁掉!', '032沐总,你会娶我对不对?', '033意思就是,他们之间结束了。', '034左寒这小子竟然准备要开荤了', '035给我最后一次机会好不好?', '036眼神淡然到像在看一个陌生人。', '037苏黎已经被他抵到一角', '038 再给你一次选择', '039一旦碰了就会上瘾', '040在你心里,我是哪种男人?', '041你说,她是不是很傻?', '042你竟然让别的男人碰你!', '043你不嫌脏吗!', '044苏绾绾为什么打你', '045还爱着他?', '046 说白点,他就是嫌她脏', '047不要再拒绝我', '048你觉得我看上是苏氏?', '049他就知道总裁放不下苏黎。', '050会尽力完成到沐总你满意为止', '051做不到为什么非要逞强', '052如果你再敢招惹我!别想我再放过你!', '053对沐衍琛来说,不一样的女人', '054越是去注视,呼吸都变得困难起来。', '055你最好给哥们我交个底', '056左寒,我放弃了', '057为什么又救下我!为什么!', '058你会继续帮我吗?', '059他不需要一个弱者。', '060 你这是质疑我的能力?', '061真的遗嘱和股权转赠协议在哪里', '062她想说她真的不是故意的', '063上车。', '064今晚验证下。', '065 其实,我们是同类', '066 长了一张苏妲己的脸。', '067 那晚我一直以为是你。', '068 他要的是苏黎亲自开口求他。', '069 阴沉的轮廓映入眼底。', '070 你才是最坏的。', '071谁让你的人动了不该动的人', '072到底是不适合?还是不想嫁给我?', '073只要是你想要的,苏黎都能给', '074归于平静。', '075 不要脸!', '076 恨不得吃了她。', '077 我给过你时间,现在,时间到了', '078 向她宣示这几个月,他是有多想她', '079 做回真实的自己。', '080冤家路窄?', '081传出去岂不是说我欺负女人?', '082你这张小嘴,总是能带给我惊喜!', '083你想养谁养谁去!', '084早已习惯', '085就让我多抱会儿好不好?']
获取结束:限时蜜爱,总裁强行撩妻100天
如上,就通过XPath方式把小说第二页及对应的章节信息抓取下来了。