05—小白学Python爬虫之XPath XML lxml简介及案例

上一篇文章,介绍了使用正则来处理HTML文档,功能和效率很强大,但是写起来有点繁琐,那么有没有其他方法呢?答案是肯定的,那么这一篇,就简单来介绍一下XPath解析以及示例。

XPath是基于XML文档进行信息查找的,那么介绍XPath之前,先来认识一下XML吧。

XML

概念
  • XML 指可扩展标记语言(EXtensible Markup Language)
  • XML 是一种标记语言,很类似 HTML
  • XML 的设计宗旨是传输数据,而非显示数据
  • XML 的标签需要我们自行定义。
  • XML 被设计为具有自我描述性。
  • XML 是 W3C 的推荐标准
XML和HTML区别
数据格式描述设计目标
XMLExtensible Markup Language (可扩展标记语言)被设计为传输和存储数据,其焦点是数据的内容
HTMLHyperText Markup Language (超文本标记语言)显示数据以及如何更好显示数据
HTML DOMDocument Object Model for HTML (文档对象模型)通过 HTML DOM,可以访问所有的 HTML 元素,连同它们所包含的文本和属性。可以对其中的内容进行修改和删除,同时也可以创建新的元素
XML文档示例
<?xml version="1.0" encoding="utf-8"?>

<bookstore> 

  <book category="cooking"> 
    <title lang="en">Everyday Italian</title>  
    <author>Giada De Laurentiis</author>  
    <year>2005</year>  
    <price>30.00</price> 
  </book>  

  <book category="children"> 
    <title lang="en">Harry Potter</title>  
    <author>J K. Rowling</author>  
    <year>2005</year>  
    <price>29.99</price> 
  </book>  

  <book category="web"> 
    <title lang="en">XQuery Kick Start</title>  
    <author>James McGovern</author>  
    <author>Per Bothner</author>  
    <author>Kurt Cagle</author>  
    <author>James Linn</author>  
    <author>Vaidyanathan Nagarajan</author>  
    <year>2003</year>  
    <price>49.99</price> 
  </book> 

  <book category="web" cover="paperback"> 
    <title lang="en">Learning XML</title>  
    <author>Erik T. Ray</author>  
    <year>2003</year>  
    <price>39.95</price> 
  </book> 

</bookstore>
HTML DOM模型示例

HTML DOM 定义了访问和操作 HTML 文档的标准方法,以树结构方式表达 HTML 文档。
这里写图片描述

XML的节点关系
父(Parent)

每个元素以及属性都有一个父。
下面是一个简单的XML例子中,book 元素是 title、author、year 以及 price 元素的父:

<?xml version="1.0" encoding="utf-8"?>

<book>
  <title>Harry Potter</title>
  <author>J K. Rowling</author>
  <year>2005</year>
  <price>29.99</price>
</book>
子(Children)

元素节点可有零个、一个或多个子。
在下面的例子中,title、author、year 以及 price 元素都是 book 元素的子:

<?xml version="1.0" encoding="utf-8"?>

<book>
  <title>Harry Potter</title>
  <author>J K. Rowling</author>
  <year>2005</year>
  <price>29.99</price>
</book>
同胞(Sibling)

拥有相同的父的节点
在下面的例子中,title、author、year 以及 price 元素都是同胞:

<?xml version="1.0" encoding="utf-8"?>

<book>
  <title>Harry Potter</title>
  <author>J K. Rowling</author>
  <year>2005</year>
  <price>29.99</price>
</book>
先辈(Ancestor)

某节点的父、父的父,等等。
在下面的例子中,title 元素的先辈是 book 元素和 bookstore 元素:

<?xml version="1.0" encoding="utf-8"?>

<bookstore>

<book>
  <title>Harry Potter</title>
  <author>J K. Rowling</author>
  <year>2005</year>
  <price>29.99</price>
</book>

</bookstore>
后代(Descendant)

某个节点的子,子的子,等等。
在下面的例子中,bookstore 的后代是 book、title、author、year 以及 price 元素:

<?xml version="1.0" encoding="utf-8"?>

<bookstore>

<book>
  <title>Harry Potter</title>
  <author>J K. Rowling</author>
  <year>2005</year>
  <price>29.99</price>
</book>

</bookstore>

XPath

概念

XPath 是一门在 XML 文档中查找信息的语言。XPath 可用来在 XML 文档中对元素和属性进行遍历。
XPath 是 W3C XSLT 标准的主要元素,并且 XQuery 和 XPointer 都构建于 XPath 表达之上。
因此,对 XPath 的理解是很多高级 XML 应用的基础。

XPath开发工具
  • 开源的XPath表达式编辑工具:XMLQuire(XML格式文件可用)
  • Chrome插件 XPath Helper
  • Firefox插件 XPath Checker
选取节点

XPath 使用路径表达式来选取 XML 文档中的节点或者节点集。这些路径表达式和我们在常规的电脑文件系统中看到的表达式非常相似。

下面列出了最常用的路径表达式:

表达式描述
nodename选取此节点的所有子节点
/从根节点选取
//从匹配选择的当前节点选择文档中的节点,而不考虑它们的位置
.选取当前节点
..选取当前节点的父节点
@选取属性

示例

路径表达式描述
bookstore选取 bookstore 元素的所有子节点
/bookstore选取根元素 bookstore。注释:假如路径起始于正斜杠( / ),则此路径始终代表到某元素的绝对路径!
bookstore/book选取属于 bookstore 的子元素的所有 book 元素
//book选取所有 book 子元素,而不管它们在文档中的位置
bookstore//book选择属于 bookstore 元素的后代的所有 book 元素,而不管它们位于 bookstore 之下的什么位置。
//@lang选取名为lang的所有属性
谓语(Predicates)

谓语用来查找某个特定的节点或者包含某个指定的值的节点。
谓语被嵌在方括号中。

实例:

路径表达式描述
/bookstore/book[1]选取属于 bookstore 子元素的第一个 book 元素
/bookstore/book[last()]选取属于 bookstore 子元素的最后一个 book 元素
/bookstore/book[last()-1]选取属于 bookstore 子元素的倒数第二个 book 元素
/bookstore/book[position()<3]选取最前面的两个属于 bookstore 元素的子元素的 book 元素
//title[@lang]选取所有拥有名为 lang 的属性的 title 元素
//title[@lang=’eng’]选取所有 title 元素,且这些元素拥有值为 eng 的 lang 属性
/bookstore/book[price>35.00]选取 bookstore 元素的所有 book 元素,且其中的 price 元素的值须大于 35.00
/bookstore/book[price>35.00]/title选取 bookstore 元素中的 book 元素的所有 title 元素,且其中的 price 元素的值须大于 35.00
选取未知节点

XPath 通配符可用来选取未知的 XML 元素。

通配符描述
*匹配任何元素节点
@*匹配任何属性节点
node()匹配任何类型的节点

实例:

路径表达式描述
/bookstore/*选取 bookstore 元素的所有子元素
//*选取文档中的所有元素
//title[@*]选取所有带有属性的 title 元素
选取若干路径

通过在路径表达式中使用“|”运算符,您可以选取若干个路径。

实例:

路径表达式描述
//book/title | //book/price选取 book 元素的所有 title 和 price 元素
//title | //price选取文档中的所有 title 和 price 元素
/bookstore/book/title | //price选取属于 bookstore 元素的 book 元素的所有 title 元素,以及文档中所有的 price 元素
XPath的运算符

这里写图片描述

lxml

概念
  • lxml 是 一个HTML/XML的解析器,主要的功能是如何解析和提取 HTML/XML 数据。
  • lxml和正则一样,也是用 C 实现的,是一款高性能的 Python HTML/XML 解析器,我们可以利用之前学习的XPath语法,来快速的定位特定元素以及节点信息。
  • lxml python 官方文档:http://lxml.de/index.html
  • 需要安装C语言库,可使用 pip 安装:pip install lxml (或通过wheel方式安装)
基本使用

利用lxml解析html,示例如下:

from lxml import etree


def demo():
    text = '''
    <div>
        <ul>
             <li class="item-0"><a href="link1.html">first item</a></li>
             <li class="item-1"><a href="link2.html">second item</a></li>
             <li class="item-inactive"><a href="link3.html">third item</a></li>
             <li class="item-1"><a href="link4.html">fourth item</a></li>
             <li class="item-0"><a href="link5.html">fifth item</a>
         </ul>
     </div>
    '''

    # 利用etree.HTML,将字符串解析为HTML文档
    html = etree.HTML(text)
    # 按字符串序列化HTML文档
    result = etree.tostring(html)
    print(result.decode('utf-8'))


if __name__ == '__main__':
    demo()

其中最后一个<a>标签缺少<li>,那么我们看一下解析后的html内容为:

<html>
    <body>
        <div>
            <ul>
             <li class="item-0"><a href="link1.html">first item</a></li>
             <li class="item-1"><a href="link2.html">second item</a></li>
             <li class="item-inactive"><a href="link3.html">third item</a></li>
             <li class="item-1"><a href="link4.html">fourth item</a></li>
             <li class="item-0"><a href="link5.html">fifth item</a>
         </li></ul>
     </div>
    </body>
</html>

通过输出结果,可以看到,已经将缺少的li标签自动补全了,并且添加了body html标签。

读取文件

除了直接读取字符串,lxml还支持从文件里读取内容。我们新建一个hello.html文件:

<!-- hello.html -->

<div>
    <ul>
         <li class="item-0"><a href="link1.html">first item</a></li>
         <li class="item-1"><a href="link2.html">second item</a></li>
         <li class="item-inactive"><a href="link3.html"><span class="bold">third item</span></a></li>
         <li class="item-1"><a href="link4.html">fourth item</a></li>
         <li class="item-0"><a href="link5.html">fifth item</a></li>
     </ul>
 </div>

利用 etree.parse() 方法来读取文件:

from lxml import etree


def demo():
    html = etree.parse('./hello.html')
    result = etree.tostring(html, pretty_print=True)
    print(result.decode('utf-8'))


if __name__ == '__main__':
    demo()

输出结果为:

<div>
    <ul>
         <li class="item-0"><a href="link1.html">first item</a></li>
         <li class="item-1"><a href="link2.html">second item</a></li>
         <li class="item-inactive"><a href="link3.html"><span class="bold">third item</span></a></li>
         <li class="item-1"><a href="link4.html">fourth item</a></li>
         <li class="item-0"><a href="link5.html">fifth item</a></li>
     </ul>
 </div>

通过打印日志发现,将html内容完整读取出来了。

XPath实例测试
获取所有的li标签
from lxml import etree


def getContent():
    html = etree.parse('./hello.html')
    result = etree.tostring(html, pretty_print=True)
    return html


def getAllLi():
    html = getContent()
    # 打印etree.parse返回类型
    print(html)
    result = html.xpath('//li')
    # 打印查找到的集合
    print(result)
    # 打印查找集合长度
    print(len(result))
    # 打印集合类型
    print(type(result))
    # 打印集合中第一个元素类型
    print(type(result[0]))


if __name__ == '__main__':
    getAllLi()

输出结果为:

<lxml.etree._ElementTree object at 0x104c719c8>
[<Element li at 0x104c71948>, <Element li at 0x104c71a08>, <Element li at 0x104c71a48>, <Element li at 0x104c71a88>, <Element li at 0x104c71ac8>]
5
<class 'list'>
<class 'lxml.etree._Element'>
获取li的class属性
def getLiClass():
    html = getContent()
    result = html.xpath('//li/@class')
    print(result)

输出结果为:

def getLiClass():
    html = getContent()
    result = html.xpath('//li/@class')
    print(result)
获取<li>标签下hreflink1.html<a> 标签
def getLiHref():
    html = getContent()
    result = html.xpath('//li/a[@href="link1.html"]')
    print(result)

输出结果为:

[<Element a at 0x104c71c48>]
获取<li> 标签下的所有 <span> 标签
def getLiSpan():
    html = getContent()
    result = html.xpath('//li//span')
    print(result)

输出结果为:

[<Element span at 0x104c72cc8>]
获取 <li> 标签下的<a>标签里的所有 class
def getLiAClass():
    html = getContent()
    result = html.xpath('//li/a//@class')
    print(result)

输出结果为:

['bold']
获取最后一个 <li><a> 的 href
def getLastLiAHref():
    html = getContent()
    result = html.xpath('//li[last()]/a/@href')
    print(result)

输出结果为:

['link5.html']
获取倒数第二个元素的内容
def getLast2Content():
    html = getContent()
    result = html.xpath('//li[last()-1]/a')
    print(result[0].text)

输出为:

fourth item
获取 class 值为 bold 的标签名
def getClassBoldTag():
    html = getContent()
    result = html.xpath('//*[@class="bold"]')
    print(result[0].tag)

输出结果为:

span

综合示例:抓取红袖添香小说列表及小说章节

废话不多说,直接上代码。其中类有很大优化空间,鉴于只演示本节内容,在此就不做过多优化了。

from urllib import request
import ssl
import zlib
import gzip
from lxml import etree

from io import StringIO, BytesIO


class Spider():
    def __init__(self, baseurl, url):
        # 通过Chrome开发者工具,查看浏览器中发送请求是header,同步下来
        self.headers = {
            'Cookie': '_csrfToken=h2SMbKQwIwllQZriok57byvGBpPi8oOBUmjvItL2; newstatisticUUID=1520855551_762608354',
            'User-Agent': 'Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.186 Mobile Safari/537.36',
            'Host': 'www.hongxiu.com',
            'Referer': 'https://www.hongxiu.com/rank/hxyuepiao',
            'Upgrade-Insecure-Requests': '1',
            'Connection': 'keep-alive',
            'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8',
            'Accept-Language': 'zh-CN,zh;q=0.9',
            'Cache-Control': 'max-age=0',
            'Accept-Encoding': 'gzip, deflate, br',
            'Content-Type': 'text/html;charset=utf-8',
        }
        # 忽略https校验
        self.context = ssl._create_unverified_context()
        self.baseurl = baseurl
        self.url = url

    def gzipData(self, data):
        """
        使用gzip方式解压缩数据
        :param data:
        :return:
        """
        buf = BytesIO(data)
        f = gzip.GzipFile(fileobj=buf)
        return f.read()

    def deflate_data(self, data):
        """
        使用deflate方式解压缩数据
        :param data:
        :return:
        """
        try:
            return zlib.decompress(data, -zlib.MAX_WBITS)
        except zlib.error:
            return zlib.decompress(data)

    def ungzip(self, data):
        """
            使用gzip方式解压缩数据
        """
        data = gzip.decompress(data)
        return data

    def loadPageContent(self, url):
        """
        加载数据
        :param url:
        :return:
        """
        req = request.Request(url, headers=self.headers)
        response = request.urlopen(req, context=self.context)
        content = response.read()
        encoding = response.info().get('Content-Encoding')
        # 判断返回的encoding格式
        if encoding == 'gzip':
            content = self.gzipData(content)
        elif encoding == 'deflate':
            content = self.deflate_data(content)
        content = content.decode('utf-8')
        return content

    def load_list_page(self):
        # 加载列表数据
        content = self.loadPageContent(self.url)
        # with open('a.html', 'w+', encoding='utf-8') as f:
        #     f.write(content)
        # print(content)
        content = etree.HTML(content)
        articleTitleList = content.xpath('//*[@id="rank-view-list"]/div[1]/ul/li/div[2]/h4/a/text()')
        print(articleTitleList)
        articleLinkList = content.xpath('//*[@id="rank-view-list"]/div[1]/ul/li/div[2]/h4/a/@href')
        print(articleLinkList)
        # 开始加载每个小说对应的详情数据
        for i, value in enumerate(articleLinkList):
            print('开始获取:' + articleTitleList[i] + ' ulr ---> ' + value)
            # 拼接详情页url
            newurl = self.baseurl + value
            html = self.loadPageContent(newurl)
            content = etree.HTML(html)
            chapterTitleList = content.xpath('//*[@id="j-catalogWrap"]/div[2]/div[1]/ul/li/a/text()')
            print(chapterTitleList)
            print('获取结束:' + articleTitleList[i])
            # 此处break,只获取第一个
            break

    def startWork(self):
        self.load_list_page()


if __name__ == '__main__':
    baseurl = 'https://www.hongxiu.com'
    url = 'https://www.hongxiu.com/rank/hxyuepiao?pageNum=2'
    spider = Spider(baseurl, url)
    spider.startWork()

输出日志为:

['限时蜜爱,总裁强行撩妻100天', '重生军婚:霍爷,请低调', '快穿:皇后只能我来当!', '宝贝轻轻:总裁的独家宠爱', '新欢索婚:厉先生,请动心!', '至尊毒后:王爷,喂不饱!', '命里缺你:总裁的第25根肋骨', '法医娇宠,扑倒傲娇王爷', '重生六零俏媳妇', '萌妻出没,闷骚老公求抱抱']
['/book/7667979903133901', '/book/8464916904192403', '/book/6286710404616401', '/book/6926220404129001', '/book/8754775003830503', '/book/5908830903614801', '/book/7661915503921503', '/book/7314126504700601', '/book/7142259204580201', '/book/5969520903659001']
开始获取:限时蜜爱,总裁强行撩妻100天 ulr ---> /book/7667979903133901
['001一次一百万', '002婚讯公布提前', '003应该,是怀孕了吧', '004直接点的?', '005我是黎沫', '006沫儿,你让我好难找!', '007记性那么差?想我想的?', '008这女人,确实有毒', '009三年后,又是因为他。', '010 再遇。', '011老鼠见到猫', '012我是真的想结婚了。', '013拿回属于她的一切。', '014我不会娶苏绾绾', '015沐衍琛让她来这里干嘛?', '016你觉得全北城还能有谁有能力帮你?', '017真是个伶牙俐齿的女人', '018我怎么得罪你了', '019被苏绾绾打了?', '020我沐衍琛的女人,只能欺负别人。', '021苏总认识我未婚妻?', '022她何尝不知沐衍琛的危险?', '023没有必要再见了', '024那你喜不喜欢欺负别人?', '025苏黎,好自为之。', '026肯定是跟女人有关系。', '027我这次回北城就是要跟他结婚的。', '028为什么你不等我!', '029等他对你腻了,你将一无所有!', '030这是苏黎第一次给他打电话', '031得不到就要毁掉!', '032沐总,你会娶我对不对?', '033意思就是,他们之间结束了。', '034左寒这小子竟然准备要开荤了', '035给我最后一次机会好不好?', '036眼神淡然到像在看一个陌生人。', '037苏黎已经被他抵到一角', '038 再给你一次选择', '039一旦碰了就会上瘾', '040在你心里,我是哪种男人?', '041你说,她是不是很傻?', '042你竟然让别的男人碰你!', '043你不嫌脏吗!', '044苏绾绾为什么打你', '045还爱着他?', '046 说白点,他就是嫌她脏', '047不要再拒绝我', '048你觉得我看上是苏氏?', '049他就知道总裁放不下苏黎。', '050会尽力完成到沐总你满意为止', '051做不到为什么非要逞强', '052如果你再敢招惹我!别想我再放过你!', '053对沐衍琛来说,不一样的女人', '054越是去注视,呼吸都变得困难起来。', '055你最好给哥们我交个底', '056左寒,我放弃了', '057为什么又救下我!为什么!', '058你会继续帮我吗?', '059他不需要一个弱者。', '060 你这是质疑我的能力?', '061真的遗嘱和股权转赠协议在哪里', '062她想说她真的不是故意的', '063上车。', '064今晚验证下。', '065 其实,我们是同类', '066 长了一张苏妲己的脸。', '067 那晚我一直以为是你。', '068 他要的是苏黎亲自开口求他。', '069 阴沉的轮廓映入眼底。', '070 你才是最坏的。', '071谁让你的人动了不该动的人', '072到底是不适合?还是不想嫁给我?', '073只要是你想要的,苏黎都能给', '074归于平静。', '075 不要脸!', '076 恨不得吃了她。', '077 我给过你时间,现在,时间到了', '078 向她宣示这几个月,他是有多想她', '079 做回真实的自己。', '080冤家路窄?', '081传出去岂不是说我欺负女人?', '082你这张小嘴,总是能带给我惊喜!', '083你想养谁养谁去!', '084早已习惯', '085就让我多抱会儿好不好?']
获取结束:限时蜜爱,总裁强行撩妻100

如上,就通过XPath方式把小说第二页及对应的章节信息抓取下来了。

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值