python爬虫之XPath与lxml的使用

一、文章说明

由于之前学习过程中没有使用过lxml+XPath的组合,本篇主要是学习lxml+XPath+python的过程。主要参考了该教程


二、XPath语法规则

w3school上有详细的教程,不懂之处可以查看


三、lxml基本用法

pip install lxml

一般来说,我们在解析网页时仅用到这两种用法就行了。

1、补全代码

>>> from lxml import etree
>>> text = '''
<div>
    <ul>
         <li class="item-0"><a href="link1.html">first item</a></li>
         <li class="item-1"><a href="link2.html">second item</a></li>
         <li class="item-inactive"><a href="link3.html">third item</a></li>
         <li class="item-1"><a href="link4.html">fourth item</a></li>
         <li class="item-0"><a href="link5.html">fifth item</a>			#这里少了一个li标签
     </ul>
 </div>
'''
>>> 
>>> html = etree.HTML(text)		#直接读取字符串格式
>>> html
<Element html at 0x2e8cac8>
>>> type(html)
<class 'lxml.etree._Element'>
>>> result = etree.tostring(html)		#补全代码
>>> result
b'<html><body><div>\n    <ul>\n         <li class="item-0"><a href="link1.html">first item</a></li>\n         <li class="item-1"><a href="link2.html">second item</a></li>\n         <li class="item-inactive"><a href="link3.html">third item</a></li>\n         <li class="item-1"><a href="link4.html">fourth item</a></li>\n         <li class="item-0"><a href="link5.html">fifth item</a>\n     </li></ul>\n </div>\n</body></html>'
>>> type(result)
<class 'bytes'>
>>> 
>>> 

从上面结果显示可以看出,lxml补全了缺失的li标签,还增加了body、html标签。使代码更完美。

2、文件读取

除上面的读取字符串外,etree还可以读取文件形式,得到同样的结果。

>>> html = etree.parse('hello.html')
>>> result = etree.tostring(html)
>>> result
>>>

四、XPath与lxml的简单使用


1、获取li标签

>>> li = html.xpath('//li')		#查找html中所有li标签,并以列表形式返回
>>> li
[<Element li at 0x3176808>, <Element li at 0x3184ec8>, <Element li at 0x3184e88>, <Element li at 0x3184e48>, <Element li at 0x3184f08>]
>>> type(li)
<class 'list'>
>>>
>>>


2、返回所有li标签下的class名

>>> li_class = html.xpath('//li/@class')
>>> li_class
['item-0', 'item-1', 'item-inactive', 'item-1', 'item-0']
>>>


3、返回所有li标签下属性名为‘item-0’的标签


>>> li_class_0 = html.xpath("//li[@class='item-0']")
>>> li_class_0
[<Element li at 0x3176808>, <Element li at 0x3184f08>]
>>> 

4、获取li标签下的span标签


>>> text = '''
<div>
    <ul>
         <li class="item-0"><a href="link1.html"><span>first</span> item</a></li>
         <li class="item-1"><a href="link2.html">second item</a></li>
         <li class="item-inactive"><a href="link3.html">third item</a></li>
         <li class="item-1"><a href="link4.html">fourth item</a></li>
         <li class="item-0"><a href="link5.html">fifth item</a>
     </ul>
 </div>
'''
>>> html = etree.HTML(text)
>>> span = html.xpath('//li//span')
>>> span
[<Element span at 0x2e8cac8>]
>>> span1 = html.xpath('//li/span')
>>> span1
[]
>>> 
注意:span前面双斜线表示寻找包含在所有li标签下的span标签,单斜线表示寻找所有的li标签的名为span的子标签

5、获取第几个个li标签下的名为a的子标签


>>> res = html.xpath('//li[last()]/a')		#最后一个
>>> 
>>> 

>>> res = html.xpath('//li[last()-1]/a')		#倒数第二个
>>> res[0].text		#显示a标签下的内容
'fourth item'
>>> 


6、是否完全匹配



前面要求类名包含'external'即可,而后者需要类名为'external',完全匹配。


7、and和or运算符





更多语法规则可以参考w3school进行练习!!!!!


五、小练习

用XPath和BeautifulSoup、re(正则表达式)同时抓取相同内容

代码:

from lxml import etree
import urllib.request
from bs4 import BeautifulSoup as BS
import re


headers = {'user-agent': "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_2) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.95 Safari/537.36"}


def get_html(url):
    req = urllib.request.Request(url,headers=headers)
    response = urllib.request.urlopen(req)
    html = response.read()

    return html



def for_xpath(html):
    print('this method is for xpath...')
    result = etree.HTML(html)
    #获取所有热门目的地
    #所有class属性为’hot-list clearfix‘的div标签下的所有a标签
    hot_city = result.xpath("//div[@class='hot-list clearfix']//a")
    mdd = []
    for i in range(len(hot_city)):
        mdd.append(hot_city[i].text)

    print(mdd)
    return len(mdd)


def for_BS(html):
    print('this method is for BeautifulSoup...')
    soup = BS(html,'html.parser')
    div_col_in = soup.select('.col')[:2]    #查找class为col的标签,取前两个,包含所有国内景点
    #print(div_col_in)
    mdd = []
    for col_in in div_col_in:
        a = col_in.select('a')
        for i in range(len(a)):
            mdd.append(a[i].text)

    print(mdd)
    return len(mdd)

def for_re(html):
    print('this method is for re ...')
    mdd_all = re.findall('target="_blank">(.*?)</a>',html)
    mdd = mdd_all[1:137]

    print(mdd)

    return len(mdd)


def main():
    url = 'http://www.mafengwo.cn/mdd/'
    html = get_html(url)
    html = html.decode('utf8')
    #print(html)
    #html1 = etree.HTML(html)
    #print(html1)
    i = for_xpath(html)
    j = for_BS(html)
    k = for_re(html)

    print('for xpath: total is %d mdd !' %i)
    print('for BS: total is %d mdd !' %j)
    print('for re: total is %d mdd !'%k)


if __name__ == '__main__':
    main()





最后发现结果相同,而且三种解析方式差不多,难易度类似。类名有空格时(one-list clearfix)BeautifulSoup无法获取???

具体用哪一种方法根据实际情况分析或者直接习惯偏好吧!!!!!!





  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值