爬虫神器xpath的用法(一)

1、如果你没有安装lxml,请运行pip install lxml或者easy_install lxml安装,如果在安装过程中失败的话,

是因为lxml需要依赖某些库文件,具体可以问下度娘,这里不再赘述。

2、安装成功后,请看下面测试代码

//:定位根节点
/:往下层寻找
/text(): 提取文本内容
/@xxx: 提取属性内容

#encoding=utf-8
from lxml import etree
html = '''
<!DOCTYPE html>
<html>
<head lang="en">
    <meta charset="UTF-8">
    <title>测试-常规用法</title>
</head>
<body>
<div id="content">
    <ul id="useful">
        <li>这是第一条信息</li>
        <li>这是第二条信息</li>
        <li>这是第三条信息</li>
    </ul>
    <ul id="useless">
        <li>不需要的信息1</li>
        <li>不需要的信息2</li>
        <li>不需要的信息3</li>
    </ul>
    <div id="url">
        <a href="http://www.meilishuo.com">美丽说</a>
        <a href="http://www.meilishuo.com" title="美丽说流行款">美丽说只做正确流行款</a>
    </div>
</div>
</body>
</html>
'''
selector = etree.HTML(html)

#提取文本,获取根目录下div且id=content下面的ul且id=useful的文本内容
content = selector.xpath('//div[@id="content"]/ul[@id="useful"]/li/text()')
for each in content:
    print each

#提取属性 获取根目录下a标签且属性为href的内容,如果不指定则返回为list
link = selector.xpath('//a/@href')
print link

title = selector.xpath('//a/@title')
print title[0]

将打印出如下信息:

//提取文本属性的输出:

这是第一条信息
这是第二条信息
这是第三条信息

//提起属性的输出:
['http://www.meilishuo.com', 'http://www.meilishuo.com']
美丽说流行款

转载于:https://www.cnblogs.com/gide/p/5246664.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值