爬虫中extract的简单用法

 
print(jobName, jobType, peopleNum, address, jobTime)
(1)第一种
jobName = job.xpath('./td[1]/a/text()')
[<Selector xpath='./td[1]/a/text()' data='22989-腾讯云虚拟化高级研发工程师(深圳)'>] 技术类 2 深圳 2018-07-11

 

(2)第二种

 

jobName = job.xpath('./td[1]/a/text()').extract()

['22989-腾讯云虚拟化高级研发工程师(深圳)'] 技术类 2 深圳 2018-07-11

 

(3)第三种

 

jobName = job.xpath('./td[1]/a/text()').extract()[0]

22989-腾讯云虚拟化高级研发工程师(深圳) 技术类 2 深圳 2018-07-11

  • 4
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Python爬虫的selector用于解析和提取网页的特定数据。可以使用Scrapy框架提供的Selector类来构造和使用selector选择器。使用selector选择器的步骤如下: 1. 导入必要的模块和类,如: ```python from scrapy import Selector ``` 2. 构造一个selector对象,将要解析的网页作为参数传入,如: ```python selector = Selector(text=html) ``` 这里的html是要解析的网页内容。 3. 使用selector对象来选取和提取数据,可以使用xpath或css选择器语法来指定需要的数据。例如,使用xpath选择器可以使用以下语法: ```python data = selector.xpath('//tag/text()').extract() ``` 这里的//tag/text()是一个xpath表达式,用来选择tag标签的文本内容。 4. 对于复杂的选择器,可以使用多个xpath或css选择器进行组合,以便更精确地选取和提取数据。 综上所述,使用python爬虫的selector可以通过构造selector对象并使用xpath或css选择器语法来选取和提取网页的特定数据。<span class="em">1</span><span class="em">2</span> #### 引用[.reference_title] - *1* [Python爬虫之Scrapy框架系列(10)——Scrapy选择器selector](https://blog.csdn.net/qq_44907926/article/details/128815032)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* [Python爬虫之Spider类用法简单介绍](https://download.csdn.net/download/weixin_38679449/13710337)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值