scrapy使用笔记

我是用anaconda安装的scrapy

安装完成,使用scrapy 建立爬虫工程,之后把工程文件夹整个移动到ecipse,配置下run configure就可以运行了

初步了解了下xpath语法,会简单地使用xpath抠取网页里面的内容

例子: //td[@class='hello'] 选取所有class标签为hello的td节点

   //td[1] 选取第一个td节点

当然也可以嵌套搜索

例子: parent = response.xpath('//td[@class="test"]')

child = parent.xpath('.//div[1]/text()')

记得使用extract()方法把结果转换为list

学习了结合item和pipeline处理爬取到的数据

这个pipeline是要在setting文档里面声明的,前面是类名,后面是优先级,很有趣

收工!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值