爬虫python第二页_scrapy自动翻页采集,第二页跳转后,爬虫自动结束

本文介绍了一个使用Scrapy爬虫框架在Python中实现自动翻页和数据采集的例子。通过修改`allowed_domains`和`start_urls`,并利用`response.urljoin(nextlink[0])`进行页面跳转,实现了对网页数据的连续抓取。在抓取过程中,爬虫成功获取了公司名称、日期、地点和点击数等信息,并在抓取132条数据后正常结束。
摘要由CSDN通过智能技术生成

把你的allowed_domains 和 start_urls修改一下即可(为了代码简洁,删除 url="http://xjh.haitou.cc 这个定义(没必要))。

修改完后,判断有一下还有一下的话,继续爬取数据:

yield scrapy.Request(response.urljoin(nextlink[0]),callback=self.parse )

代码修改如下,原因就不说了,建议参考官方文档。

class WeatherSpider(scrapy.Spider):

name = "myweather"

allowed_domains = ["xjh.haitou.cc"]

start_urls = ["http://xjh.haitou.cc/nj/uni-21"]

def parse(self, response):

item = WeatherItem()

preachs=response.xpath('//table[@id="mainInfoTable"]/tbody/tr')

for preach in preachs:

item['corp']=preach.xpath('.//div[@class="text-success company"]/text()').extract()

item['date']=preach.xpath('.//span[@class="hold-ymd"]/text()').extract()

item[&

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值