scrapy框架下使用通用爬虫XMLFeedSpider爬取新浪微博的RSS

我们一般用xmlfeed模版爬虫去处理RSS订阅信息。RSS是一种信息聚合技术,可以让信息的发布和共享更为高效和便捷。RSS是基于XML标准的,扩展名是 .xml ,需要下载专门的阅读器才能打开,否则看到的就是这个样子:

(1)创建项目:scrapy startproject xmlfeedspider

(2)使用XMLFeedSpider模板创建爬虫:

scrapy genspider -t xmlfeed jobbole sina.com.cn

(3)使用Item收集数据,在xmlfeedspider文件夹中,修改items.py文件,代码如下:

import scrapy
class XmlfeedspiderItem(scrapy.Item):
	# 文章标题
	title = scrapy.Field()
	# 发表日期
	public_date = scrapy.Field()
	# 文章链接
	link = scrapy.Field()

(4)在spiders文件中,修改jobbole.py文件,代码如下:

# -*- coding: utf-8 -*-
from scrapy.spiders import XMLFeedSpider
# 导入 item
from xmlfeedspider.items import XmlfeedspiderItem

class JobboleSpider(XMLFeedSpider):
	name = 'jobbole'
	allowed_domains = ['sina.com']
	start_urls = ['http://blog.sina.com.cn/rss/1163218074.xml']
	iterator = 'iternodes'  # 迭代器,默认是 iternodes
	# 抓取item节点(也可以是rss,具体要看 .xml 文件结构)
	itertag = 'item'
	def parse_node(self, response, selector):
		item = XmlfeedspiderItem()
		item['title'] = selector.css('title::text').extract_first()
		item['public_date']=selector.css('pubDate::text').extract_first()
		item['link'] = selector.css('link::text').extract_first()
		yield item	# 也可以使用 return item

(5)在setting中需要修改的配置如下:

# 自定义USER_AGENT 的值
USER_AGENT = 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_8_3) Apple‘
	+’WebKit/536.5 (KHTML, like Gecko) Chrome/19.0.1084.54 Safari/536.5'
# 不遵守robots.txt协议规则
ROBOTSTXT_OBEY = False

(6)运行爬虫,查看结果,如下:

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值