Scrapy---生成文件

scrapy应用
一、Scrapy框架的应用步骤
1、创建工程:scrapy startproject 工程名称
2、创建爬虫:scrapy genspider 文件名称xxxspider 网址

二、开发
1、items.py 确定数据采集的属性—采集项
变量名 = scrapy.Field()
title = scrapy.Field()
rank = scrapy.Field()

2、spider爬虫程序
确定爬取的网页 start_urls = [‘xxxxxxx’]
完善parse方法使用for循环item标签
在循环体中创建并封装数据对象(XPath解析数据)
yield 类对象 将获的对象装载到列表中
3、设置数据处理(pipelines.py)
在屏幕输出……

4、在settings.py中设置pipelines输出项
ITEM_PIPELINES = {
项目名称.文件名称.类名称:数据处理级别(处理顺序)
‘doubanMovie.piplinestxt.DoubanmoviePipeline’:1,
‘doubanMovie.piplinesjson.DoubanmoviePipeline’:2,
‘doubanMovie.piplinesexcel.DoubanmoviePipeline’:3,
‘doubanMovie.piplinesmysql.DoubanmoviePipeline’:4
}

5、添加自动轮询动态代理并在settings.py中设置
DOWNLOADER_MIDDLEWARES = {
‘scrapy.contrib.downloadermiddleware.useragent.UserAgentMiddleware’ : None,
‘项目名称.rotate_useragent.RotateUserAgentMiddleware’ :400
}

6、启动项目 scrapy crawl moviespider(爬虫名称)

运行时出现没有win32模块,下载它
https://movie.douban.com/top250
下载 win32模块
pip install pypiwin32

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值