scrapy学习小记

4 篇文章 0 订阅
2 篇文章 0 订阅
  1. 安装wheel
  2. 安装lxml
  3. 安装PyOpenssl
  4. 安装Twisted :异步框架
  5. 安装Pywin32
  6. 安装Scrapy

通过 scrapy startproject projectname 创建一个scrapy工程
进入该文件夹:
scrapy genspider baidu www.baidu.com 生成爬虫
scrapy crawl baidu 运行

scrapy shell quotes.toscrape.com 进入命令行交互模式

QuoteItem 处理返回值的数据

scrapy crawl quotes -o quotes.json 将数据输出到quotes.json文件中
scrapy crawl quotes -o quotes.jl 将数据输出到quotes.jl,每一段数据存成一行
-o 输出文件.格式
csv xls Marshall ftp://user:password@ftp.example.com/path/quotes.csv

通过pipeline.py里的配置,可将数据输入到数据库中

Scrapy 命令行详解

Global commands:
● startproject
● genspider
● settings
● runspider
● shell
● fetch
● view
● version
Project-only commands:
● crawl
● check
● list
● edit
● parse
● bench

scrapy选择器用法:
https://docs.scrapy.org/en/latest/topics/selectors.html

scrapy spiders用法:
Spider类定义了如何爬取某个(或某些)网站。包括了爬取的动作(例如:是否跟进链接)以及如何从网页的内容中提取结构化数据(爬取item)。 换句话说,Spider就是您定义爬取的动作及分析某个网页(或者是有些网页)的地方。
https://docs.scrapy.org/en/latest/topics/spiders.html
https://scrapy-chs.readthedocs.io/zh_CN/latest/topics/spiders.html
scrapy itemPipeline用法:
清洗数据
处理数据:
存入文件/数据库等
https://docs.scrapy.org/en/latest/topics/item-pipeline.html
https://scrapy-chs.readthedocs.io/zh_CN/latest/topics/item-pipeline.html

scrapy downloadMiddleware
下载器中间件是介于Scrapy的request/response处理的钩子框架。 是用于全局修改Scrapy request和response的一个轻量、底层的系统。
https://docs.scrapy.org/en/latest/topics/downloader-middleware.html
https://scrapy-chs.readthedocs.io/zh_CN/latest/topics/spider-middleware.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值