scrapy入门

Scrapy笔记

一、安装scrapy框架:

1.安装scrapy:通过“pip install scrapy”即可安装

2.如果在windows下,还需要安装“pypiwin32“,如果不安装,那么以后运行scrapy项目时就会报错。

3.如果是在ubantu下,还需要安装一下第三方库:“sudo apt-get install python-dev python-pip libxml2-dev libxsltl-dev zlibig-dev lobffi-dev libssl-dev“

二、创建爬虫

       1.创建项目:“scrapy startproject 项目名“

       2.创建爬虫:进入项目所在的路径,执行命令“ scrapy genspider 爬虫名字 爬虫的域名“。注意:爬虫的名字不能和项目名字相同。

三、项目目录结构:

       1.items.py:用来存放爬取下来的数据的模型。

       2.middlewares.py:用来存放各种中间件的文件。

       3.pipelines.py:用来将items的模型存储到本地磁盘中。

       4.settings.py:本爬虫的一些配置信息(比如请求头,多久发送一次请求,ip代理池等等)。

       5.scrapy.cfg:项目的配置文件。

       6.spiders包:放置spider代码的目录.

 

 

Scrapy常用命令:

1.bench:运行测试。

2.fetch:下载指定url的数据。

3.genspider:生成爬虫。

4.setting:获取设置信息。

5.startproject:创建scrapy项目。

6.version:获取scrapy版本信息。

7.view:scrapy会利用电脑的浏览器浏览指定url网页。

8.shell:开启scrapy控制台。

 

PS:附加anaconda的一些命令:

1.查看conda已安装的第三方库:“conda list“。

2.查看conda存在的虚拟环境:“conda env list“。

3.激活虚拟环境:“activate 虚拟环境名“。

4.安装”pip install 包名”or”conda install 包名”。

 

 

 
  

 

 

 

 

 

 


 [慧1]

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值