简单创建一个scrapy项目,并创建爬百度的spider文件

目录1.环境搭建 scrapy2.创建scrapy项目3.在scrapy项目下面创建新的爬虫spiders4.在Pycharm中打开项目5.爬取百度简单代码6.运行项目,没有爬取到消息,修改settings7再次运行1.环境搭建 scrapypip install scrapyscrapy常用的命令(1)startproject: 创建scrapy项目...
摘要由CSDN通过智能技术生成

目录

1.环境搭建 scrapy

2.创建scrapy项目

3.在scrapy项目下面创建新的爬虫spiders

4.在Pycharm中打开项目

5.爬取百度简单代码

6.运行项目,没有爬取到消息,修改settings

7再次运行


1.环境搭建 scrapy

pip install scrapy

scrapy常用的命令

(1)startproject: 创建scrapy项目

(2)genspider:创建spiders小爬虫文件

2.创建scrapy项目

在你想要创建项目的目录下,shift+ 右键  在此处打开命令行:

scrapy startproject scrapyproject

创建好之后,在该目录下出现了一个scrapyProject的文件夹

  • 1
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值