爬虫学习笔记(七):Scrapy的使用

爬虫学习笔记(七)
Scrapy的使用

  1. 创建项目
scrapy startproject name(自己定义名字) #定义项目名
  1. 创建爬虫
scrapy genspider xxx(爬虫名称) 域名 #定义爬虫名
  1. 运行爬虫
scrapy crawl xxx(爬虫名)
  • 创建一个.py文件,在文件中从scrapy.cmdline中导入execute,写入如下:
from scrapy.cmdline import execute
# execute("scrapy crawl xxx".split())
execute(["scrapy","crawl","xxx"])

在我们写爬虫的时候都是在自己创建的文件下的xxx.py下面进行编写。
需要注意的就是name它是一定要有的。如果你的开始url不是本身定义的,删改start_url就ok啦。
以上xxx都是自己创建爬虫时的名字。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值