Python之Scrapy爬虫库

1.基本命令:

见之前博客:https://blog.csdn.net/machi1/article/details/100042830

2.实例:

  1. 在D盘创建一个文件夹testScrapy。
  2. 在命令行中将目录切换至testScrapy中。
  3. 在命令行中写scrapy startproject one来创建一个scrapy项目,其中one为项目名,可任意
  4. cd one,切换到该工程目录中
  5. scrapy genspider baidu baidu.com来创建一个爬虫,在上述命令中,baidu是项目名,baidu.com是要爬取的网址url,也就是start_urls
  6. 使用完该命令后会在spiders目录中多出一个baidu.py文件,接下来需要在该文件中编写爬虫的逻辑代码

3.生成的工程目录:

one/                                            外层目录

      scrapy.cfg                            部署scrapy爬虫的配置文件

      one/                                      scrapy框架的用户自定义python代码

            __init__.py                     初始化脚本

           items.py                          Items代码模板(继承类)

           middlewares.py               Middlewares迪马模板(继承类)

           pipelines.py                     pipelines代码模板(继承类)

           settings.py                       scrapy爬虫的配置文件

           spiders/                           spiders代码模板目录(继承类)

4.发现了一篇介绍ItemLoader特别详细的文章:https://blog.csdn.net/zwq912318834/article/details/79530828

5.scrapy框架结构

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值