从刚开始接触Python2.7到使用Scrapy1.3进行爬虫,经历了许多,不懂的各种百度,硬是从不会进步成入门了,抱怨的话不多说,进入正题。
写这篇文章的目的在于总结这段时间学习Scrapy的到的一些经验
环境搭建
1、如果在代码中运行命令scrapy crawl sina2出错(如上图)
subprocess.CalledProcessError: Command 'scrapy crawl sina2'
returned non-zero exit status 1
有可能是:
1、先将scrapy crawl sina2命令在cmd窗口中测试,如果报错:
Fatal error in launcher: Unable to create process using '"'
请参考下方第二点
2、scrapy没有装好
2、如果命令行出错
Fatal error in launcher: Unable to create process using '"'
有可能是:
1、python没有安装在c盘的原因,经测试我将python27放到除c盘以外都不行
2、安装路径不要有 空格中文之类的字符
3、pip被墙,修改国内源方法,可以增加速度(好久没去测试,不懂还可以用不)
1、linux或者是Mac的 pip源:
1、找到vi ~/.pip/pip.conf
2、修改
[global]