初学爬虫,关于scrapy

对于anaconda与pycharm,因为在pycharm中一直下不成功tensorflow,所以后来又下了anaconda,pycharm就可以直接使用anaconda的编译器,

一直都很正常,但是,就scrapy而言,在anaconda成功使用,但是,pycharm就不成功,一直显示不存在该包。

就只能用pycharm上修改代码,anaconda的prompt下执行代码。

1、在终端输入scrapy startproject XX,就表明在该包下创建scrapy项目XX

2、输入scrapy genspider news www.baidu.com,就是表明要爬www.baidu.com,同时在scrapy项目下的spiders新建news.py

3、终端中执行的代码为scrapy crawl news

4、如果想要爬网站,最好将项目中setting.py中 

ROBOTSTXT_OBEY变为False, 

为了查看更方便可以增加 , LOG_LEVEL='WARNING'

为了访问网站成功,将DEFAULT_REQUEST_HEADERS中增加User-Agent

5、可以将start_urls改为真正想要访问的网站,上面创建时的网站,只是域网。

6、执行,在终端中输入scrapy crawl new

7、如果要保存在json下,则可以

            author = response.xpath('//div[@id="info"]//p[1]/text()').extract()
            content = response.xpath('//div[@id="intro"]//p/text()').extract()
            yield{
                "content" : content
                "author" : author
            }

8、简单的执行方法可以,建一个run.py,然后,在有该文件下,直接在终端输入python run.py

from scrapy import cmdline

cmdline.execute("XX".split())

 

转载于:https://www.cnblogs.com/wzwi/p/10725746.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值