scrapy环境搭建

在ubuntu16.04下搭建scrapy环境

  • 安装pip
sudo apt-get install python-pip
  • 安装Scrapy需要的依赖库
sudo apt-get install python-dev
sudo apt-get install libevent-dev
sudo apt-get install libssl-dev
  • 安装Scrapy
sudo pip install scrapy
scrapy version

使用scrapy创建项目

scrapy startproject douban

这里写图片描述

在spiders目录下创建”doubanspider.py”文件,内容如下:

# -*- coding: utf-8 -*-

import scrapy

class firstSpider(scrapy.Spider):
    name = "douban" # 爬虫的名字,执行时候使用
    start_urls = [
        "https://www.baidu.com" #需要爬去的url
    ]

        def parse(self, response):
        bodycontent = response.body # response获取网站的返回内容
        filename = response.url.split("/")[-1] + ".html"
        # 将bodycontent写入文件
        print 'Curent URL => ', filename
        file = open(filename, "w")
        file.write(bodycontent)
        file.close()

执行scrapy项目

在scrapy.cfg的同级目录下创建main.py,用来执行该scrapy项目,内容如下:

# coding:utf-8

from scrapy import cmdline

cmdline.execute("scrapy crawl douban".split())

在pycharm中执行main.py,此时控制台输出如下:
这里写图片描述

另外,在该项目根目录下,也可以看到下载好的网页内容文件
这里写图片描述

好了,搭建好scrapy环境之后,就可以正式考试我们的爬虫之旅了。 好运,好运,好运

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值