spider/pyspider基础

一、爬虫的基本思路(以下内容选自《知乎》)

链接:http://www.zhihu.com/question/20899988/answer/24923424

想象你是一只蜘蛛,现在你被放到了互联“网”上。那么,你需要把所有的网页都看一遍。怎么办呢?没问题呀,你就随便从某个地方开始,比如说人民日报的首页,这个叫initial pages,用$表示吧。

在人民日报的首页,你看到那个页面引向的各种链接。于是你很开心地从爬到了“国内新闻”那个页面。太好了,这样你就已经爬完了俩页面(首页和国内新闻)!暂且不用管爬下来的页面怎么处理的,你就想象你把这个页面完完整整抄成了个html放到了你身上。

突然你发现, 在国内新闻这个页面上,有一个链接链回“首页”。作为一只聪明的蜘蛛,你肯定知道你不用爬回去的吧,因为你已经看过了啊。所以,你需要用你的脑子,存下你已经看过的页面地址。这样,每次看到一个可能需要爬的新链接,你就先查查你脑子里是不是已经去过这个页面地址。如果去过,那就别去了。

好的,理论上如果所有的页面可以从initial page达到的话,那么可以证明你一定可以爬完所有的网页。

那么在python里怎么实现呢?
很简单

>

import Queue

> initial_page = "http://www.renminribao.com"

> url_queue = Queue.Queue()
seen = set()

> seen.insert(initial_page)
url_queue.put(initial_page)

> while(True): #一直进行直到海枯石烂
    if url_queue.size()>0:
        current_url = url_queue.get()    #拿出队例中第一个的url
        store(current_url)               #把这个url代表的网页存储好
        for next_url in extract_urls(current_url): #提取把这个url里链向的url
            if next_url not in seen:     
                seen.put(next_url)
                url_queue.put(next_url)
    else:
        break
二.什么是pyspider?

pyspider是用python实现的爬虫框架。基于这个框架开发爬虫功能可以简化开发工作。
它具有以下优点:

(1)使用Python为pysider写脚本,可以方便地使用python的各种库,支持python 2&3版本

(2)提供工程管理,每个工程又分为多个任务。每个任务具有优先级、重试、周期性运行、重新爬取等特性

(3)提供功能强大的WebUI,可以用于编译脚本、爬虫任务监控、工程管理以及浏览结果

(4)可以使用多种数据库存储结果:MySQL, MongoDB, Redis, SQLite, PostgreSQL with SQLAlchemy

(5)可以结合使用多种消息队列:RabbitMQ, Beanstalk, Redis and Kombu

(6)分布式的结构,支持爬取JS页面,支持python 2&3版本.

安装pyspider:
yum install pyspider     //redhat
使用pyspider生成一个最简单的最爬虫:

step1: ./pyspider

step2: 打开浏览器,输出127.0.0.1:5000

step3:点击create,创建一个工程,填入工程名与initial page

step4:pysider生成了一段默认代码,这段的代码是什么意思以及怎么运行,将在后面介绍。
如果需要设置代理的可以在这里改一下代码:

crawl_config = {
    "proxy":"local_proxy:8080",
}

step6 右上角save

运行效果:

分析initial page中所有链接,并提取链接的url和title

运行第一个爬虫程序

运行的方法有两种:直接运行和单步跟踪,这里讲“单步跟踪”

step1:左下角切到follow

step2:上方点击run,将看到程序运行的第一个结果,这就一开始提供的initial page

step3:点击右边绿色的播放按钮,又得到了一大批链接,这些链接都是从initial page页面解析出来的

step4:在这批页面中随意选择一个,点击它右边的播放按钮,将看到类似这样的打印

运行结束

代码解释:
@every(minutes=24 * 60) #该工程每天启动一次
def on_start(self):                                            #onstart是入口函数
    #使用self.index_page 函数来处理'http://blog.csdn.net/mishifangxiangdefeng'页面
    self.crawl('http://blog.csdn.net/mishifangxiangdefeng', callback=self.index_page)  

@config(age=10 * 24 * 60 * 60) #有效期10天
def index_page(self, response):
     # 在 pyspider 中,内置了 response.doc 的 PyQuery 对象,让你可以使用类似 jQuery 的语法操作 DOM 元素。
    for each in response.doc('a[href^="http"]').items():
        self.crawl(each.attr.href, callback=self.detail_page)  #self.detail_page函数来处理该页面中所有的链接

@config(priority=2)
def detail_page(self, response):                               #解析内面的信息
    return {
        "url": response.url,
        "title": response.doc('title').text(),
    }

转载于:https://my.oschina.net/windmissing/blog/690416

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值