Node.js写爬虫

4933701-9cd76d8569d8de5c.png
2017-04-22_14-55-04.png

1.基础知识

爬虫
爬虫,是一种自动获取网页内容的程序,是搜索引擎的重要组成部分,因此搜索引擎优化很大程度上就是针对爬虫而做出的优化。

Robots协议
robots.txt是一个文本文件,也是一个协议,不是一个命令。
robots.txt是爬虫要查看的第一个文件。
robots.txt告诉爬虫在服务器上什么文件是可以被查看的,搜索机器人就会按照文件中的内容来确定访问的范围。

配置环境

express spider && cd spider && npm install 创建项目spider并安装依赖
cd bin && node www 启动服务器
npm install request --save-dev 安装request模块并放入项目
npm install cheerio --save-dev 安装cheerio模块并放入项目

模块相关
superagent :发起http请求
cheerio :解析http返回的html内容
async :多线程并发控制

2.原理分析

步骤1:app.js

var express = require('express');
var app = express();

app.get('', function(req,res){
    res.send('hi,world!');
});
app.listen(3000);

测试
supervisor start app.js

3.实战案例

3.1 爬取图片并保存到本地

var http = require('http');
var fs = require('fs');
var request = require('request');
var cheerio = require('cheerio');

var url = 'http://tu.duowan.com/tag/5037.html';

function saveImg($){
    var arr = [];
    $('.box').each(function(index,item){
        //获取图片的标题
        var obj = {
            'name':$(this).find('em a').text(),
            'img':$(this).find('img').attr('src')
        };
        arr.push(obj);
        //采用request模块,向服务器发起一次请求,获取图片资源
        request.head(obj.img, function(err, res, body){
            if(err){
                console.log(err);
            }
        });
        //通过流的方式,把图片写到本地目录下
        request(obj.img).pipe(
            fs.createWriteStream('./imgs/'+obj.name+'.jpg')
        );

        // 在本地存储所爬取的内容资源
        var file = './imgs/note.log';
        var content = obj.name+'\n';
        fs.appendFile(file, content, 'utf-8', function(err){
            if(err){
                console.log(err);
            }
        });
    });
    console.log(arr);
}
function startRequest(url){
    //采用http模块向服务器发起一次get请求
    http.get(url,function(res){
        var html = '';
        //防止中文乱码
        res.setEncoding('utf-8');
        res.on('data', function(chunk){
            //监听data事件,每次取一块数据
            html += chunk;
        }).on('end', function(){
            //监听end事件,如果整个网页内容的html都获取完毕,就执行回调函数
            //采用cheerio模块解析html
            var $ = cheerio.load(html);
            //在本地存储所爬取到的图片资源
            saveImg($);
        }).on('error', function(err){
            console.log(err);
        });
    });
}
function getPage(url){
    startRequest(url);
}
getPage(url);

3.2 爬取博客

环境配置

npm install async -save-dev
npm install url-save-dev
npm install superagent -save-dev
npm install eventproxy -save-dev

代码解析


var cheerio = require('cheerio');
var async = require('async');
var url = require('url');
var superagent = require('superagent');

var express = require('express');
var app = express();

var eventproxy = require('eventproxy');
var ep = eventproxy();


var pageurl = [];
var pagenum = 3;
for(var i=0; i<pagenum; i++){
    pageurl.push('http://www.ruanwen2008.com/page_'+i+'.html');
}


app.get('/', function(req,res,next){
    var posturl = [];
    //ep重复监听emit事件
    //eventproxy就是使用事件(并行)方法来解决这个问题。当所有的抓取完成后,eventproxy接收到事件消息自动帮你调用处理函数。
    ep.after('getPost', pageurl.length, function(eps){
        var count = 0;
        //抓取内容
        var fetch = function(url,callback){
            count++;
            superagent.get(url).end(function(error,result){
                count--;

                var $ = cheerio.load(result.text);
                var title = $('title').text();
                var obj = {title:title};
                callback(null,obj);
            });
        };
        //控制最大并发数为5
        async.mapLimit(posturl, 5, function(url,callback){
            fetch(url, callback);
        }, function(error,result){
            res.send(result);
        });
    });
    pageurl.forEach(function(url){
        superagent.get(url).end(function(error,response){
            if(error){
                return next(error);
            }
            //cheerio充当服务器端的jQuery功能
            //先使用它的.load()来载入HTML
            //再通过CSS selector来筛选元素。
            var $ = cheerio.load(response.text);
            //其结果为一个个对象,调用 .each(function(index, element))函数来遍历每一个对象,返回的是HTML DOM Elements。
            $('.lieb>ul>li>h2>a').each(function(){
                var href = $(this).attr('href');
                posturl.push(href);
            });
            //使用eventproxy来并发抓取
            ep.emit('getPost', 'get article');
        });
    });
});
//监听服务器端口
app.listen(3001, function(req,res){
    console.log('app is running');
});

4.爬虫小结

4.1http.get+cheerio+iconv-lite

直接使用http的get方法进行请求url,将得到的内容给cheerio解析,用jquery的方式解析。得到的结果中文乱码如何解决呢,用iconv-lite模块将得到的内容进行转码即可。

http.get(options,function(result){
  var body = [];
  result.on('data',function(chunk){
     body.push(chunk);
  });
  result.on('end', function () {
     var html = iconv.decode(Buffer.concat(body), 'gb2312');  //注意这里body是数组
     var $ = cheerio.load(html);
     ...
  });
});

4.2request+cheerio+iconv-lite

直接获取到Buffer类型的数据。然后将得到的内容给cheerio解析,用jquery的方式解析出我们要东西即可。

request(options,function(err,res,body){
  if(err)console.log(err);
  if(!err&&res.statusCode==200){
     var html = iconv.decode(body, 'gb2312');     //这里body是直接拿到的是Buffer类型的数据,可以直接解码。
     var $ = cheerio.load(html);
     ...
  }
});

4.3 superagent+cheerio+superagent-charset

用了superagent的get方法发起请求,解码的时候用到了superagent-charse,用法还是很简单的,之后再将获取到的内容给cheerio解析,用jquery的方式解析出我们要东西即可。结果中文乱码解决用superagent-charset模块进行转码。

var charset = require("superagent-charset");
var superagent = charset(require("superagent"));   //将superagent模块传递给superagent-charset
superagent.get(url)
  .charset('gb2312')                                //用charset方法达到解码效果。
  .end(function(err,result){
     if(err) console.log(err);
     var $ = cheerio.load(result.text);
     ...
  });
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值