更上一层楼!

一切安排都是最好的,剩下的就交给时间!

Nodejs 实用工具集笔记

前言

学了Nodejs一天了,这种异步非阻塞式的编程模型仿佛一下子打破了我的思维模式,总有一种根本不会编程的感觉。不过从中也确实让我获得了很多宝贵的经验。

这里暂且记录一下学习过程中遇到的一些实用的库吧,给自己一个纪念。

工具列表

supervisor

之前写Python的Flask或者Django的时候,一旦修改了源代码,后台调试服务器就会自动检测到变化,然后restart。所以可以直接在浏览器上直接刷新看到最新的结果。而写了一点点Node代码的我发现每次都必须先CTRL+C,然后重新运行服务器端代码,才能看到最新的结果。

Nodejs只有在第一次引用到某部分时才回去解析脚本,以后都会直接访问内存中解析好的脚本文件内容。

这在一定程度上确实提高了性能,但是开发的时候真的不是一个好做法。幸好supervisor就是专门用来解决这个问题的。

安装

npm install -g supervisor

使用

supervisor XX.js

其实就是对node的一个包装。比如我写了一个简单的服务器程序sample.js

let http = require("http");

function handle_request(req, res) {
    console.log(req.url);
    res.writeHead(200, {"Content-Type": "text/html"});
    res.end("<H2>It Works.</H2>");
}

var server = http.createServer(handle_request);
server.listen(8080);

正常运行的话是

node sample.js

但是这样不能实时检测到脚本文件的变化,这时就可以让supervisor出场了。

supervisor sample.js

命令本身也会给我们很多提示性的内容。

Starting child process with 'node sample.js'
Watching directory 'E:\Code\Nodejs\learn\tools' for changes.
Press rs for restarting the process.
undefined
undefined
crashing child
Starting child process with 'node sample.js'
/
/favicon.ico
rs
crashing child
Starting child process with 'node sample.js'

不难看出,supervisor启动了一个子进程来处理node脚本,然后本身检测文件变化,实时做处理。

rs命令代表着restarting,即我们可以手动的让服务器脚本重新启动。


node-inspector

调试代码的一款比较好用的在线调试工具。用户界面看起来还算不错。

安装

npm install -g node-inspector

使用

首先要链接待调试文件。

node --debug-brk=5858 xxx.js

其中xxx.js就是你要调试的出错的node文件。

接下来就是启动

node-inspector

查看和操作
这时打开浏览器,输入

http://127.0.0.1:8080/debug?port=5858

即可通过漂亮的UI来执行调试命令了。

如下图:
node-inspector 运行示意图

需要注意的是:node-inspector内部依赖于webkit,所以只能在以webkit为内核的浏览器上运行。


SuperAgent

类似于Python中的requests, 在Nodejs中也有这么一个很好用的网络请求库,那就是SuperAgent。下面简单的来测试一下。

安装

npm install superagent

使用

我这边直接按照自己的理解,写了一个post请求方式,来获取图灵机器人接口内容的示例。代码如下:


let superagent = require('superagent');

var posturl = "http://www.tuling123.com/openapi/api";
var payload = {
    key: "输入你自己申请的key即可",
    info: "你好啊",
    userid: "1357924680"
}
var headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/57.0.2987.110 Safari/537.36"
}

superagent.post(posturl).send(payload).set(headers).end(function(err, result){
    if(err){
        console.log("post失败!");
        return;
    }
    console.log("POST方式获取数据成果,详细信息为:\n");
    // 类似于Python的requests库,返回对象为Response对象,可以通过response.text获取到返回内容
    var data = result.text;
    console.log(data);
    // 返回内容为字符串对象
    console.log(typeof data);
    // 将字符串对象转换成JSON对象,方便属性值的获取。
    data = JSON.parse(data);
    console.log(data.text);
});

运行代码获得的信息如下:

POST方式获取数据成果,详细信息为:

{"code":100000,"text":"哼,简直无法忍受你了呀"}
string
哼,简直无法忍受你了呀

教程

本来我想自己写一遍这些基础的用法的,但是看到了官网的简介,甚是简洁,逻辑清晰,示例优雅。然后我觉得没必要重复造轮子了,下面两个链接看完之后基本上就能熟练掌握了。


cheerio

谈到了SuperAgent类似于Python中的requests, 那么在获取到网页内容之后,解析内容的话,在Python中有BeautifulSoup这么个神器,那么在Nodejs中呢?

答案是cheerio。功能上类似于BeautifulSoup,可以作为一款优秀的解析器来使用。

安装

npm install cheerio

使用

没有一个例子的话,感觉不怎么像回事。下面还是来个简单的例子。

/**
 * 一款基于Nodejs的简易爬虫测试。
 */

let superagent = require("superagent");
let cheerio = require("cheerio");

function crawl() {
    // 爬取网页,解析网页,保存到列表中。
    var targeturl = "http://blog.csdn.net/marksinoberg";

    // 申请一个列表, 用来保存爬虫爬取到的格式化的信息。可以采用literal方式[]也可以采用new Array();
    var results = [];

    superagent.get(targeturl).then(function (response) {
        // response是回调函数获取到的结果
        console.log("网页总长度:" + response.text.length);
        // 将superagent获取到的HTML页面交给cheerio进行解析即可。
        var $ = cheerio.load(response.text);
        //获取页面上非置顶的链接
        $(".article_item").each(function (index, element) {
            console.log("正在解析第" + (index + 1) + "个链接内容!");
            var blogtitle = $(this).find('h1').text().trim();
            var bloghref = $(this).find('h1').find('a').attr('href');
            // console.log("标题内容为:" + blogtitle);
            // console.log("博客链接:" + bloghref);
            // console.log("=======================")
            var obj = {
                title: blogtitle,
                href: "http://blog.csdn.net" + bloghref
            };
            results.push(obj);
        });
    }).then(function () {
        console.log(results);
    });
}

/**
 * 执行代码,并打印输出结果。
 */
crawl();

执行如下命令

node simple-crawl.js

即可看到如下内容。
Nodejs简易爬虫实现

教程

为了避免重复造轮子, 我还是把看到的很经典的链接放过来吧。相信中英文结合着看,运用BeautifulSoupJQuery的思维模式,对于cheerio 就不在话下了。


总结

到目前为止,对于简单的数据抓取掌握了这几个库就不成问题了。然而实际上,这还远远不够。对于这个工具列表,有时间的话,再回来更新吧。

阅读更多

扫码向博主提问

去开通我的Chat快问

marksinoberg

博客专家

非学,无以致疑;非问,无以广识
  • 擅长领域:
  • 后台开发
  • PHP
  • Python
  • Java
版权声明:本作品采用知识共享署名-非商业性使用-相同方式共享 4.0 国际许可协议进行许可。转载时请标注http://blog.csdn.net/marksinoberg. https://blog.csdn.net/Marksinoberg/article/details/72850952
个人分类: Node-js
想对作者说点什么? 我来说一句

网络安全攻防常用工具集

2018年04月23日 4.09MB 下载

SoSo工具集5.0

2014年04月20日 30.24MB 下载

本地网络安全工具集1.0

2017年02月19日 287KB 下载

creator nodejs js笔记

2018年01月11日 1.97MB 下载

实用的Node.js代码段.pdf 下载

2017年01月11日 95.41MB 下载

没有更多推荐了,返回首页

加入CSDN,享受更精准的内容推荐,与500万程序员共同成长!
关闭
关闭