用100行Nodejs代码写微博爬虫

文章为原创首发地址: https://hooyes.net/p/nodejs-w...

图片描述

思路

通过关键字搜索抓取新浪微博的数据,分析得出新浪微博的搜索地址格式如下:

http://s.weibo.com/weibo/关键字

爬虫代码文件为 weibo-spider.js

假设我们要查询的关键字为 哈佛大学 则运行方式为

node weibo-spider.js 哈佛大学

执行此命令后,则爬虫会逐页抓取。

伪代码

将上面的思路用以下用伪代码表示过程

// 主程序 
async function Main(keyword) {
    let url = 'http://s.weibo.com/weibo/'+keyword
    let data = await fetchHtml(url);
    Worker(data);
}

// 抓取 url 的程序
function fetchHtml(url) {
}

// Worker 负责解析抓取的HTML并转化成 JSON
function Worker(data){
}

// 为了防止过快抓取,模拟一个线程等待

const  Thread = { 
    Sleep : function (d) {  
    return new Promise((a, r) => { 
    setTimeout(() => { 
      a() 
    }, d) 
  }) }
}

// Nodejs 命令行参数
let argvs = process.argv;
let keyword = argvs[2];
Main(keyword);

执行fetchHtml的时候附带登录的 Cookie,本文把 Cookie 存在 Cookie.txt

因Cookie包含私人信息本文不提供,请自行获取,获取Cookie方法有很多种,例如:登录后,通过浏览器复制 Cookie , 以下码基于你已拿到了 Cookie 。

真代码

weibo-spider.js 100行代码,依赖一个request模块和自定义xhtml模块。

完整代码已放到Hooyes的Github上开源,欢迎Fork或提建议。

weibo-spider.js

xhtml.js

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值