nodejs实现的爬虫,从百度贴吧爬取小说

程序应该被用来改变生活

每天都得来回坐地铁上下班,无聊的时候喜欢看些小说,还只看至尊系的。以前老用微信读书,现在读书送的书券都花完了,作为一名程序猿怎么可能去花钱买书券读书。所以我想了写个爬虫爬小说的想法。

superagent  --发送http请求
cheerio  --分析请求得到的html
node-schedule --定时运行爬虫
mongoose  --将爬到的最终数据存入mongo
  • 程序目录
networkReptile----connectDB //数据库代码
|---node_modules
|---tools //工具类
|---config.js //配置文件
|---networkReptile.js //主程序
|---package.json //依赖包
|---result.txt //存储爬到的html
|---README.md //使用说明

看程序之前,请务必看下cnodejs社区的nodejs入门的lession5lession6,详情请见注释,请看代码注释。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值