Nodejs 豆瓣爬虫实践

本文介绍如何使用 Node.js 编写一个豆瓣小组爬虫,涉及前端网页解析、请求伪造、关键词筛选及结果展示。通过解析网页结构,发送带有伪装头部的请求,抓取并过滤特定信息,实现按需爬取和展示豆瓣小组帖子。
摘要由CSDN通过智能技术生成

使用 Nodejs 从豆瓣小组中爬取帖子,并进行过滤。

前端网页解析

网页结构

打开一个豆瓣小组网页,例如

https://www.douban.com/group/16473/

使用 F12 解析网站,可以看到,每一个帖子都由一个a标签构成,标题为title

在这里插入图片描述

我们需要提取的包括标题URL以及时间信息,因此可以直接使用request以及cheerio包进行提取:

request(opt, function (error, response, body) {
   
      if (error) {
   
        return cb(error);
      }
      var $ = cheerio.load(body, {
   
        normalizeWhitespace: true,
        decodeEntities     : false
      });
      var items = [];
      $('.olt tr').slice(1).each(function (index, el) {
   
        var title = $('.title > a', el).attr('title');
        if (checkIncludeWords(title, includeWords) && checkExcludeWords(title, excludeWords)) {
   
          var item = {
   
            title   : title,
            href    : $('.title > a', el).attr('href'),
            lastTime: $('.time', el).text()
          };
          console.log('fetch item', item);
          items.push(item);
        }
      });

发送请求

注意,直接发送 request 请求,会出现 403 错误,因此我们需要伪造报文头部,这里伪造的是 Mac 电脑上的 Chrome(也就是我电脑上的配置):

/**
 * 请求参数初始化
 * @param: urls:请求的url、 opts:请求header参数, num:爬取的页数
 */
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Node.js和Express框架提供了强大的工具和模块来实现爬虫功能。在给定的引用中,作者使用了Node.js的axios和cheerio模块来实现简单的爬虫。 首先,作者在app.js文件中引入了express、cheerio和superagent模块,并创建了一个Express应用程序。接着,通过使用superagent模块发送GET请求来抓取'https://cnodejs.org/'网页的内容。然后,通过cheerio模块将网页的HTML内容加载到一个实现了jQuery接口的变量$中,从而可以使用类似jQuery的语法来操作DOM。作者使用了选择器来获取网页中的.topic_title元素,并将其标题和链接存入一个数组中。最后,通过res.send()方法将抓取到的数据发送给前端。 在index.js文件中,作者定义了一个路由,用于接受前端通过ajax发送的请求。在这个路由中,作者调用了名为reptile.getData()的函数来获取数据,并将结果通过res.send()方法发送给前端。 综上所述,这段代码实现了一个基于Node.js和Express的简单爬虫,可以抓取https://cnodejs.org/网页上的.topic_title元素的标题和链接,并将数据发送给前端。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *3* [使用nodejs实现简单的爬虫](https://blog.csdn.net/u014119731/article/details/124684720)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] - *2* [nodejs实现简单爬虫](https://blog.csdn.net/liya_nan/article/details/83898764)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值