node_爬虫1

node_爬虫1

  1. request包

    安装request包
    	npm i request -S
    
    引入request包:
    	const request = require("request");
    
    使用request包:
        request.get({
            url : "https://www.baidu.com/"
        },(err,res,body)=>{
            /*回调函数
            * err:错误对象
            * res:响应相关一些信息
            * body:返回的数据
            * */
            // console.log(err);
            if(err)return;
            console.log(body);
        });
    
  2. 案列1:将爬取的图片地址存储到txt文档中

    * 后端发送请求:
    
    const request = require("request");
    const fs = require("fs");
    
    request.get({
        url : "https://www.meitulu.com/item/7667.html"
    },(err,res,body)=>{
        /*
        * err:错误对象
        * res:响应相关一些信息
        * body:返回的数据
        * */
        if(err)return;
    		//分析得到的图片地址:https: hmtl.gzhuibei.com/images/img/7667/1.jpg
        let reg = /https:\/\/mtl.gzhuibei.com\/images\/img\/7667\/\d+?\.(jpg|png)/g;  //正则匹配地址
        let arr = body.match(reg);  //得到地址
        if (arr){					//遍历得到的地址,存储到文档
            arr.forEach(item=>{
                fs.writeFileSync("./xixixi.txt",item+"\r",{flag:"a"});  //将爬取的图片地址存储到txt文档中
            });
        }
    });
    /*
    * 1.得到数据
    * 2.处理数据
    * 3.提取数据
    * 4.分析数据
    * */
    
  3. 案列2:将爬取的图片存储到文件夹中:–

    1:将图片流转换成文件
    const request = require("request");
    const fs = require("fs");
    
      request(
            "https://mtl.gzhuibei.com/images/img/7667/13.jpg")	//请求地址
         .pipe(		//流
         fs.createWriteStream("./img/1.jpg")	//创建文件
     );
      request(
            "https://res.shiguangkey.com/res/special/tanzhouEdu/video/tz.mp4")
        .pipe(
            fs.createWriteStream("./img/x.mp4")
        );
    -------------------------------------------------------------------2:将得到的图片地址遍历存储到文件夹
    const request = require("request");
    const fs = require("fs");
    
    request.get({
        url : "https://www.meitulu.com/item/7667.html"
    },(err,res,body)=>{
        if(err)return;
        let reg = /https:\/\/mtl.gzhuibei.com\/images\/img\/7667\/\d+?\.(jpg|png)/g;
        let arr = body.match(reg);
        if (arr){		//遍历获取的图片地址将图片存储起来
            arr.forEach((item,index)=>{
                request(item).pipe(fs.createWriteStream("./img/"+index+".jpg"));
            });
        }
    });
    
    
  4. 案列3:多个页面的图片进行存储

    const request = require("request");
    const fs = require("fs");
    
    let index = 0; //用于图片命名
    //先对访问有图片的网页进行遍历访问,将地址存储到url中
    for (let i=1;i<=14;i++){
        let url = "";
        if (i === 1){
            url = "https://www.meitulu.com/item/7667.html";
        }else{
            url = "https://www.meitulu.com/item/7667_"+i+".html";
        }
        //对每个页面的图片进行请求
        request.get(url,(err,res,body)=>{
            if(err)return;
            let reg = /https:\/\/mtl.gzhuibei.com\/images\/img\/7667\/\d+?\.(jpg|png)/g;
            let arr = body.match(reg);
            if (arr){
                arr.forEach(item=>{
                    request(item).pipe(fs.createWriteStream("./img1/"+(index++)+".jpg"));
                });
            }
        });
    }
    
  5. 小说爬取并存储–虚拟DOM

    const fs = require("fs");
    const request = require("request");     //原生js  dom的包
    // const {JSDOM} = require("jsdom");    // 
    const cheerio = require("cheerio");  //需要先安装jquery包
    //npm i request cheerio -S
    //http://book.zongheng.com/showchapter/907701.html
    //http://book.zongheng.com/chapter/907701/59100296.html
    request(
        "http://book.zongheng.com/showchapter/907701.html",
        (err, res, body) => {
            if (err) return;
            
            let $ = cheerio.load(body); 
            // console.log($(".content").text());
            console.log($(".col-4").text());
            $(".col-4 a").each(function(index){           
               reqA($(this).prop("href"),index);
               
            });
    
        function reqA(url,index){
            request.get(
                url,
                (err,res,body)=>{            
                    if(err)return
                    let $ = cheerio.load(body);
                    fs.writeFile(
                        "./xiaoshuo/"+(index+1)+".txt",
                        $(".content").text(),
                        {
                            encoding:"utf8",
                            flag:"a"
                        },
                        (err)=>{
                            if(err){
                                console.log("写入出错了",err);
                            }else{
                                console.log("写入成功");
                            };
                        },
                    );
                })
            };
        }
    );
    
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
【优质项目推荐】 1、项目代码均经过严格本地测试,运行OK,确保功能稳定后才上传平台。可放心下载并立即投入使用,若遇到任何使用问题,随时欢迎私信反馈与沟通,博主会第一时间回复。 2、项目适用于计算机相关专业(如计科、信息安全、数据科学、人工智能、通信、物联网、自动化、电子信息等)的在校学生、专业教师,或企业员工,小白入门等都适用。 3、该项目不仅具有很高的学习借鉴价值,对于初学者来说,也是入门进阶的绝佳选择;当然也可以直接用于 毕设、课设、期末大作业或项目初期立项演示等。 3、开放创新:如果您有一定基础,且热爱探索钻研,可以在此代码基础上二次开发,进行修改、扩展,创造出属于自己的独特应用。 欢迎下载使用优质资源!欢迎借鉴使用,并欢迎学习交流,共同探索编程的无穷魅力! 基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip 基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip 基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值