爬虫数据传入mysql_nodejs爬虫数据存入mysql

node爬虫主要用的是三个插件

request cheerio mysql

废话不多说直接上代码

const request=require("request")

const cheerio=require("cheerio")

const mysql=require('mysql')

var connection = mysql.createConnection({ //配置参数,然后添加你的数据库里面的表

host: 'localhost',

user: 'root',

password: 'root',

database: 'test'

})

connection.connect(); //连接

function show(item){

request('http://www.1905.com/vod/list/n_1_t_1/o1p'+item+'.html',function(err,res){

if(err){

console.log('请求出错');

}else{

var $ = cheerio.load(res.body, {decodeEntities: false});

$('.search-list>div').each(function(){

var newsTitle = $(this).find('p').text();

var news1Title = $(this).find('h3').text();

var code = $(this).find('i').text();

var newsTime= "";

var newsUrl= $(this).find('a').attr('href');

var addSql = "insert into blog(title,time,href,title2,codeNum) values (?,?,?,?,?)";

var addParmas = [newsTitle, newsTime,newsUrl,news1Title,code];

connection.query(addSql,addParmas,function(err,data){

if(err){

console.log("数据库连接错误");

}else{

item++;

show(item)

}

})

});

}

});

}

show(1)

前提是一定要先分析别人网站的页面结构,然后就是如果你没有esc的话,你打开本地的mysql,再test下建立一张blog的表即可

最后的效果是

2f938d0366a706f830ad87a1c032df4e.png

就这........

对了,就是如果你没有取消mysql的限制的话,应该是只可以导入1000条数据的,如果你想取消限制的话,可以直接如下图点击取消即可

755776a4354e439fae025deacfe8a245.png

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值