使用Crawler对腾讯新闻进行数据爬取并保存入库

系统环境:Windows7

任务要求:爬取URL + 爬取里面的新闻内容 + 入库

http://www.oschina.net/p/Crawler 项目软件地址


1、我们首先要有一个URL列表,有了列表我们才能深度去挖掘新闻的内容

使用cl 命令收集要爬取的内容:

C:\Users\ssHss\Desktop\Jar包\ImageTemp>java -jar Crawler1.0.3.jar -cl http://news.qq.com/ -cq "div[class=Q-tpWrap]"

-cl http://news.qq.com/ 

-cq "div[class=Q-tpWrap]"  就是样式代码 <div class="Q-tpWrap" style:"xxsxxs:da;dadsad;sad;"><a href="x">x</a></div>

提取规则 -cq 后面的参数

161126_8pDQ_2311702.png

160621_BMhe_2311702.png

唉呀妈呀,我们爬取的里面怎么还有各种不一样的代码呢,ヾ(。`Д´。). ok,我们加format参数,哈哈,这样写代码会比较安全一点。 -format 特征

通过爬取的我们发现 news.qq.com/a/ 是新闻共有的一个URL特征

我们加特技 -fromat "news.qq.com/a/" 

160829_nkMp_2311702.png

加File,我们生成URL到本地路径中 -input localpath 即可

161021_BERR_2311702.png

第一步我们完成了 URL的收集


2、深度爬取内容 使用ci命令

加载本地URLlist文件,进行爬取

161857_3d4f_2311702.png

162343_zvZ7_2311702.png

我看了下内容,我把neirong抽取写错了,改成div[class=db]就好了。

162631_j7jG_2311702.png


3、导入数据库

162900_qIRp_2311702.png

162935_045G_2311702.png

163051_YCW4_2311702.png

162954_kWjQ_2311702.png

163113_Kvs5_2311702.png

完成了


转载于:https://my.oschina.net/u/2311702/blog/652856

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值