网络爬虫技术交流——爬虫第二课

爬虫代码Demo的演示


import org.apache.http.HttpResponse;
import org.apache.http.client.methods.HttpGet;
import org.apache.http.impl.client.CloseableHttpClient;
import org.apache.http.impl.client.HttpClients;
import org.apache.http.util.EntityUtils;

CloseableHttpClient client = HttpClients.createDefault(); //创建HttpClient对象
        HttpGet request = new HttpGet("https://www.baidu.com/"); //创建一个GET请求
        HttpResponse response = client.execute(request); //执行请求
        String result = EntityUtils.toString(response.getEntity(),"utf-8"); //将返回的数据转换成utf-8编码的字符串
        System.out.println(result);

上面是抓取百度主页的爬虫代码,这就是一个简单的爬虫。

用Java语言来写爬虫,一般都是在与HttpClient(http://blog.csdn.net/wangpeng047/article/details/19624529)打交道。


首先需要创建出HttpClient对象,用于执行Http请求

其次,创建请求,并封装好请求。爬虫的请求,主要分为GET请求与POST请求(http://www.cnblogs.com/hyddd/archive/2009/03/31/1426026.html)

上述的例子是GET请求

然后execute请求,并获取到返回的response对象,取出实体,转成字符串,打印出来即可

这就是一个爬虫了,获取网页数据,我们将获取到的html代码,放到html文件中,打开就是一个百度主页了。

<!DOCTYPE html>
<!--STATUS OK--><html> <head><meta http-equiv=content-type content=text/html;charset=utf-8><meta http-equiv=X-UA-Compatible content=IE=Edge><meta content=always name=referrer><link rel=stylesheet type=text/css href=https://ss1.bdstatic.com/5eN1bjq8AAUYm2zgoY3K/r/www/cache/bdorz/baidu.min.css><title>百度一下,你就知道</title></head> <body link=#0000cc> <div id=wrapper> <div id=head> <div class=head_wrapper> <div class=s_form> <div class=s_form_wrapper> <div id=lg> <img hidefocus=true src=//www.baidu.com/img/bd_logo1.png width=270 height=129> </div> <form id=form name=f action=//www.baidu.com/s class=fm> <input type=hidden name=bdorz_come value=1> <input type=hidden name=ie value=utf-8> <input type=hidden name=f value=8> <input type=hidden name=rsv_bp value=1> <input type=hidden name=rsv_idx value=1> <input type=hidden name=tn value=baidu><span class="bg s_ipt_wr"><input id=kw name=wd class=s_ipt value maxlength=255 autocomplete=off autofocus=autofocus></span><span class="bg s_btn_wr"><input type=submit id=su value=百度一下 class="bg s_btn" autofocus></span> </form> </div> </div> <div id=u1> <a href=http://news.baidu.com name=tj_trnews class=mnav>新闻</a> <a href=https://www.hao123.com name=tj_trhao123 class=mnav>hao123</a> <a href=http://map.baidu.com name=tj_trmap class=mnav>地图</a> <a href=http://v.baidu.com name=tj_trvideo class=mnav>视频</a> <a href=http://tieba.baidu.com name=tj_trtieba class=mnav>贴吧</a> <noscript> <a href=http://www.baidu.com/bdorz/login.gif?login&tpl=mn&u=http%3A%2F%2Fwww.baidu.com%2f%3fbdorz_come%3d1 name=tj_login class=lb>登录</a> </noscript> <script>document.write('<a href="http://www.baidu.com/bdorz/login.gif?login&tpl=mn&u='+ encodeURIComponent(window.location.href+ (window.location.search === "" ? "?" : "&")+ "bdorz_come=1")+ '" name="tj_login" class="lb">登录</a>');
                </script> <a href=//www.baidu.com/more/ name=tj_briicon class=bri style="display: block;">更多产品</a> </div> </div> </div> <div id=ftCon> <div id=ftConw> <p id=lh> <a href=http://home.baidu.com>关于百度</a> <a href=http://ir.baidu.com>About Baidu</a> </p> <p id=cp>&copy;2017 Baidu <a href=http://www.baidu.com/duty/>使用百度前必读</a>  <a href=http://jianyi.baidu.com/ class=cp-feedback>意见反馈</a> 京ICP证030173号  <img src=//www.baidu.com/img/gs.gif> </p> </div> </div> </div> </body> </html>


CNKI例子

地址是:http://scholar.cnki.net/result.aspx?q=hadoop&rt=&rl=zh&udb=

对应的爬虫代码为:

import org.apache.http.HttpResponse;
import org.apache.http.client.methods.HttpGet;
import org.apache.http.impl.client.CloseableHttpClient;
import org.apache.http.impl.client.HttpClients;
import org.apache.http.util.EntityUtils;
import org.jsoup.Jsoup;
import org.jsoup.nodes.Document;
import org.jsoup.nodes.Element;
import org.jsoup.select.Elements;

String keyWord = "hadoop";//关键字查询
        String language = "zh"; //空表示中英文,zh表示中文,fn表示外文
//      int crawlerPageCount = 4;//爬虫抓取页

        CloseableHttpClient client = HttpClients.createDefault(); //创建HttpClient对象
        HttpGet request = new HttpGet("http://scholar.cnki.net/result.aspx?q="+keyWord+"&rt=&rl="+language+"&udb=");
        HttpResponse response = client.execute(request);
        String result = EntityUtils.toString(response.getEntity());

        Document doc = Jsoup.parse(result);
        Elements eles = doc.select("span.title");
        for (Element ele : eles) {
           System.out.println(ele.text() + "  " + ele.select("a").attr("href"));
        }

这段代码,相比百度的例子,多出来一些语句。是解析网页请求,获取想要的信息,也就是第一课提到的,对数据的规整。
Html的解析,在Java中,Jsoup是比较出色的Html解析器(http://www.open-open.com/jsoup/)。

首先,我们将html数据转成文档对象。
然后通过css选择器语句,选出所要的对象,再对其执行相关操作。

上述的例子,我选出了所有的论文标题,以及对应的url地址,代码的运行结果如下:


但是这个方法,去请求下一页的数据就没办法得到了,剩下的内容,例如url地址的q代表什么,rl代表什么等内容讲解放在爬虫第三课。
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值