网页信息抓取进阶 支持Js生成数据 Jsoup的不足之处

转载请标明出处:http://blog.csdn.NET/lmj623565791/article/details/23866427

今天又遇到一个网页数据抓取的任务,给大家分享下。

说道网页信息抓取,相信Jsoup基本是首选的工具,完全的类jQuery操作,让人感觉很舒服。但是,今天我们就要说一说Jsoup的不足。

1、首先我们新建一个页面

    <!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN">  
    <html>  
        <head>  
            <title>main.html</title>  
      
            <meta http-equiv="keywords" content="keyword1,keyword2,keyword3">  
            <meta http-equiv="description" content="this is my page">  
            <meta http-equiv="content-type" content="text/html; charset=UTF-8">  
        <style type="text/css">  
            a {  
                line-height: 30px;  
                margin: 20px;  
            }  
          
        </style>  
            <!--<link rel="stylesheet" type="text/css" href="./styles.css">-->  
            <script type="text/javascript">  
      
    var datas = [ {  
        href : "http://news.qq.com/a/20140416/017800.htm",  
        title : "高校一保安长相酷似作家莫言"  
    }, {  
        href : "http://news.qq.com/a/20140416/015167.htm",  
        title : "男子单臂托举悬空女半小时"  
    }, {  
        href : "http://news.qq.com/a/20140416/013808.htm",  
        title : "女子上门讨房租遭强奸拍裸照"  
    }, {  
        href : "http://news.qq.com/a/20140416/016805.htm",  
        title : "澳洲骆驼爱喝冰镇啤酒解暑"  
    } ];  
      
    window.onload = function() {  
        var infos = document.getElementById("infos");  
        for( var i = 0 ; i < datas.length ; i++)  
            {  
                var a = document.createElement("a");  
                a.href = datas[i].href ;  
                a.innerText = datas[i].title;  
                infos.appendChild(a);     
                infos.appendChild(document.createElement("br"))  
            }  
    }  
    </script>  
        </head>  
      
        <body>  
            Hello Main HttpUnit!  
            <br>  
      
            <div id="infos"  
                style="width: 60%; border: 1px solid green; border-radius: 10px; margin: 0 auto;">  
            </div>  
      
        </body>  
    </html>  

页面上观察是这样显示的:


我们审查元素:


如果你看到这样的页面,你会觉得拿Jsoup来抓取,简直就是呵呵,小菜一叠,于是我们写了这样的代码:

 @Test  
ublic void testUserJsoup() {  
try {  
    Document doc = Jsoup.connect(  
            "http://localhost:8080/strurts2fileupload/main.html")  
            .timeout(5000).get();  
    Elements links = doc.body().getElementsByTag("a");  
    for (Element link : links) {  
        System.out.println(link.text() + " " + link.attr("href"));  
    }  
} catch (IOException e) {  
    e.printStackTrace();  
}  

你会觉得就这几行代码,轻轻松松搞定,快快乐乐下班。于是运行发现,其实什么的抓取不到。

于是我们再回到页面,打开页面源代码,也就是上面的HTML代码,你恍然大悟,我靠,body里面根本没有数据,难怪抓不到。这就是Jsoup的不足,如果Jsoup去抓取的页面的数据,全都是页面加载完成后,ajax获取形成的,是抓取不到的。

下面给大家推荐另一个开源项目:HttpUnit,看名字是用于测试的,但是用来抓取数据也不错

我们开始编写类似Jsoup的代码:

 @Test  
public void testUserHttpUnit() throws FailingHttpStatusCodeException,  
        MalformedURLException, IOException {  
  
    /** HtmlUnit请求web页面 */  
    WebClient wc = new WebClient(BrowserVersion.CHROME);  
    wc.getOptions().setUseInsecureSSL(true);  
    wc.getOptions().setJavaScriptEnabled(true); // 启用JS解释器,默认为true  
    wc.getOptions().setCssEnabled(false); // 禁用css支持  
    wc.getOptions().setThrowExceptionOnScriptError(false); // js运行错误时,是否抛出异常  
    wc.getOptions().setTimeout(100000); // 设置连接超时时间 ,这里是10S。如果为0,则无限期等待  
    wc.getOptions().setDoNotTrackEnabled(false);  
    HtmlPage page = wc  
            .getPage("http://localhost:8080/strurts2fileupload/main.html");  
  
    DomNodeList<DomElement> links = page.getElementsByTagName("a");  
  
    for (DomElement link : links) {  
        System.out  
                .println(link.asText() + "  " + link.getAttribute("href"));  
    }  
}  

再看一下运行结果:


完美解决,HttpUnit其实就相当于一个没有UI的浏览器,它可以让页面上的js执行完成后,再抓取信息,具体的介绍,google一下就行。主要给大家介绍一种方案!


如果你觉得这篇文章对你有用,就顶一个~


  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
使用Jsoup抓取携程旅游网的数据头歌可以通过以下步骤实现: 1. 导入Jsoup库:首先需要在项目中导入Jsoup库,可以通过在项目的依赖中添加Jsoup的Maven依赖或者手动将Jsoup库导入到项目中。 2. 创建连接:使用Jsoup库中的`connect()`方法创建一个与携程旅游网连接的对象。例如,可以使用以下代码创建一个与携程旅游网首页连接的对象: ```java String url = "https://www.ctrip.com/"; Connection connection = Jsoup.connect(url); ``` 3. 发送请求并获取HTML内容:使用连接对象的`get()`方法发送请求并获取携程旅游网的HTML内容。例如,可以使用以下代码发送请求并获取HTML内容: ```java Document document = connection.get(); ``` 4. 解析HTML内容:使用Jsoup库中提供的方法解析HTML内容,获取到所需的数据。例如,可以使用以下代码获取携程旅游网首页的标题: ```java String title = document.title(); ``` 5. 提取数据:根据需要,使用Jsoup提供的选择器、过滤器等方法提取页面中的特定数据。例如,可以使用以下代码提取携程旅游网首页的所有图片链接: ```java Elements imgElements = document.select("img"); for (Element imgElement : imgElements) { String imgUrl = imgElement.attr("src"); // 进一步处理图片链接... } ``` 以上是简单的示例,通过以上步骤可以使用Jsoup抓取携程旅游网的数据。根据具体的需求和页面结构,可以使用更多的Jsoup方法来提取所需的数据

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值