Jsoup解析Html教程


Jsoup应该说是最简单快速的Html解析程序了,完善的API以及与JS类似的操作方式,为Java的Html解析带来极大的方便,结合多线程适合做一些网络数据的抓取,本文从一下几个方面介绍一下,篇幅有限,化繁为简。

下载Jsouphttp://jsoup.org/download

查看官方提供的手册:http://jsoup.org/cookbook/


  1. 获取一个Document,这是Jsoup最核心的一个对象

    /**
     * 
     */
    package org.xdemo.example.jsoupdemo.input;
    import java.io.File;
    import java.io.IOException;
    import org.jsoup.Jsoup;
    import org.jsoup.nodes.Document;
    import org.jsoup.nodes.Element;
    import org.jsoup.safety.Whitelist;
    /**
     * @作者 Goofy
     * @邮件 252878950@qq.com
     * @日期 2014-4-2上午10:54:53
     * @描述 
     */
    public class ParseDocument {
    /**
     * 将String转换成Document
     * @return org.jsoup.nodes.Document
     */
    public static Document parseHtmlFromString(){
    String html = "<html><head><title>标题</title></head>"
    + "<body><p>段落</p></body></html>";
    Document doc = Jsoup.parse(html);
    return doc;
    }
    /**
     * 注意:这是一个不安全的方法
     * 将String转换成Html片段,注意防止跨站脚本攻击
     * @return Element
     */
    public static Element parseHtmlFragmentFromStringNotSafe(){
    String html = "<div><p>Lorem ipsum.</p>";
    Document doc = Jsoup.parseBodyFragment(html);
    Element body = doc.body();
    return body;
    }
    /**
     * 这是一个安全的方法
     * 将String转换成Html片段,注意防止跨站脚本攻击
     * @return Element
     */
    public static Element parseHtmlFragmentFromStringSafe(){
    String html = "<div><p>Lorem ipsum.</p>";
    //白名单列表定义了哪些元素和属性可以通过清洁器,其他的元素和属性一律移除
    Whitelist wl=new Whitelist();
    //比较松散的过滤,包括
    //"a", "b", "blockquote", "br", "caption", "cite", "code", "col",
            //"colgroup", "dd", "div", "dl", "dt", "em", "h1", "h2", "h3", "h4", "h5", "h6",
            //"i", "img", "li", "ol", "p", "pre", "q", "small", "strike", "strong",
            //"sub", "sup", "table", "tbody", "td", "tfoot", "th", "thead", "tr", "u",
            //"ul"
    Whitelist.relaxed();
    //没有任何标签,只有文本
    Whitelist.none();
    //常规的过滤器
    //"a", "b", "blockquote", "br", "cite", "code", "dd", "dl", "dt", "em",
            //"i", "li", "ol", "p", "pre", "q", "small", "strike", "strong", "sub",
            //"sup", "u", "ul"
    Whitelist.basic();
    //常规的过滤器,多了一个img标签
    Whitelist.basicWithImages();
    //文本类型的标签
    //"b", "em", "i", "strong", "u"
    Whitelist.simpleText();
    //另外还可以自定义过滤规则,例如
    wl.addTags("a");
    //执行过滤
    Jsoup.clean(html, wl);
    Document doc = Jsoup.parseBodyFragment(html);
    Element body = doc.body();
    return body;
    }
    /**
     * 从URL加载
     * @return Document
     */
    public static Document parseDocumentFromUrl(){
    Document doc = null;
    try {
    doc = Jsoup.connect("http://www.google.com/").get();
    //获取标题
    String title = doc.title();
    System.out.println(title);//输出:Google
    //data(key,value)是该URL要求的参数
    //userAgent制定用户使用的代理类型
    //cookie带上cookie,如cookie("JSESSIONID","FDE234242342342423432432")
    //连接超时时间
    //post或者get方法
    doc = Jsoup.connect("http://www.xxxxx.com/")
      .data("query", "Java")
      .userAgent("Mozilla")
      .cookie("auth", "token")
      .timeout(3000)
      .post();
    } catch (IOException e) {
    e.printStackTrace();
    }
    return doc;
    }
    /**
     * 从文件加载
     * @return Document
     */
    public static Document parseDocumentFromFile(){
    File input = new File("/tmp/input.html");
    Document doc=null;
    try {
    //从文件加载Document文档
    doc = Jsoup.parse(input, "UTF-8");
    System.out.println(doc.title());
    } catch (IOException e) {
    e.printStackTrace();
    }
    return doc;
    }
    }

    ument:字符串,URL地址,文件

  2. 选择器

  3. package org.xdemo.example.jsoupdemo.extracter;
    import java.util.regex.Pattern;
    import org.jsoup.Jsoup;
    import org.jsoup.nodes.Document;
    import org.jsoup.nodes.Element;
    /**
     * @作者 Goofy
     * @邮件 252878950@qq.com
     * @日期 2014-4-2上午10:41:19
     * @描述 选择器 操作示例
     */
    public class Selector {
    public static void main(String[] args) {
    Document doc;
    try {
    //获取文档
    doc=Jsoup.connect("http://xxx.com/").get();
    /*****获取单一元素******/
    //与JS类似的根据ID选择的选择器<div id="content"></div>
    Element content = doc.getElementById("content");
    /*****一下方法的返回值都是Elements集合******/
    //获取所有的a标签<a href="#"></a>
    content.getElementsByTag("a");
    //类选择器<div></div>
    doc.getElementsByClass("divClass");
    //获取Document的所有元素
    doc.getAllElements();
    //根据属性获取元素<a href="#"></a>
    doc.getElementsByAttribute("href");
    //根据属性前缀获取元素 <li data-name="Peter Liu" data-city="ShangHai" data-lang="CSharp" data-food="apple">
    doc.getElementsByAttributeStarting("data-");
    //根据key-value选择如<a href="http://xdemo.org"></a>
    doc.getElementsByAttributeValue("href","http://xdemo.org");
    //和上面的正好相反
    doc.getElementsByAttributeValueNot("href","http://xdemo.org");
    //根据key-value,其中value可能是key对应属性的一个子字符串,选择如<a href="http://xdemo.org"></a>
    doc.getElementsByAttributeValueContaining("href", "xdemo");
    //根据key-value,其中key对应值的结尾是value,选择如<a href="http://xdemo.org"></a>
    doc.getElementsByAttributeValueEnding("href", "org");
    //和上面的正好相反
    doc.getElementsByAttributeValueStarting("href","http://xdemo");
    //正则匹配,value需要满足正则表达式,<a href="http://xdemo.org"></a>,如href的值含有汉字
    doc.getElementsByAttributeValueMatching("href",Pattern.compile("[\u4e00-\u9fa5]"));
    //同上
    doc.getElementsByAttributeValueMatching("href", "[\u4e00-\u9fa5]");
    //根据元素所在的z-index获取元素
    doc.getElementsByIndexEquals(0);
    //获取z-index大于x的元素
    doc.getElementsByIndexGreaterThan(0);
    //和上面的正好相反
    doc.getElementsByIndexLessThan(10);
    //遍历标签
    for (Element link : content.getElementsByTag("a")) {
     String linkHref = link.attr("href");
     String linkText = link.text();
    }
    /**************一些其他常用的方法**************/
    //获取网页标题
    doc.title();
    //获取页面的所有文本
    doc.text();
    //为元素添加一个css class
    content.addClass("newClass");
    //根据属性获取值
    content.attr("id");
    //获取所有子元素
    content.children();
    //获取元素内的所有文本
    content.text();
    //获取同级元素
    content.siblingElements();
    } catch (Exception e) {
    e.printStackTrace();
    }
    }
    }

    3.最后说一点,就是安全问题,解析html的时候要防止跨站脚本攻击cross-site scripting (XSS),作者也考虑到了这一点,所以真正使用时候需要注意。

  4. [转载请注明来源:http://www.xdemo.org/jsoup-html-parse/]

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值