以前用HTMLPARASER解析过页面,还做过一个网站下载器的一个框架,HTMLPARASER + Hibernate封装了几个函数而已。后来在浏览网页的时候,发现了一个很不错的页面解析的软件,jsoup,并不是有多么有效,而是觉得在调试的时候,
Jsoup自动的填充和修复了HTML的部分错误代码,比如没有结尾的标签等待。
下面介绍下Jsoup的一点简单的使用:
<DIV class="abc"> 我是内容 </DIV>
我们要解析的HTML无非就是去的标签属性的内容,还有就是标签的内容
Sring url = "<DIV class="abc"> 我是内容 </DIV>" ;
标签的内容用
Document doc = Jsoup.parse(url) ;
System.out.println(doc.text());
=====》》》》 我是内容
--------------------------------------------
取得class的abc
用
nodeChild.hasAttr("href")) {
String strUrl = nodeChild.attr("href") ;
--------------------------------------------------
用Jsoup解析做小的单位就是Node
一个Node就类似于
<DIV class="abc"> 我是内容 </DIV>
但是Node的方法中封装的不够理想,我觉得,没有一个方法是解析Node的内容的,所以要用上层方法
Document doc = Jsoup.parse(url) ;
//System.out.println(doc.text()); //获取节点之间的内容的
System.out.println(doc.text() );