JAVA:解析HTML之--jsoup

JSOUP解析html(xml)代码部分十分简洁,并且有强大的选择器来获取html页面的元素,还有多种方式读取html文件:如 从服务器远程读取,活着读取本地html;

以下是两段简单代码:


//	第一种:从特定网址来获取
	try {
			String sum_content = "";
            Document doc = Jsoup.connect("http://fashion.sina.com.cn/s/ce/2013-12-27/092831654.shtml").get(); 
            
            Element content = doc.getElementById("artibody");
            Elements tags = content.getElementsByTag("p");
			for (Element tag : tags) {// 遍历所有artibody下的p标签
				
				String attr = tag.attr("class");
				
				if (attr.equals("")) {// 过滤没用的属性
					sum_content += tag.text();
				}
			}
			System.out.println(sum_content);
			
        } catch (IOException e) {
            e.printStackTrace(); 
    }


//第二种:从特定文件获取(R.raw.sina_all_opml是本地xml文件)
    private List<HashMap<String, String>> getRssList(String id) {

		List<HashMap<String, String>> list = new ArrayList<HashMap<String, String>>();
		// 获取RSS总清单文件
		InputStream is = getResources().openRawResource(R.raw.sina_all_opml);//读取输入流
		Document doc;
		try {
			doc = Jsoup.parse(is, "UTF-8", "");//以utf8格式读取文件

			Element parent = doc.getElementById(id);

			Elements outlines = parent.getElementsByTag("outline");//得到所有tag为outline的标签集合

			for (Element outline : outlines) {
				if (!outline.attr("text").equals("")) {
					
					String title = outline.attr("text");//直接获取属性名为text的值
					String xmlUrl = outline.attr("xmlUrl");

					HashMap<String, String> map = new HashMap<String, String>();
					map.put("title", title);
					map.put("xmlUrl", xmlUrl);
					list.add(map);
				}
			}
		} catch (IOException e) {
			e.printStackTrace();
		}

		return list;
	}


以下摘自百度百科,非本人观点:

jsoup的主要功能如下:


1. 从一个URL,文件或字符串中解析HTML;
2. 使用DOM或CSS选择器来查找、取出数据;
3. 可操作HTML元素、属性、文本;
jsoup是基于MIT协议发布的,可放心使用于商业项目。
jsoup 的主要类层次结构如下图所示:


/**************************************




文档输入


jsoup 可以从包括字符串、URL地址以及本地文件来加载HTML 文档,并生成Document 对象实例。
下面是相关代码:
// 直接从字符串中输入HTML 文档
String html = "<html><head><title>开源中国社区</title></head>"
+"<body><p>这里是jsoup 项目的相关文章</p></body></html>";
Document doc = Jsoup.parse(html);
// 从URL直接加载HTML 文档
Document doc =Jsoup.connect("网址/").get();
String title = doc.title();
Document doc =Jsoup.connect("网址/")
.data("query", "Java") //请求参数
.userAgent("I’mjsoup") //设置User-Agent
.cookie("auth", "token") //设置cookie
.timeout(3000) //设置连接超时时间
.post(); //使用POST方法访问URL
// 从文件中加载HTML 文档
File input = new File("D:/test.html");
Document doc = Jsoup.parse(input,"UTF-8","网址/");
请大家注意最后一种HTML 文档输入方式中的parse 的第三个参数,为什么需要在这里指定一个网址呢(虽然可以不指定,如第一种方法)?因为HTML 文档中会有很多例如链接、图片以及所引用的外部脚本、css文件等,而第三个名为baseURL 的参数的意思就是当HTML 文档使用相对路径方式引用外部文件时,jsoup会自动为这些URL 加上一个前缀,也就是这个baseURL。
例如<a href=/project>开源软件</a> 会被转换成<a href=网址>开源软件</a>。




************************************************************************
解析并提取HTML 元素


这部分涉及一个HTML 解析器最基本的功能,但jsoup使用一种有别于其他开源项目的方式——选择器,我们将在最后一部分详细介绍jsoup选择器,本节中你将看到jsoup是如何用最简单的代码实现。
不过jsoup也提供了传统的DOM 方式的元素解析,看看下面的代码:
File input = new File("D:/test.html");
Document doc = Jsoup.parse(input, "UTF-8","网址/");
Element content =doc.getElementById("content");
Elements links = content.getElementsByTag("a");
for (Element link : links) {
String linkHref =link.attr("href");
String linkText =link.text();
}
你可能会觉得jsoup的方法似曾相识,没错,像getElementById 和getElementsByTag 方法跟JavaScript 的方法名称是一样的,功能也完全一致。你可以根据节点名称或者是HTML 元素的id 来获取对应的元素或者元素列表。
与htmlparser 项目不同的是,jsoup 并没有为HTML 元素定义一个对应的类,一般一个HTML 元素的组成部分包括:节点名、属性和文本,jsoup 提供简单的方法供你自己检索这些数据,这也是jsoup保持瘦身的原因。
而在元素检索方面,jsoup 的选择器简直无所不能,
File input = new File("D:\test.html");
Document doc =Jsoup.parse(input,"UTF-8","网址");
Elements links = doc.select("a[href]"); // 具有href 属性的链接
Elements pngs = doc.select("img[src$=.png]");//所有引用png图片的元素
Element masthead =doc.select("div.masthead").first();
// 找出定义了class=masthead 的元素
Elements resultLinks = doc.select("h3.r >a"); // direct a after h3
这是jsoup 真正让我折服的地方,jsoup使用跟jQuery 一模一样的选择器对元素进行检索,以上的检索方法如果换成是其他的HTML 解释器,至少都需要很多行代码,而jsoup 只需要一行代码即可完成。
jsoup 的选择器还支持表达式功能,我们将在最后一节介绍这个超强的选择器。


************************************************************************
修改数据


在解析文档的同时,我们可能会需要对文档中的某些元素进行修改,例如我们可以为文档中的所有图片增加可点击链接、修改链接地址或者是修改文本等。
下面是一些简单的例子:
doc.select("div.commentsa").attr("rel", "nofollow");
//为所有链接增加rel=nofollow 属性
doc.select("div.commentsa").addClass("mylinkclass");
//为所有链接增加class=mylinkclass 属性
doc.select("img").removeAttr("onclick");//删除所有图片的onclick属性
doc.select("input[type=text]").val("");//清空所有文本输入框中的文本
道理很简单,你只需要利用jsoup 的选择器找出元素,然后就可以通过以上的方法来进行修改,除了无法修改标签名外(可以删除后再插入新的元素),包括元素的属性和文本都可以修改。
修改完直接调用Element(s) 的html() 方法就可以获取修改完的HTML 文档。


************************************************************************
HTML 文档清理


jsoup 在提供强大的API 同时,人性化方面也做得非常好。在做网站的时候,经常会提供用户评论的功能。有些用户比较淘气,会搞一些脚本到评论内容中,而这些脚本可能会破坏整个页面的行为,更严重的是获取一些机要信息,例如XSS 跨站点攻击之类的。
jsoup 对这方面的支持非常强大,使用非常简单。看看下面这段代码:
String unsafe = "<p><a href='网址' οnclick='stealCookies()'>开源中国社区</a></p>";
String safe = Jsoup.clean(unsafe, Whitelist.basic());
// 输出:
// <p><ahref="网址" rel="nofollow">开源中国社区</a></p>
jsoup 使用一个Whitelist 类用来对HTML 文档进行过滤,该类提供几个常用方法:


如果这五个过滤器都无法满足你的要求呢,例如你允许用户插入flash 动画,没关系,Whitelist提供扩展功能,例如whitelist.addTags("embed","object","param","span","div");也可调用addAttributes 为某些元素增加属性。




************************************************************************
soup 的过人之处——选择器


前面我们已经简单的介绍了jsoup是如何使用选择器来对元素进行检索的。本节我们把重点放在选择器本身强大的语法上。下表是jsoup选择器的所有语法详细列表。
基本用法


以上是最基本的选择器语法,这些语法也可以组合起来使用,下面是jsoup支持的组合用法:


除了一些基本的语法以及这些语法进行组合外,jsoup 还支持使用表达式进行元素过滤选择。下面是jsoup支持的所有表达式一览表:


*************************************************************************/



这个是官方api:http://jsoup.org/apidocs/


这个是jar包下载地址:http://pan.baidu.com/s/1gd3fwjh


  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
Java Jsoup是一个用于解析HTML文档的开源库。通过使用Jsoup,您可以轻松地从HTML文档中提取数据或进行数据操作。以下是使用Java Jsoup解析HTML的基本步骤: 1. 下载Jsoup库:您可以从Jsoup的官方网站(https://jsoup.org/)下载Jsoup库的最新版本。 2. 导入Jsoup库:将下载的Jsoup库的JAR文件导入到您的Java项目中。 3. 创建连接:使用Jsoup.connect()方法创建一个Connection对象,将HTML文档的URL作为参数传递给该方法。 4. 获取Document对象:使用Connection对象的get()方法获取一个Document对象,该对象表示整个HTML文档。 5. 使用选择器进行数据提取:使用Jsoup的选择器语法,您可以根据HTML元素的标签、类名、ID等属性来选择和提取数据。 以下是一个基本的Java Jsoup解析HTML的示例代码: ```java import org.jsoup.Jsoup; import org.jsoup.nodes.Document; import org.jsoup.nodes.Element; import org.jsoup.select.Elements; public class HtmlParser { public static void main(String[] args) { try { // 创建连接 Connection connection = Jsoup.connect("http://example.com"); // 获取Document对象 Document document = connection.get(); // 使用选择器提取数据 Elements links = document.select("a[href]"); for (Element link : links) { System.out.println("Link: " + link.attr("href")); System.out.println("Text: " + link.text()); } } catch (IOException e) { e.printStackTrace(); } } } ``` 这个示例代码将从"http://example.com"网页中提取所有链接的URL和文本,并打印出来。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值