JSOUP是一个没有界面的浏览器,用于分析和抓取网络html数据
使用他需要相关jar包,下载链接:http://pan.baidu.com/s/1sjuLGC1
例子:抓取http://www.ifanr.com/网页中指定规则新闻链接和标题
1.找到关键字<div class="entry-header">层下面的子标签<span>的属性数据就是想要的
try {
Document doc = Jsoup.connect("http://www.ifanr.com/").get();
Elements links = doc.select("div.entry-header");
for (Element e : links) {
Elements elements = e.select("span.number").select("a[href]");
for (Element element : elements) {
element.attr("href");
element.attr("title").replace("Comment on ", "");
getNewsDate(element.attr("href"));
}
}
} catch (Exception e) {
e.printStackTrace();
}
2.抓取一个网页数据还不够,还需要该网站分页的数据,那就需要知道该网站有多少页数,这里是选择器
- [attr=value]:带有属性值的元素,例如[width=500] 用法
<span style="white-space:pre"> </span>String html = null;
int total = 0;
Document doc = Jsoup.connect("http://www.ifanr.com/").get();
Elements links = doc.select("div.content-nav");
for (Element e : links) {
for(Element ent :e.select("[title=跳转到最后一页]")){
html = ent.attr("href");
break;
}
}
if(html!=null&&html.length()>0){
int index = html.indexOf("http://www.ifanr.com/page/");
if(index!=-1&&index<html.length()){
try {
total = Integer.parseInt(html.substring(index,html.length()));
} catch (NumberFormatException e1) {
total = 822;
}
}
}
3.相关选择器API介绍
问题
采用CSS或类似jquery 选择器(selector)语法来处理HTML文档中的数据。
方法
利用方法:Element.select(String selector)和Elements.select(String selector)。
File input = new File("/tmp/input.html");
Document doc = Jsoup.parse(input, "UTF-8", "http://example.com/");
Elements links = doc.select("a[href]"); // a with href
Elements pngs = doc.select("img[src$=.png]"); // img with src ending .png
Element masthead = doc.select("div.masthead").first();
// div with class=masthead
Elements resultLinks = doc.select("h3.r > a"); // direct a after h3
描述
Jsoup的元素支持类似CSS或(jquery)的选择器语法的查找匹配的元素,可实现功能强大且鲁棒性好的查询。
jsoup elements support a CSS(or jquery) like selector syntax to find matching elements, that allows very powerful and robust queries.
Select方法可作用于Document、Element或Elements,且是上下文相关的,因此可实现指定元素的过滤,或者链式选择访问。
The selectmethod is available in a Document, Element, or in Elements. It is contextual, so you can filter by selecting from a specific element, or by chaining select calls.
选择(操作)返回元素列表(Elements),并提供一组方法来提取或处理结果。
Select returns a list of Elements (as Elements), which provides a range of methods to extract and manipulate the results.
选择器概要(Selector overview)
- Tagname:通过标签查找元素(例如:a)
- ns|tag:通过标签在命名空间查找元素,例如:fb|name查找<fb:name>元素
- #id:通过ID查找元素,例如#logo
- .class:通过类型名称查找元素,例如.masthead
- [attribute]:带有属性的元素,例如[href]
- [^attr]:带有名称前缀的元素,例如[^data-]查找HTML5带有数据集(dataset)属性的元素
- [attr=value]:带有属性值的元素,例如[width=500]
- [attr^=value],[attr$=value],[attr*=value]:包含属性且其值以value开头、结尾或包含value的元素,例如[href*=/path/]
- [attr~=regex]:属性值满足正则表达式的元素,例如img[src~=(?i)\.(png|jpe?g)]
- *:所有元素,例如*
选择器组合方法
- el#id::带有ID的元素ID,例如div#logo
- el.class:带类型的元素,例如. div.masthead
- el[attr]:包含属性的元素,例如a[href]
- 任意组合:例如a[href].highlight
- ancestor child:继承自某祖(父)元素的子元素,例如.body p查找“body”块下的p元素
- parent > child:直接为父元素后代的子元素,例如: div.content > pf查找p元素,body > * 查找body元素的直系子元素
- siblingA + siblingB:查找由同级元素A前导的同级元素,例如div.head + div
- siblingA ~ siblingX:查找同级元素A前导的同级元素X例如h1 ~ p
- el, el, el:多个选择器组合,查找匹配任一选择器的唯一元素,例如div.masthead, div.logo
伪选择器(Pseudo selectors)
- :lt(n):查找索引值(即DOM树中相对于其父元素的位置)小于n的同级元素,例如td:lt(3)
- :gt(n):查找查找索引值大于n的同级元素,例如div p:gt(2)
- :eq(n) :查找索引值等于n的同级元素,例如form input:eq(1)
- :has(seletor):查找匹配选择器包含元素的元素,例如div:has(p)
- :not(selector):查找不匹配选择器的元素,例如div:not(.logo)
- :contains(text):查找包含给定文本的元素,大小写铭感,例如p:contains(jsoup)
- :containsOwn(text):查找直接包含给定文本的元素
- :matches(regex):查找其文本匹配指定的正则表达式的元素,例如div:matches((?i)login)
- :matchesOwn(regex):查找其自身文本匹配指定的正则表达式的元素
- 注意:上述伪选择器是0-基数的,亦即第一个元素索引值为0,第二个元素index为1等
详见SelectorAPI 参考资料所列全部信息和细节。
【原文】http://jsoup.org/cookbook/extracting-data/selector-syntax
示例完整代码
import java.io.IOException;
import java.util.List;
import org.jsoup.Jsoup;
import org.jsoup.nodes.DataNode;
import org.jsoup.nodes.Document;
import org.jsoup.nodes.Element;
import org.jsoup.select.Elements;
public class Main {
/**
* @param args
*/
public static void main(String[] args) {
getNews("http://www.ifanr.com/");
//p(getNewsDate("http://www.ifanr.com/462705"));
}
static int currentPage = 0;
static String pageUrl = "http://www.ifanr.com/page/";
static int totalPage = -1;
public static void getNews(String url){
currentPage++;
try {
Document doc = Jsoup.connect(url).get();
if(totalPage==-1){
totalPage = getTotalPageNo(doc);
}
Elements links = doc.select("div.entry-header");
int index = 0;
for (Element e : links) {
Elements elements = e.select("span.number").select("a[href]");
for (Element element : elements) {
p(element.attr("href"));
p(element.attr("title").replace("Comment on ", ""));
p(getNewsDate(element.attr("href")));
}
index++;
}
while(currentPage<totalPage){
getNews(pageUrl+currentPage);
}
} catch (Exception e) {
e.printStackTrace();
}
}
/**
* 获取www.ifanr.com的新闻总页数http://www.ifanr.com/page/2
* @param doc
* @return
*/
public static int getTotalPageNo(Document doc){
String html = null;
int total = 822;
Elements links = doc.select("div.content-nav");
for (Element e : links) {
for(Element ent :e.select("[title=跳转到最后一页]")){
html = ent.attr("href");
break;
}
}
if(html!=null&&html.length()>0){
int index = html.indexOf("http://www.ifanr.com/page/");
if(index!=-1&&index<html.length()){
try {
total = Integer.parseInt(html.substring(index,html.length()));
} catch (NumberFormatException e1) {
total = 822;
}
}
}
return total;
}
/**
* 获取新闻发布时间
* 20141023184715
* @param url
* @return
*/
public static long getNewsDate(String url){
String dateStr = null;
long date = 0;
try {
Document doc = Jsoup.connect(url).get();
Elements links = doc.select("meta").select("[name=weibo: article:create_at]");
for (Element e : links) {
dateStr = e.attr("content").replace("-", "").replace(" ", "").replace(":", "");
}
} catch (IOException e) {
e.printStackTrace();
}
if(dateStr!=null){
date = Long.parseLong(dateStr);
}
return date;
}
public static void p(Object o) {
System.out.println(o);
}
}