Jsoup|是什么?怎么用?

我是最近接触到Jsoup的,是在公司的项目中!之前没有接触到爬虫一类的数据交互方式,今天写下这篇文章是为自己复习使用Jsoup,也望大家看到之后可以共同进步!

毕竟我是一个菜鸟!

Jsoup是解析HTML信息的爬虫技术,非常方便,在项目中加入jar包之后,调用API就可以满足需求!

1.Jsoup.parse解析HTML字符串,如Jsoup.parse("<html><head><title>Firstparse</title></head>");

2.Jsoup.connect解析url网站地址,如Jsoup.connect(http://www.baidu.com).get());

3.基本Jsoup需要设置的以下几项:

  1. Document doc = Jsoup.connect("http://www.baidu.com/")   
  2.  .data("query""Java")   // 请求参数  
  3.  .userAgent("I ’ m jsoup"// 设置 User-Agent   
  4.  .cookie("auth""token"// 设置 cookie   
  5.  .timeout(5000)           // 设置连接超时时间  
  6.  .post();                 // 使用 POST 方法访问 URL 
4.写入一段代码,通过“索引”的方式取到数据

<li class="dn on" data-dn="7d1">
  <h1>今天</h1>
  <h2>8日</h2>
  <big class="jpg50 d04"></big>
  <big class="jpg50 n04"></big>    
  <p class="wea" title="雷阵雨">雷阵雨</p>
  <p class="tem tem1"> <span>33</span><i>°C</i> </p>
  <p class="tem tem2"> <span>25</span><i>°C</i> </p>
  <p class="win">
    <em>
      <span title="无持续风向" class=""></span>
      <span title="无持续风向" class=""></span>
    </em>
    <i>微风</i>
  </p>
  <div class="slid"></div>
</li>
 1  package com.zjm.www.test;
 2 
 3 import java.io.IOException;
 4 
 5 import org.jsoup.Jsoup;
 6 import org.jsoup.nodes.Document;
 7 import org.jsoup.select.Elements;
 8 
 9 public class TestJsoup {
10     
11     public  Document getDocument (String url){
12         try {
13             return Jsoup.connect(url).get();
14         } catch (IOException e) {
15             e.printStackTrace();
16         }
17         return null;
18     }
19 
20     public static void main(String[] args) {
21         TestJsoup t = new TestJsoup();
22         Document doc = t.getDocument("http://www.weather.com.cn/html/weather/101280101.shtml");
23         // 获取目标HTML代码
24         Elements elements1 = doc.select("[class=dn on][data-dn=7d1]");
25         // 今天
26         Elements elements2 = elements1.select("h1");
27         String today = elements2.get(0).text();
28         System.out.println(today);
29         // 几号
30         Elements elements3 = elements1.select("h2");
31         String number = elements3.get(0).text();
32         System.out.println(number);
33         // 是否有雨
34         Elements elements4 = elements1.select("[class=wea]");
35         String rain = elements4.get(0).text();
36         System.out.println(rain);
37         // 高的温度
38         Elements elements5 = elements1.select("span");
39         String highTemperature = elements5.get(0).text()+"°C";
40         System.out.println(highTemperature);
41         // 低的温度
42         String lowTemperature = elements5.get(1).text()+"°C";
43         System.out.println(lowTemperature);
44         // 风力
45         Elements elements6 = elements1.select("i");
46         String wind = elements6.get(2).text();
47         System.out.println(wind);
48     }
49 }
5.解析的java代码 :

(1)审查网页元素后发现,我们要的内容在上面的目标HTML代码中,在整个网页中是在 class="dn on" data-dn="7d1" 的 <li> 中

(2)“今天” 两字在 <h1></h1> 中

(3)“8日” 两字在 <h2></h2> 中

(4)“雷阵雨” 三字在 class="wea" 中

(5)“33” 在第一个 <span> 中

(6)“25” 在第二个 <span> 中

(7)“微风” 两字在 第三个 <i> 中

在其中获取数据源的方法有三种 :

(1)从一段 html代码字符串 获取:Document doc = Jsoup.parse(html);

(2)从一个 url 获取:Document doc = Jsoup.connect("http://baidu,com").get();

(3)从一个 html文件 获取Document doc = Jsoup.parse(input,"UTF_8","http://baidu,com");File input = new File("/up/update.html");

我们采取了第二种方法,从url中获取

6.案例解析

a, 通过标签头,在div中继续筛选数据。可能会找到很多的数据,这里会用到循环。见eg1。

 
 
  1. //eg1:解析百度音乐 
  2.             Document doc = Jsoup.connect("http://list.mp3.baidu.com/top/singer/A.html").get(); 
  3.             Element singerListDiv = doc.getElementsByAttributeValue("class""content").first(); 
  4.             Elements links = singerListDiv.getElementsByTag("a"); 
  5.              
  6.             for (Element link: links) { 
  7.                 String linkHref = link.attr("href"); 
  8.                 String linkText = link.text().trim(); 
  9.                 System.out.println(linkHref);  
  10.             } 

b, 通过标签名,在div中筛选数据,选中此标签内的所有数据。见eg2

 
 
  1. //eg2:解析万年历 
  2.         Document doc = Jsoup.connect("http://www.nongli.com/item4/index.asp?dt=2012-03-03").get(); 
  3.         Element infoTable = doc.getElementsByAttributeValue("class""table002").first(); 
  4.         Elements tableLineInfos = infoTable.select("tr"); 
  5.         for (Element lineInfo : tableLineInfos) { 
  6.             String lineInfoContent = lineInfo.select("td").last().text().trim(); 
  7.             System.out.println("jsoup is :" + lineInfoContent); 
  8.         } 

c, 限定筛选条件。如果eg5

 
 
  1. //eg5:查找html元素 
  2.         File input = new File("/tmp/input.html"); 
  3.         Document doc = Jsoup.parse(input, "UTF-8""http://www.oschina.net/"); 
  4.         Elements links = doc.select("a[href]"); // 链接 
  5.         Elements pngs = doc.select("img[src$=.png]"); // 所有 png 的图片 
  6.         Element masthead = doc.select("div.masthead").first();// div with class=masthead 
  7.         Elements resultLinks = doc.select("h3.r > a"); // direct a after h3 

<td colspan="2" class="l3">二月15日<br>壬辰年<br>癸卯月<br>丁卯日<br></td>

此处不能直接单独获得三组数据,获得的是总的三个数据。可通过正则表达式分解

获取数据即element.text()即可获得相关数据

示例代码:

 
 
  1. package com.mike.activity; 
  2.  
  3. import java.io.File; 
  4. import java.io.IOException; 
  5.  
  6. import org.jsoup.Connection; 
  7. import org.jsoup.Jsoup; 
  8. import org.jsoup.nodes.Document; 
  9. import org.jsoup.nodes.Element; 
  10. import org.jsoup.select.Elements; 
  11.  
  12. import android.app.Activity; 
  13. import android.os.Bundle; 
  14. import android.util.Log; 
  15. import android.view.View; 
  16. import android.widget.TextView; 
  17.  
  18. public class JsoupDemoActivity extends Activity { 
  19.     /** Called when the activity is first created. */ 
  20.      
  21.     private StringBuilder sb ; 
  22.      
  23.      
  24.     @Override 
  25.     public void onCreate(Bundle savedInstanceState) { 
  26.         super.onCreate(savedInstanceState); 
  27.         setContentView(R.layout.main); 
  28.          
  29.         sb = new StringBuilder(); 
  30.         TextView textView = (TextView) findViewById(R.id.textView1); 
  31.          
  32.         try { 
  33. //          //eg1:解析百度音乐 
  34. //          Document doc = Jsoup.connect("http://list.mp3.baidu.com/top/singer/A.html").get(); 
  35. //          Element singerListDiv = doc.getElementsByAttributeValue("class", "content").first(); 
  36. //          Elements links = singerListDiv.getElementsByTag("a"); 
  37. //           
  38. //          for (Element link: links) { 
  39. //              String linkHref = link.attr("href"); 
  40. //              String linkText = link.text().trim(); 
  41. //              System.out.println(linkHref);  
  42. //          } 
  43. //           
  44. //           
  45. //          //eg2:解析万年历 
  46. //          Document doc = Jsoup.connect("http://www.nongli.com/item4/index.asp?dt=2012-03-03").get(); 
  47. //          Element infoTable = doc.getElementsByAttributeValue("class", "table002").first(); 
  48. //          Elements tableLineInfos = infoTable.select("tr"); 
  49. //          for (Element lineInfo : tableLineInfos) { 
  50. //              String lineInfoContent = lineInfo.select("td").last().text().trim(); 
  51. //              System.out.println("jsoup is :" + lineInfoContent); 
  52. //          } 
  53.              
  54.              
  55.             //eg3:解析指定段落的内容----注意此代码中的语法:<div class="artHead"> 
  56. //          Document doc = Jsoup.connect("http://passover.blog.51cto.com").get(); 
  57. //          Elements divs = doc.select("div.artHead"); 
  58. //          for (Element div: divs) { 
  59. //              System.out.println(div.select("h3[class=artTitle]")); 
  60. //          } 
  61.              
  62.             //eg4: 
  63. //          Document doc = Jsoup.connect("http://passover.blog.51cto.com").get(); 
  64.              
  65.              
  66.              
  67. //          //eg5:查找html元素 
  68.             File input = new File("/tmp/input.html"); 
  69.             Document doc = Jsoup.parse(input, "UTF-8""http://www.oschina.net/"); 
  70.             Elements links = doc.select("a[href]"); // 链接 
  71.             Elements pngs = doc.select("img[src$=.png]"); // 所有 png 的图片 
  72.             Element masthead = doc.select("div.masthead").first();// div with class=masthead 
  73.             Elements resultLinks = doc.select("h3.r > a"); // direct a after h3 
  74.              
  75.              
  76. //          //test 
  77. //          File input = new File("D:/test.html");  
  78. //           Document doc = Jsoup.parse(input,"UTF-8","http://www.oschina.net/");  
  79.              
  80.              
  81.             /* 
  82.              * 项目数据准备 
  83.              */ 
  84.              
  85.             //eg5:万年历:http://www.zdic.net/nongli/2012-3-7.htm 
  86.              
  87.             //data1:dayFav(宜) 
  88. //          Document doc = Jsoup.connect("http://www.zdic.net/nongli/2012-3-7.htm").get(); 
  89. //          Element dayFav = doc.getElementsByAttributeValue("class", "ly2").first(); 
  90. //          Elements dayFavItems = dayFav.getElementsByTag("a"); 
  91. //          for (Element dayFavItem:dayFavItems) { 
  92. //              System.out.println(dayFavItem.text()); 
  93. //          } 
  94.              
  95.             //data2:dayUnfav(忌) 
  96. //          Element dayUnfav = doc.getElementsByAttributeValue("class", "lj2").first(); 
  97. //          Elements dayUnfavItems = dayUnfav.getElementsByTag("a"); 
  98. //          for (Element dayUnfavItem:dayUnfavItems) { 
  99. //              System.out.println(dayUnfavItem.text()); 
  100. //          } 
  101.              
  102.             //data3:taiSheng(胎神) 
  103. //          Element taiSheng = doc.getElementsByAttributeValue("class", "lts2").first(); 
  104. //          System.out.println(taiSheng.text()); 
  105.              
  106.             //data4:chong sha(冲煞信息) 
  107. //          Element chong = doc.getElementsByAttributeValue("class", "lcs").first(); 
  108. //          Element sha = doc.getElementsByAttributeValue("class", "lcs").get(1); 
  109. //          System.out.println(chong.text()); 
  110. //          System.out.println(sha.text()); 
  111.              
  112.             //data5:zhengChong(正冲)和zhiXing(值星) 
  113. //          Element zhengChong = doc.getElementsByAttributeValue("class", "lzc2").first(); 
  114. //          Element zhiXing = doc.getElementsByAttributeValue("class", "lzx2").first(); 
  115. //          System.out.println(zhengChong.text()); 
  116. //          System.out.println(zhiXing.text()); 
  117.                          
  118.              
  119.             //data6:godFav(吉神宜趋) 
  120. //          Element godUnfav = doc.getElementsByAttributeValue("class", "js2").first(); 
  121. //          System.out.println(godUnfav.text()); 
  122.              
  123.             //data7:godUnfav(凶神宜忌) 
  124. //          Element godFav = doc.getElementsByAttributeValue("class", "xs2").first(); 
  125. //          System.out.println(godFav.text()); 
  126.              
  127.             //data8:pengZuBaiJi(彭祖百忌) 
  128. //          Element pengZuBaiJi = doc.getElementsByAttributeValue("class", "pz2").first(); 
  129. //          System.out.println(pengZuBaiJi.text()); 
  130.              
  131.             //data9:wuXing(五行) 
  132. //          Element wuXing = doc.getElementsByAttributeValue("class", "wuh2").first(); 
  133. //          System.out.println(wuXing.text()); 
  134.              
  135.              
  136.              
  137.         } catch (IOException e) { 
  138.             // TODO Auto-generated catch block 
  139.             e.printStackTrace(); 
  140.         } 
  141.          
  142.          
  143.     } 
7.项目局部代码实现

1、Rule.java用于指定查询url,method,params等

  1. package com.zhy.spider.rule;  
  2.   
  3. /** 
  4.  * 规则类 
  5.  *  
  6.  * @author zhy 
  7.  *  
  8.  */  
  9. public class Rule  
  10. {  
  11.     /** 
  12.      * 链接 
  13.      */  
  14.     private String url;  
  15.   
  16.     /** 
  17.      * 参数集合 
  18.      */  
  19.     private String[] params;  
  20.     /** 
  21.      * 参数对应的值 
  22.      */  
  23.     private String[] values;  
  24.   
  25.     /** 
  26.      * 对返回的HTML,第一次过滤所用的标签,请先设置type 
  27.      */  
  28.     private String resultTagName;  
  29.   
  30.     /** 
  31.      * CLASS / ID / SELECTION 
  32.      * 设置resultTagName的类型,默认为ID  
  33.      */  
  34.     private int type = ID ;  
  35.       
  36.     /** 
  37.      *GET / POST 
  38.      * 请求的类型,默认GET 
  39.      */  
  40.     private int requestMoethod = GET ;   
  41.       
  42.     public final static int GET = 0 ;  
  43.     public final static int POST = 1 ;  
  44.       
  45.   
  46.     public final static int CLASS = 0;  
  47.     public final static int ID = 1;  
  48.     public final static int SELECTION = 2;  
  49.   
  50.     public Rule()  
  51.     {  
  52.     }  
  53.   
  54.       
  55.     public Rule(String url, String[] params, String[] values,  
  56.             String resultTagName, int type, int requestMoethod)  
  57.     {  
  58.         super();  
  59.         this.url = url;  
  60.         this.params = params;  
  61.         this.values = values;  
  62.         this.resultTagName = resultTagName;  
  63.         this.type = type;  
  64.         this.requestMoethod = requestMoethod;  
  65.     }  
  66.   
  67.     public String getUrl()  
  68.     {  
  69.         return url;  
  70.     }  
  71.   
  72.     public void setUrl(String url)  
  73.     {  
  74.         this.url = url;  
  75.     }  
  76.   
  77.     public String[] getParams()  
  78.     {  
  79.         return params;  
  80.     }  
  81.   
  82.     public void setParams(String[] params)  
  83.     {  
  84.         this.params = params;  
  85.     }  
  86.   
  87.     public String[] getValues()  
  88.     {  
  89.         return values;  
  90.     }  
  91.   
  92.     public void setValues(String[] values)  
  93.     {  
  94.         this.values = values;  
  95.     }  
  96.   
  97.     public String getResultTagName()  
  98.     {  
  99.         return resultTagName;  
  100.     }  
  101.   
  102.     public void setResultTagName(String resultTagName)  
  103.     {  
  104.         this.resultTagName = resultTagName;  
  105.     }  
  106.   
  107.     public int getType()  
  108.     {  
  109.         return type;  
  110.     }  
  111.   
  112.     public void setType(int type)  
  113.     {  
  114.         this.type = type;  
  115.     }  
  116.   
  117.     public int getRequestMoethod()  
  118.     {  
  119.         return requestMoethod;  
  120.     }  
  121.   
  122.     public void setRequestMoethod(int requestMoethod)  
  123.     {  
  124.         this.requestMoethod = requestMoethod;  
  125.     }  
  126.   
  127. }  

这个规则类定义了我们查询过程中需要的所有信息,方便我们的扩展,以及代码的重用,我们不可能针对每个需要抓取的网站写一套代码

2、需要的数据对象,目前只需要链接,LinkTypeData.java

  1. package com.zhy.spider.bean;  
  2.   
  3. public class LinkTypeData  
  4. {  
  5.     private int id;  
  6.     /** 
  7.      * 链接的地址 
  8.      */  
  9.     private String linkHref;  
  10.     /** 
  11.      * 链接的标题 
  12.      */  
  13.     private String linkText;  
  14.     /** 
  15.      * 摘要 
  16.      */  
  17.     private String summary;  
  18.     /** 
  19.      * 内容 
  20.      */  
  21.     private String content;  
  22.     public int getId()  
  23.     {  
  24.         return id;  
  25.     }  
  26.     public void setId(int id)  
  27.     {  
  28.         this.id = id;  
  29.     }  
  30.     public String getLinkHref()  
  31.     {  
  32.         return linkHref;  
  33.     }  
  34.     public void setLinkHref(String linkHref)  
  35.     {  
  36.         this.linkHref = linkHref;  
  37.     }  
  38.     public String getLinkText()  
  39.     {  
  40.         return linkText;  
  41.     }  
  42.     public void setLinkText(String linkText)  
  43.     {  
  44.         this.linkText = linkText;  
  45.     }  
  46.     public String getSummary()  
  47.     {  
  48.         return summary;  
  49.     }  
  50.     public void setSummary(String summary)  
  51.     {  
  52.         this.summary = summary;  
  53.     }  
  54.     public String getContent()  
  55.     {  
  56.         return content;  
  57.     }  
  58.     public void setContent(String content)  
  59.     {  
  60.         this.content = content;  
  61.     }  
  62. }  
3、核心的查询类:ExtractService.java
  1. package com.zhy.spider.core;  
  2.   
  3. import java.io.IOException;  
  4. import java.util.ArrayList;  
  5. import java.util.List;  
  6. import java.util.Map;  
  7.   
  8. import javax.swing.plaf.TextUI;  
  9.   
  10. import org.jsoup.Connection;  
  11. import org.jsoup.Jsoup;  
  12. import org.jsoup.nodes.Document;  
  13. import org.jsoup.nodes.Element;  
  14. import org.jsoup.select.Elements;  
  15.   
  16. import com.zhy.spider.bean.LinkTypeData;  
  17. import com.zhy.spider.rule.Rule;  
  18. import com.zhy.spider.rule.RuleException;  
  19. import com.zhy.spider.util.TextUtil;  
  20.   
  21. /** 
  22.  *  
  23.  * @author zhy 
  24.  *  
  25.  */  
  26. public class ExtractService  
  27. {  
  28.     /** 
  29.      * @param rule 
  30.      * @return 
  31.      */  
  32.     public static List<LinkTypeData> extract(Rule rule)  
  33.     {  
  34.   
  35.         // 进行对rule的必要校验  
  36.         validateRule(rule);  
  37.   
  38.         List<LinkTypeData> datas = new ArrayList<LinkTypeData>();  
  39.         LinkTypeData data = null;  
  40.         try  
  41.         {  
  42.             /** 
  43.              * 解析rule 
  44.              */  
  45.             String url = rule.getUrl();  
  46.             String[] params = rule.getParams();  
  47.             String[] values = rule.getValues();  
  48.             String resultTagName = rule.getResultTagName();  
  49.             int type = rule.getType();  
  50.             int requestType = rule.getRequestMoethod();  
  51.   
  52.             Connection conn = Jsoup.connect(url);  
  53.             // 设置查询参数  
  54.   
  55.             if (params != null)  
  56.             {  
  57.                 for (int i = 0; i < params.length; i++)  
  58.                 {  
  59.                     conn.data(params[i], values[i]);  
  60.                 }  
  61.             }  
  62.   
  63.             // 设置请求类型  
  64.             Document doc = null;  
  65.             switch (requestType)  
  66.             {  
  67.             case Rule.GET:  
  68.                 doc = conn.timeout(100000).get();  
  69.                 break;  
  70.             case Rule.POST:  
  71.                 doc = conn.timeout(100000).post();  
  72.                 break;  
  73.             }  
  74.   
  75.             //处理返回数据  
  76.             Elements results = new Elements();  
  77.             switch (type)  
  78.             {  
  79.             case Rule.CLASS:  
  80.                 results = doc.getElementsByClass(resultTagName);  
  81.                 break;  
  82.             case Rule.ID:  
  83.                 Element result = doc.getElementById(resultTagName);  
  84.                 results.add(result);  
  85.                 break;  
  86.             case Rule.SELECTION:  
  87.                 results = doc.select(resultTagName);  
  88.                 break;  
  89.             default:  
  90.                 //当resultTagName为空时默认去body标签  
  91.                 if (TextUtil.isEmpty(resultTagName))  
  92.                 {  
  93.                     results = doc.getElementsByTag("body");  
  94.                 }  
  95.             }  
  96.   
  97.             for (Element result : results)  
  98.             {  
  99.                 Elements links = result.getElementsByTag("a");  
  100.   
  101.                 for (Element link : links)  
  102.                 {  
  103.                     //必要的筛选  
  104.                     String linkHref = link.attr("href");  
  105.                     String linkText = link.text();  
  106.   
  107.                     data = new LinkTypeData();  
  108.                     data.setLinkHref(linkHref);  
  109.                     data.setLinkText(linkText);  
  110.   
  111.                     datas.add(data);  
  112.                 }  
  113.             }  
  114.   
  115.         } catch (IOException e)  
  116.         {  
  117.             e.printStackTrace();  
  118.         }  
  119.   
  120.         return datas;  
  121.     }  
  122.   
  123.     /** 
  124.      * 对传入的参数进行必要的校验 
  125.      */  
  126.     private static void validateRule(Rule rule)  
  127.     {  
  128.         String url = rule.getUrl();  
  129.         if (TextUtil.isEmpty(url))  
  130.         {  
  131.             throw new RuleException("url不能为空!");  
  132.         }  
  133.         if (!url.startsWith("http://"))  
  134.         {  
  135.             throw new RuleException("url的格式不正确!");  
  136.         }  
  137.   
  138.         if (rule.getParams() != null && rule.getValues() != null)  
  139.         {  
  140.             if (rule.getParams().length != rule.getValues().length)  
  141.             {  
  142.                 throw new RuleException("参数的键值对个数不匹配!");  
  143.             }  
  144.         }  
  145.   
  146.     }  
  147.   
  148.   
  149. }  
4、异常类:RuleException.java

  1. package com.zhy.spider.rule;  
  2.   
  3. public class RuleException extends RuntimeException  
  4. {  
  5.   
  6.     public RuleException()  
  7.     {  
  8.         super();  
  9.         // TODO Auto-generated constructor stub  
  10.     }  
  11.   
  12.     public RuleException(String message, Throwable cause)  
  13.     {  
  14.         super(message, cause);  
  15.         // TODO Auto-generated constructor stub  
  16.     }  
  17.   
  18.     public RuleException(String message)  
  19.     {  
  20.         super(message);  
  21.         // TODO Auto-generated constructor stub  
  22.     }  
  23.   
  24.     public RuleException(Throwable cause)  
  25.     {  
  26.         super(cause);  
  27.         // TODO Auto-generated constructor stub  
  28.     }  
  29.   
  30. }  
5、测试类:这里使用了两个网站进行测试,采用了不同的规则view plain cop
  1. package com.zhy.spider.test;  
  2.   
  3. import java.util.List;  
  4.   
  5. import com.zhy.spider.bean.LinkTypeData;  
  6. import com.zhy.spider.core.ExtractService;  
  7. import com.zhy.spider.rule.Rule;  
  8.   
  9. public class Test  
  10. {  
  11.     @org.junit.Test  
  12.     public void getDatasByClass()  
  13.     {  
  14.         Rule rule = new Rule(  
  15.                 "http://www1.sxcredit.gov.cn/public/infocomquery.do?method=publicIndexQuery",  
  16.         new String[] { "query.enterprisename","query.registationnumber" }, new String[] { "兴网","" },  
  17.                 "cont_right", Rule.CLASS, Rule.POST);  
  18.         List<LinkTypeData> extracts = ExtractService.extract(rule);  
  19.         printf(extracts);  
  20.     }  
  21.   
  22.     @org.junit.Test  
  23.     public void getDatasByCssQuery()  
  24.     {  
  25.         Rule rule = new Rule("http://www.11315.com/search",  
  26.                 new String[] { "name" }, new String[] { "兴网" },  
  27.                 "div.g-mn div.con-model", Rule.SELECTION, Rule.GET);  
  28.         List<LinkTypeData> extracts = ExtractService.extract(rule);  
  29.         printf(extracts);  
  30.     }  
  31.   
  32.     public void printf(List<LinkTypeData> datas)  
  33.     {  
  34.         for (LinkTypeData data : datas)  
  35.         {  
  36.             System.out.println(data.getLinkText());  
  37.             System.out.println(data.getLinkHref());  
  38.             System.out.println("***********************************");  
  39.         }  
  40.   
  41.     }  
  42. }  
输出结果:
  1. 深圳市网兴科技有限公司  
  2. http://14603257.11315.com  
  3. ***********************************  
  4. 荆州市兴网公路物资有限公司  
  5. http://05155980.11315.com  
  6. ***********************************  
  7. 西安市全兴网吧  
  8. #  
  9. ***********************************  
  10. 子长县新兴网城  
  11. #  
  12. ***********************************  
  13. 陕西同兴网络信息有限责任公司第三分公司  
  14. #  
  15. ***********************************  
  16. 西安高兴网络科技有限公司  
  17. #  
  18. ***********************************  
  19. 陕西同兴网络信息有限责任公司西安分公司  
  20. #  
  21. **********************************



评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值