【JAVA】 抓取网页内容

【JAVA】 抓取网页内容

通过JAVA的API可以顺利的抓取网络上的大部分指定的网页内容,现与大家分享一下这方法理解与心得。最简单的一种抓取方法就是:

Java代码
  1. URL url = new URL(myurl);  
  2.   
  3. BufferedReader br = new BufferedReader(newInputStreamReader(url.openStream()));  
  4.   
  5. String s = "";  
  6.   
  7. StringBuffer sb = new StringBuffer("");  
  8.   
  9. while ((s = br.readLine()) != null) {  
  10.   
  11. i++;  
  12.   
  13. sb.append(s+"/r/n");  
  14.   
  15. }  
URL url = new URL(myurl);  BufferedReader br = new BufferedReader(newInputStreamReader(url.openStream()));  String s = "";  StringBuffer sb = new StringBuffer("");  while ((s = br.readLine()) != null) {  i++;  sb.append(s+"/r/n");  }

这种方法抓取一般的网页应该没有问题,但当有些网页中存在一些嵌套的redirect连接时,它就会报Server redirected too many times这样的错误,这是因为此网页内部又有一些代码是转向其它网页的,循环过多导致程序出错。如果只想抓取本URL中的网页内容,而不愿意让它有其它 的网页跳转,可以用以下的代码。

 

Java代码
  1. URL urlmy = new URL(myurl);  
  2.   
  3. HttpURLConnection con = (HttpURLConnection) urlmy.openConnection();  
  4.   
  5. con.setFollowRedirects(true);  
  6.   
  7. con.setInstanceFollowRedirects(false);  
  8.   
  9. con.connect();  
  10.   
  11. BufferedReader br = new BufferedReader(new InputStreamReader(con.getInputStream(),"UTF-8"));  
  12.   
  13. String s = "";  
  14.   
  15. StringBuffer sb = new StringBuffer("");  
  16.   
  17. while ((s = br.readLine()) != null) {  
  18.   
  19. sb.append(s+"/r/n");  
  20.   
  21. }  
URL urlmy = new URL(myurl);  HttpURLConnection con = (HttpURLConnection) urlmy.openConnection();  con.setFollowRedirects(true);  con.setInstanceFollowRedirects(false);  con.connect();  BufferedReader br = new BufferedReader(new InputStreamReader(con.getInputStream(),"UTF-8"));  String s = "";  StringBuffer sb = new StringBuffer("");  while ((s = br.readLine()) != null) {  sb.append(s+"/r/n");  }

这样的话,抓取的时候程序就不会跳换其它页面去抓取其它的内容了,这就达到我们的目的了。

如果是我们是处于内部网的话,还需要专门给它加上代理, Java以特殊的系统属性为代理服务器提供支持,只要在上面的程序加上以下程序就可以了。

 

Java代码
  1. System.getProperties().setProperty( "http.proxyHost", proxyName );  
  2.   
  3. System.getProperties().setProperty( "http.proxyPort", port );  
System.getProperties().setProperty( "http.proxyHost", proxyName );  System.getProperties().setProperty( "http.proxyPort", port );

这样的话就可以实现处于内部网中而向互联网抓取自己想要的东西了。

上面的程序抓取回来的全部内容都存放在sb这个字符串,我们就可以通过正则表达式对它进行分析,提取出自己想要的具体的内容,为我所用,呵呵,这是多么美妙的一件事情啊!!

(转载!!!)

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值