指定URL的网络爬虫。。

 
package Spider;

import org.apache.commons.httpclient.*;
import org.apache.commons.httpclient.methods.*;

import java.io.*;
public class RetrivePage2 {

	/**
	 * @param args
	 */
	
	private static HttpClient httpClient=new HttpClient();
	//设置代理服务器
	static{
		//设置代理服务器的IP地址和端口
		 httpClient.getHostConfiguration().setProxy("162.168.2.112", 8080);
	}
	public static boolean downloadePage(String path) throws HttpException,IOException{
		InputStream input=null;
		OutputStream output=null;
		//得到post方法
		PostMethod postMethod=new PostMethod(path);
		//设置post方法的参数
		NameValuePair[] postData=new NameValuePair[2];
		postData[0]=new NameValuePair("name","lietu");
		postData[1]=new NameValuePair("password","*****");
		postMethod.addParameters(postData);
		//执行,返回状态码
		int statusCode=httpClient.executeMethod(postMethod);
		System.out.println(statusCode);
		//针对状态码进行处理(简单起见,只处理返回值为200的状态码)
		if(statusCode==HttpStatus.SC_OK){
			input=postMethod.getResponseBodyAsStream();
			//得到文件名
			String filename=path.substring(path.lastIndexOf('/')+1);
			//获得文件输出流
			output=new FileOutputStream(filename);
			//输出到文件
			int tempByte=-1;
			while((tempByte=input.read())>0){
				output.write(tempByte);
			}
			//关闭输入输出流
			if(input!=null){
				input.close();
			}
			if(output!=null){
				output.close();
			}
			return true;
		}
		return false;
	}
	public static void main(String[] args) {
		// TODO Auto-generated method stub
		
		//抓起lietu首页,输出
		try{
			RetrivePage2.downloadePage("http://www.baidu.com/");
			
		}catch(HttpException e){
			e.printStackTrace();
		}catch(IOException e){
			e.printStackTrace();
		}
	}

}

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值