在java可以使用URL读取网页信息(类似爬虫)
code:
import java.io.File;
import java.io.FileOutputStream;
import java.io.InputStream;
import java.io.OutputStream;
import java.net.URL;
public class Url2
{
public static void main(String[] args)throws Exception
{
URL url = new URL("http://www.csdn.net");
//方式一
//URLConnection conn = url.openConnection();
//InputStream is = conn.getInputStream();
//方式二
InputStream is = url.openStream();
OutputStream os = new FileOutputStream(new File("test.html"));
byte[] buff = new byte[1024];
int length = -1;
while(-1 !=(length = is.read(buff)))
{
os.write(buff, 0, length);
}
is.close();
os.close();
}
}
方式一是建立连接再获得输入流,而方式二是直接open获取输入流。
不妨看一看openStream()方法中是什么结构。
源码显示是通过连接再获取输入流,与方式一一样。