最近在抓取搜狐的时候发现下载下来的页面都是乱码,开始以为是解码出了问题可是查找半天无果,很是郁闷。返回的状态码是200,怎么都是乱码呢?难道是页面做了加密?
其实这是搜狐为了加快网页加载速度对页面做了压缩。哎,我out了~~~~
下面来解决这个问题吧~~~
1.如何判断页面是否是压缩的
URLConnection hc = null;
hc.getHeaderField("Content-Encoding") 如果得到的是 gzip则说明页面做了压缩
2.对页面压缩/解压的方法
找到原因,问题很容易就被解决了!
其实这是搜狐为了加快网页加载速度对页面做了压缩。哎,我out了~~~~
下面来解决这个问题吧~~~
1.如何判断页面是否是压缩的
URLConnection hc = null;
hc.getHeaderField("Content-Encoding") 如果得到的是 gzip则说明页面做了压缩
2.对页面压缩/解压的方法
/**
* @param source
* 源文件
* @param target
* 目标文件
*/
public static void unGZipFile(File source, String target) throws Exception { // 解压文件
FileInputStream fin = new FileInputStream(source); // 得以文件输入流
GZIPInputStream gzin = new GZIPInputStream(fin); // 得到压缩输入流
FileOutputStream fout = new FileOutputStream(target); // 得到文件输出流
byte[] buf = new byte[1024]; // 缓冲区大小
int num;
while ((num = gzin.read(buf, 0, buf.length)) != -1)
{ // 如果文件未读完
fout.write(buf, 0, num); // 写入缓冲数据到输出流
}
gzin.close(); // 关闭压缩输入流
fout.close(); // 关闭文件输出流
fin.close(); // 关闭文件输入流
}
/**
* gzip压缩文件
*
* @param source
* 源文件
* @param target
* 压缩后文件.mms格式
* @throws Exception
*/
public static void gZipFile(File source, File target) throws Exception {
FileInputStream fin = new FileInputStream(source);
BufferedOutputStream out = new BufferedOutputStream(new GZIPOutputStream(
new FileOutputStream(target)));
int c = -1;
while ((c = fin.read()) != -1)
{
out.write(c);
}
fin.close();
out.close();
}
找到原因,问题很容易就被解决了!