判定文件编码(文本流编码)的方法

 

在程序中,文本文件经常用来存储标准的ASCII码文本,比如英文、加减乘除等号这些运算符号。文本文件也可能用于存储一些其他非ASCII字符,如基于GBK的简体中文,基于GIG5的繁体中文等等。在存储这些字符时需要正确指定文件的编码格式;而在读取这些文本文件时,有时候就需要自动判定文件的编码格式。 按照给定的字符集存储文本文件时,在文件的最开头的三个字节中就有可能存储着编码信息,所以,基本的原理就是只要读出文件前三个字节,判定这些字节的值,就可以得知其编码的格式。其实,如果项目运行的平台就是中文操作系统,如果这些文本文件在项目内产生,即开发人员可以控制文本的编码格式,只要判定两种常见的编码就可以了:GBK和UTF-8。由于中文Windows默认的编码是GBK,所以一般只要判定UTF-8编码格式。 对于UTF-8编码格式的文本文件,其前3个字节的值就是-17、-69、-65,所以,判定是否是UTF-8编码格式的代码片段如下:

 

Java代码
  1. java.io.File f=new java.io.File("待判定的文本文件名");   
  2.    try{   
  3.      java.io.InputStream ios=new java.io.FileInputStream(f);   
  4.      byte[] b=new byte[3];   
  5.      ios.read(b);   
  6.      ios.close();   
  7.      if(b[0]==-17&&b[1]==-69&&b[2]==-65)   
  8.         System.out.println(f.getName()+"编码为UTF-8");   
  9.      else System.out.println(f.getName()+"可能是GBK");   
  10.    }catch(Exception e){   
  11.       e.printStackTrace();   
  12.    }  
 java.io.File f=new java.io.File("待判定的文本文件名");
    try{
      java.io.InputStream ios=new java.io.FileInputStream(f);
      byte[] b=new byte[3];
      ios.read(b);
      ios.close();
      if(b[0]==-17&&b[1]==-69&&b[2]==-65)
         System.out.println(f.getName()+"编码为UTF-8");
      else System.out.println(f.getName()+"可能是GBK");
    }catch(Exception e){
       e.printStackTrace();
    }

 

 上述代码只是简单判定了是否是UTF-8格式编码的文本文件,如果项目对要判定的文本文件编码不可控(比如用户上传的一些HTML、XML等文本),可以采用一个现成的开源项目:cpdetector,它所在的网址是:http://cpdetector.sourceforge.net/。它的类库很小,只有500K左右,利用该类库判定文本文件的代码如下: 

 

 

Java代码
  1. import java.io.BufferedInputStream;   
  2. import java.io.File;   
  3. import java.io.FileInputStream;   
  4.   
  5. import info.monitorenter.cpdetector.io.ASCIIDetector;   
  6. import info.monitorenter.cpdetector.io.CodepageDetectorProxy;   
  7. import info.monitorenter.cpdetector.io.JChardetFacade;   
  8. import info.monitorenter.cpdetector.io.ParsingDetector;   
  9. import info.monitorenter.cpdetector.io.UnicodeDetector;   
  10.   
  11.   
  12. public class cpdetectorTest {   
  13.   
  14.     public static void main(String[] args){   
  15.         /*------------------------------------------------------------------------    
  16.           detector是探测器,它把探测任务交给具体的探测实现类的实例完成。    
  17.           cpDetector内置了一些常用的探测实现类,这些探测实现类的实例可以通过add方法    
  18.           加进来,如ParsingDetector、 JChardetFacade、ASCIIDetector、UnicodeDetector。      
  19.           detector按照“谁最先返回非空的探测结果,就以该结果为准”的原则返回探测到的    
  20.           字符集编码。    
  21.         --------------------------------------------------------------------------*/     
  22.         CodepageDetectorProxy detector =   CodepageDetectorProxy.getInstance();      
  23.         /*-------------------------------------------------------------------------    
  24.           ParsingDetector可用于检查HTML、XML等文件或字符流的编码,构造方法中的参数用于    
  25.           指示是否显示探测过程的详细信息,为false不显示。    
  26.         ---------------------------------------------------------------------------*/     
  27.         detector.add(new ParsingDetector(false));       
  28.         /*--------------------------------------------------------------------------    
  29.           JChardetFacade封装了由Mozilla组织提供的JChardet,它可以完成大多数文件的编码    
  30.           测定。所以,一般有了这个探测器就可满足大多数项目的要求,如果你还不放心,可以    
  31.           再多加几个探测器,比如下面的ASCIIDetector、UnicodeDetector等。    
  32.         ---------------------------------------------------------------------------*/       
  33.         detector.add(JChardetFacade.getInstance());      
  34.         //ASCIIDetector用于ASCII编码测定      
  35.         detector.add(ASCIIDetector.getInstance());      
  36.         //UnicodeDetector用于Unicode家族编码的测定      
  37.         detector.add(UnicodeDetector.getInstance());   
  38.         java.nio.charset.Charset charset = null;      
  39.         File f=new File("D:\\test\\File\\PDFToFlex.mxml.txt");      
  40.         try {      
  41.               charset = detector.detectCodepage(new BufferedInputStream(new FileInputStream(f)),100);      
  42.         } catch (Exception ex) {ex.printStackTrace();}      
  43.         if(charset!=null){      
  44.              System.out.println(f.getName()+"编码是:"+charset.name());      
  45.         }else{     
  46.             System.out.println(f.getName()+"未知");     
  47.         }   
  48.     }   
  49. }  
import java.io.BufferedInputStream;
import java.io.File;
import java.io.FileInputStream;

import info.monitorenter.cpdetector.io.ASCIIDetector;
import info.monitorenter.cpdetector.io.CodepageDetectorProxy;
import info.monitorenter.cpdetector.io.JChardetFacade;
import info.monitorenter.cpdetector.io.ParsingDetector;
import info.monitorenter.cpdetector.io.UnicodeDetector;


public class cpdetectorTest {

	public static void main(String[] args){
		/*------------------------------------------------------------------------  
		  detector是探测器,它把探测任务交给具体的探测实现类的实例完成。  
		  cpDetector内置了一些常用的探测实现类,这些探测实现类的实例可以通过add方法  
		  加进来,如ParsingDetector、 JChardetFacade、ASCIIDetector、UnicodeDetector。    
		  detector按照“谁最先返回非空的探测结果,就以该结果为准”的原则返回探测到的  
		  字符集编码。  
		--------------------------------------------------------------------------*/  
		CodepageDetectorProxy detector =   CodepageDetectorProxy.getInstance();   
		/*-------------------------------------------------------------------------  
		  ParsingDetector可用于检查HTML、XML等文件或字符流的编码,构造方法中的参数用于  
		  指示是否显示探测过程的详细信息,为false不显示。  
		---------------------------------------------------------------------------*/  
		detector.add(new ParsingDetector(false));    
		/*--------------------------------------------------------------------------  
		  JChardetFacade封装了由Mozilla组织提供的JChardet,它可以完成大多数文件的编码  
		  测定。所以,一般有了这个探测器就可满足大多数项目的要求,如果你还不放心,可以  
		  再多加几个探测器,比如下面的ASCIIDetector、UnicodeDetector等。  
		---------------------------------------------------------------------------*/    
		detector.add(JChardetFacade.getInstance());   
		//ASCIIDetector用于ASCII编码测定   
		detector.add(ASCIIDetector.getInstance());   
		//UnicodeDetector用于Unicode家族编码的测定   
		detector.add(UnicodeDetector.getInstance());
		java.nio.charset.Charset charset = null;   
		File f=new File("D:\\test\\File\\PDFToFlex.mxml.txt");   
		try {   
		      charset = detector.detectCodepage(new BufferedInputStream(new FileInputStream(f)),100);   
		} catch (Exception ex) {ex.printStackTrace();}   
		if(charset!=null){   
		     System.out.println(f.getName()+"编码是:"+charset.name());   
		}else{  
		    System.out.println(f.getName()+"未知");  
		}
	}
}

 

 

上面代码中的detector不仅可以用于探测文件的编码,也可以探测任意输入的文本流的编码,方法是调用其重载形式: 

Java代码
  1. charset=detector.detectCodepage(待测的文本输入流,测量该流所需的读入字节数);   
  2.        
 charset=detector.detectCodepage(待测的文本输入流,测量该流所需的读入字节数);
      
上面的字节数由程序员指定,字节数越多,判定越准确,当然时间也花得越长。要注意,字节数的指定不能超过文本流的最大长度。 

  判定文件编码的具体应用举例: 
  属性文件(.properties)是Java程序中的常用文本存储方式,象STRUTS框架就是利用属性文件存储程序中的字符串资源。它的内容如下所示: 
Java代码
  1.    #注释语句   
  2.    属性名=属性值   
  3.       
  4. 读入属性文件的一般方法是:       
   #注释语句
   属性名=属性值
   
读入属性文件的一般方法是:     
Java代码
  1. FileInputStream ios=new FileInputStream("属性文件名");   
  2. Properties prop=new Properties();   
  3. prop.load(ios);   
  4. ios.close();    
  FileInputStream ios=new FileInputStream("属性文件名");
  Properties prop=new Properties();
  prop.load(ios);
  ios.close();  
  利用java.io.Properties的load方法读入属性文件虽然方便,但如果属性文件中有中文,在读入之后就会发现出现乱码现象。发生这个原因是load方法使用字节流读入文本,在读入后需要将字节流编码成为字符串,而它使用的编码是“iso-8859-1”,这个字符集是ASCII码字符集,不支持中文编码,所以这时需要使用显式的转码: 
Java代码
  1. String value=prop.getProperty("属性名");   
  2. String encValue=new String(value.getBytes("iso-8859-1"),"属性文件的实际编码");   
   String value=prop.getProperty("属性名");
   String encValue=new String(value.getBytes("iso-8859-1"),"属性文件的实际编码"); 

  在上面的代码中,属性文件的实际编码就可以利用上面的方法获得。当然,象这种属性文件是项目内部的,我们可以控制属性文件的编码格式,比如约定采用Windows内定的GBK,就直接利用"gbk"来转码,如果约定采用UTF-8,也可以是使用"UTF-8"直接转码。如果想灵活一些,做到自动探测编码,就可利用上面介绍的方法测定属性文件的编码,从而方便开发人员的工作。

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值