(1015)编码转换,怎样将GB2312 编码的字符串转换为ISO-8859-1 编码的字符串【基础】

编码转换:怎样将GB2312 编码的字符串转换为ISO-8859-1 编码的字符串?【基础】

先来一个Java编程

答案:
import java.io.UnsupportedEncodingException;

public class Test {
    public static void main(String[] args) {
        String s1 = "你好";
        try {
            String s2 = new String(s1.getBytes("GB2312"), "ISO-8859-1");
            System.out.println(s2);
        } catch (UnsupportedEncodingException e) {
            e.printStackTrace();
        }
    }
}
解析什么是UTF-8 GBK UTF8 GB2312

UTF-8: Unicode TransformationFormat-8bit,允许含BOM,但通常不含BOM。是用以解决国际上字符的一种多字节编码,它对英文使用8位(即一个字节),中文使用24为(三个字节)来编码。UTF-8包含全世界所有国家需要用到的字符,是国际编码,通用性强。UTF-8编码的文字可以在各国支持UTF8字符集的浏览器上显示。如,如果是UTF8编码,则在外国人的英文IE上也能显示中文,他们无需下载IE的中文语言支持包。

GBK是国家标准GB2312基础上扩容后兼容GB2312的标准。GBK的文字编码是用双字节来表示的,即不论中、英文字符均使用双字节来表示,为了区分中文,将其最高位都设定成1。GBK包含全部中文字符,是国家编码,通用性比UTF8差,不过UTF8占用的数据库比GBK大。

GBK、GB2312等与UTF8之间都必须通过Unicode编码才能相互转换:

GBK、GB2312–>Unicode–>UTF8

UTF8–>Unicode–>GBK、GB2312

理解:

1,Java编译器(即编译成class文件时) 用的是unicode字符集。

2,乱码主要是由于不同的字符集相互转换导致的,理论上各个字符的编码规则是不同的,是不能相互转换的,所以根本解决乱码的方法就是不要转换编码方式,编码方式前 后统一。

3,ASCII、GB2312、GBK、GB18030、Big5、Unicode都是字符集的名称。它们定义了采用1~2个字节的编码规范,为每个字符赋予了一个独一无二的编号。这个编号就是我们所说的“字符编码”。

4, Unicode字符集定义的字符编码并不适合直接通过网络传输表达,因为它们必须转换成像0101这样的二进制字节流传输。所以就出现了不同的转换规范实现方式:UTF-8,TF-16等。这些不同的转换规范转换后的编码值和Unicode是不同的.(unicode是字符集,编码实现是utf-8,utf-16等,unicode到utf-8是有算法的,有统一的规则,但unicode和gbk等其他的编码方式是没有直接联系的不能转换)。

5,不要轻易地使用或滥用String类的getBytes(encoding)方法,更要尽量避免使用getBytes()方法。因为这个方法是平台依赖的,在平台不可预知的情况下完全可能得到不同的结果。如果一定要进行字节编码,则用户要确保encoding的方法就是当初字符串输入时的encoding(即知道以前的编码)。

6, http://825635381.iteye.com/blog/2087380(java 默认的Unicode和外部资源编码的理解)

new String(input.getBytes("ISO-8859-1"), "GB18030")
    

上面这段代码代表什么?有人会说: “把input字符串从ISO-8859-1编码方式转换成GB18030编码方式”。
如果这种说法正确,那么又如何解释我们刚提到的java字符串都采用unicode编码呢? 这种说法不仅是欠妥的,而且是大错特错的,让我们一一来分析,其实事实是这样的:我们本应该用GB18030的编码来读取数据并解码成字符串,但结果却采用了ISO-8859-1的编码,导致生成一个错误的字符串。要恢复,就要先把字符串恢复成原始字节数组,然后通过正确的编码GB18030再次解码成字符串(即把以GB18030编码的数据转成unicode的字符串)。注意,字符串永远都是unicode编码的。 但编码转换并不是负负得正那么简单,这里我们之所以可以正确地转换回来,是因为 ISO8859-1 是单字节编码,所以每个字节被按照原样 转换为 String ,也就是说,虽然这是一个错误的转换,但编码没有改变,所以我们仍然有机会把编码转换回来

总结:

所以,我们在处理java的编码问题时,要分清楚三个概念:Java采用的编码:unicode,JVM平台默认字符 集和外部资源的编码

7,假如我们需要从磁盘文件、数据库记录、网络传输一些字符,保存到Java的变量中,要经历由bytes–>encode字符–>Unicode字符的转换(例如new String(bytes, encode));而要把Java变量保存到文件、数据库或者通过网络传输,系统要做一个Unicode字符–>encode字符–>bytes的转换(例如String.getBytes([encode]))

8,前面提到从ASCII、GB2312、GBK到GB18030的编码方法是向下兼容的。而Unicode只与ASCII兼容(更准确地说,是与ISO-8859-1兼容),与GB码不兼容。例如“汉”字的Unicode编码是6C49,而GB码是BABA。(简单来说有两大阵营ANSI和unicode不能相互转换除了ISO-8859-1,因为他有单字节的特殊性)

9,

String name = "我来了";
String str = new String(name.getBytes("x"),"xxx");

不管jvm这里默认的编码是GBK还是UTF-8还是其他编码,name.getBytes(“x”)java都会自动帮你转成Unicode编码,然后再以x的编码方式转成xxx的编码字符集。

例如:如何GbK转成UTF-8,真正的核心问题是GBK怎么转成unicode(无法直接转只能找GBK和unicode对照表),转成unicode以后转utf-8就好转了(因为有规律)。java特殊因为java 字符串都是默认unicode的(生产的class文件都是 unicode字符集),所以无论你name.getBytes(“xx”)是什么编码得到的unicode值都是unicode字符集的正确值。(既然java字符默认都转成了unicode那么为什么GBK转UTF-8为什么还是乱码?java都做到默认转unicode编码了可以实现不乱码了,不知内部为什么?),所有有人在java语言中也有实现GBK转UTF-8,其实就是直接unicode转utf-8。

例子说明:

在Java中,String的getBytes()方法是得到一个操作系统默认的编码格式的字节数组。这个表示在不同情况下,返回的东西不一样!

String.getBytes(String decode)方法会根据指定的decode编码返回某字符串在该编码下的byte数组表示,如:

byte[] b_gbk = "深".getBytes("GBK");   //b_gbk的长度为2
byte[] b_utf8 = "深".getBytes("UTF-8");   //b_utf8的长度为3
byte[] b_iso88591 = "深".getBytes("ISO8859-1");//   b_iso88591的长度为1
byte[] b_unicode = "深".getBytes("unicode");  //b_unicode长度为4

将分别返回“深”这个汉字在GBK、UTF-8、ISO8859-1和unicode编码下的byte数组表示,此时b_gbk的长度为2,b_utf8的长度为3,b_iso88591的长度为1,unicode为4。

而与getBytes相对的,可以通过new String(byte[], decode)的方式来还原这个“深”字时,这个new String(byte[], decode)实际是使用decode指定的编码来将byte[]解析成字符串

String s_gbk = new String(b_gbk,"GBK");   
String s_utf8 = new String(b_utf8,"UTF-8");   
String s_iso88591 = new String(b_iso88591,"ISO8859-1");   
String s_unicode = new String(b_unicode, "unicode");

通过打印s_gbk、s_utf8、s_iso88591和unicode,会发现,s_gbk、s_utf8和unicode都是“深”,而只有s_iso88591是一个不认识的字符,为什么使用ISO8859-1编码再组合之后,无法还原“深”字呢,其实原因很简单,因为ISO8859-1编码的编码表中,根本就没有包含汉字字符,当然也就无法通过"深".getBytes(“ISO8859-1”);来得到正确的“深”字在ISO8859-1中的编码值了,所以再通过new String()来还原就无从谈起了。

因此,通过String.getBytes(String decode)方法来得到byte[]时,一定要确定decode的编码表中确实存在String表示的码值,这样得到的byte[]数组才能正确被还原。

有时候,为了让中文字符适应某些特殊要求(如http header头要求其内容必须为iso8859-1编码),可能会通过将中文字符按照字节方式来编码的情况,如

String s_iso88591 = new String("深".getBytes("UTF-8"),"ISO8859-1"),

这样得到的s_iso8859-1字符串实际是三个在 ISO8859-1中的字符,在将这些字符传递到目的地后,目的地程序再通过相反的方式 String s_utf8 = new String(s_iso88591.getBytes(“ISO8859-1”),“UTF-8”) 来得到正确的中文汉字“深”。这样就既保证了遵守协议规定、也支持中文。

同样,在开发会检查字符长度,以免数据库字段的长度不够而报错,考虑到中英文的差异,肯定不能用String.length()方法判断,而需采用String.getBytes().length ;

而这方法将返回该操作系统默认的编码格式的字节数组。如字符串“Hello!你好!”,在一个中文WindowsXP系统下,结果为12,而在英文的UNIX环境下,结果将为9。

因为该方法和平台(编码)相关的。

在中文操作系统中,getBytes方法返回的是一个GBK或者GB2312的中文编码的字节数组,其中中文字符,各占两个字节。

而在英文平台中,一般的默认编码是"ISO-8859-1",每个字符都只取一个字节(而不管是否非拉丁字符)。所以在这种情况下,应该给其传入字符编码字符串,即String.getBytes(“GBK”).length。

二、main方法测试
public static void main(String[] args) {
        String testData = "123abc数据";
        //此次测试前提:参数包含中文
        testU8(testData);//UTF_8-String:123abc数据
        testIso(testData);//ISO_8859_1-String:123abc??
        testChineseTrue(testData);//test3-String:123abc数据
        testChineseFalse(testData);//test4-String:123abc??
    }
    
    /**
     * 正常返回:UTF_8-String:123abc数据
     * @param testdata
     */
    public static void testU8(String testdata){
        byte[] bytes = testdata.getBytes(CharsetUtil.UTF_8);
        String result = new String(bytes,CharsetUtil.UTF_8);
        System.out.println("UTF_8-String:"+result);
    }
    /**
     * 返回有乱码:123abc??
     * 原因:ISO8859-1编码的编码表中,根本就没有包含汉字字符。
     * @param testdata
     */
    public static void testIso(String testdata){
        byte[] bytes = testdata.getBytes(CharsetUtil.ISO_8859_1);
        String result = new String(bytes,CharsetUtil.ISO_8859_1);
        System.out.println("ISO_8859_1-String:"+result);
    }
    /**
     * 返回:123abc数据
     * 通过String.getBytes(String decode)方法来得到byte[]时,一定要确定decode的编码表中确实存在String表示的码值。
     * gbk/utf-8都可以
     * @param testdata
     */
    public static void testChineseTrue(String testdata){
        Object message = null;
        message = new String(testdata.getBytes(CharsetUtil.GBK),CharsetUtil.ISO_8859_1);
        String returnData = message.toString();
        //解析
        byte[] xmlByte =returnData.getBytes(CharsetUtil.ISO_8859_1);
        String xml = "";
        xml = new String(xmlByte,CharsetUtil.GBK);
        System.out.println("test3-String:"+xml);
    }
    
    /**
     * 当传入的参数包含中文时,执行该方法出现乱码。 返回:test4-String:123abc??
     * 原因:通过String.getBytes(String decode)方法来得到byte[]时,一定要确定decode的编码表中确实存在String表示的码值。
     * 而ISO8859-1编码的编码表中,根本就没有包含汉字字符。
     * @param testdata
     */
    public static void testChineseFalse(String testdata){
        Object message = null;
        message = new String(testdata.getBytes(CharsetUtil.ISO_8859_1),CharsetUtil.GBK);
        String returnData = message.toString();
        //解析
        byte[] xmlByte =returnData.getBytes(CharsetUtil.GBK);
        String xml = "";
        xml = new String(xmlByte,CharsetUtil.ISO_8859_1);
        System.out.println("test4-String:"+xml);
    }
三、本地代码解析:
//将接收到的message编码后传送给后台
    public ChannelBuffer encode(Object message) throws TransportCodecException {
        try{
            //message虽说是Object类型,看不到具体类型,但debug知道其数据格式为byte[],字节数组形式,可以强转为byte[],然后再通过New String(byte[],charset)方法将byte[]转换为String类型
            //因为不确定接收到的message是什么编码格式,这里会统一转成gbk编码。
            message = new String((byte[])message,CharsetUtil.GBK);
            String gbkMessage = message.toString();
            
            //当计算字段长度时,由于中英文的差异,肯定不能用String.length()方法判断,而需采用String.getBytes().length;
            byte[] arrayOfByte = gbkMessage.getBytes(CharsetUtil.GBK);
            String requestByte = String.valueOf(arrayOfByte.length);
            String request = StringUtils.leftPad(requestByte,6,"0") + gbkMessage;
            
            LogConsole.info("xxx request message: " + request);
            return ChannelBuffers.copiedBuffer(request.getBytes(CharsetUtil.GBK)); //
        }
        catch(Exception e){
        }
        return null;
    }
    //解析接收后台的报文,后台中文是用utf-8编码的,然后整体用iso再封一次。
    //所以我们接收到后,会先用iso解下,decode方法返回的数据格式是byte[],再通过new String(xmlByte,CharsetUtil.UTF_8)将其按照utf-8解析。
    public Object decode(ChannelBuffer buffer) throws TransportCodecException {
        //ChannelBuffer该类型是本系统自己封装,通过该方法将ChannelBuffer转换为String类型,这时候的中文还是乱码,之后会用utf-8解下。
        String _message = buffer.toString(CharsetUtil.ISO_8859_1);
        
        if (_message.length() <= 0){
            return null;
        }
        
        if (isDirect){
            return buffer;
        }
        else{
            if (exchangeLength == -1){
                exchangeLength = fixedLength(_message,buffer);//后台返回报文格式为:6位的长度位+完整报文,该方法是处理长度位
            }
            
            int readableLength = buffer.readableBytes();
            if (hasRemaining(readableLength)){
                clear();
                LogConsole.info("xxx response message:" + _message);
                return _message.substring(fixedLength).getBytes(CharsetUtil.ISO_8859_1);
            }
            
            return null;
        }
    }
    //byte[]转String
    xml = new String(xmlByte,CharsetUtil.UTF_8);

内容都是在网上找的,原作者的链接已经不记得,如有相同的文章博客请告知,我这个改成转载,谢谢大家

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

binggoling

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值