Java中的char表示的一个字符,而Java使用的字符集是unicode,unicode使用一个16位的数值表示一个字符,支持6W个字符,但是目前已经达到了10W了,所以应该是不止16位,但是超过16位后面的字符很少用到,所以被忽略了吧。
由于unicode是16位,对应2个字节,所以Java的char被认为是占2个字符的,其实并不是这样,Java使用unicode字符集,编码格式使用的是utf-8,所以一个char在存储是长度是不固定的。
可以看下面的代码输出情况:
System.out.println("a:" + Arrays.toString(String.valueOf('a').getBytes("utf-8")));
System.out.println("ц:" + Arrays.toString(String.valueOf('ц').getBytes("utf-8")));
System.out.println("中:" + Arrays.toString(String.valueOf('中').getBytes("utf-8")));
System.out.println("�:" + Arrays.toString(String.valueOf('�').getBytes("utf-8")));
更新,多谢楼上友情指出,此处回复存在问题。现更新如下:
Java在内存中存储一个字符使用的是UTF-16编码,而UTF-16一开始是固定2个字节,但是Unicode渐渐发展,16位已不够使用,所以UTF-16也变成不定长了。但是Java的char依旧保留固定为2个字节,具体怎么表示那些超过16位的unicode字符,java有给出方案,有兴趣可自行查阅API。