计算机一个重要特征是使用真、假两种状态表示信息——二进制。其优点,一是信号易于区分;二是当时已经存在了一门数学体系——布尔代数(又是数学。同时也需要看到社会发展状态制约了新的技术与创新)。
NOT, AND, OR三个基本逻辑门。
同时,利用这三个门可以构造XOR。XOR在加法里面有重要的应用。
二进制中,一个1或0,叫一“位”(bit)。在计算机中,8位特别常见,所以它还有一个特殊的名字——字节(byte)。1 byte = 8 bits。
英文不是数字,但计算机可以用数字来表示字母——也就是给字母或者符号编号。此处就产生了ASCII码。
由于ASCII码表示的数字有限,留给了世界其他国家针对本国语言进行编码的空间。但问题是,这样会使得各个国家的数据不互通!计算机会因格式不统一而在显示不同语言时发生乱码!这就需要一个统一的标准——Unicode。
Unicode统一了各个国家的标准,最常见的Unicode是16位的,有超过一百万个位置。这对所有语言的所有符号都够用了。