如同现实生活
生活在进步
电脑业在日新月异的变
不过相对来说
变的更多是在软件
大家对多进制的快速也多有体会
以前我曾回帖说过
未来计算将会是硬件多进制的计算机
因为不管算法本身多么牛B
也存在某些残缺
只能近乎完美
比如显示器的渲染算法
有可能是几种算法的集合
也可能是一种
但不管如何
有些能够全部覆盖
但渲染的时候某些部位存在时间的差异色彩的差异
有些能够在时间,色彩方面能够达到完美
那么某些边缘或者中间的部位就存在渲染的漏洞
这是不可否认的
除非你能从头到脚全部一个一个像素扫描下来
那这样一来那个数据就变得异常庞大
扫描的时间也存在一些不可控制的未知
因此算法只能作为优化的层次
如果想效率更加高效
只能对进制的改进
举个例子
计算机只能进行加减法
那么100*100
姑且不论转换二进制的时间
加上二进制循环计算的时间
那也哟要计算一百次一百的相加
那么用十进制呢?
我们先建立一个九九乘法表
一个九九加法表
然后开始由高位向低位追加运算
100*1=100
100*0= 000
100*0= 000
那么结果由上到下重叠相加
100*100=10000
乘法用了9次。加法用了9次
一共才用了18次循环
相比之下足足少了82次
如此巨大的差距
足以让人震惊
那么就可以得出一个初步的结论
进制越低
描述数据本身就越复杂
存储空间就越大
进制越高
描述数据本身就越复简单
存储空间就越小
但事实真的如此乎?
没有
世界总是相对的
就运算本身而言
同理空间与时间也是相对的
空间越少所需的时间越短
空间越大所需的时间越长
打个比方
当进制越高
描述进制本身就需要相当长的时间
这个时候反而还不如用比它简单的进制来描述数据本身
所以进制与时间方面是相对的
当进制达到某个极致的时候
效率就会减低
其中二者的奥妙就如同正弦的曲线
循环往复
奥妙无穷