为什么编程语言以及数据库要从1970年1月1日开始计算时间
这是一个有趣又容易被忽略的问题。
上网查了一下,linux编程中对时间的计算是相对1970.1.1 00:00:00 的,为什么是这个时间呢
答案是:计算机位数的限制。
我们知道最初计算机操作系统是32bit,时间也是用32bit来表示,
也即2^32 =4294967296(考虑符号位并去掉0,最大值为4294967296/2-1 = 2147483647),这是整数的最大值。
1年总的秒数为365*24*3600 = 31536000
2147483647/31536000 = 6...
原创
2022-02-11 08:47:50 ·
829 阅读 ·
0 评论