计算机时间,为什么计算机的时间是从1970年1月1开始?

问题的来源

当我们用js输入一下代码时:

let date = new Date()

console.log(date.getTime()) //1488159428585

会发现终端打印出一个很大的整数(1488159428585),那么这个数字代表什么呢?

经过查阅,我才知道这个整数代表着如今的时间与1970年1月1日0时0分0秒的时间差(以秒为单位),也就是说从1970年1月1日0时0分0秒

到现在已经过了1488159428585毫秒了.那么问题来了,为什么要从1970年1月1日0时0分0秒开始呢?

Epoch Time (UNIX纪元)

218770280_1_20210329111114738

Epoch

Epoch Time 指一个特定的时间:1970-01-01 00:00:00 UTC。而UNIX系统认为Epoch Time便是时间纪元,也就是说在UNIX系统中,一切的时间会以1970年1月1日0时0分0秒为一个基点,然后通过经过秒数再来计算现如今的时间.

那 1970 年发生了什么,以至于 Unix 系统以它作 “纪元”。

原来 Unix 就是在那个时代产生的,1969 年发布的雏形,最早是基于硬件 60Hz 的时间计数。

1971年底出版的《Unix Programmer's Manual》里定义的 Unix Time 是以 1971年1月1日00:00:00 作为起始时间,每秒增长 60。考虑到 32 位整数的范围,如果每秒 60 个数字,则两年半就会循环一轮,于是改成以秒为计数单位。循环周期有136年之长,就不在乎起始时间是 1970 还是 1971 年,遂改成人工记忆、计算比较方便的1970年。

于是Unix 的世界开启了 “纪元”,Unix 时间戳也就成为了一个专有名称。

Unix 时间戳是一种时间表示方式,定义为从格林尼治时间 1970年01月01日 00时00分00秒 起至现在的总秒数,不考虑闰秒。

时间回归问题

问题起源

最初计算机操作系统是32位,而时间也是用32位表示.

int在java中是4字节,32位.并且第一位是符号位,所以其能表示的最大值是2147483647.(2^31-1).另外1年365天的总秒数是 31536000,2147483647/31536000 = 68.1,也就是说32位能表示的最长时间是68年,从1970年开始的话,加上68.1,实际最终到2038年01月19日03时14分07秒,便会到达最大时间,过了这个时间点,所有32位操作系统时间便会变为10000000 00000000 00000000 00000000,计算后(根据补码计算)也就是1901年12月13日20时45分52秒,这样便会出现时间回归的现象,很多软件便会运行异常了。

解决办法

至于时间回归的现象随着64为操作系统的产生逐渐得到解决,因为用64位操作系统可以表示到 292,277,026,596年12月4日15时30分08秒,相信我们的N代子孙,哪怕地球毁灭那天都不用愁不够用了,因为这个时间已经是千亿年以后了。

218770280_2_20210329111115285

time

  • 2
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值