计算机性能可以理解为搬东西:
1.响应时间(执行时间),时间的倒数,理解为跑的更快
程序执行的时间
2.吞吐率(带宽),理解为搬得更多
在一定时间范围内,能处理的事情(处理数据和执行指令)
计算机的计时单位是 CPU时钟:
- 平常所说的执行实现用在衡量计算机响应时间的时候并不准确,在执行同一段代码的时候,响应时间不同,存在差异。原因是,这种计时是用程序执行的结束时间-开始时间(Wall Clock Time),在执行程序的这段时间内,CPU 其实会在不同的程序之间切换,执行不同的程序,真正的程序执行时间应该把切换时间和其他程序的执行时间减去。
- 想要准确的计算程序运行的时间,在 linux 下可以使用 time 命令,time 命令会返回三个参数:real 即 wall clock time ; user 即 该程序在用户态下执行的时间;sys 即 该程序在核心态下执行的时间。程序运行的真正时间是 user + sys
- 如果在 time 命令执行之后,如果 user + sys >= real,是正常的,如果 time 执行的程序是两个单线程的程序,则需要考虑使用的机器是不是多 CPU 或者 多核 CPU 中运行,如果是,两个单线程会被分配给两个 CPU 执行,user + sys 是两个 CPU 执行时间加起来,但是 real 是执行程序流逝的时间,所以会出现 user + sys >= real 的情况。
- 程序的响应时间受多方面影响:程序本身、CPU、主板等
程序的 CPU 执行时间 = 时钟周期数 * CPU 时钟周期时间
什么是时钟周期时间(clock cycle time):
例如现在有一个 CPU 型号是 Intel Core-i7-7700HQ 2.8GHz,这里的 2.8GHZ 是 CPU 的主频,粗浅的理解为这个 CPU 在一秒的时间内可以执行2.8G 条指令,类比于我们生活中的表,最小的计时单位为 秒,在 CPU 中有一个晶体振动器,简称晶振,晶振的一次震动类似于钟表中的一个滴答,即 CPU 的时钟周期时间,这个 CPU 中的时钟周期时间为 1/2.8G,主频越大,时钟周期时间越小,执行的就越快。
时钟周期数的拆分:
时钟周期数 = 指令数 * 每条指令需要花费的平均时钟周期数(cycle pre instruction 即 CPI)
(执行时间 = 指令数 * 每条指令需要花费的平均时钟周期数 * CPU 的时钟周期时间)
因此如果需要减少程序的响应时间:
- 减小 CPU 时钟周期时间,即,提升主频
- 减少 CPI
- 减少指令数,指令数是各种高级语言翻译成机器语言之后执行的各种指令,可以通过优化高级语言代码来实现。
下节接 提升性能