第1章 计算机系统概论

【计算机的软硬件概念】
所谓“硬件”,是指计算机的实体部分,它由看得见摸得着的各种电子元器件,各类光、电、机设备的实物组成,如主机、外部设备等。
所谓“软件”,它看不见摸不着,由人们事先编制的具有各类特殊功能的程序组成。通常把这些程序寄寓于各类媒体(如RAM、ROM、磁带、磁盘、光盘,甚至纸带等),它们通常存放在计算机的主存或辅存内。
计算机的软件通常又可以分为两大类:系统软件和应用软件
系统软件又称为系统程序,主要用来管理整个计算机系统,监视服务,使系统资源得到合理调度,高效运行。它包括:标准程序库、语言处理程序(如将汇编语言翻译成机器语言的汇编程序或将高级语言翻译成机器语言的编译程序)、操作系统(如批处理系统、分时系统、实时系统)、服务程序(如诊断程序、调试程序、连接程序等)、数据库管理程序、网络软件等
应用软件又称为应用程序,它是用户根据任务需要所编制的各种程序,如科学计算程序、数据处理程序、过程控制程序、事务管理程序等。

【计算机系统的层次结构】
通常由用户用高级语言编写程序(称为源程序),然后将它和数据一起送入计算机内,再由计算机将其翻译成机器能识别的机器语言程序(称为目标程序),机器自动运行该机器语言程序,并将计算结果输出。
实际上,早期的计算机只有机器语言(用0/1代码表示的语言),用户必须用二进制代码(0和1)来编写程序(即机器语言程序)。这就要求程序员对他们所使用的计算机硬件及其指令系统十分熟悉,编写程序难度很大,操作过程也极容易出错。但用户编写的机器语言程序可以直接在机器上执行。
20世纪50年代开始出现了符号式的程序设计语言,即汇编语言。它用符号ADD,SUB,MUL,DIV等分别表示加、减、乘、除等操作,并用符号表示指令或数据所在存储单元的地址,使程序员可以不再使用繁杂而又易错的二进制代码编写程序。但是,实际上没有一种机器能直接识别这种汇编语言程序,必须先将汇编语言程序翻译成机器语言程序,然后才能被机器接受并自动运行。这个翻译过程是由机器系统软件中的汇编程序来完成的。如果把具有翻译功能的汇编程序的计算机看做一台机器M2,那么,可以认为M2在M1之上,用户可以利用M2的翻译功能直接向M2输入汇编语言程序,而M2又会将翻译后的机器语言程序输入给M1,M1执行后将结果输出。因此,M2并不是一台实际机器,它只是人们感到存在的一台具有翻译功能的机器,称这类机器为虚拟机。
尽管有了虚拟机M2使用户编程更为方便,但从本质上看,汇编语言仍是一种面向实际机器的语言,它的每一条语句都与机器语言的某一条语句(0、1代码)一一对应。因此,使用汇编语言编写程序时,仍要求程序员对实际机器M1的内部组成和指令系统非常熟悉,也就是说,程序员必须经过专门的训练,否则是无法操作计算机的。另一方面,由于汇编语言摆脱不了实际机器的指令系统,因此,汇编语言没有通用性,每台机器必须有一种与之相对应的汇编语言。这使得程序员要掌握不同机器的指令系统,不利于计算机的广泛应用和发展。
20世纪60年代开始先后出现了各种面向问题的高级语言,如FORTRAN、BASIC、PASCAL、C等。这类高级语言对问题的描述十分接近人们的习惯,并且还具有较强的通用性。程序员完全不必了解、掌握实际机器M1的机型、内部的具体组成及其指令系统,只要掌握这类高级语言的语法和语义,便可以直接用这种高级语言来编程,这给程序员带来了极大的方便。当然,机器M1本身是不能识别高级语言的,因此,在进入机器M1运行前,必须先将高级语言程序翻译成汇编语言程序(或其他中间语言程序),然后再将其翻译成机器语言程序;也可以将高级语言程序直接翻译成机器语言程序。这些工作都是由虚拟机M3来完成的,对程序而言,他们并不知道这个翻译过程。
通常,将高级语言程序翻译成机器语言程序的软件称为翻译程序。翻译程序有两种:一种是编译程序,另一种是解释程序。编译程序是将用户编写的高级语言程序(源程序)的全部语句一次全部翻译成机器语言程序,而后再执行机器语言程序。因此,只要源程序不变,就无须再次进行翻译。例如,FORTRAN、PASCAL等语言就是用编译程序来完成翻译的。解释程序是将源程序的一条语句翻译成对应于机器语言的一条语句,并且立即执行这条语句,接着翻译源程序的下一条语句,并执行这条语句,如此重复直至完成源程序的全部翻译任务。它的特点是翻译一次执行一次,即使下一次重复执行该语句时,也必须重新翻译。例如,BASIC语言的翻译就有解释程序和编译程序两种。
从上述介绍中不难看出,由于软件的发展使实际机器M1向上延伸构成了各级虚拟机器。同理,机器M1内部也可以向下延伸而形成下一级的微程序机器M0。机器M0是直接将机器M1中的每一条机器指令翻译成一组微指令,即构成一个微程序。机器M0每次执行完对应于一条机器指令的一个微程序后,便由机器M1中的下一条机器指令使机器M0自动进入与其相对应的另一个微程序的执行。由此可见,微程序机器M0可看做是对实际机器M1的分解,即用M0的微程序解释并执行M1的每一条机器指令。由于机器M0也是实际机器,因此,为了区别于M1,通常又将M1称为传统机器,将M0称为微程序机器。
在上述四级层次结构的系统中,实际上在实际机器M1与虚拟机器M2之间还有一级虚拟机器,它是由操作系统软件构成的。操作系统提供了在汇编语言和高级语言的使用和实现过程中所需的某些基本操作,还起到控制并管理计算机系统全部硬件和软件资源的作用,为用户使用计算机系统提供极为方便地条件。操作系统的功能是通过其控制语言来实现的。
虚拟机器M4(高级语言机器)还可以向上延伸,构成应用语言虚拟机。这一级是为使计算机满足某种用途而专门设计的,该级所用的语言是各种面向问题的应用语言,如用于人工智能和计算机设计等方面的语言。应用语言编写的程序一般由应用程序包翻译到虚拟机器M4上。
从计算机系统的多级层次结构来看,可以将硬件研究的主要对象归结为传统机器M1和微程序机器M0。软件的研究对象主要是操作系统及以上的各级虚拟机。值得指出的是,软硬件界面的划分并不是一成不变的。随着超大规模集成电路技术的不断发展,一部分软件功能将由硬件来实现,例如,目前操作系统已实现了部分固化(把软件永恒地存于只读存储器中),称为固件等。

【计算机组成和计算机体系结构】
在学习计算机组成时,应当注意如何区别计算机体系结构计算机组成这两个基本概念。
计算机体系结构是指那些能够被程序员所见到的计算机系统的属性,即概念性的结构与功能特性。计算机系统的属性通常是指用机器语言编程的程序员(也包括汇编语言程序设计者和汇编程序设计者)所看到的传统机器的属性,包括指令集、数据类型、存储器寻址技术、I/O机理等,大都属于抽象的属性。由于计算机系统具有多级层次结构,因此,站在不同层次上编程的程序员所看到的计算机属性也是各不相同的。
计算机组成是指如何实现计算机体系结构所体现的属性,它包含了许多对程序员来说是透明的硬件细节。例如,指令系统体现了机器的属性,这是属于计算机结构的问题。但指令的实现,即如何取指令、分析指令、取操作数、运算、送结果等,这些都属于计算机组成的问题。因此,当两台机器指令系统相同时,只能认为它们具有相同的结构。至于这两台机器如何实现其指令的功能,完全可以不同,则它们的组成方式是不同的。例如,一台机器是否具备乘法指令的功能,这是一个结构问题,可是,实现乘法指令采用什么方式,则是一个组成问题。实现乘法指令可以采用一个专门的乘法电路,也可以采用连续相加的加法电路来实现,这两者的区别就是计算机组成的区别。究竟应该采用哪种方式来组成计算机,要考虑到各种因素,如乘法指令使用的频度、两种方法的运行速度、两种电路的体积、价格、可靠性等。
不论是过去还是现在,区分计算机结构与计算机组成这两个概念都是十分重要的。例如,许多计算机制造商向用户提供一系列体系结构相同的计算机,而它们的组成却有相当大的差别,即使是同一系列不同型号的机器,其价格和性能也是有极大差异的。因此,只知其结构,不知其组成,就选不好性能价格比较合适的机器。此外,一种机器的体系结构可能维持许多年,但机器的组成却会随着计算机技术的发展而不断变化。

【计算机的基本组成】
冯·诺依曼计算机的特点
1945年,数学家冯·诺依曼在研究EDVAC机时提出了“存储程序”的概念。以此概念为基础的各类计算机通称为冯·诺依曼机,它的特点可归结如下:
计算机由运算器、存储器、控制器、输入设备和输出设备五大部件组成。
指令和数据以同等地位存放于存储器内,并可按地址寻访。
指令和数据均用二进制数表示。
指令由操作码地址码组成,操作码用来表示操作的性质,地址码用来表示操作数在存储器中的位置。
指令在存储器内按顺序存放。通常,指令是顺序执行的,在特定条件下,可根据运算结果或根据设定的条件改变执行顺序。
机器以运算器为中心,输入输出设备与存储器间的数据传送运算器完成。

【计算机的硬件框图】
典型的冯·诺依曼计算机是以运算器为中心的。
现代的计算机已转化为以存储器为中心。
运算器用来完成算术运算和逻辑运算,并将运算的中间结果暂存在运算器内。
存储器用来存放数据和程序。
控制器用来控制、指挥程序和数据的输入、运行以及处理运算结果。
输入设备用来将人们熟悉的信息形式转换为机器能识别的信息形式,常见的有键盘、鼠标等。
输出设备可将机器运算结果转换为人们熟悉的信息形式,如打印机输出、显示器输出等。
计算机的五大部件(又称五大子系统)在控制器的统一指挥下,有条不紊地自动工作。
由于运算器和控制器在逻辑关系和电路结构上联系十分紧密,尤其在大规模集成电路制作工艺出现后,这两大部件往往集成在同一芯片上,因此,通常将它们合起来统称为中央处理器(CPU)。把输入设备和输出设备简称为I/O设备
这样,现代计算机可认为由三大部分组成:CPU、I/O设备及主存储器。CPU和主存储器合起来又可称为主机,I/O设备又可称为外部设备。
主存储器是存储器子系统中的一类,用来存放程序和数据,可以直接与CPU交换信息。另一类称为辅助存储器,简称辅存,又称为外存。
算术逻辑单元(ALU)简称算逻部件,用来完成算术逻辑运算。控制单元(CU)用来解释存储器中的指令,并发出各种操作命令来执行指令。ALU和CU是CPU的核心部件。

【计算机的工作步骤】
1.上机前的准备
(1)建立数学模型
有许多科技问题很难直接用物理模型来模拟被研究对象的变化规律,如地球大气环流、原子反应堆的核裂变过程、航天飞行速度对飞行器的影响等。不过,通过大量的实验和分析,总能找到一系列反映研究对象变化规律的数学方程组。通常,将这类方程组称为被研究对象变化规律的数学模型。一旦建立了数学模型,研究对象的变化规律就变成了解一系列方程组的数学问题,这便可通过计算机来求解。因此,建立数学模型是用来计算机解题的第一步。
(2)确定计算方法
由于数学模型中的数学方程式往往是很复杂的,欲将其变成适合计算机运算的加、减、乘、除四则运算,还必须确定对应的计算方法。
(3)编制解题程序
程序是适合于机器运算的全部步骤,编制解题程序就是将运算步骤用一一对应的机器指令描述。

设某机的指令字长为16位,其中操作码占6位,地址码占10位。
操作码表示机器所执行的各种操作,如取数、存数、加、减、乘、除、停机、打印等。地址码表示参加运算的数在存储器内的位置。机器指令的操作码和地址码都采用0、1代码的组合来表示。下表列出了某机与上例有关的各条机器指令的操作码及其操作性质的对应关系。

操作码操作性质具体内容
000001取数将指令地址码指示的存储单元中的操作数取到运算器的累加器ACC中
000010存数将ACC中的数存至指令地址码指示的存储单元中
000011将ACC中的数与指令地址码指示的存储单元中的数相加,结果存于ACC中
000100将ACC中的数与指令地址码指示的存储单元中的数相乘,结果存于ACC中
000101打印将指令地址码指示的存储单元中的操作数打印输出
000110停机

2.计算机的工作过程
(1)主存储器
主存储器(简称主存或内存)包括存储体M、各种逻辑部件及控制电路等。存储体由许多存储单元组成,每个存储单元又包含若干个存储元件(或称存储基元、存储元),每个存储元件能寄存一个二进制代码0或1。可见,一个存储单元可存储一串二进制代码,称这串二进制代码为一个存储字,这串二进制代码的位数称为存储字长。存储字长可以是8位、16位、32位等。一个存储字可代表一个二进制数,也可代表一串字符,如存储字为0011011001111101,既可表示为由十六进制字符组成的367DH,又可代表16位的二进制数,此值对应十进制数为13949,还可以表示两个ASCLL码:6和}。一个存储字还可以代表一条指令。
如果把一个存储体看做一幢大楼,那么每个存储单元可看做大楼中的每个房间,每个存储元可看做每个房间的一张床位,床位有人相当于1,无人相当于0。床位数相当于存储字长。显然,每个房间都需要一个房间编号,同样可以赋予每个存储单元一个编号,称为存储单元的地址号。
主存的工作方式就是按存储单元的地址号来实现对存储字各位的存(写入)、取(读出)。这种存取方式称为按地址存取方式,即按地址访问存储器(简称访存)。存储器的这种工作性质对计算机的组成和操作是十分有利的。例如,人们只要事先将编好的程序按顺序存入主存各单元,当运行程序时,先给出该程序在主存的首地址,然后采用程序计数器加1的方法,自动形成下一条指令所在存储单元的地址,机器便可自动完成整个程序的操作。又如,由于数据和指令都存放在存储体内各自所占用的不同单元中,因此,当需要反复使用某个数据或某条指令时,只要指出其相应的单元地址号即可,而不必占用更多的存储单元重复存放同一数据或同一条指令,大大提高了存储空间的利用率。此外,由于指令和数据都由存储单元地址号来反映,因此,取一条指令和取一个数据的操作完全可视为是相同的,这样就可使用一套控制线路来完成两种截然不同的操作。
为了能实现按地址访问的方式,主存中还必须配置两个寄存器MAR和MDR。MAR是存储器地址寄存器,用来存放欲访问的存储单元的地址,其位数对应存储单元的个数。MDR是存储器数据寄存器,用来存放从存储体某单元取出的代码或者准备往某存储单元存入的代码,其位数与存储字长相等。当然,要想完整地完成一个存或取操作,CPU还得给主存加以各种控制信号,如读命令、写命令和地址译码驱动信号等。随着硬件技术的发展,主存都制成大规模集成电路芯片,而将MAR和MDR集成在CPU芯片中。
早期计算机的存储字长一般和机器的指令字长和数据字长相等,故访问一次主存便可取一条指令或一个数据。随着计算机应用范围的不断扩大,解题精度的不断提高,往往要求指令字长是可变的,数据字长也要求可变。为了适应指令和数据字长的可变性,其长度不由存储字长来决定,而由字节的个数来表示。1个字节被定义为由8位二进制代码组成。例如,4字节数据就是32位二进制代码;2字节构成的指令字长是16位二进制代码。当然,此时存储字长、指令字长、数据字长三者可各不相同,但它们必须是字节的整数倍。

(2)运算器
运算器最少包括3个寄存器(现代计算机内部往往设有通用寄存器组)和一个算术逻辑单元(ALU)。其中,ACC为累加器,MQ为乘商寄存器,X为操作数寄存器。这3个寄存器在完成不同运算时,所存放的操作数类别也各不相同。
不同机器的运算器结构是不同的。运算器可将运算结果从ACC送至存储器的MDR;而存储器的操作数也可从MDR送至运算器中的ACC、MQ或X。有的机器用MDR取代X寄存器。

(3)控制器
控制器是计算机的神级中枢,由它指挥各部件自动、协调地工作。具体而言,它首先要命令存储器读出一条指令,称为取指过程(也称为取指阶段)。接着,它要对这条指令进行分析,指出该指令要完成什么样的操作,并按寻址特征指明操作数的地址,称为分析过程(也称分析阶段)。最后根据操作数所在的地址以及指令的操作码完成某种操作,称为执行过程(也称执行阶段)。以上就是通常所说的完成一条指令操作的取指、分析和执行3个阶段。
控制器由程序计数器(PC)、指令寄存器(IR)以及控制单元(CU)组成。PC用来存放当前欲执行指令的地址,它与主存的MAR之间有一条直接通路且具有自动加1的功能,即可自动形成下一条指令的地址。IR用来存放当前的指令,IR的内容来自主存的MDR。IR中的操作码(OP(IR))送至CU,记作OP(IR)→CU,用来分析指令;其地址码Ad(IR)作为操作数的地址送至存储器的MAR,记作Ad(IR)→MAR。CU用来分析当前指令所需完成的操作,并发出各种微操作命令序列,用以控制所有被控对象。

(4)I/O
I/O子系统包括各种I/O设备及其相应的接口。每一种I/O设备都由I/O接口与主机联系,它接收CU发出的各种控制命令,并完成相应的操作。例如,键盘由键盘接口电路与主机联系;打印机由打印机接口电路与主机联系。

结合下例深入领会计算机工作的全过程

指令和数据存于主存单元的地址指令操作码指令地址码注释
0000001(取数)0000001000取数x至ACC
1000100(乘)00000001001乘a得ax,存于ACC中

启动机器后,控制器立即将PC的内容送至主存MAR(PC→MAR),并命令存储器做读操作,此刻主存0号单元的内容0000010000001000便被送入MDR内。然后由MDR送至控制器的IR(MDR→IR),完成了一条指令的取过程。经CU分析(OP(IR)→CU),操作码000001为取数指令,于是CU又将IR中的地址码0000001000送至MAR(Ad(IR)→MAR),并命令存储器做读操作,将该地址单元中的操作数x送至MDR,再由MDR送至运算器ACC(MDR→ACC),完成此指令的执行过程。此刻,也即完成了第一条取数指令的全过程,即将操作数x送至运算器ACC中。与此同时,PC完成自动加1的操作,形成下一条指令的地址1号。同上所述,由PC将第二条指令的地址送至MAR,命令存储器做读操作,将0001000000001001送入MDR,又由MDR送至IR。接着CU分析操作码000100为乘法指令,故CU向存储器发出读命令,取出对应地址为0000001001单元的操作数a,经MDR送至运算器MQ,CU再向运算器发送乘法操作命令,完成ax的运算,并把运算结果存放在ACC中。依次类推,逐条取指、分析、执行,直至打印出结果。最后执行完停机指令后,机器便自动停机。

【计算机硬件的主要技术指标】
衡量一台计算机性能的优劣是根据多项技术指标综合确定的。其中,既包含硬件的各种性能指标,又包括软件的各种功能。这里主要讨论硬件的技术指标。

机器字长
机器字长是指CPU一次能处理数据的位数,通常与CPU的寄存器位数有关。字长越长,数的表示范围越大,精度也越高。机器的字长也会影响机器的运算速度。倘若CPU字长较短,又要运算位数较多的数据,那么需要经过两次或多次的运算才能完成,这样势必影响机器的运算速度。
机器字长对硬件的造价也有较大的影响。它将直接影响加法器(或ALU)、数据总线以及存储字长的位数。所以机器字长的确定不能单从精度和数的表示范围来考虑。

存储容量
存储器的容量应该包括主存容量和辅存容量
主存容量是指主存中存放二进制代码的总位数。即
存储容量=存储单元个数×存储字长
MAR的位数反映了存储单元的个数,MDR的位数反映了存储字长。现代计算机中常以字节数来描述容量的大小,因一个字节已被定义为8位二进制代码,故用字节数便能反映主存容量。

运算速度
计算机的运算速度与许多因素有关,如机器的主频、执行什么样的操作、主存本身的速度(主存速度快,取指、取数就快)等都有关。早期用完成一次加法或乘法所需的时间来衡量运算速度,即普通法,显然是很不合理的。后来采用吉普森法,它综合考虑每条指令的执行时间以及它们在全部操作中所占的百分比。
现在机器的运算速度普遍采用单位时间内执行指令的平均条数来衡量,并用MIPS(百万条指令每秒)作为计量单位。也可以用CPI,即每执行一条指令所需的时钟周期(机器主频的倒数)数,或用FLOPS(浮点运算次数每秒)来衡量运算速度。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值