来源 IT168

1.服务器类型

    服务器(SERVER)发展到今天,适应各种不同功能、不同环境的服务器不断地出现,分类标准也多种多样。 
1.按应用层次划分为入门级服务器、工作组级服务器、部门级服务器和企业级服务器四类。

    (1)入门级服务器
    (2)工作组级服务器
    (3)部门级服务器
    (4)企业级服务器
  2.按服务器的处理器架构(也就是服务器CPU所采用的指令系统)划分把服务器分为CISC架构服务器、RISC架构服务器和VLIW架构服务器三种。

    (1)CISC架构服务器
    (2)RISC架构服务器
    (3)VLIW架构服务器
  3.按服务器按用途划分为通用型服务器和专用型服务器两类。
    (1)通用型服务器
    (2)专用型服务器
4.按服务器的机箱结构来划分,可以把服务器划分为“台式服务器”、“机架式服务器”、“机柜式服务器”和“刀片式服务器”四类。

    (1)台式服务器
    (2)机架式服务器
    (3)机柜式服务器
    (4)刀片式服务器


2.服务器CPU

服务器CPU,顾名思义,就是在服务器上使用的CPU(Center Process Unit中央处理器)。我们知道,服务器是网络中的重要设备,要接受少至几十人、多至成千上万人的访问,因此对服务器具有大数据量的快速吞吐、超强的稳定性、长时间运行等严格要求。所以说CPU是计算机的“大脑”,是衡量服务器性能的首要指标。

    目前,服务器的CPU仍按CPU的指令系统来区分,通常分为CISC型CPU和RISC型CPU两类,后来又出现了一种64位的VLIM(Very Long Instruction Word超长指令集架构)指令系统的CPU。
一、CISC型CPU

CISC是英文“Complex Instruction Set Computer”的缩写,中文意思是“复杂指令集”,它是指英特尔生产的x86(intel CPU的一种命名规范)系列CPU及其兼容CPU(其他厂商如AMD,VIA等生产的CPU),它基于PC机(个人电脑)体系结构。这种CPU一般都是32位的结构,所以我们也把它成为IA-32 CPU。(IA: Intel Architecture,Intel架构)。CISC型CPU目前主要有intel的服务器CPU和AMD的服务器CPU两类。
    (1)intel的服务器CPU
    (2)AMD的服务器CPU

    二、RISC型CPU

RISC是英文“Reduced Instruction Set Computing ” 的缩写,中文意思是“精简指令集”。它是在CISC(Complex Instruction Set Computer)指令系统基础上发展起来的,有人对CISC机进行测试表明,各种指令的使用频度相当悬殊,最常使用的是一些比较简单的指令,它们仅占指令总数的20%,但在程序中出现的频度却占80%。复杂的指令系统必然增加微处理器的复杂性,使处理器的研制时间长,成本高。并且复杂指令需要复杂的操作,必然会降低计算机的速度。基于上述原因,20世纪80年代RISC型CPU诞生了,相对于CISC型CPU ,RISC型CPU不仅精简了指令系统,还采用了一种叫做“超标量和超流水线结构”,大大增加了并行处理能力(并行处理并行处理是指一台服务器有多个CPU同时处理。并行处理能够大大提升服务器的数据处理能力。部门级、企业级的服务器应支持CPU并行处理技术)。也就是说,架构在同等频率下,采用RISC架构的CPU比CISC架构的CPU性能高很多,这是由CPU的技术特征决定的。目前在中高档服务器中普遍采用这一指令系统的CPU,特别是高档服务器全都采用RISC指令系统的CPU。RISC指令系统更加适合高档服务器的操作系统UNIX,现在Linux也属于类似UNIX的操作系统。RISC型CPU与Intel和AMD的CPU在软件和硬件上都不兼容。
    目前,在中高档服务器中采用RISC指令的CPU主要有以下几类:
    (1)PowerPC处理器
    (2)SPARC处理器
    (3)PA-RISC处理器
    (4)MIPS处理器
    (5)Alpha处理器

    从当前的服务器发展状况看,以“小、巧、稳”为特点的IA架构(CISC架构)的PC服务器凭借可靠的性能、低廉的价格,得到了更为广泛的应用。在互联网和局域网领域,用于文件服务、打印服务、通讯服务、Web服务、电子邮件服务、数据库服务、应用服务等用途。
    最后值得注意的一点,虽然CPU是决定服务器性能最重要的因素之一,但是如果没有其他配件的支持和配合,CPU也不能发挥出它应有的性能。


3.处理器主频

  主频,就是CPU的时钟频率,简单说是CPU运算时的工作频率(1秒内发生的同步脉冲数)的简称。单位是Hz。它决定计算机的运行速度,随着计算机的发展,主频由过去MHZ发展到了现在的GHZ(1G=1024M)。通常来讲,在同系列微处理器,主频越高就代表计算机的速度也越快,但对与不同类型的处理器,它就只能作为一个参数来作参考。另外CPU的运算速度还要看CPU的流水线的各方面的性能指标。由于主频并不直接代表运算速度,所以在一定情况下,很可能会出现主频较高的CPU实际运算速度较低的现象。因此主频仅仅是CPU性能表现的一个方面,而不代表CPU的整体性能。
    说到处理器主频,就要提到与之密切相关的两个概念:倍频与外频,外频是CPU的基准频率,单位也是MHz。外频是CPU与主板之间同步运行的速度,而且目前的绝大部分电脑系统中外频也是内存与主板之间的同步运行的速度,在这种方式下,可以理解为CPU的外频直接与内存相连通,实现两者间的同步运行状态;倍频即主频与外频之比的倍数。主频、外频、倍频,其关系式:主频=外频×倍频。早期的CPU并没有“倍频”这个概念,那时主频和系统总线的速度是一样的。随着技术的发展,CPU速度越来越快,内存、硬盘等配件逐渐跟不上CPU的速度了,而倍频的出现解决了这个问题,它可使内存等部件仍然工作在相对较低的系统总线频率下,而CPU的主频可以通过倍频来无限提升(理论上)。我们可以把外频看作是机器内的一条生产线,而倍频则是生产线的条数,一台机器生产速度的快慢(主频)自然就是生产线的速度(外频)乘以生产线的条数(倍频)了。现在的厂商基本上都已经把倍频锁死,要超频只有从外频下手,通过倍频与外频的搭配来对主板的跳线或在BIOS中设置软超频,从而达到计算机总体性能的部分提升。所以在购买的时候要尽量注意CPU的外频。

4.CPU核心

    核心(Die)又称为内核,是CPU最重要的组成部分。CPU中心那块隆起的芯片就是核心,是由单晶硅以一定的生产工艺制造出来的,CPU所有的计算、接受/存储命令、处理数据都由核心执行。各种CPU核心都具有固定的逻辑结构,一级缓存、二级缓存、执行单元、指令级单元和总线接口等逻辑单元都会有科学的布局。

    为了便于CPU设计、生产、销售的管理,CPU制造商会对各种CPU核心给出相应的代号,这也就是所谓的CPU核心类型。


5.标配处理器数量

标配处理器数量是指服务器在出厂时随机有多少个处理器(CPU),一般来讲,现在服务器出厂时都至少会带一颗CPU,有的会有2颗,4颗或甚至更多。当然,标准配置CPU数量越多,价格肯定也就会越高。

入门级服务器通常只使用一到两颗CPU,主要是针对基于Windows NT,NetWare等网络操作系统的用户,可以满足办公室型的中小型网络用户的文件共享、打印服务、数据处理、Internet接入及简单数据库应用的需求,也可以在小范围内完成诸如E-mail、 Proxy 、DNS等服务。
工作组级服务器一般支持1至2个Xeon处理器或单颗P4(奔腾4)处理器,可支持大容量的ECC(一种内存技术,多用于服务器内存)内存,功能全面。可管理性强、且易于维护,适用于为中小企业提供Web、Mail等服务,也能够用于学校等教育部门的数字校园网、多媒体教室的建设等。通常情况下,如果应用不复杂,例如没有大型的数据库需要管理,那么采用工作组级服务器就可以满足要求。
部门级服务器通常可以支持2至4个PIII Xeon(至强)处理器,具有较高的可靠性、可用性、可扩展性和可管理性。部门级服务器是企业网络中分散的各基层数据采集单位与最高层数据中心保持顺利连通的必要环节。适合中型企业(如金融、邮电等行业)作为数据中心、Web站点等应用。
企业级服务器属于高档服务器,通常普遍可支持4至8个PIII Xeon(至强)或P4 Xeon(至强)处理器,拥有独立的双PCI通道和内存扩展板设计,具有高内存带宽,大容量热插拔硬盘和热插拔电源,具有超强的数据处理能力。企业级服务器主要适用于需要处理大量数据、高处理速度和对可靠性要求极高的大型企业和重要行业(如金融、证券、交通、邮电、通信等行业),可用于提供ERP(企业资源配置)、电子商务、OA(办公自动化)等服务。


6.最大处理器数量

最大处理器数量是指服务器的主板最多能支持多少个处理器(CPU)。
我们知道,对于一台普通PC(个人电脑)来讲,它的主板有多少个CPU插座,那么这台PC最大就能支持多少个CPU。但对于服务器来说就不完全是这种情况,现在的中高端服务器的主板一般都可以安插CPU扩展板,这样的服务器最大支持CPU数量就取决于扩展板和主板的双方面因素。总之,扩展性能越强,服务器的总拥有成本就越高。

7.处理器缓存

缓存(Cache)大小是CPU的重要指标之一,其结构与大小对CPU速度的影响非常大。简单地讲,缓存就是用来存储一些常用或即将用到的数据或指令,当需要这些数据或指令的时候直接从缓存中读取,这样比到内存甚至硬盘中读取要快得多,能够大幅度提升CPU的处理速度。

    所谓处理器缓存,通常指的是二级高速缓存,或外部高速缓存。即高速缓冲存储器,是位于CPU和主存储器DRAM(Dynamic RAM)之间的规模较小的但速度很高的存储器,通常由SRAM(静态随机存储器)组成。用来存放那些被CPU频繁使用的数据,以便使CPU不必依赖于速度较慢的DRAM(动态随机存储器)。L2高速缓存一直都属于速度极快而价格也相当昂贵的一类内存,称为SRAM(静态RAM),SRAM(Static RAM)是静态存储器的英文缩写。由于SRAM采用了与制作CPU相同的半导体工艺,因此与动态存储器DRAM比较,SRAM的存取速度快,但体积较大,价格很高。
    处理器缓存的基本思想是用少量的SRAM作为CPU与DRAM存储系统之间的缓冲区,即Cache系统。80486以及更高档微处理器的一个显著特点是处理器芯片内集成了SRAM作为Cache,由于这些Cache装在芯片内,因此称为片内Cache。486芯片内Cache的容量通常为8K。高档芯片如Pentium为16KB,Power PC可达32KB。Pentium微处理器进一步改进片内Cache,采用数据和双通道Cache技术,相对而言,片内Cache的容量不大,但是非常灵活、方便,极大地提高了微处理器的性能。片内Cache也称为一级Cache。由于486,586等高档处理器的时钟频率很高,一旦出现一级Cache未命中的情况,性能将明显恶化。在这种情况下采用的办法是在处理器芯片之外再加Cache,称为二级Cache。二级Cache实际上是CPU和主存之间的真正缓冲。由于系统板上的响应时间远低于CPU的速度,如果没有二级Cache就不可能达到486,586等高档处理器的理想速度。二级Cache的容量通常应比一级Cache大一个数量级以上。在系统设置中,常要求用户确定二级Cache是否安装及尺寸大小等。二级Cache的大小一般为128KB、256KB或512KB。在486以上档次的微机中,普遍采用256KB或512KB同步Cache。所谓同步是指Cache和CPU采用了相同的时钟周期,以相同的速度同步工作。相对于异步Cache,性能可提高30%以上。

132763.jpg

intel处理器缓存一览

    目前,PC及其服务器系统的发展趋势之一是CPU主频越做越高,系统架构越做越先进,而主存DRAM的结构和存取时间改进较慢。因此,缓存(Cache)技术愈显重要,在PC系统中Cache越做越大。广大用户已把Cache做为评价和选购PC系统的一个重要指标。


8.处理器外频

    外频是CPU乃至整个计算机系统的基准频率,单位是MHz(兆赫兹)。在早期的电脑中,内存与主板之间的同步运行的速度等于外频,在这种方式下,可以理解为CPU外频直接与内存相连通,实现两者间的同步运行状态。对于目前的计算机系统来说,两者完全可以不相同,但是外频的意义仍然存在,计算机系统中大多数的频率都是在外频的基础上,乘以一定的倍数来实现,这个倍数可以是大于1的,也可以是小于1的。

    说到处理器外频,就要提到与之密切相关的两个概念:倍频与主频,主频就是CPU的时钟频率;倍频即主频与外频之比的倍数。主频、外频、倍频,其关系式:主频=外频×倍频。

    在486之前,CPU的主频还处于一个较低的阶段,CPU的主频一般都等于外频。而在486出现以后,由于CPU工作频率不断提高,而PC机的一些其他设备(如插卡、硬盘等)却受到工艺的限制,不能承受更高的频率,因此限制了CPU频率的进一步提高。因此出现了倍频技术,该技术能够使CPU内部工作频率变为外部频率的倍数,从而通过提升倍频而达到提升主频的目的。倍频技术就是使外部设备可以工作在一个较低外频上,而CPU主频是外频的倍数。

    在Pentium时代,CPU的外频一般是60/66MHz,从Pentium Ⅱ 350开始,CPU外频提高到100MHz,目前CPU外频已经达到了200MHz。由于正常情况下外频和内存总线频率相同,所以当CPU外频提高后,与内存之间的交换速度也相应得到了提高,对提高电脑整体运行速度影响较大。

    外频与前端总线(FSB)频率很容易被混为一谈。前端总线的速度指的是CPU和北桥芯片间总线的速度,更实质性的表示了CPU和外界数据传输的速度。而外频的概念是建立在数字脉冲信号震荡速度基础之上的,也就是说,100MHz外频特指数字脉冲信号在每秒钟震荡一万万次,它更多的影响了PCI及其他总线的频率。之所以前端总线与外频这两个概念容易混淆,主要的原因是在以前的很长一段时间里(主要是在Pentium 4出现之前和刚出现Pentium 4时),前端总线频率与外频是相同的,因此往往直接称前端总线为外频,最终造成这样的误会。随着计算机技术的发展,人们发现前端总线频率需要高于外频,因此采用了QDR(Quad Date Rate)技术,或者其他类似的技术实现这个目的。这些技术的原理类似于AGP的2X或者4X,它们使得前端总线的频率成为外频的2倍、4倍甚至更高,从此之后前端总线和外频的区别才开始被人们重视起来。


9.服务器内存

   服务器内存也是内存(RAM),它与普通PC(个人电脑)机内存在外观和结构上没有什么明显实质性的区别,主要是在内存上引入了一些新的特有的技术,如ECC、ChipKill、热插拔技术等,具有极高的稳定性和纠错性能。
服务器内存主要技术:

(1)ECC
    在普通的内存上,常常使用一种技术,即Parity,同位检查码(Parity check codes)被广泛地使用在侦错码(error detectioncodes)上,它们增加一个检查位给每个资料的字元(或字节),并且能够侦测到一个字符中所有奇(偶)同位的错误,但Parity有一个缺点,当计算机查到某个Byte有错误时,并不能确定错误在哪一个位,也就无法修正错误。基于上述情况,产生了一种新的内存纠错技术,那就是ECC,ECC本身并不是一种内存型号,也不是一种内存专用技术,它是一种广泛应用于各种领域的计算机指令中,是一种指令纠错技术。ECC的英文全称是“ Error Checking and Correcting”,对应的中文名称就叫做“错误检查和纠正”,从这个名称我们就可以看出它的主要功能就是“发现并纠正错误”,它比奇偶校正技术更先进的方面主要在于它不仅能发现错误,而且能纠正这些错误,这些错误纠正之后计算机才能正确执行下面的任务,确保服务器的正常运行。之所以说它并不是一种内存型号,那是因为并不是一种影响内存结构和存储速度的技术,它可以应用到不同的内存类型之中,就象前讲到的“奇偶校正”内存,它也不是一种内存,最开始应用这种技术的是EDO内存,现在的SD也有应用,而ECC内存主要是从SD内存开始得到广泛应用,而新的DDR、RDRAM也有相应的应用,目前主流的ECC内存其实是一种SD内存。
(2)Chipkill
    Chipkill技术是IBM公司为了解决目前服务器内存中ECC技术的不足而开发的,是一种新的ECC内存保护标准。我们知道ECC内存只能同时检测和纠正单一比特错误,但如果同时检测出两个以上比特的数据有错误,则一般无能为力。目前ECC技术之所以在服务器内存中广泛采用,一则是因为在这以前其它新的内存技术还不成熟,再则在目前的服务器中系统速度还是很高,在这种频率上一般来说同时出现多比特错误的现象很少发生,正因为这样才使得ECC技术得到了充分地认可和应用,使得ECC内存技术成为几乎所有服务器上的内存标准。
    但随着基于Intel处理器架构的服务器的CPU性能在以几何级的倍数提高,而硬盘驱动器的性能同期只提高了少数的倍数,因此为了获得足够的性能,服务器需要大量的内存来临时保存CPU上需要读取的数据,这样大的数据访问量就导致单一内存芯片上每次访问时通常要提供4(32位)或8(64位)比特以上的数据,一次性读取这么多数据,出现多位数据错误的可能性会大大地提高,而ECC又不能纠正双比特以上的错误,这样就很可能造成全部比特数据的丢失,系统就很快崩溃了。IBM的Chipkill技术是利用内存的子结构方法来解决这一难题。内存子系统的设计原理是这样的,单一芯片,无论数据宽度是多少,只对于一个给定的ECC识别码,它的影响最多为一比特。举个例子来说明的就是,如果使用4比特宽的DRAM,4比特中的每一位的奇偶性将分别组成不同的ECC识别码,这个ECC识别码是用单独一个数据位来保存的,也就是说保存在不同的内存空间地址。因此,即使整个内存芯片出了故障,每个ECC识别码也将最多出现一比特坏数据,而这种情况完全可以通过ECC逻辑修复,从而保证内存子系统的容错性,保证了服务器在出现故障时,有强大的自我恢复能力。采用这种内存技术的内存可以同时检查并修复4个错误数据位,服务器的可靠性和稳定得到了更加充分的保障。
(3)Register
    Register即寄存器或目录寄存器,在内存上的作用我们可以把它理解成书的目录,有了它,当内存接到读写指令时,会先检索此目录,然后再进行读写操作,这将大大提高服务器内存工作效率。带有Register的内存一定带Buffer(缓冲),并且目前能见到的Register内存也都具有ECC功能,其主要应用在中高端服务器及图形工作站上,如IBM Netfinity 5000。

    (4)FB-DIMM

    FB-DIMM(Fully Buffered-DIMM,全缓冲内存模组)是Intel在DDR2、DDR3的基础上发展出来的一种新型内存模组与互联架构,既可以搭配现在的DDR2内存芯片,也可以搭配未来的DDR3内存芯片。FB-DIMM可以极大地提升系统内存带宽并且极大地增加内存最大容量。

    FB-DIMM技术是Intel为了解决内存性能对系统整体性能的制约而发展出来的,在现有技术基础上实现了跨越式的性能提升,同时成本也相对低廉。在整个计算机系统中,内存可谓是决定整机性能的关键因素,光有快的CPU,没有好的内存系统与之配合,CPU性能再优秀也无从发挥。这种情况是由计算机原理所决定的,CPU在运算时所需要的数据都是从内存中获取,如果内存系统无法及时给CPU供应数据,CPU不得不长时间处在一种等待状态,硬件资源闲置,性能自然无从发挥。对于普通的个人电脑来说,由于是单处理器系统,目前的内存带宽已经能满足其性能需求;而对于多路的服务器来说,由于是多处理器系统,其对内存带宽和内存容量是极度渴求的,传统的内存技术已经无法满足其需求了。这是因为目前的普通DIMM采用的是一种“短线连接”(Stub-bus)的拓扑结构,这种结构中,每个芯片与内存控制器的数据总线都有一个短小的线路相连,这样会造成电阻抗的不继续性,从而影响信号的稳定与完整,频率越高或芯片数据越多,影响也就越大。虽然Rambus公司所推出的的XDR内存等新型内存技术具有极高的性能,但是却存在着成本太高的问题,从而使其得不到普及。而FB-DIMM技术的出现就较好的解决了这个问题,既能提供更大的内存容量和较理想的内存带宽,也能保持相对低廉的成本。FB-DIMM与XDR相比较,虽然性能不及全新架构的XDR,但成本却比XDR要低廉得多。

    与现有的普通DDR2内存相比,FB-DIMM技术具有极大的优势:在内存频率相同的情况下目前能提供四倍于普通内存的带宽,并且能支持的最大内存容量也达到了普通内存的24倍,系统最大能支持192GB内存。FB-DIMM最大的特点就是采用已有的DDR2内存芯片(以后还将采用DDR3内存芯片),但它借助内存PCB上的一个缓冲芯片AMB(Advanced Memory Buffer,高级内存缓冲)将并行数据转换为串行数据流,并经由类似PCI Express的点对点高速串行总线将数据传输给处理器。

    与普通的DIMM模块技术相比,FB-DIMM与内存控制器之间的数据与命令传输不再是传统设计的并行线路,而采用了类似于PCI-Express的串行接口多路并联的设计,以串行的方式进行数据传输。在这种新型架构中,每个DIMM上的缓冲区是互相串联的,之间是点对点的连接方式,数据会在经过第一个缓冲区后传向下一个缓冲区,这样,第一个缓冲区和内存控制器之间的连接阻抗就能始终保持稳定,从而有助于容量与频率的提升。
    服务器内存典型类型

    目前服务器常用的内存有SDRAMDDR,DDR2三种内存。
  (1)SDRAM

    (2)DDR SDRAM

(3)DDR2 SDRAM

    以下是SDRAM和DDR SDRAM的对比图表:

138175.jpg

    由于服务器内存在各种技术上相对兼容机来说要严格得多,它强调的不仅是内存的速度,而是它的内在纠错技术能力和稳定性。所以在外频上目前来说只能是紧跟兼容机或普通台式内存之后。目前台式机的外频一般来说已到了150MHz以上的时代,但133外频仍是主流。而服务器由于受到整个配件外频和高稳定性的要求制约,主流外频还是100MHz,但133MHz外频已逐步在各档次服务器中推行,在选购服务器时当然最好选择133MHz外频的了!内存、其它配件也一样,要尽量同步进行,否则就会影响整个服务器的性能。目前主要的服务器内存品牌主要有Kingmax、kinghorse、现代、三星、kingstone、IBM、VIKING、NEC等,但主要以前面几种在市面上较为常见,而且质量也能得到较好的保障。

10.标准内存容量

    标准内存容量是指服务器在出厂时随机带了多大容量的内存,这取决于厂商的出厂配置。一般来讲,服务器出厂时都配备了一定容量的内存,如512M、1GB、2GB等,通常低端的入门级服务器标配内存容量要少些,这取决于工作的需要和厂商的策略。现在的绝大多数服务器的主板,都还有空余的内存插槽或者支持内存扩展板,这样就可以安装更多的内存来扩充内存容量,来达到更高的性能。


11.最大内存容量

    最大内存容量是指服务器主板能够最大能够支持内存的容量。一般来讲,最大容量数值取决于主板芯片组和内存扩展槽等因素。比如ServerWorks GC-HE芯片组能够支持高达64G的内存,ServerWorks GC-LE芯片组可以支持16GB的DDR内存,总的来说,服务器支持内容容量越大,其扩展性就越好,性能也就越高。


12.光盘驱动器

   光盘驱动器就是我们平常所说的光驱(CD-ROM),读取光盘信息的设备。是多媒体电脑不可缺少的硬件配置。光盘存储容量大,价格便宜,保存时间长,适宜保存大量的数据,如声音、图像、动画、视频信息、电影等多媒体信息。普通光盘驱动器有三种,CD-ROM、CD-R和CD-RW,CD-ROM是只读光盘驱动器;CD-R只能写入一次,以后不能改写;CD-RW是可重复写、读的光盘驱动器。现在又出现了DVD-ROM及其盘片DVD-R、DVD-RW。不过,在服务器上一般配备的还是普通的CD-ROM。

132876.jpg

    衡量光驱的最基本指标是数据传输率(Data Transfer Rate),即大家常说的倍速,单倍速(1X)光驱是指每秒钟光驱的读取速率为150KB,同理,双倍速(2X)就是指每秒读取速率为300KB,现在市面上的CD-ROM光驱一般都在48X,50X以上。

13.服务器硬盘

   服务器硬盘,顾名思义,就是服务器上使用的硬盘(Hard Disk)。如果说服务器是网络数据的核心,那么服务器硬盘就是这个核心的数据仓库,所有的软件和用户数据都存储在这里。对用户来说,储存在服务器上的硬盘数据是最宝贵的,因此硬盘的可靠性是非常重要的。为了使硬盘能够适应大数据量、超长工作时间的工作环境,服务器一般采用高速、稳定、安全的SCSI硬盘。
    现在的硬盘从接口方面分,可分为IDE硬盘与SCSI硬盘(目前还有一些支持PCMCIA接口、IEEE 1394接口、SATA接口、USB接口和FC-AL(FibreChannel-Arbitrated Loop)光纤通道接口的产品,但相对来说非常少);IDE硬盘即我们日常所用的硬盘,它由于价格便宜而性能也不差,因此在PC上得到了广泛的应用,目前个人电脑上使用的硬盘绝大多数均为此类型硬盘。另一类硬盘就是SCSI硬盘了(SCSI即Small Computer System Interface小型计算机系统接口),由于其性能好,因此在服务器上普遍均采用此类硬盘产品,但同时它的价格也不菲,所以在普通PC上不常看到SCSI的踪影。
    同普通PC机的硬盘相比,服务器上使用的硬盘具有如下四个特点。
1、速度快
服务器使用的硬盘转速快,可以达到每分钟7200或10000转,甚至更高;它还配置了较大(一般为2MB或4MB)的回写式缓存;平均访问时间比较短;外部传输率和内部传输率更高,采用Ultra Wide SCSI、Ultra2 Wide SCSI、Ultra160 SCSI、Ultra320 SCSI等标准的SCSI硬盘,每秒的数据传输率分别可以达到40MB、80MB、160MB、320MB。
2、可靠性高
因为服务器硬盘几乎是24小时不停地运转,承受着巨大的工作量。可以说,硬盘如果出了问题,后果不堪设想。所以,现在的硬盘都采用了S.M.A.R.T技术(自监测、分析和报告技术),同时硬盘厂商都采用了各自独有的先进技术来保证数据的安全。为了避免意外的损失,服务器硬盘一般都能承受300G到1000G的冲击力。
    3、多使用SCSI接口
多数服务器采用了数据吞吐量大、CPU占有率极低的SCSI硬盘。SCSI硬盘必须通过SCSI接口才能使用,有的服务器主板集成了SCSI接口,有的安有专用的SCSI接口卡,一块SCSI接口卡可以接7个SCSI设备,这是IDE接口所不能比拟的。
    4、可支持热插拔
热插拔(Hot Swap)是一些服务器支持的硬盘安装方式,可以在服务器不停机的情况下,拔出或插入一块硬盘,操作系统自动识别硬盘的改动。这种技术对于24小时不间断运行的服务器来说,是非常必要的。

    我们衡量一款服务器硬盘的性能时,主要应该参看以下指标:

主轴转速
    主轴转速是一个在硬盘的所有指标中除了容量之外,最应该引人注目的性能参数,也是决定硬盘内部传输速度和持续传输速度的第一决定因素。如今硬盘的转速多为5400rpm、7200rpm、10000rpm和15000rpm。从目前的情况来看,10000rpm的SCSI硬盘具有性价比高的优势,是目前硬盘的主流,而7200rpm及其以下级别的硬盘在逐步淡出硬盘市场。
内部传输率
    内部传输率的高低才是评价一个硬盘整体性能的决定性因素。硬盘数据传输率分为内外部传输率;通常称外部传输率也为突发数据传输率(Burstdata Transfer Rate)或接口传输率,指从硬盘的缓存中向外输出数据的速度,目前采用Ultra 160 SCSI技术的外部传输率已经达到了160MB/s;内部传输率也称最大或最小持续传输率(Sustained Transfer Rate),是指硬盘在盘片上读写数据的速度,现在的主流硬盘大多在30MB/s到60MB/s之间。由于硬盘的内部传输率要小于外部传输率,所以只有内部传输率才可以作为衡量硬盘性能的真正标准。
    单碟容量
    除了对于容量增长的贡献之外,单碟容量的另一个重要意义在于提升硬盘的数据传输速度。单碟容量的提高得益于磁道数的增加和磁道内线性磁密度的增加。磁道数的增加对于减少磁头的寻道时间大有好处,因为磁片的半径是固定的,磁道数的增加意味着磁道间距离的缩短,而磁头从一个磁道转移到另一个磁道所需的就位时间就会缩短。这将有助于随机数据传输速度的提高。而磁道内线性磁密度的增长则和硬盘的持续数据传输速度有着直接的联系。磁道内线性密度的增加使得每个磁道内可以存储更多的数据,从而在碟片的每个圆周运动中有更多的数据被从磁头读至硬盘的缓冲区里。
    平均寻道时间
    平均寻道时间是指磁头移动到数据所在磁道需要的时间,这是衡量硬盘机械性能的重要指标,一般在3ms~13ms之间,建议平均寻道时间大于8ms的SCSI硬盘不要考虑。平均寻道时间和平均潜伏时间(完全由转速决定)一起决定了硬盘磁头找到数据所在的簇的时间。该时间直接影响着硬盘的随机数据传输速度。
    缓存
    提高硬盘高速缓存的容量也是一条提高硬盘整体性能的捷径。因为硬盘的内部数据传输速度和外部传输速度不同。因此需要缓存来做一个速度适配器。缓存的大小对于硬盘的持续数据传输速度有着极大的影响。它的容量有512KB、2MB、4MB,甚至8MB或16MB,对于视频捕捉、影像编辑等要求大量磁盘输入/输出的工作,大的硬盘缓存是非常理想的选择。
    由于SCSI具有CPU占用率低,多任务并发操作效率高,连接设备多,连接距离长等优点,对于大多数的服务器应用,建议采用SCSI硬盘,并采用最新的Ultra160 SCSI控制器;对于低端的小型服务器应用,可以采用最新的IDE硬盘和控制器。确定了硬盘的接口和类型后,就要重点考察上面提到的影响硬盘性能的技术指标,根据转速、单碟容量、平均寻道时间、缓存等因素,并结合资金预算,选定性价比最合适的硬盘方案。在具体的应用中,首先应选用寿命长、故障率低的硬盘,可降低故障出现的几率和次数,这牵扯到硬盘的MTBF(平均无故障时间)和数据保护技术,MTBF值越大越好,如浪潮英信服务器采用的硬盘的MTBF值一般超过120万小时,而硬盘所共有的S.M.A.R.T.(自监测、分析、报告技术)以及类似技术,如seagate和IBM的DST(驱动器自我检测)和DFT(驱动器健康检测),对于保存在硬盘中数据的安全性有着重要意义。


14.随机硬盘容量

    随机硬盘容量是指服务器出厂时标准配备的硬盘容量。不同的服务器标配硬盘容量不同,一般从几G到几十G容量不等。
15.热插拔

热插拔(hot-plugging或Hot Swap)功能就是允许用户在不关闭系统,不切断电源的情况下取出和更换损坏的硬盘、电源或板卡等部件,从而提高了系统对灾难的及时恢复能力、扩展性和灵活性等,例如一些面向高端应用的磁盘镜像系统都可以提供磁盘的热插拔功能。

    具体用学术的说法就是:热替换(Hot replacement)、热添加(hot expansion)和热升级(hot upgrade),而热插拔最早出现在服务器领域,是为了提高服务器用性而提出的,在我们平时用的电脑中一般都有USB接口,这种接口就能够实现热插拔。如果没有热插拔功能,即使磁盘损坏不会造成数据的丢失,用户仍然需要暂时关闭系统,以便能够对硬盘进行更换,而使用热插拔技术只要简单的打开连接开关或者转动手柄就可以直接取出硬盘,而系统仍然可以不间断地正常运行。
    实现热插拔需要有以下几个方面支持:总线电气特性、主板BIOS、操作系统和设备驱动。那么我们只要确定环境符合以上特定的环境,就可以实现热插拔。目前的系统总线支持部分热插拔技术,特别是从586时×××始,系统总线都增加了外部总线 的扩展,因此这方面我们的顾虑可以消除。从1997年开始,新的BIOS中增加了即插即用功能的支持,虽然这种即插即用的支持并不代表完全的热插拔支持,仅支持热添加和热替换,但这是我们热插拔中使用最多的技术了,所以主板BIOS这个问题也可以克服了。在操作系统方面,从Windows95开始就开始支持即插即用,但对于热插拔支持却很有限,直到NT 4.0开始,微软开始注意到NT操作系统将针对服务器领域,而这个领域中热插拔是很关键的一个技术,所以操作系统中就增加了完全的热插拔支持,并且这个特性一直延续到基NT技术的Windows 2000/XP操作系统,因此只要使用NT4.0以上的操作系统,热插拔方面操作系统就提供了完备的支持。驱动方面,目前针对Windows NT,Novell的Netware,SCO UNIX的驱动都把热插拔功能整合了进去,只要选择针对以上操作系统的驱动,实现热插拔的最后一个要素就具备了。
    通常来说,一个完整的热插拔系统包括热插拔系统的硬件,支持热插拔的软件和操作系统,支持热插拔的设备驱动程序和支持热插拔的用户接口。见下图。

133668.jpg

    我们知道,在普通电脑里,USB(通用串行总线)接口设备和IEEE 1394接口设备等都可以实现热插拔,而在服务器里可实现热插拔的部件主要有硬盘、CPU、内存、电源、风扇、PCI适配器、网卡等。购买服务器时一定要注意哪些部件能够实现热插拔,这对以后的工作至关重要。

16.SCSI控制器

  SCSI的英文名称是“Small Computer System Interface”,中文翻译为"小型计算机系统专用接口";顾名思义,这是为了小型计算机设计的扩充接口,它可以让计算机加装其他外设设备以提高系统性能或增加新的功能,例如硬盘、光驱、扫描仪等。
    早期的计算机依速度、功能被区分为大型主机、小型计算机、微型计算机等多种等级,部分小型工作站、服务器属于小型计算机,而个人计算机属于微型计算机;因此当时使用SCSI接口的机种也以工作站、服务器等中高档设备为主。近年来则因个人计算机性能、扩充需求均大增,使SCSI在PC(普通微机)的应用也越来越多。

144688.jpg

    其实,SCSI也不算是新的接口类型,从有人注意到小型计算机功能延伸的问题、开始发展新的统一扩充接口、并在1986年正式订下SCSI的标准,至今也经历了将近20年的时间。早期Apple(苹果电脑)公司率先将SCSI选定为Macs计算机的标准接口,许多外设都借此统一接口与主系统连接。在PC方面则因为SCSI接口卡和设备昂贵,并且几乎各种外设都有较便宜的接口可替代,SCSI并未受到青睐;相对的,可用的SCSI设备也就不多了。反观今天,支持SCSI接口的外设产品从原本仅有硬盘、磁带机两种,增加到扫描仪、光驱、刻录机、MO等各种设备,大家接触SCSI的机会正在逐步增加中;再加上制造技术的进步,SCSI卡与外设的价格都已经不再高高在上,显示SCSI市场已经相当成熟。

371648.jpg


17.服务器网卡

网卡,又称网络适配器或网络接口卡(NIC),英文名为Network Interface Card。在网络中,如果有一台计算机没有网卡,那么这台计算机将不能和其他计算机通信,它将得不到服务器所提供的任何服务了。当然如果服务器没有网卡,就称不上服务器了,所以说网卡是服务器必备的设备,就像普通PC(个人电脑)要配处理器一样。平时我们所见到的PC机上的网卡主要是将PC机和LAN(局域网)相连接,而服务器网卡,一般是用于服务器与交换机等网络设备之间的连接。
    一般服务器网卡具有如下特点:
网卡数量多
    普通PC接入局域网或因特网时,一般情况下只要一块网卡就足够了。而为了满足服务器在网络方面的需要,服务器一般需要两块网卡或是更多的网卡。如AblestNet的X5DP8服务器主板上面内置了Intel的82546EM 1000Mbps自适应网卡芯片,这款芯片可以向下兼容10Mbps、100Mbps的端口。
数据传输速度快

    目前,大约有80%的网络是采用以太网技术的,现在我们最常见到的是以太网网卡。按网卡所支持带宽的不同可分为10Mbps网卡、100Mbps网卡、10/100Mbps自适应以太网卡、1000Mbps网卡等几种。10Mbps网卡已逐渐退出历史舞台,而100Mbps网卡与10/100bps自适应网卡目前是普通PC上常用的以太网网卡。对于×××量网络来说,服务器应该采用千兆以太网网卡,这样才能提供高速的网络连接能力。谈到千兆以太网网卡,我们就不得不说一下新一代的PCI总线——PCI-X,它可为千兆以太网网卡、基于Ultra SCSI320的磁盘阵列控制器等高数据吞吐量的设备提供足够高的带宽。由于服务器的PCI网络适配器一般都具备相当大的数据吞吐量,旧式的32bit、33MHz的PCI插槽已经无法为那些PCI网络适配器提供足够高的带宽了。而PCI-X可以提供相对于旧式32bit、33MHz PCI总线8倍高的带宽,这样就可以满足服务器网络适配器的数据吞吐量的要求了。如果主板中已经集成了两块100Mbps的以太网网卡,我们可以在BIOS中屏蔽掉板载网卡,然后在PCI-X插槽中安装千兆以太网适配器,这样就能有效地增加网络带宽,大大提高整个网络的数据传输速率。AblestNet的服务器系统基本上所有的Xeon级系统都提供了PCI-X。
CPU占用率低
    由于一台服务器可能要支持几百台客户机,并且还要不停地运行,因此对服务器网络性能的要求就比较高了。而服务器与普通PC工作站的最大不同在于,普通PC工作站CPU的空闲时间比较多,只有在工作站工作时才比较忙。而服务器的CPU则是不停地工作,处理着大量的数据。如果一台服务器CPU的大部分时间都在为网卡提供数据响应,势必会影响服务器对其它任务的处理速度。所以说,较低的CPU占用率对于服务器网卡来说是非常重要的。服务器专用网卡具有特殊的网络控制芯片,它可以从主CPU中接管许多网络任务,使主CPU集中“精力”运行网络操作和应用程序,当然服务器的服务性能也就不会再受影响了。
    安全性能高
    服务器不但需要有强悍的服务性能,同样也要具有绝对放心的安全措施。在实际应用中,无论是网线断了、集线器或交换机端口坏了,还是网卡坏了都会造成连接中断,当然后果是不堪设想的。影响服务器正常运行的因素很多,其中与外界直接相通的网卡就是其中很重要的一个环节。为此,许多网络硬件厂商都推出了各自的具有容错功能的服务器网卡。例如Intel推出了三种容错服务器网卡,它们分别采用了Adapter Fault olerance(AFT,网卡出错冗余)、Adapter Load Balancing(ALB,网卡负载平衡)、Fast Ether Channel(FEC,快速以太网通道)技术。AFT技术是在服务器和交换机之间建立冗余连接,即在服务器上安装两块网卡,一块为主网卡,另一块作为备用网卡,然后用两根网线将两块网卡都连到交换机上。在服务器和交换机之间建立主连接和备用连接。一旦主连接因为数据线损坏或网络传输中断连接失败,备用连接会在几秒钟内自动顶替主连接的工作,通常网络用户不会觉察到任何变化。这样一来就避免了因一条线路发生故障而造成整个网络瘫痪,可以极大地提高网络的安全性和可靠性。ALB是让服务器能够更多更快传输数据的一种简单易行的好方法。这项新技术是通过在多块网卡之间平衡数据流量的方法来增加吞吐量,每增加一块网卡,就增宽100Mbps通道。另外,ALB还具有AFT同样的容错功能,一旦其中一条链路失效,其他链路仍可保障网络的连接。当服务器网卡成为网络瓶颈时,ALB技术无须划分网段,网络管理员只需在服务器上安装两块具有ALB功能的网卡,并把它门配置成ALB状态,便可迅速、简便地解决瓶颈问题。FEC是Cisco公司针对Web浏览及Intranet等对吞吐量要求较大的应用而开发的一种增大带宽的技术。FEC同时也为进行重要应用的客户/服务器网络提供高可靠性和高速度。AFT、ALB、FEC用的是同一个驱动程序,一个网卡组只能采用一种设置。系统采用何种技术要视具体情况而定。


18.主板扩展插槽数

主板扩展槽数是指服务器的主板支持的PCI扩展槽、AGP扩展槽等的数量。主板上这种扩展槽越多,服务器以后升级的空间越大,一般来讲,好的主板应该有5个以上的扩展插槽。

19.网络操作系统

网络操作系统(NOS),是网络的心脏和灵魂,是向网络计算机提供网络通信和网络资源共享功能的操作系统。它是负责管理整个网络资源和方便网络用户的软件的集合。由于网络操作系统是运行在服务器之上的,所以有时我们也把它称之为服务器操作系统。

    网络操作系统与运行在工作站上的单用户操作系统(如WINDOWS98等)或多用户操作系统由于提供的服务类型不同而有差别。一般情况下,网络操作系统是以使网络相关特性最佳为目的的。如共享数据文件、软件应用以及共享硬盘、打印机、调制解调器、扫描仪和传真机等。一般计算机的操作系统,如DOS和OS/2等,其目的是让用户与系统及在此操作系统上运行的各种应用之间的交互作用最佳。
    目前局域网中主要存在以下几类网络操作系统:

1. Windows类
    对于这类操作系统相信用过电脑的人都不会陌生,这是全球最大的软件开发商--Microsoft(微软)公司开发的。微软公司的Windows系统不仅在个人操作系统中占有绝对优势,它在网络操作系统中也是具有非常强劲的力量。这类操作系统配置在整个局域网配置中是最常见的,但由于它对服务器的硬件要求较高,且稳定性能不是很高,所以微软的网络操作系统一般只是用在中低档服务器中,高端服务器通常采用UNIX、LINUX或Solairs等非Windows操作系统。在局域网中,微软的网络操作系统主要有:Windows NT 4.0 Serve、Windows 2000 Server/Advance Server,以及最新的Windows 2003 Server/ Advance Server等,工作站系统可以采用任一Windows或非Windows操作系统,包括个人操作系统,如Windows 9x/ME/XP等。
    在整个Windows网络操作系统中最为成功的还是要算了Windows NT4.0这一套系统,它几乎成为中、小型企业局域网的标准操作系统,一则是它继承了Windows家族统一的界面,使用户学习、使用起来更加容易。再则它的功能也的确比较强大,基本上能满足所有中、小型企业的各项网络求。虽然相比Windows 2000/2003 Server系统来说在功能上要逊色许多,但它对服务器的硬件配置要求要低许多,可以更大程度上满足许多中、小企业的PC服务器配置需求。

2. NetWare类
    NetWare操作系统虽然远不如早几年那么风光,在局域网中早已失去了当年雄霸一方的气势,但是NetWare操作系统仍以对网络硬件的要求较低(工作站只要是286机就可以了)而受到一些设备比较落后的中、小型企业,特别是学校的青睐。人们一时还忘不了它在无盘工作站组建方面的优势,还忘不了它那毫无过份需求的大度。且因为它兼容DOS命令,其应用环境与DOS相似,经过长时间的发展,具有相当丰富的应用软件支持,技术完善、可靠。目前常用的版本有3.11、3.12和4.10 、V4.11,V5.0等中英文版本,NetWare服务器对无盘站和游戏的支持较好,常用于教学网和游戏厅。目前这种操作系统有市场占有率呈下降趋势,这部分的市场主要被Windows NT/2000和Linux系统瓜分了。

3. Unix系统
    目前常用的UNIX系统版本主要有:Unix SUR4.0、HP-UX 11.0,SUN的Solaris8.0等。支持网络文件系统服务,提供数据等应用,功能强大,由AT&T和SCO公司推出。这种网络操作系统稳定和安全性能非常好,但由于它多数是以命令方式来进行操作的,不容易掌握,特别是初级用户。正因如此,小型局域网基本不使用Unix作为网络操作系统,UNIX一般用于大型的网站或大型的企、事业局域网中。UNIX网络操作系统历史悠久,其良好的网络管理功能已为广大网络 用户所接受,拥有丰富的应用软件的支持。目前UNIX网络操作系统的版本 有:AT&T和SCO的UNIXSVR3.2、SVR4.0和SVR4.2等。UNIX本是针对小型机 主机环境开发的操作系统,是一种集中式分时多用户体系结构。因其体系 结构不够合理,UNIX的市场占有率呈下降趋势。

4. Linux
    这是一种新型的网络操作系统,它的最大的特点就是源代码开放,可以免费得到许多应用程序。目前也有中文版本的Linux,如REDHAT(红帽子),红旗Linux等。在国内得到了用户充分的肯定,主要体现在它的安全性和稳定性方面,它与Unix有许多类似之处。但目前这类操作系统目前使仍主要应用于中、高档服务器中。

    总的来说,对特定计算环境的支持使得每一个操作系统都有适合于自己的工作场合,这就是系统对特定计算环境的支持。例如,Windows 2000 Professional适用于桌面计算机,Linux目前较适用于小型的网络,而Windows 2000 Server和UNIX则适用于大型服务器应用程序。因此,对于不同的网络应用,需要我们有目的有选择合适地网络操作系统。


20.服务器电源

顾名思义,服务器电源就是指使用在服务器上的电源(POWER),它和PC(个人电脑)电源一样,都是一种开关电源。

服务器电源按照标准可以分为ATX电源和SSI电源两种。ATX标准使用较为普遍,主要用于台式机、工作站和低端服务器;而SSI标准是随着服务器技术的发展而产生的,适用于各种档次的服务器。
ATX标准
    ATX标准是Intel在1997年推出的一个规范,输出功率一般在125瓦~350瓦之间。ATX电源通常采用20Pin(20针)的双排长方形插座给主板供电。随着Intel推出Pentium4处理器,电源规范也由ATX修改为ATX12V,和ATX电源相比,ATX12V电源主要增加了一个4Pin的12V电源输出端,以便更好地满足Pentium4的供电要求(2GHz主频的P4功耗达到52.4瓦)。
    SSI标准
    SSI(Server System Infrastructure)规范是Intel联合一些主要的IA架构服务器生产商推出的新型服务器电源规范,SSI规范的推出是为了规范服务器电源技术,降低开发成本,延长服务器的使用寿命而制定的,主要包括服务器电源规格、背板系统规格、服务器机箱系统规格和散热系统规格。
根据使用的环境和规模的不同,SSI规范又可以分为TPS、EPS、MPS、DPS四种子规范。

EPS规范(Entry Power Supply Specification):主要为单电源供电的中低端服务器设计,设计中秉承了ATX电源的基本规格,但在电性能指标上存在一些差异。它适用于额定功率在300瓦~400瓦的电源,独立使用,不用于冗余方式。后来该规范发展到EPS12V(Version2.0),适用的额定功率达到450瓦~650瓦,它和ATX12V电源最直观的区别在于提供了24Pin的主板电源接口和8Pin的CPU电源接口。联想万全2200C/2400C就采用了EPS标准的电源,输出功率为300W,该电源输入电压宽范围为90~264V,功率因数大于0.95,由于选用了高规格的元器件,它的平均无故障时间(MTBF)大于150000小时。
    TPS规范(Thin Power Supply Specification):适用于180瓦~275瓦的系统,具有PFC(功率因数校正)、自动负载电流分配功能。电源系统最多可以实现4组电源并联冗余工作,由系统提供风扇散热。TPS电源对热插拔和电流均衡分配要求较高,它可用于N+1冗余工作,有冗余保护功能。
    MPS规范(Midrange Power Supply Specification):这种电源被定义为针对4路以上CPU的高端服务器系统。MPS电源适用于额定功率在375瓦~450瓦的电源,可单独使用,也可冗余使用。它具有PFC、自动负载电流分配等功能。采用这种电源元件电压、电流规格设计和半导体、电容、电感等器件工作温度的设计裕量超过15%。在环境温度25度以上、最大负载、冗余工作方式下MTBF可到150000小时。
DPS规范(Distributed Power Supply Specification):电源是单48V直流电压输出的供电系统,提供的最小功率为800瓦,输出为+48V和+12VSB。DPS电源采用二次供电方式,输入交流电经过AC-DC转换电路后输出48V直流电,48VDC再经过DC-DC转换电路输出负载需要的+5V、+12V、+3.3V直流电。制定这一规范主要是为简化电信用户的供电方式,便于机房供电,使IA服务器电源与电信所采用的电源系统接轨。
    虽然目前服务器电源存在ATX和SSI两种标准,但是随着SSI标准的更加规范化,SSI规范更能适合服务器的发展,以后的服务器电源也必将采用SSI规范。SSI规范有利于推动IA服务器的发展,将来可支持的CPU主频会越来越高,功耗将越来越大,硬盘容量和转速等也越来越大,可外挂高速设备越来越多。为了减少发热和节能,未来SSI服务器电源将朝着低压化、大功率化、高密度、高效率、分布式化等方向发展。服务器采用的配件相当多,支持的CPU可以达到4路甚至更多,挂载的硬盘能够达到4~10块不等,内存容量也可以扩展到10GB之多,这些配件都是消耗能量的大户,比如中高端工业标准服务器采用的是Xeon(至强)处理器,其功耗已经达到80多瓦特(W),而每块SCSI硬盘消耗的功率也在10瓦特(W)以上,所以服务器系统所需要的功率远远高于PC,一般PC只要200瓦电源就足够了,而服务器则需要300瓦以上直至上千瓦的大功率电源。在实际选择中,不同的应用对服务器电源的要求不同,像电信、证券和金融这样的行业,强调数据的安全性和系统的稳定性,因而服务器电源要具有很高的可靠性。目前高端服务器多采用冗余电源技术,它具有均流、故障切换等功能,可以有效避免电源故障对系统的影响,实现24×7的不停顿运行。冗余电源较为常见的是N+1冗余,可以保证一个电源发生故障的情况下系统不会瘫痪(同时出现两个以上电源故障的概率非常小)。冗余电源通常和热插拔技术配合,即热插拔冗余电源,它可以在系统运行时拔下出现故障的电源并换上一个完好的电源,从而大大提高了服务器系统的稳定性和可靠性。
    在购买服务器时要注意一下本机电源,起码应该关注如下两点:
    1.电源的品质,包括输出功率、效率、纹波噪音、时序、保护电路等指标是否达标或者满足需要;
    2.注意电源生产厂家的信誉、规模和支持力度,信誉比较好、规模较大、支持及时的厂家,比如台达、全汉、新巨等等,一般质量较可靠,在性价比方面也会好很多。选购时具体可参考以下指标:
功率的选择:市场上常见的是300W和400W两种,对于个人用户来说选用300W的已经够用,而对于服务器来说,因为要面临升级以及不断增加的磁盘阵列,就需要更大的功率支持它,为此使用400W电源应该是比较合适的。
安规认证:只有严格地考虑到产品品质、消费者的安全、健康等因素,对产品按不同的标准进行严格的检测,才能通过国际合格认证,安规认证是我们选购电源的重要指标,这应该是我们选择电源时最重要的一点。因为它关系着我们的安全和健康。不好的电源噪声很大,对人的身体有影响。在这方面省下几百块钱是得不偿失的。现在的电源都要求通过3C认证。(3C认证是"中国国家强制性产品认证(China Compulsory Cerlification)"的简称。实际上是将CCEE(中国电子电工产品安全认证)、CCIB(中国进口电子产品安全认证)、EMC(电磁兼容性认证)三证合一,在2003年5月1日后强制执行3C认证。)
电压保持时间:对于这个参数主要是考虑UPS的问题,一般的电源都能满足需要,但是如果UPS质量不可靠的话,最好选一个电压保持时间长的电源。
冗余电源选择:这主要针对对系统稳定性要求比较高的服务器,冗余一般有二重冗余和三重冗余。
对主板的支持:这个因素看起来不重要,在家用PC也很少见,但在服务器中却存在这种现象,因此在选购时也要注意。


21.应急管理端口

应急管理端口,英文缩写为EMP,全称是“Emergency Management Port”,是服务器主板上所带的一个用于远程管理服务器的接口。远程控制机可以通过Modem(调制解调器)与服务器相连,控制软件安装于控制机上。远程控制机通过EMP Console控制界面可以对服务器进行下列工作:
    A.打开或关闭服务器的电源。
    B.重新设置服务器,甚至包括主板BIOS和CMOS的参数。
    C.监测服务器内部情况:如温度、电压、风扇情况等。
    以上功能可以使技术支持人员在远地通过Modem(调制解调器)和电话线及时解决服务器的许多硬件故障。这是一种很好的实现快速服务和节省维护费用的技术手段。

22.I2O技术

I2O,是英文“Intelligent Input & output”的缩写,中文意思是“智能输入输出”, 它是用于智能I/O系统的标准接口。

    由于PC服务器的I/O体系源于单用户的PC台式机,而不是为处理大吞吐量任务的专用服务器而设计的,一旦成为网络中心设备后,数据传输量大大增加,因而I/O数据传输经常会成为整个系统的瓶颈。I2O智能输入/输出技术把任务分配给智能I/O系统,在这些子系统中,专用的I/O处理器将负责中断处理、缓冲存取以及数据传输等烦琐任务,这样系统的吞吐能力就得到了提高,服务器的主处理器也能被解放出来去处理更为重要的任务。因此,依据I2O技术规范实现的PC服务器在硬件规模不变的情况下能处理更多的任务,作为中小型网络核心的低端PC服务器可以从中获得更多的性能提高。
    它能够在不同的操作系统和软件版本下工作,旨在满足更高的I/O吞吐量需求。I2O允许服务请求从PCI上的一个设备进入,而无需通过主处理器。I2O主机处理器将识别该服务请求并在本地进行处理。当主处理器正在执行其它任务时,它还允许服务请求在I20处理器处进行排队。
    ①降低主处理器的工作负载,从而提高系统性能
    ②增强I/O吞吐能力
    ③提供一个标准的I/O设备接口
    ④减少外围设备所需的驱动程序数量。


23.RAID

RAID是英文Redundant Array of Independent Disks的缩写,翻译成中文意思是“独立磁盘冗余阵列”,有时也简称磁盘阵列(Disk Array)。

    简单的说,RAID是一种把多块独立的硬盘(物理硬盘)按不同的方式组合起来形成一个硬盘组(逻辑硬盘),从而提供比单个硬盘更高的存储性能和提供数据备份技术。组成磁盘阵列的不同方式成为RAID级别(RAID Levels)。数据备份的功能是在用户数据一旦发生损坏后,利用备份信息可以使损坏数据得以恢复,从而保障了用户数据的安全性。在用户看起来,组成的磁盘组就像是一个硬盘,用户可以对它进行分区,格式化等等。总之,对磁盘阵列的操作与单个硬盘一模一样。不同的是,磁盘阵列的存储速度要比单个硬盘高很多,而且可以提供自动数据备份。
RAID技术的两大特点:一是速度、二是安全,由于这两项优点,RAID技术早期被应用于高级服务器中的SCSI接口的硬盘系统中,随着近年计算机技术的发展,PC机的CPU的速度已进入GHz 时代。IDE接口的硬盘也不甘落后,相继推出了ATA66和ATA100硬盘。这就使得RAID技术被应用于中低档甚至个人PC机上成为可能。RAID通常是由在硬盘阵列塔中的RAID控制器或电脑中的RAID卡来实现的。
     RAID技术经过不断的发展,现在已拥有了从 RAID 0 到 6 七种基本的RAID 级别。另外,还有一些基本RAID级别的组合形式,如RAID 10(RAID 0与RAID 1的组合),RAID 50(RAID 0与RAID 5的组合)等。不同RAID 级别代表着不同的存储性能、数据安全性和存储成本。但我们最为常用的是下面的几种RAID形式。
    (1) RAID 0
    (2) RAID 1
    (3) RAID 0+1
    (4) RAID 3
    (5) RAID 5

138253.jpg

    RAID级别的选择有三个主要因素:可用性(数据冗余)、性能和成本。如果不要求可用性,选择RAID0以获得最佳性能。如果可用性和性能是重要的而成本不是一个主要因素,则根据硬盘数量选择RAID 1。如果可用性、成本和性能都同样重要,则根据一般的数据传输和硬盘的数量选择RAID3、RAID5。

    RAID 0又称为Stripe(条带化)或Striping,它代表了所有RAID级别中最高的存储性能。RAID 0提高存储性能的原理是把连续的数据分散到多个磁盘上存取,这样,系统有数据请求就可以被多个磁盘并行的执行,每个磁盘执行属于它自己的那部分数据请求。这种数据上的并行操作可以充分利用总线的带宽,显著提高磁盘整体存取性能。

133344.jpg

    如图所示:系统向三个磁盘组成的逻辑硬盘(RADI 0 磁盘组)发出的I/O数据请求被转化为3项操作,其中的每一项操作都对应于一块物理硬盘。我们从图中可以清楚的看到通过建立RAID 0,原先顺序的数据请求被分散到所有的三块硬盘中同时执行。从理论上讲,三块硬盘的并行操作使同一时间内磁盘读写速度提升了3倍。 但由于总线带宽等多种因素的影响,实际的提升速率肯定会低于理论值,但是,大量数据并行传输与串行传输比较,提速效果显著显然毋庸置疑。
RAID 0的缺点是不提供数据冗余,因此一旦用户数据损坏,损坏的数据将无法得到恢复。
    RAID 0具有的特点,使其特别适用于对性能要求较高,而对数据安全不太在乎的领域,如图形工作站等。对于个人用户,RAID 0也是提高硬盘存储性能的绝佳选择。

 

  RAID 1又称为Mirror或Mirroring(镜像),它的宗旨是最大限度的保证用户数据的可用性和可修复性。 RAID 1的操作方式是把用户写入硬盘的数据百分之百地自动复制到另外一个硬盘上。

133358.jpg

    如图所示:当读取数据时,系统先从RAID 0的源盘读取数据,如果读取数据成功,则系统不去管备份盘上的数据;如果读取源盘数据失败,则系统自动转而读取备份盘上的数据,不会造成用户工作任务的中断。当然,我们应当及时地更换损坏的硬盘并利用备份数据重新建立Mirror,避免备份盘在发生损坏时,造成不可挽回的数据损失。
    由于对存储的数据进行百分之百的备份,在所有RAID级别中,RAID 1提供最高的数据安全保障。同样,由于数据的百分之百备份,备份数据占了总存储空间的一半,因而Mirror(镜像)的磁盘空间利用率低,存储成本高。
    Mirror虽不能提高存储性能,但由于其具有的高数据安全性,使其尤其适用于存放重要数据,如服务器和数据库存储等领域.

 

正如其名字一样RAID 0+1是RAID 0和RAID 1的组合形式,也称为RAID 10。

133364.jpg

    以四个磁盘组成的RAID 0+1为例,其数据存储方式如图所示:RAID 0+1是存储性能和数据安全兼顾的方案。它在提供与RAID 1一样的数据安全保障的同时,也提供了与RAID 0近似的存储性能。
    由于RAID 0+1也通过数据的100%备份功能提供数据安全保障,因此RAID 0+1的磁盘空间利用率与RAID 1相同,存储成本高。
    RAID 0+1的特点使其特别适用于既有大量数据需要存取,同时又对数据安全性要求严格的领域,如银行、金融、商业超市、仓储库房、各种档案管理等。

 

  RAID 3是把数据分成多个“块”,按照一定的容错算法,存放在N+1个硬盘上,实际数据占用的有效空间为N个硬盘的空间总和,而第N+1个硬盘上存储的数据是校验容错信息,当这N+1个硬盘中的其中一个硬盘出现故障时,从其它N个硬盘中的数据也可以恢复原始数据,这样,仅使用这N个硬盘也可以带伤继续工作(如采集和回放素材),当更换一个新硬盘后,系统可以重新恢复完整的校验容错信息。由于在一个硬盘阵列中,多于一个硬盘同时出现故障率的几率很小,所以一般情况下,使用RAID3,安全性是可以得到保障的。与RAID0相比,RAID3在读写速度方面相对较慢。使用的容错算法和分块大小决定RAID使用的应用场合,在通常情况下,RAID3比较适合大文件类型且安全性要求较高的应用,如视频编辑、硬盘播出机、大型数据库等.

 

RAID 5 是一种存储性能、数据安全和存储成本兼顾的存储解决方案。 以四个硬盘组成的RAID 5为例,其数据存储方式如图4所示:图中,P0为D0,D1和D2的奇偶校验信息,其它以此类推。由图中可以看出,RAID 5不对存储的数据进行备份,而是把数据和相对应的奇偶校验信息存储到组成RAID5的各个磁盘上,并且奇偶校验信息和相对应的数据分别存储于不同的磁盘上。当RAID5的一个磁盘数据发生损坏后,利用剩下的数据和相应的奇偶校验信息去恢复被损坏的数据。

133389.jpg

    RAID 5可以理解为是RAID 0和RAID 1的折衷方案。RAID 5可以为系统提供数据安全保障,但保障程度要比Mirror低而磁盘空间利用率要比Mirror高。RAID 5具有和RAID 0相近似的数据读取速度,只是多了一个奇偶校验信息,写入数据的速度比对单个磁盘进行写入操作稍慢。同时由于多个数据对应一个奇偶校验信息,RAID 5的磁盘空间利用率要比RAID 1高,存储成本相对较低。


24.软盘驱动器

    软盘驱动器就是我们平常所说的软驱,英文名称叫做“floppy disk”,它是读取3.5英寸或5.25英寸软盘的设备。现今最常用的是3.25英寸的软驱,可以读写1.44MB的3.5英寸软盘。如图:

132874.jpg

25.64位技术

    Intel认为:DBS 、PCI-E、EM64T、DDR2等四项Nocona包含的技术是进入64位的真正门槛。

EM64T技术

    包括CPU和内存2方面技术,是针对英特尔的EM64T技术CPU是一个扩展、可以兼容32位的64位处理器。目前只有配备800MHz 前端总线的英特尔至强处理器支持EM64T。因为现在操作系统和应用软件等还没有完全过渡到64位,所以现在提供的硬件平台不光是64位的,还要能够兼容32位。在不久的将来,当使用的操作系统和应用软件都是64位的时候,用户就能享受这种真正的64位应用。针对英特尔的EM64T技术的内存是一种增强服务器和工作站、使之具有64位寻址功能和相关指令的新技术。

    在下列条件下,32位和64位模式可用,仍然可以在应用英特尔扩展内存64技术的英特尔处理器上运行32位应用程序!

    其实,真正的64位技术的实现不仅仅依赖于硬件厂商,还需要操作系统厂商同步;操作系统厂商准备好了,还需要ISV(独立软件开发商)的64位化。只有这三方都准备好了,才能实现真正的64位应用。现在大量的应用还都是在32位上,Intel推出EM64T,可以说是一个平滑的过渡平台。现在的情况是,用户运行的操作系统和应用软件大多是32位,在EM64T上可以发挥出它的极限,表现出最好的水平;当操作系统和应用程序出现32位和64位共存时,它也可以再突破32位的限制,在一台机器上运行这两种软件;当操作系统和应用程序全部过渡到64位以后,用户就可以享受到全部的64位应用。

DBS技术

    DBS技术就是Demand-Based Switching按需切换的技术。DBS技术按需切换技术将会根据CPU的负载大小来灵活调整CPU的工作频率和电压。当负载比较小时可以调比较低的电压,比如说1.2伏的频率上,当要求比较高时可以在更的电压下来进行工作。这种按需切换的CPU的模式也使得整个平台具备灵活可调的功能。同时在新一代的平台里将会有更多存储技术应用到里面,把SATA和SCSI两种存储模块可以支持热插薄SATA RAID 5和热插拔SCSI RAID 5,两种存储模块可以灵活互换,方便选择。灵活可换的存储模块也为使用者的应用带来更大的灵活和便利性。


26.服务器管理软件

    服务器管理软件是一套控制服务器工作运行、处理硬件、操作系统及应用软件等不同层级的软件管理及升级和系统的资源管理、性能维护和监控配置的程序。服务器管理软件是构建于工业标准之上,并具备易于使用的设计。通过互联网有效拓展现有企业级或工作组管理环境,使用丰富的安全性能来访问和管理物理分散的IT设备。IT管理员可以观察远程系统硬件配置的细节,并监控关键部件如处理器、硬盘驱动器、内存的使用情况和性能表现。通过可选择的附加产品扩展服务器管理、部署和软件分发。所有这些工具与管理软件平滑集成,提供兼容的服务以及单点管理功能,同时发挥管理软件的监控、日程安排、告警、事件管理和群组管理功能。

    服务器的管理手段:即基于硬件的管理工具、网络操作系统的附加管理功能以及第三方的系统管理软件。

    例如戴尔的OpeManage 4,微软的Microsoft System Management Server(SMS),IBM Director,IBM Tivoli,HP Openview,浪潮的LCSMS等。第三方软件如Veritas公司的OpForce 3.0 和Turbolinux公司的Linux服务器管理软件等。


27.SMP

SMP的全称是"对称多处理"(Symmetrical Multi-Processing)技术,是指在一个计算机上汇集了一组处理器(多CPU),各CPU之间共享内存子系统以及总线结构。它是相对非对称多处理技术而言的、应用十分广泛的并行技术。在这种架构中,一台电脑不再由单个CPU组成,而同时由多个处理器运行操作系统的单一复本,并共享内存和一台计算机的其他资源。虽然同时使用多个CPU,但是从管理的角度来看,它们的表现就像一台单机一样。系统将任务队列对称地分布于多个CPU之上,从而极大地提高了整个系统的数据处理能力。所有的处理器都可以平等地访问内存、I/O和外部中断。在对称多处理系统中,系统资源被系统中所有CPU共享,工作负载能够均匀地分配到所有可用处理器之上。
    我们平时所说的双CPU系统,实际上是对称多处理系统中最常见的一种,通常称为"2路对称多处理",它在普通的商业、家庭应用之中并没有太多实际用途,但在专业制作,如3DMax Studio、Photoshop等软件应用中获得了非常良好的性能表现,是组建廉价工作站的良好伙伴。随着用户应用水平的提高,只使用单个的处理器确实已经很难满足实际应用的需求,因而各服务器厂商纷纷通过采用对称多处理系统来解决这一矛盾。在国内市场上这类机型的处理器一般以4个或8个为主,有少数是16个处理器。但是一般来讲,SMP结构的机器可扩展性较差,很难做到100个以上多处理器,常规的一般是8个到16个,不过这对于多数的用户来说已经够用了。这种机器的好处在于它的使用方式和微机或工作站的区别不大,编程的变化相对来说比较小,原来用微机工作站编写的程序如果要移植到SMP机器上使用,改动起来也相对比较容易。SMP结构的机型可用性比较差。因为4个或8个处理器共享一个操作系统和一个存储器,一旦操作系统出现了问题,整个机器就完全瘫痪掉了。而且由于这个机器的可扩展性较差,不容易保护用户的投资。但是这类机型技术比较成熟,相应的软件也比较多,因此现在国内市场上推出的并行机大量都是这一种。PC服务器中最常见的对称多处理系统通常采用2路、4路、6路或8路处理器。目前UNIX服务器可支持最多64个CPU的系统,如Sun公司的产品Enterprise 10000。SMP系统中最关键的技术是如何更好地解决多个处理器的相互通讯和协调问题。
    要组建SMP系统,首先最关键的一点就是需要合适的CPU相配合。我们平时看到的CPU都是单颗使用,所以看不出来它们有什么区别,但是,实际上,支持SMP功能并不是没有条件的,随意拿几块CPU来就可以建立多处理系统那简直是天方夜谈。要实现SMP功能,我们使用的CPU必须具备以下要求:
    1、CPU内部必须内置APIC(Advanced Programmable Interrupt Controllers)单元。Intel 多处理规范的核心就是高级可编程中断控制器(Advanced Programmable Interrupt Controllers--APICs)的使用。CPU通过彼此发送中断来完成它们之间的通信。通过给中断附加动作(actions),不同的CPU可以在某种程度上彼此进行控制。每个CPU有自己的APIC(成为那个CPU的本地APIC),并且还有一个I/O APIC来处理由I/O设备引起的中断,这个I/O APIC是安装在主板上的,但每个CPU上的APIC则不可或缺,否则将无法处理多CPU之间的中断协调。
    2、相同的产品型号,同样类型的CPU核心。例如,虽然Athlon和Pentium III各自都内置有APIC单元,想要让它们一起建立SMP系统是不可能的,当然,即使是Celeron和Pentium III,那样的可能性也为0,甚至Coppermine核心的Pentium III和Tualatin的Pentium III也不能建立SMP系统--这是因为他们的运行指令不完全相同,APIC中断协调差异也很大。
    3、完全相同的运行频率。如果要建立双Pentium III系统,必须两颗866MHz或者两颗1000MHz处理器,不可以用一颗866MHz,另一颗1000MHz来组建,否则系统将无法正常点亮。
    4、尽可能保持相同的产品序列编号。即使是同样核心的相同频率处理器,由于生产批次不同也会造成不可思议的问题。两个生产批次的CPU作为双处理器运行的时候,有可能会发生一颗CPU负担过高,而另一颗负担很少的情况,无法发挥最大性能,更糟糕的是可能导致死机,因此,应该尽可能选择同一批生产的处理器来组建SMP系统。