分享

服务器的性能要求

 yi321yi 2023-09-17

通常,服务器的多处理器特性、内存容量、磁盘性能及可扩展性是选择服务器要考虑的主要因素。下面以PC服务器为例来说明服务器的性能要求。

运算处理能力

配置服务器时,往往希望CPU的速度越快越好。人们通常认为,CPU越快,服务器的性能就越好。然而,事实并非如此简单。通过性能测试结果进行分析,发现CPU速度仅是影响服务器性能诸因素中的一方面,还存在很多甚至更重要的CPU之外的其他因素影响服务器性能的发挥。
(1)选择既能满足当前需求又能满足未来需求的处理器。多个处理器一起使用可以增强系统的可用性及性能。在出现故障时,多个处理器可相互支持以保持系统的可用性。在某个处理器出现故障时,其他处理器将分担其负载,确保系统保持运行状态,直至故障被排除。一般来说,工作负荷增加时,增加处理器的数量有助于减少瓶颈出现的可能性,从而提高系统的性能。
系统性能受处理器芯片本身架构的影响,还受到总线速度、芯片组和控制器的影响,因为处理器正是通过它们与计算机的其他组件或计算机外部附件(如硬盘和光驱)进行通信。高级总线、芯片组及架构可以加速数据传输的速率,从而提高系统的整体运行速度。
系统性能还受到缓存的影响。处理器本身不具有永久存储器,信息存储在服务器内部或外部的磁盘上。然而,处理器可以拥有具备临时存储功能的缓存,它可以加快重复性任务的执行速度,从而提高系统的性能。
例如,Intel Xeon专为业务密集型客户设计,此类应用往往要求可扩展性和针对系统可用的冗余性。Intel Itanium处理器代表着企业级计算的未来。基于Itanium的系统主要用于开发平台和超高性能计算。从长期来看,主流系统将更多地采用IA-64位处理器。
(2)CPU主频、CPU数量、L2 Cache与服务器性能。CPU主频与性能有这样一种关系:若CPU1主频为M1,CPU2主频为M2,CPU1和CPU2采用的是相同技术,M2>M1,且M2-Ml<200MHz,则配置CPU2较配置CPU1性能提升(M2-M1)/M1×50%,通常称之为CPU的50%定律。一般情况下,两块CPU的主频越接近,越符合此50%定律。
Xeon(至强)系列CPU可支持大于2路的SMP系统。对于标准的不带ATC特点的Xeon CPU(如Tanner),扩展CPU所带来的性能增长情况为:1 CPU=1;2 CPU=1.74;4CPU=3.0;8CPU=5.0。例如,有一款可支持8路SMP Xeon CPU的高端服务器,假定系统的内存足够大,网络速度足够快,硬盘速度足够快,也就是增加CPU时系统不存在瓶颈。从一枚Xeon CPU扩展到2枚Xeon CPU时性能提升70%;增加到4枚Xeon CPU时性能提升200%;当CPU扩展到8枚时,系统性能是1枚CPU的5倍,即提升了400%。
L2 Cache与服务器性能随着CPU数量的增加,L2 Cache大小对系统性能的影响也越来越明显。例如,对于一个4路的SMP服务器而言,当只安装一个CPU时,对内存访问几乎没有竞争。因此,若L2 Cache不能满足CPU的需求时,内存可以在CPU等待之前作出响应。所以,CPU的运行状况与L2 cache的命中率几乎无关。
另一方面,若安装了4枚Xeon CPU,那么访问内存的队列、访问内存的时间将明显增加,从而增加了CPU的潜在等待时间。在这种情况下,L2 Cache的高命中率将节省大量的时间,从而显著提高处理器的性能。总的来说,CPU越多,越大的L2 Cache给系统带来的性能越明显。例如,配置1或2个CPU,L2Cache大小增加一倍,系统性能提高3%~5%。配置3或4个CPU,L2Cache大小增加一倍,系统性能提高6%~12%。配置8个CPU时,L2 Cache大小增加一倍,系统性能提高15%~20%。
(3)IA64体系结构。提高处理器的性能主要有两种途径:一是不断提高CPU的时钟频率和内部并行工作的流水线数量,使CPU在单位时间内进行更多的操作;二是开发处理器指令级的并行性,为了使流水线高效地工作,采用分支预测、顺序执行等技术。但是,这些技术都多少存在一些缺点。为此,Intel公司和HP公司联合开发了一种称为“清晰并行指令计算(EPIC)'的全新系统架构技术IA64。
EPIC技术能在原有的条件下最大限度地获得并行能力,并以明显的方式传达给硬件。同时,在EPIC技术的基础上定义了一种新的64位指令架构(ISA)。Intel将此技术融入其IA64架构之中。新的64位ISA采用全新的方式,把清晰并行性能与推理和判断技术结合起来,从而大大跨越了传统架构的局限性。EPIC技术支持的IA64架构,打破了传统架构的顺序执行限制,使并行能力达到了新的水平。预测、判断功能与并行功能的创新应用,使EPIC技术打破了传统架构的局限性(如错误预测分支、存储等待等)。IA64是第一个旨在充分利用并执行指令的主流系统架构。IA64架构的广泛资源、固有可扩展性和全面兼容性,将使它成为可支持更高性能的服务器和工作站的新一代处理器系统架构。
(4)内存/最大内存扩展能力。当内存充满数据时,处理器就不得不到硬盘(或虚拟内存)读取或写入新的数据。然而内存的速度要比硬盘快约10000倍,因此,处理器对硬盘的写入或读取要比内存慢很多。因此,计算机拥有的内存越大,处理器就越少地到硬盘中寻找更新的数据,从而使处理器的速度提高,服务器的运行速度也就越高。升级内存是提高系统性能的一个非常好的方式,成本不高、效果很好。服务器内存一般都采用的是ECC EDO内存或ECC SDRAM内存。

磁盘驱动器的性能指标

目前,主流硬盘的接口有SCSI和SAS。几乎所有的PC服务器硬盘均采用SAS接口,提供更高的硬盘吞吐能力。硬盘数据传输的瓶颈主要是由硬盘机械部分与结构设计等诸多因素(主轴转速、单碟容量、内部传输速率及缓存等)造成的。
(1)主轴转速。主轴转速是一个在硬盘的所有指标中除了容量之外,最应该引人注目的性能参数,也是决定硬盘内部传输速度和持续传输速度的第一决定因素。硬盘的转速多为7200r/min、10000r/min和15000r/min。从目前情况看,15000r/min(传输速率6Gbit/s)及以上的SAS硬盘具有性价比高的优势,是目前硬盘的主流。
(2)内部传输率。内部传输率的高低是评价一个硬盘整体性能的决定性因素。硬盘数据传输率分为内、外部传输率,通常称外部传输率为突发数据传输率或接口传输率(如SAS的6Gbit/s),指从硬盘的缓存中向外输出数据的速度。内部传输率也称最大或最小持续传输率,是指硬盘在盘片上读写数据的速度。由于硬盘的内部传输率要小于外部传输率,因此只有内部传输率才可以作为衡量硬盘性能的标准。
(3)单碟容量。除了对于容量增长的贡献之外,单碟容量的另一个重要意义在于提升硬盘的数据传输速度。单碟容量的提高得益于磁道数的增加和磁道内线性磁密度的增加。磁道数的增加对于减少磁头的寻道时间大有好处。因为磁片的半径是固定的,磁道数的增加意味着磁道间距离的缩短,这样,磁头从一个磁道转移到另一个磁道所需要的就位时间就会缩短。这将有助于随机数据传输速度的提高。磁道内线性密度的增加使得每个磁道内可以存储更多的数据,从而在碟片的每个圆周运动中有更多的数据被磁头读至硬盘的缓冲区里。
(4)平均寻道时间。平均寻道时间是指磁头移动到数据所在磁道需要的时间,这是衡量硬盘机械性能的重要指标,一般为3~13ms。
(5)缓存。提高硬盘高速缓存的容量也是一条提高硬盘整体性能的捷径。因为硬盘内部数据传输速度和外部传输速度不同,所以需要缓存来做一个速度适配器。缓存的大小对于硬盘的持续数据传输速度有着极大的影响,它的容量有512KB、2MB、4MB,甚至8MB或16MB。对于视频捕捉、影像编辑等要求大量磁盘输入/输出的工作,大的硬盘缓存是非常理想的选择。

服务器硬件的冗余

系统硬件可用性在很大程度上取决于MTTF值较低、能对系统正常运行造成重大影响的部件,如硬盘、风扇、电源等。系统设计中对关键部件进行冗余设计,可以大大提高系统的可用性。冗余技术的基础是合理有效地对系统的运行状态进行监控,在及时发现故障的前提下启动冗余部件。
(1)磁盘冗余。通过配置热插拔硬盘,并使用RAID 2或RAID 5/6技术,可以避免磁盘阵列中某块硬盘损坏造成的系统故障。
(2)电源冗余。热插拔冗余电源正常工作时,两台电源各输出一半功率,从而使每一台电源都工作在轻负载状态,这有利于电源稳定工作。当其中一台电源发生故障时,可短时间内由另一台电源接替其工作。系统管理员可以在不关闭系统的情况下更换损坏的电源。采用热插拔冗余电源可以避免系统由于电源损坏而造成的停机。
(3)网卡冗余。采用自动控制的冗余网卡,当系统正常工作时多网卡自动分摊网络流量,使系统的网络通信带宽提高。当有网卡损坏或出现线路故障时,其工作自动切换到其他网卡,不会因网络通道故障或网卡故障影响正常服务。
(4)冷却冗余。自动切换的冗余风扇对风扇转速进行实时监测,发现故障时自动报警并启动备用风扇。系统工作正常时,主风扇工作,备份风扇不工作,当主风扇出现故障或转速低于规定转速时,自动启动备用风扇。由于备用风扇平时处于停止状态,因此可以保证在工作风扇损坏时马上接替服务,不会造成由于系统风扇损坏导致的系统内部温度升高而产生的工作不稳定或停机现象。
(5)双机冗余。双机集群(热备)正常工作时,通过以太网和RS232口互相进行监测,并不断完成同步操作,数据保存在共享磁盘阵列中。当任何一台服务器出现故障时,另一台服务器将快速接管服务,其切换时间仅需1~2min。

数据吞吐能力

服务器对I/O的要求表现在总线带宽、I/O插槽数量等几个方面。总线带宽是指系统事务处理的快慢,而I/O插槽数量则表现在其扩展能力上。前一段时间,PC服务器的I/O标准主要有两种:一种是Future I/O技术,另一种是NGIO技术。现在,两者已统一成SYSTEMI/O。这种I/O技术的宗旨是提高服务器CPU向网卡或存储磁盘阵列传输数据的速度和可靠性,一般采用交换结构(Switched Fabric,SF)方法,就像局域网一样交换信息,其最大优点是系统内单一部件失效不会导致整台计算机瘫痪。

可管理性

作为一个关键指标,可管理性直接影响到企业使用PC服务器的方便程度。良好的可管理性主要包括人性化的管理界面,硬盘、内存、电源、处理器等主要部件便于拆装、维护和升级;具有方便的远程管理和监控功能、具有较强的安全保护措施等。PC服务器的故障主要来自硬盘、电源、风扇等部件,若这些部件出现故障而造成停机或是数据丢失,那么这样的PC服务器的可管理性是非常差的。在正常的情况下,系统必须支持这几类部件有可能出现故障时的隐患提示信号,如硬盘故障隐患指示灯、电源故障隐患指示灯等。

可扩展性/可伸缩

选择PC服务器时,首先应考虑系统的可扩展能力,即系统应该留有足够的扩展空间,以便于随业务应用的增加对系统进行扩充和升级。这种可扩展性主要包括处理器和内存的扩展能力。例如,支持几枚CPU,支持最大内存的数量,支持内存频率从1333MHz提升到1600MHz; SCSI(SAS)卡可支持多少硬盘,这些硬盘接口数量是否满足需求等,以及外部设备的可扩展能力和应用软件的升级能力。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多