分享

内存频率、内存带宽、CPU外频、FSB、双核、64位技术等基本

 大雨连绵 2012-07-29
网上找的,放这留个底,便于以后备查,懒得到处找了。

--------------------------------------------------
--------------------------------------------------
关于内存频率、内存带宽、CPU外频、FSB之间的关系

  现在的单通道内存控制器一般都是64bit的,8个2进制bit相当于1个字节,换算成字节是64/8=8,再乘以内存的运行频率,如果是DDR内存就要再乘以2,因为它是以sd内存双倍的速度传输数据的,所以
DDR266,运行频率为133MHz,带宽为133*2*64/8=2100MB/s=2.1GB/s
DDR333,运行频率为166MHz,带宽为166*2*64/8=2700MB/s=2.7GB/s
DDR400,运行频率为200MHz,带宽为200*2*64/8=3200MB/s=3.2GB/s 

  所谓双通道DDR,就是芯片组可以在两个不同的数据通道上分别寻址、读取数据。这两个相互独立工作的内存通道是依附于两个独立并行工作的,位宽为64-bit的内存控制器下,因此使普通的DDR内存可以达到128-bit的位宽,因此,内存带宽是单通道的两倍,因此
双通道DDR266的带宽为133*2*64/8*2=4200MB/s=4.2GB/s
双通道DDR333的带宽为166*2*64/8*2=5400MB/s=5.4GB/s
双通道DDR400的带宽为200*2*64/8*2=6400MB/s=6.4GB/s 

关于瓶径问题:
   CPU与北桥芯片之间的数据传输速率称前端总线(FSB),对于intel的主流平台,其采用Q/P总线技术,FSB=CPU外频*4,如赛扬4的外频 为100,其FSB为400,数据带宽为3.2GB/s,P4A的外频为100,其FSB为400,数据带宽为3.2GB/s,P4B的外频为133,其 FSB为533,数据带宽为4.2GB/s,P4C、P4E的外频为200,其FSB为800,数据带宽为6.4GB/s,对于AMD的主流平台,其采用 EV6总线技术,FSB=CPU外频*2,对于Athlon XP,其外频为133,166,200,对应的FSB分别为266,333,400,数据带 宽分别为2.1,2.7,3.2GB/s 

  FSB与内存带宽相等的情况下,则不存在瓶径问题,如果内存带宽小于FSB则形成内存带宽瓶径,无法完全发挥系统的性能。 

   因此对于对于intel的主流平台,如赛扬4的外频为100,其FSB为400,数据带宽为3.2GB/s,应该使用DDR400或双通道DDR200 以上,P4A的外频为100,其FSB为400,数据带宽为3.2GB/s,应该使用DDR400或双通道DDR200以上,P4B和C4D的外频为 133,其FSB为533,数据带宽为4.2GB/s,应该使用DDR533或双通道DDR266以上,P4C、P4E的外频为200,其FSB为 800,数据带宽为6.4GB/s,应该使用双通道DDR400以上,对于AMD的主流平台,Athlon XP,其外频为133,166,200,应该 分别使用DDR266,DDR333,DDR400,在这个平台上没必要使用双通道内存。

--------------------------------------------------

什么是FSB,它和CPU外频有什么区别和联系?

这个参数指的就是前端总线的频率,它是处理器与主板交换数据的通道,既然是通道,那就是越大越好,现在主流中最高的FSB是800M,向下有533M、400M和333M等几种,它们价格是递减的。

FSB(或 是FrontSideBus,前端总线)是超频最容易和最常见的方法之一。FSB是CPU与系统其它部分连接的速度。它还影响内存时钟,那是内存运行的速 度。一般而言,对FSB和内存时钟两者来说越高等于越好。然而,在某些情况下这不成立。例如,让内存时钟比FSB运行得快根本不会有真正的帮助。同样,在 AthlonXP系统上,让FSB运行在更高速度下而强制内存与FSB不同步(使用稍后将讨论的内存分频器)对性能的阻碍将比运行在较低FSB及同步内存 下要严重得多。

  FSB在 Athlon和P4系统上涉及到不同的方法。在Athlon这边,它是DDR总线,意味着如果实际时钟是 200MHz的话,那就是运行在400MHz下。在P4上,它是“四芯的”,所以如果实际时钟是相同的200MHz的话,就代表800MHz。这是 Intel的市场策略,因为对一般用户来说,越高等于越好。Intel的“四芯”FSB实际上具有一个现实的优势,那就是以较小的性能损失为代价允许P4 芯片与内存不同步运行。每个时钟越高的周期速度使得它越有机会让内存周期与CPU周期重合,那等同于越好的性能。


    外频是 CPU乃至整个计算机系统的基准频率,单位是MHz(兆赫兹)。在早期的电脑中,内存与主板之间的同步运行的速度等于外频,在这种方式下,可以理解为 CPU外频直接与内存相连通,实现两者间的同步运行状态。对于目前的计算机系统来说,两者完全可以不相同,但是外频的意义仍然存在,计算机系统中大多数的 频率都是在外频的基础上,乘以一定的倍数来实现,这个倍数可以是大于1的,也可以是小于1的。
Rd4C5w/e/\0外频与前端总线(FSB) 频率很容易被混为一谈。前端总线的速度指的是CPU和北桥芯片间总线的速度,更实质性的表示了CPU和外界数据传输的速度。而外频的概念是建立在数字脉冲 信号震荡速度基础之上的,也就是说,100MHz外频特指数字脉冲信号在每秒钟震荡一万万次,它更多的影响了PCI及其他总线的频率。之所以前端总线与外 频这两个概念容易混淆,主要的原因是在以前的很长一段时间里(主要是在Pentium 4出现之前和刚出现Pentium 4时),前端总线频率与外频是 相同的,因此往往直接称前端总线为外频,最终造成这样的误会。随着计算机技术的发展,人们发现前端总线频率需要高于外频,因此采用了 QDR(Quad Date Rate)技术,或者其他类似的技术实现这个目的。这些技术的原理类似于AGP的2X或者4X,它们使得前端总线的频率成为 外频的2倍、4倍甚至更高,从此之后前端总线和外频的区别才开始被人们重视起来。

--------------------------------------------------

CPU : 什么是双核处理器

双 核与双芯(Dual Core Vs. Dual CPU): AMD和Intel的双核技术在物理结构上也有很大不同之处。AMD将两个内核做在一个 Die(晶元)上,通过直连架构连接起来,集成度更高。Intel 则是将放在不同Die(晶元)上的两个内核封装在一起,因此有人将Intel的方案称 为“双芯”,认为AMD的方案才是真正的“双核”。从用户端的角度来看,AMD的方案能够使双核CPU的管脚、功耗等指标跟单核CPU保持一致,从单核升 级到双核,不需要更换电源、芯片组、散热系统和主板,只需要刷新BIOS软件即可,这对于主板厂商、计算机厂商和最终用户的投资保护是非常有利的。客户可 以利用其现有的90纳米基础设施,通过BIOS更改移植到基于双核心的系统。 

计算机厂商可以轻松地提供同一硬件的单核心与双核心版本, 使那些既想提高性能又想保持IT环境稳定性的客户能够在不中断业务的情况下升级到双核心。在一个机架密度较高的环境中,通过在保持电源与基础设施投资不变 的情况下移植到双核心,客户的系统性能将得到巨大的提升。在同样的系统占地空间上,通过使用双核心处理器,客户将获得更高水平的计算能力和性能。

双 核处理器(Dual Core Processor):双核处理器是指在一个处理器上集成两个运算核心,从而提高计算能力。“双核”的概念最早是由 IBM、HP、Sun等支持RISC架构的高端服务器厂商提出的,不过由于RISC架构的服务器价格高、应用面窄,没有引起广泛的注意。 

最 近逐渐热起来的“双核”概念,主要是指基于X86开放架构的双核技术。在这方面,起领导地位的厂商主要有AMD和 Intel两家。其中,两家的思路又有 不同。AMD从一开始设计时就考虑到了对多核心的支持。所有组件都直接连接到CPU,消除系统架构方面的挑战和瓶颈。两个处理器核心直接连接到同一个内核 上,核心之间以芯片速度通信,进一步降低了处理器之间的延迟。而Intel采用多个核心共享前端总线的方式。专家认为,AMD的架构对于更容易实现双核以 至多核,Intel的架构会遇到多个内核争用总线资源的瓶颈问题。


    目前Intel推出的台式机双核心处理器有Pentium D、Pentium EE(Pentium Extreme Edition)和Core Duo三种类型,三者的工作原理有很大不同。

    一、Pentium D和Pentium EE

    Pentium D 和Pentium EE分别面向主流市场以及高端市场,其每个核心采用独立式缓存设计,在处理器内部两个核心之间是互相隔绝的,通过处理器外部(主板北桥 芯片)的仲裁器负责两个核心之间的任务分配以及缓存数据的同步等协调工作。两个核心共享前端总线,并依靠前端总线在两个核心之间传输缓存同步数据。从架构 上来看,这种类型是基于独立缓存的松散型双核心处理器耦合方案,其优点是技术简单,只需要将两个相同的处理器内核封装在同一块基板上即可;缺点是数据延迟 问题比较严重,性能并不尽如人意。另外,Pentium D和Pentium EE的最大区别就是Pentium EE支持超线程技术而 Pentium D则不支持,Pentium EE在打开超线程技术之后会被操作系统识别为四个逻辑处理器。

 

AMD双核处理器

    AMD推出的双核心处理器分别是双核心的Opteron系列和全新的Athlon 64 X2系列处理器。其中Athlon 64 X2是用以抗衡Pentium D和Pentium Extreme Edition的桌面双核心处理器系列。

    AMD 推出的Athlon 64 X2是由两个Athlon 64处理器上采用的Venice核心组合而成,每个核心拥有独立的512KB(1MB) L2缓存 及执行单元。除了多出一个核芯之外,从架构上相对于目前Athlon 64在架构上并没有任何重大的改变。

    双核心Athlon 64 X2的大部分规格、功能与我们熟悉的Athlon 64架构没有任何区别,也就是说新推出的Athlon 64 X2双核心处理器仍然支持1GHz规格的HyperTransport总线,并且内建了支持双通道设置的DDR内存控制器。

    与 Intel双核心处理器不同的是,Athlon 64 X2的两个内核并不需要经过MCH进行相互之间的协调。AMD在Athlon 64 X2双核心处 理器的内部提供了一个称为System Request Queue(系统请求队列)的技术,在工作的时候每一个核心都将其请求放在SRQ中,当获得资源 之后请求将会被送往相应的执行核心,也就是说所有的处理过程都在CPU核心范围之内完成,并不需要借助外部设备。

 

   对 于双核心架构,AMD的做法是将两个核心整合在同一片硅晶内核之中,而Intel的双核心处理方式则更像是简单的将两个核心做到一起而已。与 Intel 的双核心架构相比,AMD双核心处理器系统不会在两个核心之间存在传输瓶颈的问题。因此从这个方面来说,Athlon 64 X2的架构要明 显优于Pentium D架构。

    虽然与Intel相比,AMD并不用担心Prescott核心这样的功耗和发热大户,但是同样需 要为双核心处理器考虑降低功耗的方式。为此AMD并没有采用降低主频的办法,而是在其使用90nm工艺生产的Athlon 64 X2处理器中采用了所谓 的Dual Stress Liner应变硅技术,与SOI技术配合使用,能够生产出性能更高、耗电更低的晶体管。

    AMD推出的Athlon 64 X2处理器给用户带来最实惠的好处就是,不需要更换平台就能使用新推出的双核心处理器,只要对老主板升级一下BIOS就可以了,这与Intel双核心处理器必须更换新平台才能支持的做法相比,升级双核心系统会节省不少费用。

-------------------------------------------------

CPU : 什么是64位技术

64 位 技术:这里的64位技术是相对于32位而言的,这个位数指的是CPU GPRs(General-Purpose Registers,通用寄存器)的数 据宽度为64位,64位指令集就是运行64位数据的指令,也就是说处理器一次可以运行64bit数据。64bit处理器并非现在才有的,在高端的 RISC(Reduced Instruction Set Computing,精简指令集计算机)很早就有64bit处理器了,比如SUN公司的 UltraSparc Ⅲ、IBM公司的POWER5、HP公司的Alpha等。

64bit计算主要有两大优点:可以进行更大范围的整数 运算;可以支持更大的内存。不能因为数字上的变化,而简单的认为64bit处理器的性能是32bit处理器性能的两倍。实际上在32bit应用 下,32bit处理器的性能甚至会更强,即使是64bit处理器,目前情况下也是在32bit应用下性能更强。所以要认清64bit处理器的优势,但不可 迷信64bit。

要实现真正意义上的64位计算,光有64位的处理器是不行的,还必须得有64位的操作系统以及64位的应用软件才行,三 者缺一不可,缺少其中任何一种要素都是无法实现64位计算的。目前,在64位处理器方面,Intel和AMD两大处理器厂商都发布了多个系列多种规格的 64位处理器;而在操作系统和应用软件方面,目前的情况不容乐观。因为真正适合于个人使用的64位操作系统现在就只有Windows XP X64,而 Windows XP X64本身也只是一个过渡性质的64位操作系统,在Windows Vista发布以后就将被淘汰,而且 Windows XP X64本身也不太完善,易用性不高,一个明显的例子就是各种硬件设备的驱动程序很不完善,而且现在64位的应用软件还基本上没有, 确实硬件厂商和软件厂商也不愿意去为一个过渡性质的操作系统编写驱动程序和应用软件。所以要想实现真正的64位计算,恐怕还得等到 Windows Vista普及一段时间之后才行。

目前主流CPU使用的64位技术主要有AMD公司的AMD64位技术、Intel公司 的EM64T技术、和 Intel公司的IA-64技术。其中IA-64是Intel独立开发,不兼容现在的传统的32位计算机,仅用于 Itanium(安腾)以及后续产品 Itanium 2,一般用户不会涉及到,因此这里仅对AMD64位技术和Intel的EM64T技术做一下简单介 绍。

AMD64位技术X86-64:
AMD64 的位技术是在原始32位X86指令集的基础上加入了X86-64扩展64位 X86指令集,使这款芯片在硬件上兼容原来的32位X86软件,并同时支持 X86-64的扩展64位计算,使得这款芯片成为真正的64位X86芯片。这 是一个真正的64位的标准,X86-64具有64位的寻址能力。

X86-64新增的几组CPU寄存器将提供更快的执行效率。寄存器是 CPU内部用来创建和储存CPU运算结果和其它运算结果的地方。标准的32-bit x86架构包括8个通用寄存器(GPR),AMD在X86-64中又 增加了8组(R8-R9),将寄存器的数目提高到了16组。X86-64寄存器默认位 64-bit。还增加了8组128-bit XMM寄存器(也叫 SSE寄存器,XMM8-XMM15),将能给单指令多数据流技术(SIMD)运算提供更多的空间,这些128位的寄存器将提供在矢量和标量计算模式下进 行128位双精度处理,为3D建模、矢量分析和虚拟现实的实现提供了硬件基础。通过提供了更多的寄存器,按照X86-64标准生产的 CPU可以更有效的 处理数据,可以在一个时钟周期中传输更多的信息。

 

 

EM64T技术
Intel 官方是给 EM64T这样定义的:EM64T全称Extended Memory 64 Technology,即扩展64bit内存技术。EM64T是 Intel IA-32架构的扩展,即IA-32e(Intel Architectur-32 extension)。IA-32处理器通过附加 EM64T技术,便可在兼容IA-32软件的情况下,允许软件利用更多的内存地址空间,并且允许软件进行 32 bit线性地址写入。EM64T特别强调 的是对32 bit和64 bit的兼容性。Intel为新核心增加了8个64 bit GPRs(R8-R15),并且把原有GRPs全部扩展为 64 bit,这样可以提高整数运算能力。增加8个128bit SSE寄存器(XMM8-XMM15),是为了增强多媒体性能,包括对SSE、SSE2 和SSE3的支持。

Intel为支持EM64T技术的处理器设计了两大模式:传统IA-32模式(legacy IA-32 mode) 和IA-32e扩展模式(IA-32e mode)。在支持EM64T技术的处理器内有一个称之为扩展功能激活寄存器 (extended feature enable register,IA32_EFER)的部件,其中的Bit10控制着EM64T是否激活。 Bit10被称作IA-32e模式有效(IA-32e mode active)或长模式有效(long mode active,LMA)。当 LMA=0时,处理器便作为一颗标准的32 bit(IA32)处理器运行在传统IA-32模式;当LMA=1时,EM64T便被激活,处理器会运行在 IA-32e扩展模式下。

目前AMD方面支持64位技术的CPU有Athlon 64系列、Athlon FX系列和Opteron系 列。Intel方面支持64位技术的CPU有使用Nocona核心的Xeon系列、使用Prescott 2M核心的Pentium 4 6系列和使用 Prescott 2M核心的P4 EE系列。

 

浅谈 EM64T技术和AMD64区别X86-64 (AMD64 / EM64T) :
AMD 公 司设计,可以在同一时间内处理64位的整数运算,并兼容于X86-32架构。其中支持64位逻辑定址,同时提供转换为32位定址选项;但数据操作指令默认 为32位和8位,提供转换成64位和16位的选项;支持常规用途寄存器,如果是32位运算操作,就要将结果扩展成完整的64位。这样,指令中有“直接执 行”和“转换执行”的区别,其指令字段是8位或32位,可以避免字段过长。

x86-64(AMD64)的产生也并非空穴来风,x86处理 器的32bit寻址空间限制在4GB内存,而IA- 64的处理器又不能兼容x86。 AMD充分考虑顾客的需求,加强x86指令集的功能,使这套指令集 可同时支持64位的运算模式,因此AMD把它们的结构称之为x86-64。在技术上 AMD在x86-64架构中为了进行64位运算,AMD为其引入了新 增了R8-R15通用寄存器作为原有X86处理器寄存器的扩充,但在而在32位环境下并不完全使用到这些寄存器。原来的寄存器诸如EAX、EBX也由32 位扩张至64位。在SSE单元中新加入了8个新寄存器以提供对SSE2的支持。寄存器数量的增加将带来性能的提升。与此同时,为了同时支持32和64位代 码及寄存器,x86-64架构允许处理器工作在以下两种模式:Long Mode(长模式)和Legacy Mode(遗传模式),Long模式又分为两 种子模式(64bit模式和Compatibility mode兼容模式)。该标准已经被引进在AMD服务器处理器中的Opteron处理器。

而 今年也推出了支持64位的EM64T技术,再还没被正式命为EM64T之前是IA32E,这是英特尔64位扩展技术的名字,用来区别X86指令集。 Intel的EM64T支持64位sub-mode,和AMD的X86-64技术类似,采用64位的线性平面寻址,加入 8个新的通用寄存器 (GPRs),还增加8个寄存器支持SSE指令。与AMD相类似,Intel的64位技术将兼容IA32和IA32E,只有在运行64 位操作系统下的时 候,才将会采用IA32E。IA32E将由2个sub-mode组成:64位sub-mode和32位sub-mode,同AMD64一样是向下兼容 的。 Intel的EM64T将完全兼容AMD的X86-64技术。现在Nocona处理器已经加入了一些64位技术,Intel的Pentium 4E 处理器也支持64位技术。

应该说,这两者都是兼容x86指令集的64位微处理器架构,但EM64T与AMD64还是有一些不一样的地方,AMD64处理器中的NX位在Intel的处理器中将没有提供。

-------

CPU : 二级缓存容量


  CPU缓存(Cache Memoney)位于CPU与内存之间的临时存储器,它的容量比内存小但 交换速度快。在缓存中的数据是内存中的一小部分,但这一小部分是短时间内CPU即将访问的,当CPU调用大量数据时,就可避开内存直接从缓存中调用,从而 加快读取速度。由此可见,在CPU中加入缓存是一种高效的解决方案,这样整个内存储器(缓存+内存)就变成了既有缓存的高速度,又有内存的大容量的存储系 统了。缓存对CPU的性能影响很大,主要是因为CPU的数据交换顺序和CPU与缓存间的带宽引起的。 

  缓存的工作原理是当CPU要读 取一个数据时,首先从缓存中查找,如果找到就立即读取并送给CPU处理;如果没有找到,就用相对慢的速度从内存中读取并送给CPU处理,同时把这个数据所 在的数据块调入缓存中,可以使得以后对整块数据的读取都从缓存中进行,不必再调用内存。

  正是这样的读取机制使CPU读取缓存的命中率 非常高(大多数CPU可达90%左右),也就是说CPU下一次要读取的数据90%都在缓存中,只有大约10%需要从内存读取。这大大节省了CPU直接读取 内存的时间,也使CPU读取数据时基本无需等待。总的来说,CPU 读取数据的顺序是先缓存后内存。

  最早先的CPU缓存是个整体的, 而且容量很低,英特尔公司从Pentium时代开始把缓存进行了分类。当时集成在CPU内核中的缓存已不足以满足CPU的需求,而制造工艺上的限制又不能 大幅度提高缓存的容量。因此出现了集成在与CPU同一块电路板上或主板上的缓存,此时就把 CPU内核集成的缓存称为一级缓存,而外部的称为二级缓存。一 级缓存中还分数据缓存(I-Cache)和指令缓存(D-Cache)。二者分别用来存放数据和执行这些数据的指令,而且两者可以同时被CPU访问,减少 了争用Cache所造成的冲突,提高了处理器效能。英特尔公司在推出Pentium 4处理器时,还新增了一种一级追踪缓存,容量为12KB.

   随着CPU制造工艺的发展,二级缓存也能轻易的集成在CPU内核中,容量也在逐年提升。现在再用集成在CPU内部与否来定义一、二级缓存,已不确切。而 且随着二级缓存被集成入CPU内核中,以往二级缓存与CPU大差距分频的情况也被改变,此时其以相同于主频的速度工作,可以为CPU提供更高的传输速度。

  二级缓存是CPU性能表现的关键之一,在CPU核心不变化的情况下,增加二级缓存容量能使性能大幅度提高。而同一核心的CPU高低端之分往往也是在二级缓存上有差异,由此可见二级缓存对于CPU的重要性。

   CPU在缓存中找到有用的数据被称为命中,当缓存中没有CPU所需的数据时(这时称为未命中),CPU才访问内存。从理论上讲,在一颗拥有二级缓存的 CPU中,读取一级缓存的命中率为80%。也就是说CPU一级缓存中找到的有用数据占数据总量的80%,剩下的 20%从二级缓存中读取。由于不能准确预 测将要执行的数据,读取二级缓存的命中率也在80%左右(从二级缓存读到有用的数据占总数据的16%)。那么还有的数据就不得不从内存调用,但这已经是一 个相当小的比例了。目前的较高端的CPU中,还会带有三级缓存,它是为读取二级缓存后未命中的数据设计的—种缓存,在拥有三级缓存的CPU中,只有约5% 的数据需要从内存中调用,这进一步提高了CPU的效率。

  为了保证CPU访问时有较高的命中率,缓存中的内容应该按一定的算法替换。一 种较常用的算法是“最近最少使用算法”(LRU算法),它是将最近一段时间内最少被访问过的行淘汰出局。因此需要为每行设置一个计数器,LRU算法是把命 中行的计数器清零,其他各行计数器加1。当需要替换时淘汰行计数器计数值最大的数据行出局。这是一种高效、科学的算法,其计数器清零过程可以把一些频繁调 用后再不需要的数据淘汰出缓存,提高缓存的利用率。

  CPU产品中,一级缓存的容量基本在4KB到18KB之间,二级缓存的容量则分为 128KB、256KB、 512KB、1MB等。一级缓存容量各产品之间相差不大,而二级缓存容量则是提高CPU性能的关键。二级缓存容量的提升是由 CPU制造工艺所决定的,容量增大必然导致CPU内部晶体管数的增加,要在有限的CPU面积上集成更大的缓存,对制造工艺的要求也就越高。

    双核心CPU的二级缓存比较特殊,和以前的单核心CPU相比,最重要的就是两个内核的缓存所保存的数据要保持一致,否则就会出现错误,为了解决这个问题不同的CPU使用了不同的办法:

Intel双核心处理器的二级缓存

 目 前Intel的双核心CPU主要有Pentium D、Pentium EE、Core Duo三种,其中Pentium D、Pentium EE的二 级缓存方式完全相同。Pentium D和Pentium EE的二级缓存都是CPU内部两个内核具有互相独立的二级缓存,其中,8xx系列的 Smithfield核心CPU为每核心1MB,而9xx系列的 Presler核心CPU为每核心2MB。这种CPU内部的两个内核之间的缓存数据同步 是依靠位于主板北桥芯片上的仲裁单元通过前端总线在两个核心之间传输来实现的,所以其数据延迟问题比较严重,性能并不尽如人意。爱好者博墅P!m o)q9K"\b
    Core Duo使用的核心为Yonah,它的二级缓存则是两个核心共享2MB的二级缓存,共享式的二级缓存配合 Intel的“Smart cache”共享缓存技术,实现了真正意义上的缓存数据同步,大幅度降低了数据延迟,减少了对前端总线的占用,性能表现不错, 是目前双核心处理器上最先进的二级缓存架构。今后Intel的双核心处理器的二级缓存都会采用这种两个内核共享二级缓存的“Smart cache”共享 缓存技术。

AMD双核心处理器的二级缓存
    Athlon 64 X2 CPU的核心主要有Manchester和 Toledo两种,他们的二级缓存都是CPU内部两个内核具有互相独立的二级缓存,其中,Manchester 核心为每核心512KB,而Toledo 核心为每核心1MB。处理器内部的两个内核之间的缓存数据同步是依靠CPU内置的System Request Interface(系统请求接 口,SRI)控制,传输在CPU内部即可实现。这样一来,不但CPU资源占用很小,而且不必占用内存总线资源,数据延迟也比Intel的 Smithfield核心和Presler核心大为减少,协作效率明显胜过这两种核心。不过,由于这种方式仍然是两个内核的缓存相互独立,从架构上来看也 明显不如以Yonah核心为代表的Intel的共享缓存技术Smart Cache。

-----------

CPU : 多媒体指令集

  CPU依靠指令来计算和控制系统,每款CPU在设计时就规定了一系列与其硬件电路相配合的指令系统。指令的 强弱也是CPU的重要指标,指令集是提高微处理器效率的最有效工具之一。从现阶段的主流体系结构讲,指令集可分为复杂指令集和精简指令集两部分,而从具体 运用看,如Intel的MMX(Multi Media Extended)、SSE、 SSE2(Streaming- Single instruction multiple data-Extensions 2)和AMD的3DNow!等都是CPU的扩展指令集,分别 增强了CPU的多媒体、图形图象和Internet等的处理能力。我们通常会把CPU的扩展指令集称为"CPU的指令集"。

1、精简指令集的运用

   在最初发明计算机的数十年里,随着计算机功能日趋增大,性能日趋变强,内部元器件也越来越多,指令集日趋复杂,过于冗杂的指令严重的影响了计算机的工作 效率。后来经过研究发现,在计算机中,80%程序只用到了20%的指令集,基于这一发现,RISC精简指令集被提了出来,这是计算机系统架构的一次深刻革 命。RISC体系结构的基本思路是:抓住CISC指令系统指令种类太多、指令格式不规范、寻址方式太多的缺点,通过减少指令种类、规范指令格式和简化寻址 方式,方便处理器内部的并行处理,提高VLSI器件的使用效率,从而大幅度地提高处理器的性能。

  RISC指令集有许多特征,其中最重要的有:

指令种类少,指令格式规范:RISC指令集通常只使用一种或少数几种格式。指令长度单一(一般4个字节),并且在字边界上对齐,字段位置、特别是操作码的位置是固定的。

寻址方式简化:几乎所有指令都使用寄存器寻址方式,寻址方式总数一般不超过5个。其他更为复杂的寻址方式,如间接寻址等则由软件利用简单的寻址方式来合成。

大量利用寄存器间操作:RISC指令集中大多数操作都是寄存器到寄存器操作,只以简单的Load和Store操作访问内存。因此,每条指令中访问的内存地址不会超过1个,访问内存的操作不会与算术操作混在一起。 爱好者博
`
简 化处理器结构:使用RISC指令集,可以大大简化处理器的控制器和其他功能单元的设计,不必使用大量专用寄存器,特别是允许以硬件线路来实现指令操作,而 不必像CISC处理器那样使用微程序来实现指令操作。因此RISC处理器不必像CISC处理器那样设置微程序控制存储器,就能够快速地直接执行指令。

便 于使用VLSI技术:随着LSI和VLSI技术的发展,整个处理器(甚至多个处理器)都可以放在一个芯片上。RISC体系结构可以给设计单芯片处理器带来 很多好处,有利于提高性能,简化VLSI芯片的设计和实现。基于VLSI技术,制造RISC处理器要比CISC处理器工作量小得多,成本也低得多。

加强了处理器并行能力:RISC指令集能够非常有效地适合于采用流水线、超流水线和超标量技术,从而实现指令级并行操作,提高处理器的性能。目前常用的处理器内部并行操作技术基本上是基于RISC体系结构发展和走向成熟的。
    正由于RISC体系所具有的优势,它在高端系统得到了广泛的应用,而CISC体系则在桌面系统中占据统治地位。而在如今,在桌面领域,RISC也不断渗透,预计未来,RISC将要一统江湖。

2、CPU的扩展指令集

  对于CPU来说,在基本功能方面,它们的差别并不太大,基本的指令集也都差不多,但是许多厂家为了提升某一方面性能,又开发了扩展指令集,扩展指令集定义了新的数据和指令,能够大大提高某方面数据处理能力,但必需要有软件支持。

MMX 指令集
   MMX(Multi Media eXtension,多媒体扩展指令集)指令集是Intel公司于1996年推出的一项多媒体指令增强技术。MMX指 令集中包括有57条多媒体指令,通过这些指令可以一次处理多个数据,在处理结果超过实际处理能力的时候也能进行正常处理,这样在软件的配合下,就可以得到 更高的性能。MMX的益处在于,当时存在的操作系统不必为此而做出任何修改便可以轻松地执行MMX程序。但是,问题也比较明显,那就是MMX指令集与 x87浮点运算指令不能够同时执行,必须做密集式的交错切换才可以正常执行,这种情况就势必造成整个系统运行质量的下降。

SSE指令集
   SSE(Streaming SIMD Extensions,单指令多数据流扩展)指令集是Intel在Pentium III处理器中率先推出的。 其实,早在PIII正式推出之前,Intel公司就曾经通过各种渠道公布过所谓的KNI(Katmai New Instruction)指令集,这个指 令集也就是SSE指令集的前身,并一度被很多传媒称之为MMX指令集的下一个版本,即MMX2指令集。究其背景,原来"KNI"指令集是Intel公司最 早为其下一代芯片命名的指令集名称,而所谓的"MMX2"则完全是硬件评论家们和媒体凭感觉和印象对"KNI"的评价,Intel公司从未正式发布过关于 MMX2的消息。

  而最终推出的SSE指令集也就是所谓胜出的"互联网SSE"指令集。SSE指令集包括了70条指令,其中包含提高 3D图形运算效率的50条SIMD(单指令多数据技术)浮点运算指令、12条MMX 整数运算增强指令、8条优化内存中连续数据块传输指令。理论上这些指 令对目前流行的图像处理、浮点运算、3D运算、视频处理、音频处理等诸多多媒体应用起到全面强化的作用。SSE指令与3DNow!指令彼此互不兼容,但 SSE包含了3DNow!技术的绝大部分功能,只是实现的方法不同。SSE兼容MMX指令,它可以通过SIMD和单时钟周期并行处理多个浮点数据来有效地 提高浮点运算速度。

SSE2指令集
   SSE2(Streaming SIMD Extensions 2,Intel官方称 为SIMD 流技术扩展 2或数据流单指令多数据扩展指令集 2)指令集是Intel公司在SSE指令集的基础上发展起来的。相比于SSE,SSE2使用 了144个新增指令,扩展了MMX技术和SSE技术,这些指令提高了广大应用程序的运行性能。随MMX技术引进的SIMD整数指令从64位扩展到了 128 位,使SIMD整数类型操作的有效执行率成倍提高。双倍精度浮点SIMD指令允许以 SIMD格式同时执行两个浮点操作,提供双倍精度操作支持有 助于加速内容创建、财务、工程和科学应用。除SSE2指令之外,最初的SSE指令也得到增强,通过支持多种数据类型(例如,双字和四字)的算术运算,支持 灵活并且动态范围更广的计算功能。SSE2指令可让软件开发员极其灵活的实施算法,并在运行诸如MPEG-2、MP3、3D图形等之类的软件时增强性能。 Intel是从Willamette核心的Pentium 4开始支持SSE2指令集的,而AMD则是从K8架构的SledgeHammer核心的 Opteron开始才支持SSE2指令集的。

SSE3指令集
    SSE3(Streaming SIMD Extensions 3,Intel 官方称为SIMD 流技术扩展 3或数据流单指令多数据扩展指令集 3)指令集是Intel公司在SSE2指令集的基础上发展起来的。相比于 SSE2,SSE3在SSE2的基础上又增加了13个额外的SIMD指令。 SSE3 中13个新指令的主要目的是改进线程同步和特定应用程序领域,例如 媒体和游戏。这些新增指令强化了处理器在浮点转换至整数、复杂算法、视频编码、SIMD浮点寄存器操作以及线程同步等五个方面的表现,最终达到提升多媒体 和游戏性能的目的。Intel是从Prescott核心的Pentium 4开始支持SSE3指令集的,而AMD则是从2005年下半年Troy核心的 Opteron开始才支持SSE3的。但是需要注意的是,AMD所支持的 SSE3与Intel的SSE3并不完全相同,主要是删除了针对Intel超线 程技术优化的部分指令。

3D Now!(3D no waiting)指令集
  3DNow!是AMD公司开发的SIMD指令集,可以增强浮点和多媒体运算的速度,并被AMD广泛应用于其K6-2 、K6-3以及Athlon(K7)处理器上。3DNow!指令集技术其实就是21条机器码的扩展指令集。

   与Intel公司的MMX技术侧重于整数运算有所不同,3DNow!指令集主要针对三维建模、坐标变换和效果渲染等三维应用场合,在软件的配合下,可以 大幅度提高3D处理性能。后来在Athlon上开发了Enhanced 3DNow!。这些AMD标准的SIMD指令和Intel的SSE具有相同效能。 因为受到Intel在商业上以及Pentium III成功的影响,软件在支持SSE上比起3DNow!更为普遍。Enhanced 3DNow!AMD 公司继续增加至52个指令,包含了一些SSE码,因而在针对SSE做最佳化的软件中能获得更好的效能。

--------------------------------------------------

CPU前端总线的公式、INTEL和AMD前端总线公式

前端总线(FSB)频率(即总线频率)是直接影响CPU与内存直接数据交换速度
CPU主频=总线频率*倍频
FSB(前端总线)front side bus
在PC 内部,一个设备与另一个设备通过系统总线(Bus)传递数字信号。CPU可以通过前端总线(FSB)与内存、显卡及其他设备通信。FSB频率越快,处理器在单位时间里得到更多的数据,处理器利用率越高。
前端总线频率直接影响CPU与内存直接数据交换的总线速度。由于采用了特殊的技术,使存在于CPU与内存(CPU通过北桥的内存管理器与内存交换数据)的总线能够在一个时钟周期内完成2次甚至4次传输,因此相当于频率提升了好几倍。(即是CPU外频数倍。)

Intel和AMD在FSB上采用的技术不同。
Intel FSB频率=CPU 外频*4
例如:2.4C 外频200MHz, FSB频率800MHz
AMD FSB频率=CPU外频*2
例如:Athlon XP 2500+ (Barton)外频 166MHz,FSB频率333MHz 。

FSB带宽表示FSB的数据传输速度,单位MB/s或GB/s 。
FSB带宽=FSB频率*FSB位宽/8,现在FSB位宽都是64位。
例如:P4 2.0A:FSB带宽=400MHz*64bit/8=3.2GB/s 。

一般就INTEL的U来说400的上266
533的上333技术不同。
Intel FSB频率=CPU 外频*4
例如:2.4C 外频200MHz, FSB频率800MHz
AMD FSB频率=CPU外频*2
例如:Athlon XP 2500+ (Barton)外频 166MHz,FSB频率333MHz 。

FSB带宽表示FSB的数据传输速度,单位MB/s或GB/s 。
FSB带宽=FSB频率*FSB位宽/8,现在FSB位宽都是64位。
例如:P4 2.0A:FSB带宽=400MHz*64bit/8=3.2GB/s 。

--------------------------------------------------

外频、FSB和HT总线的三角关系

谈 到CPU和主板的搭配,总是离不开外频、FSB和HT总线这三个名词。在AMD的K8推出之前,FSB和外频的关系算是比较清楚的。对于Intel的 CPU而言,FSB=外频×4,如果是AMD的K7处理器,FSB=外频×2。但是AMD K8的出现引入了全新的HT总线,使得三者的概念变得混淆起 来。两年过去了,许多厂商和媒体的错误宣传使它们的关系变得更加复杂。“这款K8主板支持1000MHz FSB”这样不负责任的说法随处可见。要彻底澄 清这个问题,还是重新认识一下外频、FSB和HT的概念吧。 

    外频,它指的是CPU和主板之间同步运行的速度,是建立在数字脉冲 信号震荡速度基础之上的,也就是说,100MHz外频特指数字脉冲信号每秒钟发生一万万次的震荡。说到外频,就必须提到两个概念:倍频与主频。主频是 CPU的时钟频率,倍频即主频与外频之比的倍数。主频/外频/倍频,其关系式为主频=外频×倍频。 

    FSB,其全称 Front Side Bus,中文名为前端总线。它是将CPU和北桥芯片的连接起来的总线,电脑的前端总线频率是由CPU和北桥芯片共同决定的。曾几何 时,FSB也和外频混为一谈,这是因为在早期,尤其是Pentium 4出现之前,前端总线与外频在频率上是相等的,因此往往直接称前端总线为外频。随着 技术的发展,出现了QDR技术,它们使得前端总线的频率成为外频的两倍或者是四倍,所有才有了PentiumD 820外频为200MHz,前端总线为 800MHz的说法。

    AMD的K8处理器可说是划时代的,它把内存控制器集成在了CPU里面,进一步降低了延迟,而且全面引入了 HT(HyperTransport)总线的概念。这是一种高速点对点总线技术,在K8平台上起到传输CPU和主板芯片组之间数据的作用。K8和以往的处 理器最大的区别在于:由于CPU已不通过传统的前端总线而是直接从内存获得数据,在AMD发布的Athlon64 CPU规格表以及各个芯片组厂商发布的 芯片组原理图上,前端总线这个名词消失了,取而代之的是HT。
 
    它和FSB到底有什么具体的区别呢?首先,FSB和外频是密不可 分的,外频提高之后,FSB会随之提高,这是不可调的。但是K8平台的超频就不一样,当提高CPU的外频时,往往要将HT的倍数往下调!用 AM2 Athlon64 3000+来打个比方,其默认外频是200MHz,假设主板支持1000MHz的HT总线,外频由200MHz超到 250MHz时最好把HT的倍数从5调到4,使HT总线仍然保持在1000MHz上,这样可以提高超频的成功率。

----

关于显卡

显示芯片 
显示芯片,又称图型处理器 - GPU,它在显卡中的作用,就如同CPU在电脑中的作用一样。更直接的比喻就是大脑在人身体里的作用。 
先简要介绍一下常见的生产显示芯片的厂商:Intel、ATI、nVidia、VIA(S3)、SIS、Matrox、3D Labs。 
Intel、VIA(S3)、SIS 主要生产集成芯片; 
ATI、nVidia 以独立芯片为主,是目前市场上的主流,但由于ATi现在已经被AMD收购,以后是否会继续出独立显示芯片很难说了; 
Matrox、3D Labs 则主要面向专业图形市场。 
由于ATI和nVidia基本占据了主流显卡市场,下面主要将主要针对这两家公司的产品做介绍。 

型号 
ATi公司的主要品牌 Radeon(镭) 系列,其型号由早其的 Radeon Xpress 200 到 Radeon (X300、X550、X600、X700、X800、X850) 到近期的 
Radeon (X1300、X1600、X1800、X1900、X1950) 性能依次由低到高。 
nVIDIA公司的主要品牌 GeForce 系列,其型号由早其的 GeForce 256、GeForce2 (100/200/400)、GeForce3(200/500)、GeForce4 
(420/440/460/4000/4200/4400/4600/4800) 到 GeForce FX(5200/5500/5600/5700/5800/5900/5950)、GeForce 
(6100/6150/6200/6400/6500/6600/6800/) 再到近其的 GeForce (7300/7600/7800/7900/7950) 性能依次由低到高。 

版本级别 
除了上述标准版本之外,还有些特殊版,特殊版一般会在标准版的型号后面加个后缀,常见的有: 
ATi: 
SE (Simplify Edition 简化版) 通常只有64bit内存界面,或者是像素流水线数量减少。 
Pro (Professional Edition 专业版) 高频版,一般比标版在管线数量/顶点数量还有频率这些方面都要稍微高一点。 
XT (eXTreme 高端版) 是ATi系列中高端的,而nVIDIA用作低端型号。 
XT PE (eXTreme Premium Edition XT白金版) 高端的型号。 
XL (eXtreme Limited 高端系列中的较低端型号)ATI最新推出的R430中的高频版 
XTX (XT eXtreme 高端版) X1000系列发布之后的新的命名规则。 
CE (Crossfire Edition 交叉火力版) 交叉火力。 
VIVO (VIDEO IN and VIDEO OUT) 指显卡同时具备视频输入与视频捕捉两大功能。 
HM (Hyper Memory)可以占用内存的显卡 
nVIDIA: 
ZT 在XT基础上再次降频以降低价格。 
XT 降频版,而在ATi中表示最高端。 
LE (Lower Edition 低端版) 和XT基本一样,ATi也用过。 
MX 平价版,大众类。 
GTS/GS 低频版。 
GE 比GS稍强点,其实就是超了频的GS。 
GT 高频版。比GS高一个档次 因为GT没有缩减管线和顶点单元。 
GTO 比GT稍强点,有点汽车中GTO的味道。 
Ultra 在GF7系列之前代表着最高端,但7系列最高端的命名就改为GTX 。 
GTX (GT eXtreme)加强版,降频或者缩减流水管道后成为GT,再继续缩水成为GS版本。 
GT2 双GPU显卡。 
TI (Titanium 钛) 一般就是代表了nVidia的高端版本。 
Go 多用语移动平台。 
TC (Turbo Cache)可以占用内存的显卡 
开发代号 
所 谓开发代号就是显示芯片制造商为了便于显示芯片在设计、生产、销售方面的管理和驱动架构的统一而对一个系列的显示芯片给出的相应的基本的代号。开发代号作 用是降低显示芯片制造商的成本、丰富产品线以及实现驱动程序的统一。一般来说,显示芯片制造商可以利用一个基本开发代号再通过控制渲染管线数量、顶点着色 单元数量、显存类型、显存位宽、核心和显存频率、所支持的技术特性等方面来衍生出一系列的显示芯片来满足不同的性能、价格、市场等不同的定位,还可以把制 造过程中具有部分瑕疵的高端显示芯片产品通过屏蔽管线等方法处理成为完全合格的相应低端的显示芯片产品出售,从而大幅度降低设计和制造的难度和成本,丰富 自己的产品线。同一种开发代号的显示芯片可以使用相同的驱动程序,这为显示芯片制造商编写驱动程序以及消费者使用显卡都提供了方便。 
同一种开发 代号的显示芯片的渲染架构以及所支持的技术特性是基本上相同的,而且所采用的制程也相同,所以开发代号是判断显卡性能和档次的重要参数。同一类型号的不同 版本可以是一个代号,例如:GeForce (X700、X700 Pro、X700 XT) 代号都是 RV410;而Radeon (X1900、 X1900XT、X1900XTX) 代号都是 R580 等,但也有其他的情况,如:GeForce (7300 LE、7300 GS) 代号 是 G72 ;而 GeForce (7300 GT、7600 GS、7600 GT) 代号都是 G73 等。 

制造工艺 
制 造工艺指得是在生产GPU过程中,要进行加工各种电路和电子元件,制造导线连接各个元器件。通常其生产的精度以um(微米)来表示,未来有向nm(纳米) 发展的趋势(1mm=1000um 1um=1000nm),精度越高,生产工艺越先进。在同样的材料中可以制造更多的电子元件,连接线也越细,提高芯片 的集成度,芯片的功耗也越小。 
制造工艺的微米是指IC内电路与电路之间的距离。制造工艺的趋势是向密集度愈高的方向发展。密度愈高的IC电路设 计,意味着在同样大小面积的IC中,可以拥有密度更高、功能更复杂的电路设计。微电子技术的发展与进步,主要是靠工艺技术的不断改进,使得器件的特征尺寸 不断缩小,从而集成度不断提高,功耗降低,器件性能得到提高。芯片制造工艺在1995年以后,从0.5微米、0.35微米、0.25微米、0.18微米、 0.15微米、0.13微米,再到目前主流的 90 纳米(0.09纳米) 、65 纳米等。 
核心频率 
显卡的核心频率是指显示核心的 工作频率,其工作频率在一定程度上可以反映出显示核心的性能,但显卡的性能是由核心频率、显存、像素管线、像素填充率等等多方面的情况所决定的,因此在显 示核心不同的情况下,核心频率高并不代表此显卡性能强劲。比如9600PRO的核心频率达到了400MHz,要比9800PRO的380MHz高,但在性 能上9800PRO绝对要强于9600PRO。在同样级别的芯片中,核心频率高的则性能要强一些,提高核心频率就是显卡超频的方法之一。显示芯片主流的只 有ATI和NVIDIA两家,两家都提供显示核心给第三方的厂商,在同样的显示核心下,部分厂商会适当提高其产品的显示核心频率,使其工作在高于显示核心 固定的频率上以达到更高的性能。 

2、显存 

类型 
目前市场中所采用的显存类型主要有SDRAM,DDR SDRAM,DDR SGRAM三种。 
SDRAM颗粒目前主要应用在低端显卡上,频率一般不超过200MHz,在价格和性能上它比DDR都没有什么优势,因此逐渐被DDR取代。 
DDR SDRAM 是Double Data Rate SDRAM的缩写(双倍数据速率) ,它能提供较高的工作频率,带来优异的数据处理性能。 
DDR SGRAM 是 显卡厂商特别针对绘图者需求,为了加强图形的存取处理以及绘图控制效率,从同步动态随机存取内存(SDRAM)所改良而得的产品。SGRAM允许以方 块 (Blocks) 为单位个别修改或者存取内存中的资料,它能够与中央处理器(CPU)同步工作,可以减少内存读取次数,增加绘图控制器的效率,尽管 它稳定性不错,而且性能表现也很好,但是它的超频性能很差。 
目前市场上的主流是DDR2和DDR3,。 
位宽 
显存位宽是显存 在一个时钟周期内所能传送数据的位数,位数越大则瞬间所能传输的数据量越大,这是显存的重要参数之一。目前市场上的显存位宽有64位、128位、256位 和512位几种,人们习惯上叫的64位显卡、128位显卡和256位显卡就是指其相应的显存位宽。显存位宽越高,性能越好价格也就越高,因此512位宽的 显存更多应用于高端显卡,而主流显卡基本都采用128和256位显存。 
显存带宽=显存频率X显存位宽/8,在显存频率相当的情况下,显存位宽将 决定显存带宽的大小。例如:同样显存频率为500MHz的128位和256位显存,那么它俩的显存带宽将分别为:128 位=500MHz*128∕8=8GB/s,而256位=500MHz*256∕8=16GB/s,是128位的2倍,可见显存位宽在显存数据中的重要 性。显卡的显存是由一块块的显存芯片构成的,显存总位宽同样也是由显存颗粒的位宽组成。显存位宽=显存颗粒位宽×显存颗粒数。显存颗粒上都带有相关厂家的 内存编号,可以去网上查找其编号,就能了解其位宽,再乘以显存颗粒数,就能得到显卡的位宽。 
容量 
这个就比较好理解了,容量越大,存的东西就越多,当然也就越好。 
目前主流的显存容量,64MB、128MB、256MB、512MB等。 
封装类型 
显存封装形式主要有: 
TSOP (Thin Small Out-Line Package) 薄型小尺寸封装 
QFP (Quad Flat Package) 小型方块平面封装 
MicroBGA (Micro Ball Grid Array) 微型球闸阵列封装,又称FBGA(Fine-pitch Ball Grid Array) 
目前的主流显卡基本上是用TSOP和MBGA封装,其中又以TSOP封装居多. 
速度 
显存速度一般以ns(纳秒)为单位。常见的显存速度有7ns、6ns、5.5ns、5ns、4ns,3.6ns、2.8ns、2.2ns、1.1ns等,越小表示速度越快\越好。 
显存的理论工作频率计算公式是:额定工作频率(MHz)=1000/显存速度×n得到(n因显存类型不同而不同,如果是SDRAM显存,则n=1;DDR显存则n=2;DDRII显存则n=4)。 
频率 
显存频率一定程度上反应着该显存的速度,以MHz(兆赫兹)为单位。 
显存频率随着显存的类型、性能的不同而不同: 
SDRAM显存一般都工作在较低的频率上,一般就是133MHz和166MHz,此种频率早已无法满足现在显卡的需求。 
DDR SDRAM 显存则能提供较高的显存频率,因此是目前采用最为广泛的显存类型,目前无论中、低端显卡,还是高端显卡大部分都采用DDR SDRAM,其所能提供的显存 频率也差异很大,主要有400MHz、500MHz、600MHz、650MHz等,高端产品中还有800MHz或900MHz,乃至更高。 
显 存频率与显存时钟周期是相关的,二者成倒数关系,也就是显存频率=1/显存时钟周期。如果是SDRAM显存,其时钟周期为6ns,那么它的显存频率就为1 /6ns=166 MHz;而对于DDR SDRAM,其时钟周期为6ns,那么它的显存频率就为1/6ns=166 MHz,但要了解的是这是 DDR SDRAM的实际频率,而不是我们平时所说的DDR显存频率。因为DDR在时钟上升期和下降期都进行数据传输,其一个周期传输两次数据,相当于 SDRAM频率的二倍。习惯上称呼的DDR频率是其等效频率,是在其实际工作频率上乘以2,就得到了等效频率。因此6ns的DDR显存,其显存频率为 1/6ns*2=333 MHz。但要明白的是显卡制造时,厂商设定了显存实际工作频率,而实际工作频率不一定等于显存最大频率。此类情况现在较为常见, 如显存最大能工作在650 MHz,而制造时显卡工作频率被设定为550 MHz,此时显存就存在一定的超频空间。这也就是目前厂商惯用的方法,显卡以超 频为卖点。 

3、技术 
象素渲染管线 
渲染管线也称为渲染流水线,是显示芯片内部处理图形信号相互独立的的并行处理单元。 
在 某种程度上可以把渲染管线比喻为工厂里面常见的各种生产流水线,工厂里的生产流水线是为了提高产品的生产能力和效率,而渲染管线则是提高显卡的工作能力和 效率。 渲染管线的数量一般是以 像素渲染流水线的数量×每管线的纹理单元数量 来表示。例如,GeForce 6800Ultra的渲染管线是 16×1,就表示其具有16条像素渲染流水线,每管线具有1个纹理单元;GeForce4 MX440的渲染管线是2×2,就表示其具有2条像素渲染流水 线,每管线具有2个纹理单元等等,其余表示方式以此类推。 渲染管线的数量是决定显示芯片性能和档次的最重要的参数之一,在相同的显卡核心频率下,更多的 渲染管线也就意味着更大的像素填充率和纹理填充率,从显卡的渲染管线数量上可以大致判断出显卡的性能高低档次。但显卡性能并不仅仅只是取决于渲染管线的数 量,同时还取决于显示核心架构、渲染管线的的执行效率、顶点着色单元的数量以及显卡的核心频率和显存频率等等方面。 
一般来说在相同的显示核心架 构下,渲染管线越多也就意味着性能越高,例如16×1架构的GeForce 6800GT其性能要强于12×1架构的GeForce 6800,就象工厂 里的采用相同技术的2条生产流水线的生产能力和效率要强于1条生产流水线那样;而在不同的显示核心架构下,渲染管线的数量多就并不意味着性能更好,例如 4×2架构的GeForce2 GTS其性能就不如2×2架构的GeForce4 MX440,就象工厂里的采用了先进技术的1条流水线的生产能力和效率 反而还要强于只采用了老技术的2条生产流水线那样。 

顶点着色引擎数 
顶点着色引擎(Vertex Shader),也称为顶点遮蔽器,根据官方规格,顶点着色引擎是一种增加各式特效在3D场影中的处理单元,顶点着色引擎 
的可程式化特性允许开发者靠加载新的软件指令来调整各式的特效,每一个顶点将被各种的数据变素清楚地定义,至少包括每一顶点的x、y、z坐标,每一点顶点可能包函的数据有颜色、最初的径路、材质、光线特征等。顶点着色引擎数越多速度越快。 
3D API 
API是Application Programming Interface的缩写,是应用程序接口的意思,而3D API则是指显卡与应用程序直接的接口。 
3D API 能让编程人员所设计的3D软件只要调用其API内的程序,从而让API自动和硬件的驱动程序沟通,启动3D芯片内强大的3D图形处理功能,从而大幅度地提 高了3D程序的设计效率。如果没有3D API在开发程序时,程序员必须要了解全部的显卡特性,才能编写出与显卡完全匹配的程序,发挥出全部的显卡性能。 而有了3D API这个显卡与软件直接的接口,程序员只需要编写符合接口的程序代码,就可以充分发挥显卡的不必再去了解硬件的具体性能和参数,这样就大大 简化了程序开发的效率。同样,显示芯片厂商根据标准来设计自己的硬件产品,以达到在API调用硬件资源时最优化,获得更好的性能。有了3D API,便可 实现不同厂家的硬件、软件最大范围兼容。比如在最能体现3D API的游戏方面,游戏设计人员设计时,不必去考虑具体某款显卡的特性,而只是按照 3D API的接口标准来开发游戏,当游戏运行时则直接通过3D API来调用显卡的硬件资源。 
目前个人电脑中主要应用的3D API有:DirectX和OpenGL。 
RAMDAC频率和支持最大分辨率 
RAMDAC是Random Access Memory Digital/Analog Convertor的缩写,即随机存取内存数字~模拟转换器。 
RAMDAC 作用是将显存中的数字信号转换为显示器能够显示出来的模拟信号,其转换速率以MHz表示。计算机中处理数据的过程其实就是将事物数字化的过程,所有的事物 将被处理成0和1两个数,而后不断进行累加计算。图形加速卡也是靠这些0和1对每一个象素进行颜色、深度、亮度等各种处理。显卡生成的都是信号都是以数字 来表示的,但是所有的CRT显示器都是以模拟方式进行工作的,数字信号无法被识别,这就必须有相应的设备将数字信号转换为模拟信号。而RAMDAC就是显 卡中将数字信号转换为模拟信号的设备。RAMDAC的转换速率以MHz表示,它决定了刷新频率的高低(与显示器的“带宽”意义近似)。其工作速度越高,频 带越宽,高分辨率时的画面质量越好.该数值决定了在足够的显存下,显卡最高支持的分辨率和刷新率。如果要在1024×768的分辨率下达到85Hz的分辨 率,RAMDAC的速率至少是1024×768×85×1.344(折算系数)÷106≈90MHz。目前主流的显卡RAMDAC都能达到350MHz和 400MHz,已足以满足和超过目前大多数显示器所能提供的分辨率和刷新率。 
4、PCB板 
PCB是Printed Circuit Block的缩写,也称为印制电路板。就是显卡的躯体(绿色的板子),显卡一切元器件都是放在PCB板上的,因此PCB板的好坏,直接决定着显卡电气性能的好坏和稳定。 
层数 
目前的PCB板一般都是采用4层、6层、或8层,理论上来说层数多的比少的好,但前提是在设计合理的基础上。 
PCB 的各个层一般可分为信号层(Signal),电源层(Power)或是地线层(Ground)。每一层PCB版上的电路是相互独立的。在4层PCB的主板 中,信号层一般分布在PCB的最上面一层和最下面一层,而中间两层则是电源与地线层。相对来说6层PCB就复杂了,其信号层一般分布在1、3、5层,而电 源层则有2层。至于判断PCB的优劣,主要是观察其印刷电路部分是否清晰明了,PCB是否平整无变形等等。 
显卡接口 
常见的有PCI、AGP 2X/4X/8X (目前已经淘汰),最新的是PCI-Express X16接口,是目前的主流。 

输出接口 
现在最常见的输出接口主要有: 
VGA (Video Graphics Array) 视频图形阵列接口,作用是将转换好的模拟信号输出到CRT或者LCD显示器中 
DVI (Digital Visual Interface) 数字视频接口接口,视频信号无需转换,信号无衰减或失真,未来VGA接口的替代者。 
S-Video (Separate Video) S端子,也叫二分量视频接口,一般采用五线接头,它是用来将亮度和色度分离输出的设备,主要功能是为了克服 
视频节目复合输出时的亮度跟色度的互相干扰。 
散热装置 
散热装置的好坏也能影响到显卡的运行稳定性,常见的散热装置有: 
被动散热:既只安装了铝合金或铜等金属的散热片。 
风冷散热:在散热片上加装了风扇,目前多数采用这种方法。 
水冷散热:通过热管液体把GPU和水泵相连,一般在高端顶级显卡中采用。 
颜色 
很多人认为红色显卡的比绿色的好、绿色的比黄色的好,显卡的好坏和其颜色并没有什么关系,有的厂家喜用红色,有的喜用绿色,这是完全由生产商决定的。一些名牌大厂,那是早就形成了一定的风格的。因此,其PCB的颜色一般也不会有太大的变动。 

5、品牌 
目前显卡业的竞争也是日趋激烈。各类品牌名目繁多,以下是我自认为一些比较不错的牌子,仅供参考请不要太迷信了: 
迈创(MATROX) 、3Dlabs 、蓝宝石(SAPPHIRE) 、华硕(ASUS)、鸿海(Foxconn)、撼迅/迪兰恒进(PowerColor/Dataland)、丽台(Leadtek)、讯景(XFX)、映众(Inno3D) 

微 星(MSI)、艾尔莎(ELSA)、富彩(FORSA)、同德(Palit)、捷波(Jetway)、升技(Abit)、磐正(EPOX) 、映泰 (Biostar) 、耕升(Gainward)、旌宇(SPARKLE) 、影驰(GALAXY) 、天扬(GRANDMARS) 、超卓天彩 (SuperGrece)、铭瑄(MAXSUN)、翔升(ASL)、盈通(YESTON)



显卡三个重要指标:容量、频率和显存位宽。 

1.容量 

显存担负着系统与显卡之间数据交换以及显示芯片运算3D图形时的数据缓存,因此显存容量自然决定了显示芯片能处理的数据量。理论上讲,显存越大,显卡性能就越好。不过这只是理论上的计算而已,实际显卡性能要受到很多因素的约束,如:显示芯片速度,显存位宽、显存速度等。 

2.时钟周期和工作频率 

时 钟周期和显存工作频率是显存非常重要的性能指标,它指的是显存每处理一次数据要经过的时间。显存速度越快,单位时间交换的数据量也就越大,在同等情况下显 卡性能将会得到明显提升。显存的时钟周期一般以ns(纳秒)为单位,工作频率以MHz为单位。显存时钟周期跟工作频率一一对应,它们之间的关系为:工作频 率=1÷时钟周期×1000。 

常见显存时钟周期有5ns、4ns、3.8ns、3.6ns、3.3ns、2.8ns。对于 DDR SDRAM显存来说,描述其工作频率时用的是等效工作频率。因为能在时钟周期的上升沿和下降沿都能传送数据,所以在工作频率和数据位宽度相同的情 况下,显存带宽是SDRAM的两倍。换句话说,在显存时钟周期相同的情况下,DDR SDRAM显存的实际工作频率是SDRAM显存的两倍。例如,5ns 的SDRAM显存的工作频率为200MHz,而5ns的DDR SDRAM显存的等效工作频率就是400MHz。目前市面上显卡所采用的显存都为 DDR,SDR已经被淘汰了。 

3.显存位宽 

显存位宽是显存也是显卡的一个很重要的参数。可以理解成为数据进出通道的 大小,显然,在显存速度(工作频率)一样的情况下,带宽越大,数据的吞吐量可以越大,性能越好。就现在显卡比较常见是64Bit和128Bit而言,很明 显的,在频率相同的情况下,128Bit显存的数据吞量是64Bit的两倍(实际使用中达不到),性能定会增强不少。 

显存的三个主要参数已经介绍完了,接下来让我们看看这三个主要参数的计算公式: 

显卡的内存容量=单颗显存颗粒的容量X 显存颗粒数量 
显卡的显存位宽=单颗显存位宽X 显存颗粒数量 
显卡的显存工作频率=单颗显存颗粒的工作频率 

知 道了显存的位宽和速度,我们就可以知道显存的带宽了,带宽=工作频率×显存位宽÷8,之所以要除以8,是因为每8个bit(位)等于一个byte(字 节)。带宽是显存速度的最终衡量,数据吞吐量的大小也就是显存的速度就看带宽了。有些显卡的显存频率高,但是位宽低,带宽不高;有些们宽高,但是频率低, 带宽也不高。 

因此,为了能准确计算出一块显卡的显存容量、速度、带宽,我们必须从观察一个显存颗粒的大小以及数据位宽度开始。每颗显存颗粒上虽然没有明确标明以上所说的三个参数,但是它上面都印有编号,我们想要知道的三个参数都可以从这个编号上读出。


    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多