分享

(上)简要讲讲英伟达显卡迭代史(科技深渊第二期)

 瓜爷耶 2022-10-28 发布于湖北

长文警告!看在我找了上百个资料的份上,求个三连不过分吧嘿嘿(●ˇ∀ˇ●)

可能已经有小伙伴注意到了,本文讲的是英伟达的显卡。那么肯定会有英伟达的cpu的发展史(tegra系列)啦,敬请期待<( ̄︶ ̄)↗

注:英伟达历史中没有重大意义的显卡不会详细介绍

一、图形加速卡时期(远古时期)

在那遥远的1993年,有几名年轻人在硅谷画了一个圈,于是英伟达便成立了。

1、这几位年轻人思前想后,于1995年研发出了STG-2000X

就是这个

这款显卡基于NV1核心,500nm的超高制程工艺,高达1mb的显存与12mhz的频率在当时让它在3d加速卡领域傲视群雄(3dfx还在骗投资),还有音频处理能力(n卡音质好)但是,市场表现却一般。

2、1996年,微软direct3d发布,接下来的NVIDIA RIVA 128(当时厂商都特别喜欢在后缀加上128)支持了这一著名的api,由于3dfx使用的是Glide这一api,游戏无法兼容,所以英伟达与3dfx的竞争,在当时也是背后api的竞争。riva 128使用NV3核心,最高100mhz的频率,350nm制程(NV2被抛弃了),8mb显存不过由于当时3dfx 的voodoo加速卡太过强大,几乎霸占了市场,销量也只是一般。

ria

3、两代TNT

        孔乙己一到店,所有喝酒的人便都看着他笑,老板来两袋子TNT,说罢,便排出几文大    钱。他们(3dfx)又故意的高声嚷道,“你一定又偷了人家的东西了!”孔乙己睁大眼睛说,“你怎么这样凭空污人清白……”“什么清白?我前天亲眼见你把世嘉的显卡做的方形,被吊着打。”孔乙己便涨红了脸,额上的青筋条条绽出,争辩道,“读书人的事,能算么?”接连便是难懂的话,什么“君子固穷”⑶,什么“者乎”之类,引得众人都哄笑起来:店内外充满了快活的空气。

然后孔乙己便拿出了TNT

1998年10月英伟达发布了RIVA TNT,TNT是TwiN Texel的缩写,同时也意味着性能的爆炸。频率90mhz,基于NV4核心,350nm制程。TNT成功在性能上超过了3dfx的voodoo2加速卡。同时英伟达也研发了世界上第一个显卡驱动程序“雷管”

用雷管来引爆tnt,不愧是核弹公司英伟达

彼时的3dfx正在走下坡路,英伟达乘胜追击,于1999年4月发布了TNT2,此时250nm制程已经成熟,TNT2换上了新的制程,频率达到了125mhz,基于NV5核心。从这时起,英伟达对产品进行市场化细分,于是TNT2有了TNT2 Vanta、TNT2 M64、TNT2、TNT2 Pro、TNT2 Ultra等多个型号(论刀法是怎么练成的)

二、显卡(GPU)时代

1999年,显卡史上的里程碑诞生了,老黄拿出了史上第一张GPU,第一张Geforce显卡——Geforce256,惊艳全场Σ(っ °Д °;)っ

这张显卡,创造性的使用了硬件T&L技术(TransformandLighting,多边形转换与光源处理),这项工作在3d游戏中是非常重要的工作,原本这些全部都需要cpu进行处理,在cpu处理完后还需要向显卡发送,这会占用大量总线的资源,而硬件T&L则是把这项工作搬到了显卡上,这使得显卡在电脑的地位变得无可或缺。

Geforce256基于NV10核心,核心频率166MHz,32mb显存(ddr/sdram)这使得它的性能远超友商产品

Geforce2(三年后有三年,三年后又有三年。横批:在挤牙膏)

NV15核心,180nm,200mhz的频率让它赢在了起跑线上,唯一的问题是显存带宽不太够,导致在某一些特定场景被ati的readon ddr打败

Geforce3

150nm制程,核心频率200MHZ

微软当时发布了dx8,最大的改变就是带来了可编程渲染管线。Geforce3便支持了这一特性

在原本的显卡中,显卡处理各个流程的”部件“都是完全固定的,这导致可能会出现木桶效应,显卡会因为某个”部件“的负载过高而导致其他“部件”处于空闲。性能无法利用完全。而可编程渲染管线就允许一部分的部件去做其他工作,比如像素填充,顶点着色等等。

SM(shadermodel就是可编程渲染管线的标准)Geforce3支持的dx8.0就只支持SM1.0

Gefore4

最出名的就是Geforce4 MX440了,由于其能够在提供较好的性能的同时,只有一个超低的价格,MX440便成为了一代神卡。geforce4(MX440除外,MX440基于nv17)基于NV25核心

MX440

FX5800 Ultra(高端领域的大溃败)

由于隔壁老王ATI的9000系列十分强大,英伟达为了超过ati,FX5800 Ultra采用了许多新的科技,

为了显存容量与带宽超过ati,英伟达使用ddr2来当作显存,结果当时ddr2尚未完全成熟,发热量巨大(相对而言)

为了晶体管数量超过ati,英伟达采用130nm制程,结果当时130nm也尚未成熟,发热量巨大

为了解决发热的问题,英伟达采用了一个当时史无前例大的散热器,结果这个散热器设计尚不成熟,噪声巨大且难以达到散热效果

结果性能也打不过ati,价格还贵,很快啊,就凉凉了。

吸尘器(bushi)

GeForce 6800 Ultra

                在前代的大溃败后,英伟达痛定思痛,于2004年发布了GeForce 6800 Ultra,采用了NV45核心,130nm制程支持dx9.0c,采用了Gddr3显存,内存带宽翻了一番,核心频率400mhz .支持sm3.0。在先进程度上领先了ati。

                    同时,这也是英伟达第一张支持SLI Multi-GPU技术也就是多卡交火的技术的显卡。

GF7800GTX

2005年发布,没什么特点

Geforce 8800GTX

这款显卡是英伟达第一款支持CUDA的显卡。至于cuda是什么?

CUDA 是 NVIDIA 发明的一种并行计算平台和编程模型。它通过利用图形处理器 (GPU) 的处理能力,可大幅提升计算性能。

GTX480(核弹的开端)

2010年3月,全新的Fermi架构推出,由于其所存在的核心漏电等问题,这一代英伟达显卡的功耗十分的高。但其性能也远超过了amd(ati于2006年被amd并购),这也是英伟达最后一代有高性能双精度的显卡。

不得不说,还蛮好看的

GTX580(核弹的发展路程)

gtx580拥有一个完整fermi架构的核心,高达512个cuda加上40nm的工艺,使得它毫无疑问的成为了当时最强的显卡,但发热于功耗的问题仍然没有得到改善,再加上一名用户的显卡运行过程中电容烧毁,使得”核弹“的名声逐渐远扬

注:nVIDIA在GTX580的PCB上加装了功耗监控电路,当检测到有高负载功耗测试软件(例如Furmark)运行时会自动降低频率运行, 这的确有效的控制了它的功耗与发热,但是却让用户无法检测出GTX580的真实功耗。

GTX690(核弹的巅峰时刻)

在费米架构后,英伟达推出了开普勒架构,搭载开普勒架构最高级的单核心显卡是GTX680,热设计功耗仅有195W,这样一来供电方面仅需要双6Pin外接PCI-E供电,成为近年来最为省电的旗舰显卡。(百度百科上是这么写的[捂脸])

但是由于amd的HD7970步步紧逼,英伟达终于忍不住了,在圣克拉拉市的导弹发射基地里发射了一枚著名的核弹:GTX690

hhhhh

GTX690将两枚完整的GK104核心塞在了一张pcb板上,具有3072个CUDA

这枚核弹的威慑实在过于恐怖,以至于后来在甘肃电视台的《揭秘真相》军事节目中,其中介绍了一种用GTX690攻击航母的“可行方案”

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多