分享

AI服务器全面爆发!算力核心基础设施,龙头强者恒强

 mrjiangkai 2023-06-19 发布于上海

服务器是生产算力的关键基础设施,传统服务器主要由CPU提供算力,采用串行架构,擅长逻辑计算,算力提升主要依靠堆核实现。

随着云计算、大数据、AI等新技术应用,数据量呈指数级增长,算力需求持续释放带动算力基础设施产业迎来增长新周期,CPU服务器处理能力已接近极限,AI服务器应运而生。

根据IDC数据,2022年全球服务器出货量突破1516万台,同比增长12%,产值达1216亿美元;预计2026年全球服务器出货量将达1885万台,5年CAGR 6.8%,产值将达1665亿美元,5年CAGR 10.2%。#服务器##人工智能##AI服务器#

文章图片1

关注乐晴,洞悉产业格局!

服务器行业概览

服务器是算力的基本载体和硬件根基,通常是指那些具有较高计算能力,能够提供给多个用户使用的计算机。

服务器的逻辑架构和普通计算机类似。但是由于需要提供高性能计算,因此在处理能力、稳定性、可靠性、 安全性、可扩展性、可管理性等方面要求较高。

服务器核心硬件包括CPU、以GPU为代表的加速卡、内存、硬盘、网卡、电源、主板等。

主要硬件包括处理器、内存、芯片组、I/O (RAID卡、网卡、HBA卡) 、硬盘、机箱 (电源、风 扇)。以一台普通的服务器生产成本为例,CPU及芯片组大致占比50% 左右,内存大致占比 15% 左右,外部存储大致占比10%左右,其他硬件占比25%左右。

文章图片2

服务器与主机不同,主机是通过终端给用户使用的,服务器是通过网络给客户端用户使用的,所以除了要拥有终端设备,还要利用网络才能使用服务器电脑,但用户连上线后就能使用服务器上的特定服务了。

随着大数据、云计算不断发展,服务器的种类形式也益加多样化,并不断演化出新的功能。

从机箱结构来看,服务器经历了从塔式、机架式、刀片式到整机柜的发展历程。

整机柜服务器作为面向大型数据中心的定制化产品在近年兴起。

文章图片3

资料来源:sevethehome

AI服务器行业概览

AI服务器是一种能够提供人工智能(AI)计算的服务器。

它既可以用来支持本地应用程序和网页,也可以为云和本地服务器提供复杂的AI模型和服务。

行行查 | 行业研究数据库 资料显示,服务器产业链上游为电子元件及软件提供商,中游为服务器厂商向上游采购核心零部件后,根据客户需求设计主板、管理软件等,并完成整机组装测试后向下游客户出货交付,下游客户覆盖运营商、互联网、政府机构等各类企业。

服务器产业链结构图:

文章图片4

资料来源:行行查

AI服务器按应用场景可分为训练和推理两种,其中训练对芯片算力要求更高,推理对算力的要求偏低。

目前AI服务器通常选用CPU和加速芯片组来满足其庞大算力需求,其中加速芯片包括GPU、FPGA、ASIC等逻辑芯片,其中GPU由于其具有最强的计算能力同时具备深度学习等能力,目前成为服务器中加速芯片的首选。

英伟达DGX A100服务器:

文章图片5

从硬件架构上看,AI服务器是指采用异构形式的服务器,通常为CPU+GPU、CPU+FPGA、CPU+TPU、CPU+ASIC或CPU+多种加速卡;GPU采用并行计算模式,擅长处理密集型运算,如图形渲染、机器学习等。

根据IDC数据,2022年国内AI服务器市场规模达67亿美元,同比增长24%,其中GPU服务器占据主导地位,市场份额达89%;预计到2027年国内AI服务器市场将达164亿美元,CAGR 16.1%,其中非GPU服务器市场份额超13%。

文章图片6

AI服务器芯片

根据IDC数据用于运算和存储的芯片占服务器成本结构约70%,其中在机器学习型服务器中GPU成本占比达72.8%。

文章图片7

资料来源:ARK、华经情报网、行行查

AI芯片是算力的核心。AI芯片也被称为AI加速器或计算卡,即专门用于处理人工智能应用中的大量计算任务的模块(其他非计算任务仍由C P U负责)。

伴随数据海量增长,算法模型趋向复杂,处理对象异构,计算性能要求高,A 芯片在人工智能的算法和应用上做针对性设计,可高效处理人工智能应用中日渐多样繁杂的计算任务。

不同类型的服务器成本结构存在差异,以CPU和GPU为代表的算力芯片是服务器主要成本项,占比随着服务器性能的提高而逐渐上升。

GPU架构为主流加速架构,是服务器核心成本构成。

文章图片8

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多