云数据中心是云计算的基础设施,云计算业务持续渗透,拉动云计算超大数据中心的建设,云IT基础设施主要由交换机、服务器以及互连这一切的光缆和光模块(或AOC)组成。云数据中心大型化,将极大提升光模块用量,同时提高光模块的传输距离,将增加单模光模块的使用比例。 云数据中心的流量爆发式增长,驱动了光模块工作速率不断升级,并呈加速态势,10G速率端口迭代到40G速率端口经历了5 年,40G速率端口升级到100G速率端口经历了4年,而100G速率端口到400G速率端口或仅需3年时间。未来数据中心所有的出口数据都需经过内部的海量运算(尤其是AI等应用的崛起内部流量/出口流量更加惊人),数据中心内部东西方向的流量汹涌,扁平化的数据中心架构使得100G光模块市场将持续高速的增长。 根据Synergy第三方报告显示,截至2016年,全球超大规模数据中心总数突破300个,2017年则超过390个,目前至少有69个超大规模数据中心处于规划或建设阶段,预测到2019年底之前,全球超大规模数据中心数量将超过500个,届时83%的公有云服务器和86%的公有云负载都将承载在超级数据中心,超级数据中心服务器部署量占比将从21%上升到47%,处理能力占比从39%提升到68%,流量占比从34%提升到53%。 传统数据中心三层架构(内部主要数据流是上下南北方向) 数据中心扁平化两层架构(内部主要数据流是左右东西方向) 光模块和AOC在数据中心光互连应用实例介绍 某云数据中心网络架构分为超核心区交换机(Spine Core), 模组核心区域交换机(Edge Core,或称Leaf Switch)和接入交换区域交换机(TOR)。 1. 从接入交换机(TOR)到服务器网卡NIC,采用10G SFP+ AOC 有源光缆互连。 2. 从接入交换机(TOR)到模组核心交换机(Edge Core),采用40GE QSFP+ SR光模块和MPO光纤跳线互连 3. 从模组核心交换机(Edge Core)到 超核心区交换机(Spine Core),采用100G QSFP28 CWDM4 光模块和LC双纤光纤跳线互连。 国内某云数据中心光模块应用实例 云数据中心端口带宽的升级趋势介绍 (10G -> 25G-> 100G) 云数据中心光模块需求特点 由于云数据中心流量增速、网络架构、可靠性要求和机房环境与电信级网络的差异,云数据中心对光模块的需求体现以下特点:迭代周期短、速率要求高、高密度、低功耗、海量。 1)迭代周期短,数据中心流量高速增长,驱动光模块不断升级,并呈加速态势,包括光模块在内的数据中心硬件设备跌代周期在3 年左右,而电信级光模块的迭代周期一般在6-7年以上 2)速率要求高,由于数据中心流量爆发性增长,光模块的技术迭代赶不上需求,基本上最尖端的技术都应用到了数据中心,对于更高速光模块,数据中心需求一直都在,关键在于技术是否成熟。 3)高密度,高密度的核心是为了提高交换机和服务器单板传输容量,本质上还是为了满足流量高速增长的需求;同时,密度越大,意味着可以部署更少的交换机,节约机房资源。 4)低功耗,数据中心耗电量大,低功耗,一方面是为了节约能耗,另外一方面,数据中心交换机背板插满了光模块,散热问题无法妥善解决会影响到光模块的性能和密度的提高。 易飞扬具备完备云数据中心产品线,以下列表参考供大家参考 |
|
来自: 昵称11935121 > 《未命名》