云数据中心是云计算的基础设施。云计算业务持续渗透,拉动云计算超大数据中心的建设。云it基础设施主要由交换机、服务器以及互连这一切的光缆和光模块(或aoc)组成。云数据中心的大型化将极大提升光模块的使用量,同时对光模块的传输距离有了更高的要求,这将增加单模光模块的使用比例。
云数据中心流量的爆发式增长,驱动了光模块工作速率不断升级,并呈加速态势。10g速率端口迭代到40g速率端口经历了5年,40g速率端口升级到100g速率端口经历了4年,而100g速率端口到400g速率端口或仅需3年时间。未来数据中心所有的出口数据都需经过内部的海量运算(尤其是ai等应用的崛起,内部流量和出口流量更加惊人)。如今,数据中心普遍采用扁平化的架构使得100g光模块市场将持续高速的增长。
根据synergy第三方报告显示,截至2016年,全球超大规模数据中心总数突破300个,2017年则超过390个,目前至少有69个超大规模数据中心处于规划或建设阶段,预测到2019年底之前,全球超大规模数据中心数量将超过500个,届时83%的公有云服务器和86%的公有云负载都将承载在超级数据中心,超级数据中心服务器部署量占比将从21%上升到47%,处理能力占比从39%提升到68%,流量占比从34%提升到53%。
数据中心传统三层架构和扁平化两层架构的对比
光模块和aoc在数据中心光互连应用实例介绍
国内某云数据中心网络架构分为超核心区交换机(spine core), 模组核心区域交换机(edge core,或称leaf switch)和接入交换区域交换机(tor)。
-
从服务器网卡nic到接入交换区域交换机,采用10g sfp aoc有源光缆互连。
-
从接入交换区域交换机到模组核心区域交换机,采用40ge qsfp sr4光模块和mpo光纤跳线互连。
-
从模组核心交换机到超核心区交换机,采用100g qsfp28 cwdm4光模块和lc双纤光纤跳线互连。
国内某云数据中心光模块应用实例
云数据中心端口带宽的升级趋势 (从10g到25g,再到100g)
部署年代
|
2008–2014
|
2013–2019
|
2017–2021
|
2019–
|
园区,超大数据中心
|
|
|
|
400g-fr4
|
机房内部
|
|
|
|
400g-dr4
|
机架内部
|
cat6
|
|
|
|
服务器网卡速率
|
1g
|
10g
|
25g
|
100g
|
云数据中心光模块需求的特点
由于云数据中心流量增速、网络架构、可靠性要求和机房环境与电信级网络的差异,云数据中心对光模块的需求体现以下特点:迭代周期短、速率要求高、高密度、低功耗。