数据中心的黑科技——到底什么是npo/cpo? -凯发k8国际手机app下载

今天这篇文章,我们来聊聊数据中心的两项最新黑科技—npo/cpo。

npo/cpo

故事还是要从头开始讲起。

21年,国家发布了“东数西算”战略,吸引了全社会的关注。所谓“东数西算”,其实就是数据中心的任务分工调整。我们将东部沿海地区的部分算力需求,转移到西部地区的数据中心完成。

之所以这么做,就是因为西部地区能源资源比较充沛,而且自然温度较低,可以大幅减少电费以及碳排放。

我们都知道,数据中心是算力的载体,现阶段我们大搞数字化转型和数字经济,离不开算力,也离不开数据中心。但是,数据中心的耗电问题,无法忽视。

根据数据显示,2021年全国数据中心总用电量为2166亿千瓦时,占全国总用电量的2.6%,相当于2个三峡水电站的年发电量,1.8个北京地区的总用电量。如此恐怖的耗电量,对我们实现“双碳”目标造成了很大压力。于是乎,行业开始加紧研究,究竟如何才能将数据中心的能耗降下来。

idc

数据中心(idc)

大家应该都知道,数据中心有一个重要的参数指标,那就是pue(power usage effectiveness,电能使用效率)。

pue=数据中心总能耗/it设备能耗。其中数据中心总能耗,包括it设备能耗,以及制冷、配电等其它系统的能耗。

我们可以看出,除了用在主设备上的电量之外,还有很大一部分能耗,用在散热和照明上。

所以,捣鼓数据中心的节能减排,思路就在两点:

1、减少主设备的功耗

2、减少散热和照明方面的功耗(主要是散热)

主设备的功耗挑战

说起主设备,大家马上就想到了服务器。是的没错,服务器是数据中心最主要的设备,它上面承载了各种业务服务,有cpu、内存等硬件,可以输出算力。

但实际上,主设备还包括一类重要的设备,那就是网络设备,也就是交换机、路由器、防火墙等。

目前,ai/ml(人工智能/机器学习)的加速落地,再加上物联网的高速发展,使得数据中心的业务压力越来越大。

这个压力不仅体现在算力需求上,也体现在网络流量上。数据中心的网络接入带宽标准,从过去的10g、40g,一路提升到现在100g、200g甚至400g。

网络设备为了满足流量增长的需求,自身也就需要不断迭代升级。于是乎,更强劲的交换芯片,还有更高速率的光模块,统统开始用上。

我们先看看交换芯片。

交换芯片是网络设备的心脏,它的处理能力直接决定了设备的能力。这些年,交换芯片的功耗水涨船高,如下图所示:

交换机芯片功耗变化趋势

交换机芯片功耗变化趋势

值得一提的是,虽然网络设备的总体功耗在持续提升,但是,单bit(比特)的功耗是持续降低的。也就是说,能效越来越高。

再看光模块。

光模块在光通信领域,拥有重要的地位,直接决定了网络通信的带宽。

早在2007年的时候,一个万兆(10gbps)的光模块,功率才1w左右。

随着40g、100g到现在的400g,800g甚至以后的1.6t光模块,功耗提升速度就像坐上了火箭,一路飙升,直逼30w。大家可要知道,一个交换机可不止一个光模块,满载的话,往往就有几十个光模块(假如48个,就是48×30=1440 w)。

一般来说,光模块的功耗大约占整机功耗的40%以上。这就意味着,整机的功耗极大可能会超过3000w。

一个数据中心,又不止一交换机。这背后的功耗,想想都很可怕。

除了交换芯片和光模块之外,网络设备还有一个大家可能不太熟悉的“耗电大户”,那就是——serdes。

serdes是英文serializer(串行器)/deserializer(解串器)的简称。在网络设备中,它是一个重要器件,主要负责连接光模块和网络交换芯片。

serdes

简单来说,就是将交换芯片出来的并行数据,转换成串行数据进行传输。然后,在接收端,又将串行数据转换成并行数据。

前面提到,网络交换芯片的能力在不断提升。因此,serdes的速率也必须随之提升,以便满足数据传输的要求。

serdes的速率提升,自然就带动了功耗的增加。

在102.4tbps时代,serdes速率需要达到224g,芯片serdes(asic serdes)功耗预计会达到300w。

需要注意的是,serdes的速率和传输距离,会受到pcb材料工艺的影响,并不能无限增加。换句话说,当serdes速率增加、功耗增加时,pcb铜箔能力不足,不能让信号传播得更远。只有缩短传输距离,才能保证传输效果。

这有点像扔铅球比赛,当铅球越重(serdes速率越高),你能扔的距离就越短。

铅球

具体来说,serdes速率达到224g时,最多只能支持5~6英寸的传输距离。

这意味着,在serdes没有技术突破的前提下,网络交换芯片和光模块之间的距离,必须缩短。

综上所述,交换芯片、光模块、serdes,是网络设备的三座“功耗”大山。

根据设备厂商的数据显示,过去的12年时间,数据中心的网络交换带宽提升了80倍,背后的代价就是:交换芯片功耗提升约8倍,光模块功耗提升26倍,交换芯片serdes功耗提升25倍。

数据中心的网络交换带宽

信息来源:2020 cisco and/or its affiliates.all rights reserved.cisco public

在此情况下,网络设备在数据中心内的功耗占比,随之不断攀升。

网络设备(红色)的能耗占比

网络设备(红色)的能耗占比
数据来源:facebook-oif cpo webinar 2020

散热的功耗挑战

前面仔细介绍了网络设备的功耗挑战。接下来,我们再看看散热。

事实上,相比对网络设备的功耗提升,散热的功耗才是真正的大头。

根据数据统计,交换设备在典型数据中心总能耗中的占比,仅仅只有4%左右,还不到服务器的1/10。

但是散热呢?根据ccid数据统计,2019年中国数据中心能耗中,约有43%是用于it设备的散热,基本与45%的it设备自身的能耗持平。

即便是现在国家对pue提出了严格要求,按照三级能效(pue=1.5,数据中心的限定值)来算,散热也占了将近40%。

空调制冷

传统的散热方式(风冷/空调制冷),已经不能满足当前高密数据中心的业务发展需求。于是,我们引入了液冷技术。

液冷,是使用液体作为冷媒,为发热部件散热的一种新技术。引入液冷,可以降低数据中心近90%的散热能耗。数据中心整体能耗,则可下降近36%。

液冷

这个节能效果,可以说是非常给力了,直接省电三分之一。

除了散热更强更省电之外,液冷在噪音、选址(不受环境气候影响)、建设成本(可以让机柜采用高密度布局,减少机房占地面积)等方面也有显著优势。

所以,现在几乎所有的数据中心,都在采用液冷。有的液冷数据中心,甚至可以将pue干到1.1左右,接近1的极限值。

液冷,是不是把整个设备全部浸没在液体里呢?

不一定。

液冷的方案,一般包括两种,分别是浸没式和冷板式。

浸没式,也叫直接式,是将主设备里发热量大的元器件,全部浸入冷却液中,进行散热。

冷板式,也称间接式,是将主要散热部件与一块金属板贴合,然后金属板里有冷媒液体流动,把热量带走。现在很多diy组装电脑,就是冷板式。

服务器采用液冷,已经是非常成熟的技术。那么,既然要上液冷,当然是服务器和网络设备一起上,会更好啊,不然还要搞两套体系。

问题来了,咱们的网络设备,能上液冷吗?

npo/cpo,闪亮登场

当当当!铺垫了那么多,我们的主角,终于要闪亮登场了。

为了尽可能地降低网络设备的自身工作功耗以及散热功耗,在oif(光互联网络论坛)的主导下,业界多家厂商,共同推出了——npo/cpo技术。

2021年11月,国内设备厂商发布了全球第一款25.6t的npo冷板式液冷交换机。2022年3月,又发布了51.2t的 npo冷板式液冷交换机(概念机)。

npo冷板式液冷交换机

npo冷板式液冷交换机

npo,英文全称near packaged optics,近封装光学。cpo,英文全称co-packaged optics,共封装光学。

简单来说,npo/cpo是将网络交换芯片和光引擎(光模块)进行“封装”的技术。

我们传统的连接方式,叫做pluggable(可插拔)。光引擎是可插拔的光模块。光纤过来以后,插在光模块上,然后通过serdes通道,送到网络交换芯片(aisc)。

pluggable/npo/cpo

cpo呢,是将交换芯片和光引擎共同装配在同一个socketed(插槽)上,形成芯片和模组的共封装。

npo是将光引擎与交换芯片分开,装配在同一块pcb基板上。

大家应该能看出来,cpo是终极形态,npo是过渡阶段。npo更容易实现,也更具开放性。

之所以要做集成(“封装”),目的很明确,就是为了缩短交换芯片和光引擎间的距离(控制在5~7cm),使得高速电信号能够高质量地在两者之间传输,满足系统的误码率(ber)要求。

pluggable/npo/cpo

缩短距离,保证高速信号的高质量传输

 

集成后,还可以实现更高密度的高速端口,提升整机的带宽密度。

此外,集成使得元件更加集中,也有利于引入冷板液冷。

npo交换机内部(揭开冷板后)

npo交换机内部(揭开冷板后)

可以看到,交换芯片和光引擎之间的距离大幅缩短

 

npo/cpo技术的背后,其实就是现在非常热门的硅光技术。

硅光,是以光子和电子为信息载体的硅基光电子大规模集成技术。简单来说,就是把多种光器件集成在一个硅基衬底上,变成集成“光”路。它是一种微型光学系统。

硅光之所以这么火,根本原因在于微电子技术已经逐渐接近性能极限,传统的“电芯片”在带宽、功耗、时延方面,越来越力不从心,所以,就改走了“(硅)光芯片”这个新赛道。

 

npo/cpo交换机的进展

npo/cpo技术是目前各大厂商研究的热门方向。尤其是npo,因为拥有最优开放生态,产业链更加成熟,可以获得成本及功耗的最快收益,所以,发展落地更快。

 

结语

这两项技术,是数据中心网络设备毫无疑问的发展方向。在目前的数字化浪潮下,对算力和网络通信能力的追求是无止境的。在追求性能的同时,也要努力平衡功耗。毕竟,要走的是可持续性发展的道路。

希望以npo/cpo为代表的硅光科技,能够进一步加速落地,为信息基础设施的绿色低碳做出贡献。

未来,硅光技术究竟还会带来怎样的技术创新?让我们拭目以待吧!

网站地图