die cloud-rechenzentren sind die infrastruktur von cloud-computing-netzwerken. die kontinuierliche durchdringung des cloud-computing-geschäfts hat den bau von super-rechenzentren angeregt. die cloud-infrastruktur besteht hauptsächlich aus switches und servern. für die verbindung werden glasfaserkabel und optische transceiver oder aktive optische kabel und direktanschlusskabel verwendet. der große umfang von cloud-rechenzentren wird die verwendung von optischen transceivern und die anforderungen an die übertragungsdistanz stark erhöhen, wodurch das nutzungsverhältnis optischer singlemode-transceiver erhöht wird.
in cloud-rechenzentren führt das explosionsartige wachstum des datenverkehrs dazu, dass die datenrate optischer transceiver eskaliert und beschleunigt. es hat 5 jahre von 10g zu 40g benötigt, dann 4 jahre von 40g zu 100g, und es wird wahrscheinlich nur 3 jahre von 100g zu 400g dauern. alle exportdaten in zukünftigen rechenzentren müssen den internen massenbetrieb durchlaufen (insbesondere den steigenden internen und exportfluss von ai, vr / ar, uhd-video usw.). die strömung der ost-west-richtung im rechenzentrum ist turbulent, und die flache architektur des rechenzentrums lässt den markt für optische transceiver von 100g weiterhin mit hoher geschwindigkeit wachsen.
laut dem bericht einer drittinstitution wird die anzahl der globalen, großen rechenzentren bis ende 500 über 2019 liegen. dann werden 83% der öffentlichen cloud-server und 86% der öffentlichen cloud-last in den super-rechenzentren geladen, das verhältnis der bereitstellung von super-rechenzentrumservern wird von 21% auf 47% steigen, das verhältnis der verarbeitungskapazität von 39% auf 68% erhöht, und das verhältnis des verkehrs wird von 34% auf 53% erhöht.
die richtung des hauptdatenflusses eines herkömmlichen 3-tier-rechenzentrums ist von oben nach unten oder von süden nach norden, während die richtung des hauptdatenflusses eines flachen rückenblatt-rechenzentrums von osten nach westen verläuft.
hier ist ein optischer interconnect-anwendungsfall für optische transceiver und aoc. die netzwerkarchitektur eines cloud-datencenters ist in spine core, edge core und tor (top of rack) aufgeteilt. das 10g sfp aoc wird für die verbindung zwischen den tor access switches und den server-nics verwendet. die optischen transceiver 40g qsfp sr4 und mtp / mpo-kabel werden für die verbindung zwischen den tor access switches und den edge core switches verwendet. die optischen transceiver und duplex-lc-kabel 100g qsfp28 cwdm4 werden für die verbindung zwischen den edge core-switches und den spine core-switches verwendet.
der trend der port-bandbreiten-upgrades für cloud-rechenzentren geht von 10g auf 25g und dann von 25g auf 100g.
aktualisierungspfad
|
2008-2014
|
2013-2019
|
2017-2021
|
2019 ~
|
rechenzentrum campus
|
|
|
|
400g-fr4
|
intra-building
|
|
|
|
400g-dr4
|
intra-rack
|
cat6
|
|
|
|
server-datenrate
|
1g
|
10g
|
25g
|
100g
|
entsprechend der unterschiedlichen steigerungsrate des flusses, der netzwerkarchitektur, der anforderungen an die zuverlässigkeit und der umgebung des maschinenraums im vergleich zu telekommunikationsnetzwerken weist die nachfrage nach optischen transceivern von cloud-rechenzentren die folgenden eigenschaften auf: kürzere iterationsdauer, höhere geschwindigkeit, höhere dichte, geringerer stromverbrauch und massenverbrauch.
-
kürzere iterationszeit. das rasante wachstum des datencenterverkehrs treibt die aufrüstung optischer transceiver an. die iterationszeit von hardware-geräten für datenzentren einschließlich optischer transceiver beträgt etwa 3 jahre, während die iterationsperiode optischer telekommunikations-transceiver normalerweise über 6-7 jahre liegt.
-
höhere geschwindigkeit. aufgrund des explosionsartigen wachstums des datencenterverkehrs kann die technologische iteration optischer transceiver die nachfrage nicht einholen, und fast alle fortschrittlichsten technologien werden in rechenzentren eingesetzt. für optische transceiver mit höherer geschwindigkeit besteht immer ein bedarf an rechenzentren. die schlüsselfrage lautet, ob die technologie ausgereift ist oder nicht.
-
höhere dichte. der kern mit hoher dichte besteht im wesentlichen darin, die übertragungskapazität der switches und der einzelnen platinen der server zu verbessern, um die anforderungen eines schnell steigenden flusses zu erfüllen. je höher die dichte, desto weniger switches werden benötigt, und die ressourcen des maschinenraums können gespart werden.
-
geringer stromverbrauch. der stromverbrauch des rechenzentrums ist sehr groß. ein geringerer energieverbrauch bedeutet, energie zu sparen und eine bessere wärmeableitung zu gewährleisten. da sich auf den backboards der rechenzentren zahlreiche optische transceiver befinden, kann die leistung und dichte der optischen transceiver beeinträchtigt werden, wenn das problem der wärmeableitung nicht ordnungsgemäß gelöst werden kann.
gigalightdie cloud-rechenzentrumslösung umfasst und for 10g/25g/40g/100g/200g/400g networks.
optische transceiver-lösung
|
anwendungsgebiete
|
maximaler verbindungsabstand
|
|
400ge, 2x200ge
|
100m
|
|
2x100ge
|
100m
|
|
2x100ge
|
2km-10km
|
|
200ge
|
100m
|
|
100ge, otu4, 128gfc/4x32gfc
|
100m-300m
|
|
100ge
|
2km-10km
|
|
100ge
|
2km-10km
|
|
100ge
|
2km-10km
|
|
100ge
|
10km
|
|
100ge, otu4
|
10km-20km
|
|
100ge
|
30km-40km
|
|
100ge, otu4
|
30km-40km
|
|
50ge
|
100m
|
|
40ge, otu3
|
400m
|
|
40ge, otu3
|
2km-10km
|
|
40ge, otu3
|
2km-10km
|
|
40ge, otu3
|
40km
|
lösung für aktive optische kabel
|
anwendungsgebiete
|
maximaler verbindungsabstand
|
|
400ge, 2x200ge
|
100m
|
|
2x100ge, 200ge
|
100m
|
|
100ge, 128gfc / 4x32gfc
|
100m-300m
|
|
50ge
|
100m
|
|
40ge, 4x16gfc, 2x25ge, 2x32gfc
|
150m-300m
|
|
25ge, 32gfc
|
100m-300m
|
|
10ge
|
300m
|