облачные центры обработки данных - это инфраструктура облачных вычислительных сетей. постоянное проникновение бизнеса облачных вычислений стимулировало строительство суперцентров данных. облачная инфраструктура в основном состоит из коммутаторов и серверов. для подключения используются оптоволоконные кабели и оптические приемопередатчики, или активные оптические кабели, и кабели с прямым подключением. большой масштаб облачных центров обработки данных значительно увеличит использование оптических приемопередатчиков и требований к дальности передачи, что увеличит коэффициент использования одномодовых оптических приемопередатчиков.
в облачных дата-центрах взрывной рост трафика приводит к ускорению и ускорению скорости передачи данных оптических приемопередатчиков. он взял 5 лет от 10g до 40g, затем 4 лет от 40g до 100g, и, скорее всего, займет 3 лет от 100g до 400g. все экспортные данные в будущих центрах обработки данных должны проходить внутреннюю массовую операцию (особенно растущий внутренний и экспортный поток ai, vr / ar, видео uhd и т. д.). поток восточно-западного направления в центре обработки данных является турбулентным, а архитектура плоского центра обработки данных увеличивает рынок оптических приемопередатчиков 100g на высокой скорости.
согласно отчету стороннего учреждения, число глобальных супермассивных центров обработки данных будет превышать 500 к концу 2019. затем в суперцентрах будет загружен 83% общедоступных облачных серверов и 86% от общей облачной нагрузки, соотношение развертывания серверов суперцентров будет увеличиваться с 21% до 47%, отношение обрабатывающей мощности будет увеличено с 39% до 68%, а отношение трафика будет увеличено с 34% до 53%.
направление основного потока данных традиционного центра данных 3-уровня - сверху вниз или с юга на север, а направление основного потока данных плоского центра обработки данных позвоночника - с востока на запад.
здесь представлен пример применения оптического соединения для центров обработки данных оптических приемопередатчиков и aoc. сетевая архитектура cloud data center размещена в spine core, edge core и tor (top of rack). 10g sfp aoc используется для соединения между коммутаторами доступа tor и сетевыми сетевыми адаптерами. оптические приемопередатчики 40g qsfp sr4 и кабели mtp / mpo используются для взаимосвязи между переключателями доступа tor и переключателями edge core. оптические приемопередатчики 100g qsfp28 cwdm4 и дуплексные lc-кабели используются для соединения между переключателями edge core и переключателями spine core.
тенденция обновления пропускной способности порта для облачных центров данных - от 10g до 25g, а затем от 25g до 100g.
путь обновления
|
2008-2014
|
2013-2019
|
2017-2021
|
2019 ~
|
центр данных кампус
|
|
|
|
400g-fr4
|
intra-строительство
|
|
|
|
400g-dr4
|
intra-rack
|
cat6
|
|
|
|
разорвать скорость передачи данных
|
1g
|
10g
|
25g
|
100g
|
в соответствии с разницей в скорости увеличения потока, сетевой архитектурой, требованиями надежности и окружающей средой машинного отделения по сравнению с телекоммуникационными сетями спрос на оптические приемопередатчики облачных центров обработки данных имеет следующие характеристики: более короткий период итерации, более высокая скорость, более высокой плотности, более низкой потребляемой мощности и использования по массе.
-
более короткий период итерации, быстрый рост трафика центров обработки данных ускоряет модернизацию оптических приемопередатчиков. итерационный период аппаратных средств центра обработки данных, включая оптические трансиверы, составляет около 3 лет, а итерационный период оптических приемопередатчиков электросвязи обычно превышает 6-7 лет.
-
более высокая скорость, из-за стремительного роста трафика центров обработки данных технологическая итерация оптических приемопередатчиков не может удовлетворить спрос, и почти все самые современные технологии применяются к центрам обработки данных. для высокоскоростных оптических приемопередатчиков всегда существует потребность в центрах обработки данных, и ключевой вопрос заключается в том, является ли технология зрелой или нет.
-
более высокая плотность, ядро высокой плотности заключается в улучшении пропускной способности коммутаторов и отдельных плат серверов, по существу, для удовлетворения спроса на высокоскоростной поток. в то же время, чем выше плотность, тем меньше переключателей необходимо развернуть, а ресурсы машинного отделения могут быть сохранены.
-
более низкое потребление энергии, потребляемая мощность центра обработки данных очень велика. более низкое энергопотребление - это экономия энергии и лучшая теплоотдача. поскольку на задней панели центров обработки данных имеются оптические приемопередатчики, если проблема рассеивания тепла не может быть решена должным образом, на производительность и плотность оптических приемопередатчиков будет влиять.
gigalightоблачное решение для центра обработки данных включает в себя и for 10g/25g/40g/100g/200g/400g networks.
решение для оптических трансиверов
|
применение
|
максимальное расстояние соединения
|
|
400ge, 2x200ge
|
100m
|
|
2x100ge
|
100m
|
|
2x100ge
|
2km-10km
|
|
200ge
|
100m
|
|
100ge, otu4, 128gfc/4x32gfc
|
100m-300m
|
|
100ge
|
2km-10km
|
|
100ge
|
2km-10km
|
|
100ge
|
2km-10km
|
|
100ge
|
10km
|
|
100ge, otu4
|
10km-20km
|
|
100ge
|
30km-40km
|
|
100ge, otu4
|
30km-40km
|
|
50ge
|
100m
|
|
40ge, otu3
|
400m
|
|
40ge, otu3
|
2km-10km
|
|
40ge, otu3
|
2km-10km
|
|
40ge, otu3
|
40km
|
решение для активных оптических кабелей
|
применение
|
максимальное расстояние соединения
|
|
400ge, 2x200ge
|
100m
|
|
2x100ge, 200ge
|
100m
|
|
100ge, 128gfc / 4x32gfc
|
100m-300m
|
|
50ge
|
100m
|
|
40ge, 4x16gfc, 2x25ge, 2x32gfc
|
150m-300m
|
|
25ge, 32gfc
|
100m-300m
|
|
10ge
|
300m
|