além da ethernet conhecida, existem muitas outras categorias de arquitetura de rede. para cenários de conexão do lado do servidor, a tecnologia infiniband (ib) é valorizada e usada por suas características inerentes. ele tem uma posição quase dominante, especialmente em computação de alto desempenho (hpc), armazenamento de data center grande e outros cenários. então, qual é a diferença entre ib e ethernet? por que a maioria dos sistemas hpc usa a interconexão ib?
a ib é uma tecnologia de "comutação por cabo" que suporta várias conexões simultâneas e é o padrão de e / s da nova plataforma de hardware do servidor de geração. com o rápido desenvolvimento do desempenho da cpu, o desempenho do sistema de e / s tornou-se um gargalo restringindo o desempenho dos servidores. a arquitetura de barramento pci usada no passado não está de acordo com a nova tendência do aplicativo. para superar as desvantagens inerentes do pci, a intel, a cisco, a compaq, a emc, a fujitsu e outras empresas lançaram em conjunto a arquitetura ib, cujo núcleo é separar o sistema de e / s do host do servidor. atualmente, apenas algumas empresas, como a mellanox, a intel e a qlogic, podem fornecer produtos da ib. mellanox está na posição de liderança. recentemente, eles implantaram o primeiro supercomputador hdn 200g infiniband da universidade de michigan.
os protocolos básicos do infiniband
a figura acima mostra os protocolos básicos do ib. como podemos ver, os protocolos ib adotam uma estrutura hierárquica, incluindo protocolo superior, camada de transporte, camada de rede, camada de enlace e camada física. cada camada é independente uma da outra e a camada inferior fornece serviços para a camada superior, que é semelhante ao protocolo tcp / ip. ao contrário da ethernet, que é usada em comunicação de rede de alto nível, o infiniband é usado principalmente em cenários de comunicação de entrada / saída de baixo nível. como mencionado no início deste artigo, a arquitetura ib tem a missão de melhorar o desempenho de entrada / saída do servidor, mesmo se a ethernet atingir ou exceder a velocidade da rede ib, a ib é insubstituível sob a condição de comunicação de rede de baixo nível. além disso, o modo de transmissão e a mídia do ib são bastante flexíveis. pode ser transferido pela folha de fio de cobre da placa de circuito impresso no equipamento, e interconectado pelo dac ou pelo aoc entre o equipamento.
como bill lee, co-presidente do grupo de trabalho da infiniband industry association, disse: "o objetivo da infiniband é melhorar a comunicação entre aplicativos". a tecnologia ib inclui não apenas chips e hardware, mas também software. para desempenhar seu papel devido, o hardware e o software devem ser totalmente integrados ao sistema operacional, ao gerenciamento e à camada de aplicativos.
addison snell, ceo da intersect360 research, destacou que "a infiniband cresceu e agora é a solução preferida para interconexão de armazenamento de alto desempenho em sistemas hpc. atualmente, as aplicações de alta taxa de dados, como análise de dados e aprendizado de máquina, estão se expandindo rapidamente". e a demanda por alta largura de banda e baixa interligação por atraso também está expandindo para um mercado mais amplo ".
obviamente, nossa principal direção no presente e no futuro é resolver os problemas de ciência e análise de dados, o que requer uma largura de banda muito alta entre nós de computação, armazenamento e sistemas de análise em nosso data center, formando assim um único ambiente de sistema. além disso, a latência (latência de acesso à memória e ao disco) é outra medida de desempenho do hpc. assim, a razão pela qual os centros de dados hpc optam por usar a rede ib é que ela pode atender aos requisitos de alta largura de banda e baixa latência.
a ib é atualmente a interconexão preferida entre as infraestruturas hpc e ai, e a velocidade também está aumentando, de sdr, ddr, qdr a hdr. a famosa solução mellanox infiniband conecta a maioria dos supercomputadores top 500, e eles também começarão a planejar a tecnologia ndr 400g infiniband para suportar futuras plataformas de supercomputação e machine learning em nível e. em termos de atraso, a tecnologia rdma (remote direct memory access) nos permite acessar dados diretamente e remotamente em toda a rede, e pode resolver o problema de atraso no processamento de dados do lado do servidor na transmissão da rede. o rdma transfere dados diretamente para a área de armazenamento do computador através da rede, move dados de um sistema para a memória remota do sistema rapidamente, realiza cópia zero, libera carga da cpu no host e reduz o atraso do processamento de dados no host de centenas de microssegundos para nanossegundos.
além disso, o ib tem as vantagens da pilha de protocolos simples, alta eficiência de processamento e gerenciamento simples. ao contrário da topologia hierárquica da ethernet, infiniband é uma estrutura plana, o que significa que cada nó tem uma conexão direta com todos os outros nós. comparado com o protocolo de rede tcp / ip, o ib usa mecanismos baseados em confiança e controle de fluxo para garantir a integridade da conexão, e os pacotes de dados raramente são perdidos. após a transmissão de dados, o receptor retorna um sinal para indicar a disponibilidade do espaço do buffer. portanto, o protocolo ib elimina o atraso de retransmissão devido à perda de pacotes de dados originais, melhorando assim o desempenho do protocolo. a eficiência e o desempenho geral são aprimorados. além disso, considerando o problema de distorção de sinal na transmissão de fibra ótica de velocidade ultra-alta, a ib transmite sinais de dados de maneira diferente na fibra óptica e adiciona um filtro na extremidade de recepção para filtrar o ruído do sinal, garantindo a integridade do sinal da rede de conexão.
o infiniband é uma estrutura de interconexão unificada que pode manipular e / s de armazenamento, e / s de rede e comunicação entre processos (ipc). ele pode interconectar matrizes de disco, sans, lans, servidores e servidores de cluster, fornecer transmissão de alta largura de banda e baixa latência em distâncias relativamente curtas e oferecer suporte a canais de e / s redundantes em redes de internet simples ou múltiplas, para que os data centers ainda possam operar quando falhas ocorrem. especialmente no futuro, quando o tráfego interno do data center hpc aumenta drasticamente, o infiniband terá um espaço de desenvolvimento mais amplo, como uma tecnologia de conexão de rede aplicada entre os servidores.
gigalight é um inovador de design de interconexão óptica global que projeta, fabrica e fornece transceptores ópticos, cabos óticos ativos e o módulos óticos coerentes para rede de data center, rede sem fio 5g, rede de transmissão óptica e rede de transmissão de vídeo. a empresa aproveita as vantagens do design exclusivo para fornecer aos clientes dispositivos de rede ótica de baixo custo e completos.