ほとんどのhpcシステムがinfiniband相互接続を使用する理由 gigalight-凯发k8国际手机app下载

日付: 2018-11-26 著者: gigalight 20236 タグ: , ,

よく知られたイーサネットに加えて、ネットワークアーキテクチャには他の多くのカテゴリがあります。 サーバー側の接続シナリオでは、infiniband(ib)テクノロジが固有の特性として評価され、使用されます。 特にhpc(ハイパフォーマンスコンピューティング)、大規模なデータセンターのストレージおよびその他のシナリオでは、ほぼ独占的な立場にあります。 ibとイーサネットの違いは何ですか? なぜほとんどのhpcシステムがib相互接続を使用するのですか?

infinibandとは何か、どこで使用されているか

ibは、複数の同時接続をサポートする「ケーブルスイッチング」テクノロジであり、新世代のサーバーハードウェアプラットフォームのi / o規格です。 cpu性能の急速な発展に伴い、i / oシステムの性能がサーバの性能を制限するボトルネックになっている。 過去に使用されていたpciバスアーキテクチャは、新しいアプリケーションの傾向に適合しません。 pci、intel、cisco、compaq、emc、fujitsuなどの固有の欠点を克服するために、i / oシステムとサーバーホストを分離することをコアとするibアーキテクチャが共同で開始されました。 現在、mellanox、intel、qlogicなどのいくつかの企業だけがib製品を提供することができます。 メラノックスは一流の地位を占めています。 最近、ミシガン大学で初のhdr 200g infinibandスーパーコンピュータを導入しました。

infinibandの基本プロトコル

上記の図は、ibの基本的なプロトコルを示しています。 わかるように、ibプロトコルは、上位プロトコル、トランスポート層、ネットワーク層、リンク層、物理層などの階層構造を採用しています。 各レイヤーは互いに独立しており、下位レイヤーは上位レイヤーのサービスを提供します。これはtcp / ipプロトコルに似ています。 高レベルのネットワーク通信で使用されるイーサネットとは異なり、infinibandは主に低レベルの入出力通信シナリオで使用されます。 この記事の冒頭で述べたように、ibアーキテクチャは、イーサネットがibネットワークの速度を達成または超過しても、サーバー側の入出力パフォーマンスを改善するという使命を持っています.ibは、低レベルのネットワーク通信の条件下では置き換えられません。 さらに、ibの伝送モードとメディアは非常に柔軟です。 装置内のプリント回路基板の銅線箔で転写し、装置間でdacまたはaocによって相互接続することができます。

infiniband industry associationワーキンググループの共同議長であるbill lee氏は、「infinibandの目標は、アプリケーション間の通信を改善することです。 ib技術には、チップやハードウェアだけでなく、ソフトウェアも含まれます。 その役割を果たすためには、ハードウェアとソフトウェアをオペレーティングシステム、管理、アプリケーション層に完全に統合する必要があります。

hpcデータセンターがinfinibandを選択する理由

intersect360 researchのceo、addison snell氏は、「infinibandは成長しており、hpcシステムでの高性能ストレージ相互接続に適したソリューションです。現在、データ分析や機械学習などの高いデータスループットのアプリケーションは急速に拡大しており、高帯域幅と低遅延の相互接続の需要も広範な市場に拡大しています」

明らかに、私たちの現在の主な方向は、データセンター内のコンピューティングノード、ストレージ、分析システム間に非常に高い帯域幅を必要とする科学とデータ分析の問題を解決し、単一のシステム環境を形成することです。 さらに、レイテンシ(メモリおよびディスクアクセスのレイテンシ)は、hpcのもう1つのパフォーマンス指標です。 したがって、hpcデータセンターがibネットワークを使用する理由は、高帯域幅と低遅延の要件を満たすことができることです。

ibは現在、hpcとaiインフラストラクチャの間の優先接続であり、sdr、ddr、qdrからhdrへのスピードも増加しています。 有名なmellanox infinibandソリューションは、トップ500スーパーコンピュータの大部分を接続し、将来のe-レベルスーパーコンピューティングおよびマシン学習プラットフォームをサポートするためのndr 400g infinibandテクノロジの計画も開始します。 遅延に関しては、rdma(remote direct memory access)技術を使用して、ネットワークを介して直接的かつ遠隔的にデータにアクセスすることができ、ネットワーク伝送におけるサーバー側のデータ処理遅延の問題を解決することができます。 rdmaはネットワークを介してコンピュータの記憶域に直接データを転送し、あるシステムからリモートシステムメモリにデータをすばやく移動し、ゼロコピーを実現し、ホスト側のcpu負荷を解放し、ホストのデータ処理の遅延を数百マイクロ秒〜ナノ秒。

さらに、ibには、単純なプロトコルスタック、高い処理効率、および簡単な管理という利点があります。 イーサネットの階層トポロジとは異なり、infinibandはフラットな構造です。つまり、各ノードは他のすべてのノードに直接接続しています。 ibはtcp / ipネットワークプロトコルと比較して、信頼性ベースのフロー制御メカニズムを使用して接続の完全性を保証し、データパケットはほとんど失われません。 データ送信後、受信機は、バッファ空間の利用可能性を示す信号を返す。 したがって、ibプロトコルは、元のデータパケットの損失による再送の遅延をなくし、それによってプロトコルの性能を向上させる。 効率と全体的なパフォーマンスが向上します。 また、超高速光ファイバ伝送における信号歪みの問題を考慮して、ibは光ファイバ内でデータ信号を別々に伝送し、受信端にフィルタを付加して信号ノイズを除去することで、信号の完全性を完全に保証している接続ネットワークの

結論

infinibandは、ストレージi / o、ネットワークi / o、およびプロセス間通信(ipc)の両方を処理できる統一された相互接続構造です。 ディスクアレイ、san、lan、サーバ、クラスタサーバを相互接続し、比較的短い距離で高帯域幅と低遅延の伝送を提供し、単一または複数のインターネットネットワークで冗長i / oチャネルをサポートすることで、失敗が発生する。 特にhpcデータセンターの内部トラフィックが劇的に増加すると、infinibandはサーバ間に適用されるネットワーク接続技術として広範な開発スペースを持つことになります。

ギガライトについて

gigalightは、グローバルな光相互接続設計イノベーターで、設計、製造、供給を行っています 光トランシーバ, アクティブ光ケーブル & コヒーレント光モジュール データセンターネットワーク、5gワイヤレスネットワーク、光伝送ネットワーク、およびブロードキャストビデオネットワーク用。 同社は、排他的な設計の利点を生かして、コスト効率の高いワンストップの光ネットワークデバイスを顧客に提供しています。

网站地图