neben dem bekannten ethernet gibt es viele andere kategorien von netzwerkarchitekturen. für serverseitige verbindungsszenarien wird die infiniband (ib) -technologie aufgrund ihrer inhärenten merkmale bewertet und verwendet. es hat eine nahezu beherrschende stellung, insbesondere im bereich high performance computing (hpc), in großen rechenzentrumsspeichern und in anderen szenarien. was ist der unterschied zwischen ib und ethernet? warum verwenden die meisten hpc-systeme eine ib-verbindung?
ib ist eine "cable switching" -technologie, die mehrere gleichzeitige verbindungen unterstützt, und es ist der e / a-standard der server-hardwareplattform der neuen generation. mit der raschen entwicklung der cpu-leistung ist die leistung des e / a-systems zu einem engpass geworden, der die leistung von servern einschränkt. die in der vergangenheit verwendete pci-bus-architektur entspricht nicht dem neuen anwendungstrend. um die inhärenten nachteile von pci zu überwinden, haben intel, cisco, compaq, emc, fujitsu und andere unternehmen gemeinsam die ib-architektur eingeführt, deren kern die trennung des e / a-systems vom serverhost ist. derzeit können nur wenige unternehmen wie mellanox, intel und qlogic ib-produkte anbieten. mellanox ist in führender position. vor kurzem wurde der erste hdr 200g infiniband-supercomputer an der university of michigan eingesetzt.
die grundlegenden protokolle von infiniband
die abbildung oben zeigt die grundlegenden protokolle des ib. wie wir sehen können, haben die ib-protokolle eine hierarchische struktur, einschließlich des oberen protokolls, der transportschicht, der netzwerkschicht, der verbindungsschicht und der physikalischen schicht. jede schicht ist unabhängig voneinander, und die untere schicht stellt dienste für die obere schicht bereit, ähnlich dem tcp / ip-protokoll. im gegensatz zu ethernet, das in der übergeordneten netzwerkkommunikation verwendet wird, wird infiniband hauptsächlich in kommunikationsszenarien für die eingabe / ausgabe auf niedriger ebene verwendet. wie zu beginn dieses artikels erwähnt, besteht die aufgabe der ib-architektur darin, die serverseitige eingabe- / ausgabeleistung zu verbessern, selbst wenn ethernet die geschwindigkeit eines ib-netzwerks erreicht oder übertrifft. ib ist unter der bedingung der netzwerkkommunikation auf niedriger ebene unersetzbar. darüber hinaus sind der übertragungsmodus und die medien von ib recht flexibel. sie kann durch kupferdrahtfolie der leiterplatte in das gerät übertragen und durch dac oder aoc zwischen den geräten miteinander verbunden werden.
bill lee, co-vorsitzender der infiniband industry association-arbeitsgruppe, sagte: "das ziel von infiniband besteht darin, die kommunikation zwischen anwendungen zu verbessern." die ib-technologie umfasst nicht nur chips und hardware, sondern auch software. hardware und software müssen vollständig in betriebssystem, management und anwendungsebene integriert sein, um ihre rolle spielen zu können.
addison snell, ceo von intersect360 research, wies darauf hin, dass "infiniband gewachsen ist und jetzt die bevorzugte lösung für die verbindung von hochleistungsspeicher in hpc-systemen ist. derzeit werden anwendungen mit hohem datendurchsatz wie datenanalyse und maschinelles lernen schnell erweitert. und die nachfrage nach einer verbindung mit hoher bandbreite und geringer verzögerung dehnt sich auch auf einen breiteren markt aus. "
offensichtlich besteht unsere hauptaufgabe derzeit und in zukunft darin, die probleme der wissenschaft und datenanalyse zu lösen, die eine sehr hohe bandbreite zwischen rechenknoten, speicher- und analysesystemen in unserem rechenzentrum erfordern und so eine einzige systemumgebung bilden. darüber hinaus ist die latenz (speicher- und festplattenzugriffslatenz) ein weiterer leistungsfaktor für hpc. der grund, warum hpc-rechenzentren sich für ein ib-netzwerk entscheiden, ist daher, dass es die anforderungen einer hohen bandbreite und einer geringen latenz erfüllen kann.
ib ist derzeit die bevorzugte verbindung zwischen hpc- und ai-infrastrukturen. die geschwindigkeit nimmt ebenfalls zu, von sdr, ddr, qdr bis hdr. die bekannte infiniband-lösung von mellanox verbindet die meisten der top-500-supercomputer miteinander. außerdem werden sie mit der planung der ndr-400g-infiniband-technologie beginnen, um zukünftige supercomputing- und machine-learning-plattformen auf e-ebene zu unterstützen. mit der rdma-technologie (remote direct memory access) können wir im gesamten netzwerk direkt und remote auf daten zugreifen und das problem der serverseitigen datenverarbeitungsverzögerung bei der netzwerkübertragung lösen. rdma überträgt daten direkt über das netzwerk in den speicherbereich des computers, verschiebt daten schnell von einem system in den remote-systemspeicher, realisiert zero copy, gibt die cpu-last auf der host-seite frei und reduziert die verzögerung der datenverarbeitung im host von mehreren hundert mikrosekunden bis zu nanosekunden.
darüber hinaus bietet ib die vorteile eines einfachen protokollstapels, einer hohen verarbeitungseffizienz und einer einfachen verwaltung. im gegensatz zur hierarchischen topologie von ethernet ist infiniband eine flache struktur, dh jeder knoten hat eine direkte verbindung zu allen anderen knoten. verglichen mit dem tcp / ip-netzwerkprotokoll verwendet ib vertrauensbasierte mechanismen zur flusskontrolle, um die integrität der verbindung sicherzustellen, und datenpakete gehen selten verloren. nach der datenübertragung sendet der empfänger ein signal, um die verfügbarkeit des pufferplatzes anzuzeigen. daher eliminiert das ib-protokoll die verzögerung des erneuten sendens aufgrund des verlusts der ursprünglichen datenpakete, wodurch die leistung des protokolls verbessert wird. effizienz und gesamtleistung werden verbessert. in anbetracht des problems der signalverzerrung bei der übertragung von ultrahochgeschwindigkeits-lichtwellenleitern überträgt ib außerdem datensignale in der lichtleitfaser unterschiedlich und fügt am empfangsende einen filter hinzu, um das signalrauschen herauszufiltern, wodurch die signalintegrität vollständig gewährleistet wird des verbindungsnetzes.
infiniband ist eine einheitliche verbindungsstruktur, die sowohl speicher-e / a als auch netzwerk-e / a und interprozesskommunikation (ipc) verarbeiten kann. es kann festplatten-arrays, sans, lans, server und clusterserver miteinander verbinden, eine übertragung mit hoher bandbreite und geringer latenz über relativ kurze entfernungen bieten und redundante e / a-kanäle in einem oder mehreren internet-netzwerken unterstützen, sodass rechenzentren auch lokal arbeiten können fehler treten auf. insbesondere in zukunft, wenn der interne datenverkehr des hpc-rechenzentrums dramatisch ansteigt, verfügt infiniband über einen größeren entwicklungsraum als netzwerkverbindungstechnologie, die zwischen servern eingesetzt wird.
gigalight ist ein globaler innovator für das design optischer verbindungen, der entwirft, herstellt und liefert optische transceiver, aktive optische kabel und kohärente optische module für rechenzentrumsnetzwerk, drahtloses 5g-netzwerk, optisches übertragungsnetzwerk und broadcast-videonetzwerk. das unternehmen nutzt die vorteile des exklusiven designs, um kunden kostengünstige optische netzwerkgeräte aus einer hand zu bieten.