Infini Band

InfiniBand ist eine geschaltete Stoff-Kommunikationsverbindung, die in der Hochleistungscomputerwissenschaft und den Unternehmensdatenzentren verwendet ist. Seine Eigenschaften schließen hohen Durchfluss, niedrige Latenz, Qualität des Dienstes und failover ein, und es wird entworfen, um ersteigbar zu sein. Die Architektur-Spezifizierung von InfiniBand definiert eine Verbindung zwischen Verarbeiter-Knoten und hohen Leistungseingabe/Ausgabe-Knoten wie Speichergeräte. Gastgeber-Busadapter von Infiniband und Netzschalter werden von Mellanox und Intel verfertigt (der das infiniband Geschäft von Qlogic im Januar 2012 erworben hat).

InfiniBand bildet eine Obermenge von Virtual Interface Architecture (VIA).

Beschreibung

Wie Faser-Kanal, PCI Ausdrücklicher Serien-ATA und viele andere moderne Verbindungen, bietet InfiniBand Punkt-zu-Punkt-bidirektionale Serienverbindungen an, die für die Verbindung von Verarbeitern mit der Hochleistungsperipherie wie Platten beabsichtigt sind. Oben auf dem Punkt, um Fähigkeiten anzuspitzen, bietet InfiniBand auch Mehrwurf-Operationen ebenso an. Es unterstützt mehrere Signalraten und, weil mit dem PCI-Schnellzug Verbindungen für den zusätzlichen Durchfluss zusammengebunden werden können.

Signalrate

Eine Infiniband-Verbindung ist eine Serienverbindung, die an einer von fünf Datenraten funktioniert: einzelne Datenrate (SDR), doppelte Datenrate (DDR), Viererkabeldatenrate (QDR), vierzehn Datenrate (FDR) und erhöhte Daten haben gegolten (EDR).

Die Signalrate der SDR Verbindung ist 2.5 gigabit pro Sekunde (Gbit/s) in jeder Richtung pro Verbindung. DDR ist 5 Gbit/s, und QDR ist 10 Gbit/s. FDR ist 14.0625 Gbit/s, und EDR ist 25.78125 Gbit/s pro Gasse.

Für SDR, DDR und QDR, verwenden Verbindungen 8B/10B, der verschlüsselt — alle gesandten 10 Bit tragen 8 Bit von Daten — das Bilden der wirksamen Datenübertragungsgeschwindigkeitsvier Fünftel die rohe Rate. So tragen einzelne, doppelte und Viererkabeldatenraten 2, 4, oder 8 Gbit/s nützliche Daten beziehungsweise. Für FDR und EDR verwenden Verbindungen 64B/66B, der verschlüsselt — alle gesandten 66 Bit tragen 64 Bit von Daten. (Keine dieser Berechnungen zieht die zusätzliche physische Schicht Obervoraussetzungen für Komma-Charaktere oder Protokoll-Voraussetzungen wie StartOfFrame und EndOfFrame in Betracht).

Implementers kann Verbindungen zu Einheiten 4 oder 12, genannt 4X oder 12X ansammeln. 12X trägt QDR Verbindung deshalb 120 Gbit/s Rohstoff oder 96 Gbit/s von nützlichen Daten. die meisten Systeme verwenden 4X Anhäufung, 10 Gbit/s (SDR), 20 Gbit/s (DDR) oder 40 Gbit/s (QDR) Verbindung einbeziehend. Größere Systeme mit 12X Verbindungen werden normalerweise für die Traube und Supercomputerverbindungen und für Zwischenschalter-Verbindungen verwendet.

Der Zukunft-Fahrplan von InfiniBand hat auch "HDR" (Hohe Datenrate), erwartet 2014, und "NDR" (Folgende Datenrate), erwartet "nach einer Weile", aber bezüglich des Junis 2010 wurden diese Datenraten an spezifische Geschwindigkeiten noch nicht gebunden.

Latenz

Die einzelnen Datenrate-Schalter-Chips haben eine Latenz von 200 Nanosekunden, DDR Schalter-Chips haben eine Latenz von 140 Nanosekunden, und QDR-Schalter-Chips haben eine Latenz von 100 Nanosekunden. Der Länge nach misst Latenz-Reihe von 1.07 Mikrosekunden MPI Latenz (Mellanox ConnectX QDR HCAs) zu 1.29 Mikrosekunden MPI Latenz (Qlogic InfiniPath HCAs) zu 2.6 Mikrosekunden (Mellanox InfiniHost DDR III HCAs) ab. verschiedene Gastgeber-Kanalanschlüsse (HCA) von InfiniBand bestehen auf dem Markt, jedem mit der verschiedenen Latenz und den Bandbreite-Eigenschaften. InfiniBand stellt auch RDMA Fähigkeiten für die niedrige Zentraleinheit oben zur Verfügung. Die Latenz für RDMA Operationen ist weniger als 1 Mikrosekunde (Mellanox ConnectX HCAs).

Topologie

InfiniBand verwendet eine geschaltete Stoff-Topologie im Vergleich mit einem hierarchischen Koppelnetz wie traditionelle Architekturen von Ethernet, obwohl erscheinend Stoff-Architekturen von Ethernet schlagen viele Vorteile vor, die Ethernet sehen konnten InfiniBand ersetzen. Die meisten Netztopologien sind Fetter Baum, Ineinandergreifen oder 3D-Ring. Neue Papiere (ISCA '10) haben Schmetterling-Topologien (Clos) ebenso demonstriert.

Alle Übertragungen beginnen oder enden an einem "Kanalanschluss." Jeder Verarbeiter enthält einen Gastgeber-Kanalanschluss (HCA), und jeder peripherisch hat einen Zielkanalanschluss (TCA). Diese Adapter können auch Information gegen die Sicherheit oder Qualität des Dienstes (QoS) austauschen.

Nachrichten

InfiniBand übersendet Daten in Paketen von bis zu 4 Kilobytes, die zusammen genommen werden, um eine Nachricht zu bilden. Eine Nachricht kann sein:

  • ein direkter Speicherzugang, der davon gelesen ist, oder, schreiben Sie, ein entfernter Knoten (RDMA)
  • ein Kanal sendet oder erhält
  • eine Transaktionsbasierte Operation (der umgekehrt werden kann)
  • eine Mehrwurf-Übertragung.
  • eine Atomoperation

Anwendungen

InfiniBand ist im Unternehmen datacenters, zum Beispiel Orakel Exadata und Exalogic Maschinen, Finanzsektoren angenommen worden, Wolkencomputerwissenschaft (hat gestütztes System von InfiniBand den besten von VMWorld für die Wolkencomputerwissenschaft gewonnen), und mehr. InfiniBand ist größtenteils für die hohe Leistung verwendet worden, die Computertraube-Anwendungen bündelt. Mehrere TOP500 Supercomputer haben InfiniBand einschließlich des ehemaligen regierenden schnellsten Supercomputers, IBM Roadrunner verwendet.

SGI, LSI, DDN, Orakel, Rorke Daten unter anderen, haben auch das Lagerungsverwenden InfiniBand "Zieladapter" veröffentlicht. Diese Produkte bewerben sich im Wesentlichen mit Architekturen wie Faser-Kanal, SCSI und andere traditionellere Konnektivitätsmethoden. Solches Ziel Adapter-basierte Scheiben kann ein Teil des Stoffs eines gegebenen Netzes nach einer Mode werden, die bis DEZ das VMS Sammeln ähnlich ist. Der Vorteil für diese Konfiguration ist niedrigere Latenz und höhere Verfügbarkeit zu Knoten im Netz (wegen der Stoff-Natur des Netzes). 2009 hat der Eiche-Kamm Nationales Laboratorium-Spinne-Lagerungssystem hat diesen Typ von InfiniBand verwendet, Lagerung beigefügt, um 240 Gigabytes pro Sekunde der Bandbreite zu übertragen.

Physische Verbindung

InfiniBand verwendet CX4 Kupferkabel für SDR, und DDR Raten — haben auch allgemein gepflegt, SAS (Beigefügter Serien-SCSI) HBAs zur äußerlichen (SAS) Plattenreihe zu verbinden. Mit SAS ist das als ein SFF-8470 Stecker bekannt, und wird einen "InfiniBand-artigen" Stecker genannt. Die letzten mit QDR fähigen Lösungen verwendeten Stecker sind QSFP (Viererkabel-SFP).

Programmierung

InfiniBand hat keine Standardprogrammier-API innerhalb der Spezifizierung. Der Standard verzeichnet nur eine Reihe von "Verben" - Funktionen, die bestehen müssen. Die Syntax dieser Funktionen wird den Verkäufern verlassen. Die allgemeine Norm ist bis heute die Syntax gewesen, die von der Verbindung von OpenFabrics entwickelt ist, die von den meisten Verkäufern von InfiniBand, für GNU/Linux, FreeBSD und FRAU Windows angenommen wurde. Der von der Verbindung von OpenFabrics entwickelte Softwarestapel von InfiniBand wird als "Unternehmensvertrieb von OpenFabrics (OFED) veröffentlicht" unter einer Wahl von zwei Lizenzen lizenzieren GPL2 oder BSD für Linux und FreeBSD, und als "WinOF" unter einer Wahl der BSD-Lizenz für Windows.

Geschichte

InfiniBand ist aus der 1999-Fusion von zwei konkurrierenden Designs entstanden:

  1. Zukünftige Eingabe/Ausgabe, die von Compaq, IBM und Hewlett Packard entwickelt ist
  2. Folgende Generationseingabe/Ausgabe (ngio), entwickelt von Intel, Microsoft und Sonne

Von der Seite von Compaq sind die Wurzeln der Technologie auf ServerNet des Tandems zurückzuführen gewesen. Seit einer kurzen Zeit bevor hat die Gruppe einen neuen Namen präsentiert, InfiniBand wurde Systemeingabe/Ausgabe genannt.

InfiniBand wurde als ein umfassendes "Systembereichsnetz" ursprünglich vorgesehen, das Zentraleinheiten verbinden und die ganze hohe Geschwindigkeitseingabe/Ausgabe für "Zurückbüro"-Anwendungen zur Verfügung stellen würde. In dieser Rolle würde es so etwa jeden datacenter Eingabe/Ausgabe-Standard einschließlich PCI, Faser-Kanals und verschiedener Netze wie Ethernet potenziell ersetzen. Statt dessen würden alle Zentraleinheiten und Peripherie in geschalteten Stoff von InfiniBand eines einzelnen Pan-Datacenter verbunden. Diese Vision hat mehrere Vorteile zusätzlich zur größeren Geschwindigkeit, nicht angeboten, von dem meist dieses Eingabe/Ausgabe-Arbeitspensum ist, würde vom Computer und der Lagerung größtenteils gehoben. In der Theorie sollte das den Aufbau von Trauben viel leichter, und potenziell weniger teuer machen, weil mehr Geräte geteilt werden konnten und sie als ausgewechselte Arbeitspensen leicht bewegt werden konnten. Befürworter einer weniger umfassenden Vision haben InfiniBand als eine durchdringende, niedrige Latenz, hohe Bandbreite, niedrig Oberverbindung für kommerziellen datacenters gesehen, obgleich derjenige, der vielleicht nur Server und Lagerung zu einander verbinden könnte, während er mehr Ortsverbindungen zu anderen Protokollen und Standards wie PCI verlassen hat.

InfiniBand ist eine populäre Verbindung für die Hochleistungscomputerwissenschaft geworden, und seine Adoption, wie gesehen, in der TOP500 Supercomputerliste ist schneller als Ethernet. In den letzten Jahren ist InfiniBand im Unternehmen datacenters zunehmend angenommen worden.

2008 hat Oracle Corporation seine HP-Orakel-Datenbankmaschine veröffentlicht bauen als eine RAC Datenbank (Echte Anwendung hat Datenbank Gebündelt) mit der Lagerung, die auf seinem Exadata Lagerungsserver zur Verfügung gestellt ist, der InfiniBand als die Backend-Verbindung für den ganzen IO und Verbindungsverkehr verwertet. Aktualisierte Versionen des Exadata Lagerungssystems, jetzt mit der Sonne Rechenhardware, setzen fort, Infrastruktur von InfiniBand zu verwerten.

2009 hat IBM ein Ausgabe-Datum im Dezember 2009 für ihren DB2 pureScale Angebot, ein Sammeln-Schema der geteilten Platte bekannt gegeben (begeistert durch die Parallele sysplex für DB2 z/OS), der eine Traube von IBM System p Server (POWER6/7) verwendet, der mit einander über eine Verbindung von InfiniBand kommuniziert.

2010 nehmen Netzlagerungshersteller der Skala zunehmend InfiniBand als primäre Traube-Verbindung für moderne NAS Designs, wie Isilon IQ oder IBM SONAS an. Da Systeme der Skala verteilte metadata Operationen ohne "Master-Knoten" führen, ist innere niedrige Latenz-Kommunikation ein kritischer Erfolg-Faktor für die höchste Skalierbarkeit und Leistung.

2010 veröffentlicht Orakel Maschinen von Exadata und Exalogic, diejenigen führen InfiniBand QDR mit 40 Gbit/s (32 Gbit/s wirksame) das Verwenden von Sonne-Schaltern (Sonne-Netz QDR Tor-Schalter von InfiniBand) durch. Der Stoff von InifiniBand wird verwendet, um in Verbindung zu stehen, schätzen Knoten und diejenigen mit der Lagerung, und wird verwendet, um mehrere Maschinen von Exadata und Exalogic auch zu verbinden.

Im Juni 2011 wurden FDR Schalter und Adapter auf der Internationalen Superrechenkonferenz bekannt gegeben.

Siehe auch

  • Handelsvereinigung von InfiniBand (IBTA)
  • SCSI RDMA Protocol (SRP)
  • RDMA over Converged Ethernet (RoCE)
  • iWARP
Liste der Gerät-Bandbreite
  • Optische Verbindung
  • Verbindungsengpass
  • Lichtwellenleiterkabel
  • Optische Kommunikation
  • Passen Sie optischer Schnittstelle an

Außenverbindungen

  • .
. . . . .

Gleichzeitige Folge / Schreiben Sie Mann um
Impressum & Datenschutz