Schnelle Server-Verbindungen mit InfiniBand, EtherFabric und iWARP
Anlässlich der Supercomputer-Konferenz in Heidelberg kündigen mehrere Hersteller verbesserte Interconnect-Verfahren für Server an.
Während die etablierten Hochleistungs-Verbindungstechniken (etwa InfiniBand [1], Quadrics QsNet [2], Dolphin SCI [3], Myrinet [4]) für Server- und Clusterknoten kontinuierlich verbessert werden, drängen neue Verfahren auf den Markt. Und welcher Anlass zur Vorstellung könnte besser geeignet sein als die 2005 International Supercomputer Conference (ISC2005 [5]) in Heidelberg.
Die kleine kalifornische Firma Level 5 Networks [6] offeriert mit EtherFabric eine Technik, die -- ähnlich wie iSCSI [7] -- auf Ethernet-Hardware aufsetzt. Während aber der iSCSI-Standard [8] auf die Anbindung von Speicher-Subsystemen in Storage Area Networks (SANs) über preiswerte und leistungsfähige Adapterkarten und Kabel zielt, ist EtherFabric sowohl für sehr schnelle TCP/IP-Verbindungen gedacht als auch zur Verbindung von Cluster-Knoten zum Austausch von Anweisungen und Daten (Message Passing Interface, MPI [9]) und zum direkten Hauptspeicher-Fernzugriff (Remote Direct Memory Access, RDMA [10]). Level 5 Networks betont vor allem die kurzen Latenzzeiten (weniger als 10 Mikrosekunden), die geringe Prozessorbelastung und die günstigen Kosten der Technik, die Gigabit-Ethernet-Infrastruktur nutzt. Außerdem erlauben es die zwischen 300 und 500 US-Dollar teuren Adapterkarten mit zwei Ports, zwei Gigabit-Ethernet-Links parallel zu betreiben (Striping). Auf der Karte sitzt ein Coprozessor, statt eines Kernel-Mode-Treibers soll unter Linux ein Userland-Treiber ressourcenschonender arbeiten.
Level 5 Networks streicht als Vorteil gegenüber InfiniBand heraus, dass viel preiswertere Kabel und Switches (siehe Mellanox [11], Topspin [12], Voltaire [13]) ausreichen und Binärkompatibilität zu Ethernet-Software besteht -- prinzipiell lassen sich auch "gewöhnliche" Netzwerk-Zugriffe beschleunigen. Eine ganz andere Technik zur Optimierung von Gigabit-Ethernet-Netzwerk-Transfers hat übrigens Intel mit der I/O Acceleration Technology [14] angekündigt. Auch TCP Offload Engines (TOE [15]) verschiedener Hersteller sollen schnelle Ethernet-Verfahren (etwa 10GE [16], 40GE [17]) beschleunigen.
Um diese (im Vergleich zu speziellen Cluster-Interconnects) weit verbreiteten Verfahren und ihre technische Infrastruktur auch für andere Zwecke nutzen zu können, entwickelt man neben dem erwähnten RDMA (mit dem Sub-Standards iSER und SDP) auch andere Verfahren, etwa iWARP [18]. Dahinter verbirgt sich ein Verfahren für direkte Speicherzugriffe zwischen Internet-Servern, das über viele unterschiedliche Adapter und Kabel funktionieren soll.
Der InfiniBand-Spezialist PathScale [19] behauptet unterdessen, dass dieses Verfahren in Bezug auf die Latenzzeiten kaum zu schlagen sei: Mit einem HTX-Adapter nämlich, der direkt an einen HyperTransport [20]-Link andockt und dem Umweg über PCI-X [21] oder PCI Express [22] vermeidet, sollen sich Latenzzeiten von 1,32 Mikrosekunden (eine Richtung, 8-Byte-Nachricht, Switch eingeschlossen) erreichen lassen. Der so genannte Infinipath HTX Adapter [23] soll als Onboard-Chip oder als Steckkarte für einen standardisierten HTX-Port [24] verfügbar sein. (ciw [25])
URL dieses Artikels:
https://www.heise.de/-110440
Links in diesem Artikel:
[1] http://www.heise.de/glossar/entry/Infiniband-395740.html
[2] http://www.quadrics.com/
[3] http://www.dolphinics.no/
[4] http://www.myri.com/
[5] http://www.isc2005.org/
[6] http://www.level5networks.com/
[7] https://www.heise.de/news/iSCSI-Standard-komplett-60292.html
[8] http://www.snia.org/tech_activities/ip_storage/iscsi/
[9] http://www.mpi-forum.org/
[10] https://www.heise.de/news/Spezifikation-fuer-schnellen-Speicherzugriff-per-TCP-IP-88029.html
[11] http://www.mellanox.com/
[12] http://www.topspin.com/
[13] http://www.voltaire.com/
[14] https://www.heise.de/news/IDF-Intels-naechstes-T-soll-den-Datendurchsatz-in-Servern-beschleunigen-136710.html
[15] https://www.heise.de/news/ISSCC-Nichts-Exponentielles-dauert-ewig-aber-Ewigkeit-kann-man-verschieben-74415.html
[16] https://www.heise.de/news/10GE-Ethernet-Beschleunigung-mit-Kupferkabel-111519.html
[17] https://www.heise.de/news/Lucents-neues-40-GBit-s-Glasfasersystem-geht-in-Serie-63189.html
[18] http://www.iol.unh.edu/consortiums/iwarp/
[19] http://www.pathscale.com/infinipath.php
[20] http://www.heise.de/glossar/entry/HyperTransport-395764.html
[21] http://www.heise.de/glossar/entry/PCI-X-395762.html
[22] http://www.heise.de/glossar/entry/PCI-Express-395644.html
[23] https://www.heise.de/news/Schneller-Interconnect-fuer-HyperTransport-Systeme-112917.html
[24] http://www.hypertransport.org/tech/tech_specs_conn.cfm
[25] mailto:ciw@ct.de
Copyright © 2005 Heise Medien