Nachdem das kalifornische Unternehmen PathScale bereits durch seine 64 Bit Compiler für AMD64 auf sich aufmerksam gemacht hat (wir berichteten), stellt dieses nun nach Aussagen von Heise den für Clusterrechner interessanten Interconnect InfiniPath HT4X vor. Dieser speziell für HyperTransport Systeme entwickelte Interconnect soll gegenüber heutigen Standardinterconnects (wie zum Beispiel InfiniBand oder Myrinet) höhere Bandbreiten und vor allem niedrigere Latenzen zwischen einzelnen Rechenknoten ermöglichen. InfiniPath basiert auf dem schon erwähnten InfiniBand Interconnect, im Gegensatz zu diesem nutzt es aber nicht die herkömmlichen PCI-X oder PCI-Express Schnittstellen, sondern soll an einem speziellen HLX-Slot andocken.
Genau diese Änderung soll den Latenzvorteil bieten und als Folgeeffekt bei kleinen Paketen die Datenbandbreite erhöhen. Das erste Mainboard mit dem notwendigen HLX-Slot soll das Iwill DK8S2 sein. Sollten sich die Vorteile auch in der Praxis bestätigen, dürften aber andere Server-Hauptplatinenhersteller dem Weg von Iwill folgen. Auch die anderen Hyper-Transport kompatiblen Plattformen (für IBMs Power970/G5 und Transmeta Efficeon Prozessoren) könnten natürlich von diesem neuen Interconnect Standard profitieren.
Diesen Artikel bookmarken oder senden an ...