Mellanox präsentiert 100-GBit/s-Ethernet-Karten und NVMe-SSDs in Kombination mit der neuesten Funktion von Windows Server 2016 für hyperkonvergente Systeme.
Typischer Nutzungszweck ist die Bereitstellung von Ressourcen für virtuelle (Hyper-V-)Maschinen auf Standard-x86-Hardware die sich durch Hinzufügen weiterer gleicher Systeme erweitern lassen. Der Markt dieser hyperkonvergenten Server wächst derzeit besonders schnell.
Auf dem Flash Memory Summit demonstriert Mellanox mit Storage Spaces Direct die Leistungsfähigkeit von ConnectX-4-Adapterkarten & Spectrum-2700-Switches für 100-GBit/s-Ethernet. Ein Verbund mehrerer Server mit solchen Converged-Ethernet-(CE-)Karten und den PCIe-NVMe-SSDs Samsung PM1725 liefert Daten mit bis zu 80 GByte/s. Für jede der 112 laufenden virtuellen Maschinen (VMs) stehen dadurch etwa 750 MByte/s bereit.
RDMA ist Pflicht
Storage Spaces Direct ermöglicht hyperkonvergente Server mit Windows Server 2016.
Bild: Microsoft
Laut einem Technet-Beitrag der die kommende Funktion Storage Spaces Direct beschreibt, müssen Speichermedien und Netzwerkadapter dafür gewisse Voraussetzungen erfüllen. Beispielsweise klappt es nur mit SAS-, SATA- oder PCIe-NVMe-Massenspeichern und die Netzwerkkarten müssen Remote DMA (RDMA) beherrschen. Das trifft beispielsweise auf Karten mit RoCE zu, das steht für RDMA over Converged Ethernet: Also RDMA über Ethernet- & InfiniBand-Interconnects.
BlueField für Software-defined Storage
Mellanox betont, dass die ConnectX-4- und kommende ConnectX-5-Adapter ebenfalls Offloading-Funktionen für Storage bieten. Damit soll sich NVM over Fabrics statt über teure PCIe-Switches auch effizient über Ethernet-Verbindungen nutzen lassen.
Mellanox hatte im Juni auch einen Controller für Storage-Systeme mit PCIe NVMe und bis zu 100-GBit-Ethernet angekündigt: Das BlueField-SoC nutzt Technik der zugekauften Firmen EZchip & Tilera und vereint mehrere ARMv8-A-Rechenkerne mit schnellem I/O. Damit sollen sich Storage-Systeme ohne teure Xeons bauen lassen.
Kommentare