Umgang mit der neuen Vielfalt
Die Datacenter-Landschaft ist im Umbruch. Zunehmend setzen auch mittelständische Unternehmen auf Virtualisierung und hybride Cloud-Lösungen. Hinzu kommt der Trend zu Software-defined (SD) Infrastrukturen und Rechenzentren. Dabei werden Daten nur noch auf Servern und Hosts gespeichert, tauchen aber in der Management-Software nicht mehr als Hardware auf, sondern nur noch als im Netz eingebundene Kapazitäten. Anwendungen und Netzwerkkapazitäten lassen sich so je nach Bedarf auch per Private oder Public Cloud zu- oder abschalten. Das geht bis hin zum vollständig automatisierten Rechenzentrum, bei dem der Faktor Mensch als Fehlerursache kaum noch auftaucht. Wichtig ist allerdings: Die zugehörigen Netzwerkinfrastrukturen und Verkabelungslösungen müssen modular ausreichend Bandbreite bereitstellen können und sich an künftige Anforderungen anpassen lassen.
Hyperscale-Rechenzentren
Rechenzentren wie die von Amazon, Cisco, Google oder von großen Cloud- und Netzwerkanbietern sind bereits heute so aufgebaut. Für solche Netze gelten 100 GBit/s bereits als Flaschenhals. Mit einer softwaredefinierten Infrastrukturlösung können Netzbetreiber Leitungsbandbreiten in 100-GBit/s-Schritten in Minuten durch einfache Softwareaktivierung bereitstellen.
In diesen Netzen kommt allein schon wegen der großen Dimensionen nur Singlemode-Technik zum Einsatz. Um Platz zu sparen, werden kompaktere Transceiver-Bauformen wie µQSFP entwickelt; sie bietet im Footprint eines SFPs den QSFP-Funktionsumfang. Noch platz- und vor allem energiesparender ist es, wenn die Medienkonvertierung mit zugehöriger Optik auf die Chips verlagert wird (On Board Optics). Dann kann die optische Verbindung über eine passive MPO-Kupplung am Port realisiert werden. Die Server und Switches senden und empfangen dann direkt die optischen Signale. Diese Verbindungen lassen sich jedoch nicht mehr über eine strukturierte Verkabelung realisieren, sondern nur noch über Punkt-zu-Punkt-Verbindungen (One-Hop-Verbindungen).
Bei vermaschten Leaf-Spine-Architekturen treten viele Punkt-zu-Punkt-Verbindungen auf. (Bild: Dätwyler)
Software-defined Infrastrukturen
Solche Rechenzentren sind natürlich die Spitze des Marktes. Doch der Rest zieht nach. Das Forschungsinstitut Markets and Markets prognostizierte im März 2017, dass der SD-Datacenter-Markt von derzeit 25,61 Milliarden US-Dollar auf 83,21 Milliarden Dollar im Jahr 2021 steigen wird. Auch eine Umfrage von 451 Research im Herbst 2016 ergab, dass 67 % der weltweit befragten Unternehmen ihre Ausgaben für SD-Infrastrukturen erhöhen wollen. Haupttreiber für SD-Rechenzentren sind laut Markets and Markets das Ressourcenpooling zur Senkung der Betriebskosten. Zudem erhöhe sich damit die Flexibilität und Skalierbarkeit. Auch das DC-Management sei weniger komplex als bei klassischen Rechenzentren.
Ein mittelständischer Herstellungsbetrieb wird deshalb sein Rechenzentrum nicht komplett umstrukturieren, aber sicher das ein oder andere integrieren. Doch um in Cloud-basierten Umgebungen Engpässe zu vermeiden und Latenzzeiten zu minimieren, verfügen Rechenzentren zunehmend über vermaschte Leaf-Spine-Architekturen mit zahlreichen direkten Verbindungen. Auch in Rechenzentren mit anderen Architekturen wird es deshalb bei der Verkabelung von aktiven Komponenten in einem Rack oder zwischen zwei benachbarten Racks künftig mehr Punkt-zu-Punkt-Verbindungen geben.
Schon heute bietet der Markt zum Beispiel für Cloud-Umgebungen beidseitig mit SFP- oder QSFP-Transceivern vorkonfektionierte Anschlusskabel für Datenraten bis 100 GBit/s an. Sie sind nicht nur schneller und kostengünstiger als Direct-Attach-Kabel auf Kupferbasis, sie sind auch leichter, flexibler und in Längen bis 300 m erhältlich. Es gibt sie auch als Breakout-Kabel mit SFP-Transceivern.
Optische Übertragungstechniken
Um Datenraten von 40 GBit/s und mehr zu erzielen, gibt es heute zahlreiche Übertragungstechniken. So können die Signale auf mehrere Kanäle (Lanes) aufgeteilt und parallel über mehrere Faserpaare gesendet werden. Dazu werden in der Regel MPO-Verbindungen verwendet. Alternativ können Datenraten bis 50 GBit/s wie in der Kupfertechnik mit einer PAM4-Modulation über ein Faserpaar transportiert werden. Auch Übertragungen über mehrere Wellenlängen mit einem WDM-System (Wavelength Division Multiplexing) kommen mit einem Faserpaar aus. Diese Übertragungstechnik wurde bisher nur für Singlemode-Fasern genutzt. Doch 2016 wurde die Wideband-Multimode-Faser OM5 standardisiert. Sie ist rückwärtskompatibel zur OM4-Faser und für das Coarse Wavelength Division Multiplexing (CWDM) über vier Wellenlängen von 850 bis 900 nm optimiert. So kann sie zunächst wie eine OM4-Faser eingesetzt werden und später mit Transceivern für das Multiplexing nachgerüstet werden.
Gegen WDM-Lösungen und PAM4-Modulation spricht, dass die aktive Technik teurer ist als bei der Parallelübertragung und dass damit nur Punkt-zu-Punkt-Übertragungen realisiert werden können. Außerdem müssen die MPO-Anschlüsse sehr präzise gefertigt sein. Mit den Übertragungsraten steigen generell auch die Anforderungen an die Steckverbindung. Vor allem bei höherer Modulation ist die Rückflussdämpfung der kritischste Parameter.
Zentrale Kriterien für die Verkabelung
Für Datenraten bis 100GbE gibt es bereits Lösungen. Welche Variante lässt sich im eigenen Rechenzentrum am besten integrieren und wie kann ich die Core-Verbindungen für 400GbE vorbereiten?
Switches, Server und Speicherlösungen werden wieder verstärkt direkt angeschlossen und das zunehmend mit aktiven optischen Kabeln (AOCs).
Der Trend geht zu automatisierten Rechenzentren, und dabei sollte auch die Verkabelung über ein AIM in das übergeordnete Managementsystem eingebunden sein.
Wieder anwendungsorientiert
Schon 2017 präsentierte die Ethernet Alliance auf der OCF einen Überblick über die derzeit verfügbare Technik zu allen aktuellen und in der Entwicklung bzw. Normung befindlichen Ethernet-Übertragungsvarianten. Neben Lösungen für 400-GBit/s-Übertragungen wurden Switches, Netzwerkkarten und Server präsentiert, die für 25- bis 100-GBase-Ethernet-Übertragungen ausgelegt sind. John D’Ambrosia, Vorsitzender der Ethernet Alliance und Chefingenieur bei Huawei sagte: „Die Vielfalt der Lösungen gibt Netzwerkplanern die Möglichkeit, ein maßgeschneidertes Netzwerk zu errichten, angepasst an individuelle Anforderungen und den jeweiligen Bandbreitenbedarf der Anwendungen.“
Natürlich sind der Vielfalt Grenzen gesetzt. Es müssen sich bestimmte Lösungen im Markt durchsetzen, die dann zu akzeptablen Kosten in großen Stückzahlen produziert werden können. Auch für Messgerätehersteller ist es untragbar, unzählige Adapter- und Messroutinen für jede einzelne Übertragungstechnik zu entwickeln und anzubieten. So zeichnet sich schon heute ab, dass sich LC-Duplex und MPO als optische Anschlusstechnik durchsetzen werden.
Doch mit dem Zitat von D’Ambrosia wird auch klar, dass eine anwendungsneutrale Verkabelung in Rechenzentren künftig nicht mehr das Nonplusultra sein wird. RZ-Betreiber werden bei vermaschten Leaf-Spine- und Cloud-Computing-Architekturen sowie bei der Anbindung von Highspeed-Flash-Speichersystemen die Verkabelung einsetzen müssen, die über die Server- und Switch-Schnittstellen vorgegeben wird. Auf einer RZ- und Verkabelungstagung im Februar 2018 in München, riet der Netzwerksachverständige Manfred Patzke deshalb dazu, die Trassen in Rechenzentren künftig sehr großzügig auszulegen. So ließen sich bei einem Technologiewechsel auf der aktiven Seite die bisher genutzten Direktverbindungen während des laufenden Betriebs gut entnehmen und durch die dann benötigten Verbindungen für die neuen Server und Switches ersetzen.
Schwarz auf Weiß
Dieser Beitrag erschien zuerst in unserer Magazinreihe „Rechenzentren und Infrastruktur“. Einen Überblick mit freien Download-Links zu sämtlichen Einzelheften bekommen Sie online im Pressezentrum des MittelstandsWiki.
Normkonform oder proprietär
Die zahlreichen Übertragungsstandards haben sich entwickelt, weil im Rechenzentrumsbereich ein wachsender Bedarf an Server- und SAN-Verbindungsgeschwindigkeiten über 10 GBit/s hinaus bestand. So wurden zunächst außerhalb von IEEE Lösungen für 40 und 100-GBit/s-Ethernet entwickelt, die mittlerweile in die Normierung eingebunden sind. Darüber hinaus hat das MSA-Konsortium (Multi Source Agreement) um Microsoft, Broadcom, Google, Cisco und Dell Lösungen entwickelt, die aufgrund der namhaften Hersteller mittlerweile als De-facto-Standards gelten. Dabei werden über eine PSM2-Schnittstelle (Parallel Single Mode 2 lane) Datenraten von 50 GBit/s über zwei Lanes übertragen und mit der 100-GBit/s-Schnittstelle PSM4 je 25 GBit/s über vier parallele Singlemode-Faserpaare (maximale Distanz: 500 m).
Zudem hat Cisco mit Bidi eine proprietäre 40-GBit/s-Lösung über ein einfaches Multimode-Faserpaar entwickelt. Diese nutzt zwei 20-GBit/s-Kanäle mit Wavelength Division Multiplexing über zwei Wellenlängen. Die neue OM5-Faser bietet sich für diese Variante an, ist aber nicht notwendig. Die Technik ist für OM3- und OM4-Fasern entwickelt und soll zum Beispiel die Weiternutzung von vorhandenen Kabelstrecken ermöglichen. Derzeit ist IEEE 802.3 dabei, die Normierung für Coarse-Wavelength-Division-Multiplexing-Übertragungen (vier Wellenlängen) um Varianten für OM5-Fasern zu ergänzen. Dann sind Übertragungsraten bis 100 GBit/s auch über ein MM-Faserpaar mit LC-Duplex-Steckverbindung im Standard definiert.
Praktische Umsetzung
Grundsätzlich sollten bei Neuverkabelungen mindestens OM4-Fasern eingesetzt werden, und das auch nur über Distanzen bis 100 m. Denn die Längenrestriktionen verschärfen sich mit zunehmender Datenrate.
Außerdem sollte der Planer bei der Auswahl der Übertragungstechnik darauf achten, dass entsprechende Transceiver in einer gängigen Bauform wie QSP4 oder SFP zu erschwinglichen Preisen zur Verfügung stehen. Die Entwicklungen des MSA-Konsortiums haben mittlerweile eine solche Marktmacht, dass man davon ausgehen kann, dass sie zumindest als De-facto-Standard angesehen werden können. Das heißt: Es gibt auch bezahlbare Transceiver dafür. Planer sollten aber bei der Auswahl der Technik berücksichtigen, dass sie nicht in eine Sackgasse geraten, sondern offen für weitere Migrationsschritte bleiben.