Blitzbausteine integrieren
Von Peter Wüst, NetApp
Flash oder Festplatte? Das ist derzeit die Schlüsselfrage, die sich IT-Verantwortlichen beim Kauf neuer Speichersysteme stellt. Sieht man auf die reinen Anschaffungskosten, haben Festplatten noch die Nase vorn. Allerdings sinken die Preise für Flash kontinuierlich, während bei Festplatten kaum mehr Potenzial für Kostensenkungen vorhanden ist. Das liegt an den Technologien, die in den Highend-Festplatten stecken: Bis zu sieben Platten pro Laufwerk oder eine Heliumfüllung bei hochkapazitiven Modellen lassen preislich kaum noch Raum nach unten. Dagegen sorgen bei Flash die Skaleneffekte der Massenfertigung sowie neue Produktionsverfahren dafür, dass die Speicherdichte steigt und die Preise kontinuierlich fallen. Branchenkenner rechnen damit, dass Enterprise-Flash bereits 2017 die reinen Anschaffungskosten einer Highend-Festplatte schlagen könnte. Die Marktanalysten von IDC schätzen, dass schon ab 2018 schnelle All-Flash-Arrays die primäre Storage-Umgebung dominieren könnten.
Speicher im Vorteilspack
Der Blick auf den Anschaffungspreis pro Gigabyte greift aber ohnehin zu kurz. Wichtiger wäre eine Gesamtbetrachtung des laufenden IT-Betriebs, der geplanten Nutzung und der künftigen Entwicklung des Speicherbedarfs im Unternehmen. Bei der Einzelfallkalkulation, ob sich Flash fürs Rechenzentrum heute schon rechnet, hilft ein Blick auf die laufenden Betriebskosten und auf die genutzten Workloads.
Die EF-Series All-Flash-Arrays von NetApp eignen sich gut für anspruchsvolle Datenbanken oder Big-Data-Anlaysen (Bild: NetApp)
In Umgebungen mit IOPS-intensiven Anwendungen sind All-Flash-Lösungen den klassischen Festplatten-Arrays in der Gesamtbewertung bereits überlegen. Beispiele hierfür sind virtuelle Desktop-Infrastrukturen oder hochperformante Datenbanklandschaften. Wer diese Workloads durch Flash optimiert, kann bestehende Server konsolidieren und damit CPU-bezogene Software-Lizenzen reduzieren, etwa bei SQL-Datenbanken, bei denen die Lizenzen pro Prozessorkern abgerechnet werden: Mit dem Abschalten von nicht mehr benötigten Servern fallen diese CPU-Kerne aus der Lizenzierung.
Zusätzlich verringern sich die Energiekosten. Denn weil Flash-Speicher, anders als Festplatten, keine beweglichen Teile hat, sinken die zum IT-Betrieb notwendigen Kosten für Energie und Kühlung. So verringert sich der Stromverbrauch um bis zu 80 % (und die Lesezugriffe erfolgen bis zu 100-mal schneller).
Darüber hinaus sorgen Kompression und Deduplizierung dafür, dass sich bestehender Storage bestmöglich nutzen lässt. Die entsprechenden, in Flash-Systemen integrierten Funktionen tragen ganz erheblich dazu bei, die Speicherinfrastruktur zu optimieren. Dies gelingt mit Flash noch stärker als bei festplattenbasierten Systemen. Die niedrigen Latenzzeiten sowie der hohe Datendurchsatz machen es möglich, deutlich aggressivere Methoden zur Datenreduzierung anzuwenden, etwa eine sehr granulare Deduplikation mit Inline-Komprimierung. Je nach Art der Daten lässt sich eine Reduktion auf ein Zehntel erreichen, und zwar ohne Belastung der Serverinfrastruktur. Manche Hersteller geben ihren Kunden sogar eine Garantie auf eine 4:1-Effizienzsteigerung ihrer Storage-Umgebung bei einer Migration auf Flash.
Peter Wüst leitet die Emerging Solutions & Innovation Group EMEA bei NetApp. Er ist für Software-defined-Lösungen ebenso Experte wie für konvergente Infrastrukturen, auch mit Flash-Technologie, für SAP, Microsoft oder VMware. Führende Unternehmen auf der ganzen Welt setzen auf NetApp-Software, -Systeme und -Services für das Management und die Speicherung ihrer Daten. Unsere Kunden schätzen unsere Teamarbeit, unsere Expertise und unser Engagement für ihren Erfolg.
NetApp Deutschland GmbH, www.netapp.com/de/
Administration und Datenmanagement
Eine weitere Stellschraube sind die laufenden Kosten der IT-Administration. So ist es für den Admin eine große Erleichterung, wenn sich der gesamte Storage-Pool mit nur noch einer Management-Software steuern lässt. Dies umfasst Aufgaben wie die Einrichtung neuer Flash-Systeme ebenso wie die sichere Integration externer Cloud-Ressourcen in die on premises betriebene Infrastruktur. Außerdem sollten Storage-Systeme per Plug-and-play installierbar sein und sich nahtlos in bestehende Speicherlandschaften integrieren lassen. Eine zentrale Voraussetzung hierfür ist die Unterstützung von SDS-Konzepten (Software-defined Storage). Dabei wird über eine Virtualisierungsebene die Hardware von den Funktionen zur Speicherverwaltung getrennt.
Der Einsatz von Flash führt allerdings auch dazu, dass IT-Manager ihre Konzepte für das Datenmanagement überprüfen müssen. Dies schließt die Frage ein, ob Backups auf schnellem Flash-Speicher gesichert werden müssen. Das kann zwar dann sinnvoll sein, wenn ein sehr schnelles Umschalten im [[Disaster Recovery{Disaster-Recovery]]-Fall verlangt wird, um die Verfügbarkeit von Produktivsystemen zu sichern, ist aber sicher nicht in allen Anwendungsfällen erforderlich. In die TCO-Betrachtung einer Flash-Investition sollte auf jeden Fall das Gesamtkonzept von Backup und Restore inklusive einer Nutzung der Cloud für Backup as a Service einfließen.
Warum Konzepte für Software-defined Storage, ein automatisiertes Backup und eine leichte Bedienbarkeit von Flash-Systemen so wichtig sind, zeigt die Entwicklung der Speicherkapazität, die ein einzelner IT-Administrator verwaltet. Gartner hat in seinen IT Metrics 2015 ermittelt, wie sich die TB/FTE-Ratio (Terabyte per Full-Time Employee) in den vergangenen Jahren verändert hat: Im Jahr 2010 betreute ein Storage-Administrator im Schnitt noch 81 TByte, im Jahr 2014 bereits 299 TByte. Es ist davon auszugehen, dass dieser Wert weiterhin ansteigt und somit die Verantwortung der Admins für die Prozess- und Datenverfügbarkeit weiter zunehmen wird. Hier wird es in Zukunft wichtig sein, in der IT-Organisation mit einfach bedienbaren Management-Werkzeugen zu arbeiten.
Schwarz auf Weiß
Dieser Beitrag erschien zuerst in unserer Magazinreihe „Rechenzentren und Infrastruktur“. Einen Überblick mit freien Download-Links zu sämtlichen Einzelheften bekommen Sie online im Pressezentrum des MittelstandsWiki.
Schnellere Anwendungsentwicklung
Es sind aber nicht nur die IT-Experten aus dem operativen Betrieb, die von Flash profitieren. Auch in der Anwendungsentwicklung ergeben sich Vorteile. So ist in großen Applikationslandschaften, die kontinuierlich weiterentwickelt werden, eine Vielzahl von täglichen Software-Updates notwendig. Solche kurzen Zyklen lassen sich mit traditionellen Entwicklungsmethoden (Development, Test, Produktion) nicht ausreichend effizient realisieren. Daher setzt die IT-Organisation zunehmend auf DevOps (Development and Operations) und arbeitet mit hoch automatisierten Entwicklungsumgebungen. Funktionen wie Cloning oder Snapshots zur Datenreplikation beziehungsweise Sicherung werden durch den hohen Grad an Automation für die Entwickler verfügbar. Diese können daher aktuelle operative Datensätze direkt in der Anwendungsentwicklung nutzen, ohne dass sie die Daten erst über den Storage-Administrator anfordern müssten. Per Cloning erstellt die Flash-Lösung in wenigen Sekunden Kopien der operativen Daten und stellt diese der Entwicklung bereit.
DevOps-Entwickler erhalten somit mehr Macht über die IT-Infrastruktur und können eigenständig die benötigten Komponenten anfordern oder ausrollen. Aus Sicht der IT-Abteilung sinkt damit der Aufwand für All-Flash-unterstützte Infrastrukturen ganz erheblich, während die Anwendungsentwicklung beschleunigt wird.
Muss die IT-Organisation ihren internen oder externen Kunden vertraglich zugesicherte SLAs bezüglich der Performance von Applikationen oder Storage-Systemen garantieren, war bislang eine Überprovisionierung der Infrastruktur die sicherste Variante. Die Idee dahinter ist simpel genug: Wenn genug schnelle Festplatten und Server im Rechenzentrum stehen, sollte sich selbst bei maximalen Nutzerzahlen die vereinbarte Leistung erreichen lassen. Der Nachteil: Das bringt hohe Investitionskosten mit sich und bindet Kapital, das an anderer Stelle für strategische IT-Projekte fehlt.
Einige Hersteller von Flash-Systemen bieten dafür eine elegante Lösung und haben in ihre All-Flash-Arrays eine QoS-Unterstützung (Quality of Service) integriert. Hierbei sorgt das Storage-Betriebssystem selbst dafür, dass das Flash-System mit einer zuvor definierten Workload-Performance arbeitet. Die Funktion unterstützt Rechenzentren und IT-Dienstleister, die ihren Kunden eine definierte Dienstgüte anbieten müssen.
Schnittstellen und Protokolle für Flash-Systeme
Die hohen Übertragungsraten von Flash-Speicher machen neue Schnittstellen und Protokolle notwendig. Mit der herkömmlichen SATA-Anschlusstechnik schaffen Consumer-SSDs bis zu 550 MByte/s. Mit einer SAS-Schnittstelle (Serial Attached SCSI) ist schon eine Übertragungsrate von rund 1,2 GByte/s machbar. Moderne SSD-Laufwerke liefern aber schon bis zu 2,5 GByte/s, daher werden sie im Highend-Bereich über PCI-Express (PCIe) angeschlossen. Bei PCIe 3.0 sind schon bis zu 2,7 GByte/s möglich. Ergänzend hierzu ist ein Flash-optimiertes Übertragungsprotokoll wie NVMe (Non-Volatile Memory Express) nötig, da die Laufwerkseigenschaften von Flash komplett anders ausfallen als bei einer Festplatte. Mit NVMe sind beispielsweise über 65.000 parallele Zugriffe auf ein Flash-Laufwerk möglich. Damit lassen sich im Rechenzentrumsbetrieb die Eigenschaften des Flash-Speichers optimal nutzen.
Die mit PCIe erreichten niedrigen Antwortzeiten im Bereich von Mikrosekunden sowie die hohen Transferraten kommen dadurch zustande, dass die PCIe-Karte unmittelbar an der CPU sitzt. Damit umgeht der Flash-Speicher allerdings den Storage-Protokoll-Stack, sodass PCIe-SSDs zu einem lokalen Speicher werden, der sich nicht so einfach in bestehende Konzepte für Hochverfügbarkeit und Backup integrieren lässt. Neue Ansätze machen es aber bereits möglich, den PCIe-Flash-Layer für Anwendungen oder für die Applikationsinfrastruktur zu nutzen. Beispielsweise lassen sich Teile von Datenbanktransaktionen auf diesen lokalen Storage auslagern, sodass Anwendungen von kürzeren Antwortzeiten profitieren. Darüber hinaus sind PCIe-SSDs mit NVMe-Interface insbesondere in Cloud-Rechenzentren eine wichtige Komponente und beschleunigen dort den Zugriff von virtuellen Maschinen auf physische Server ganz erheblich.
Scale-out im Flash-Array
Ein weiteres Business-Szenario, in dem Flash die Abläufe deutlich beschleunigt, sind dynamisch wachsende Internet-Unternehmen oder Anbieter großer Web-Applikationen. Für diese Firmen muss das Flash-Array die Flexibilität einer Scale-out-Architektur unterstützen, da hier häufig horizontal skalierende Software-Lösungen auf Basis von Internet-Technologien zum Einsatz kommen. Dies können Buchungs- und E-Commerce-Systeme oder Social-Media-Plattformen mit hohen Benutzerzahlen sein. Lassen sich die Flash-Systeme entsprechend der Nutzerlast schrittweise hinzufügen, spart dies abermals Investitionskosten: Dann startet der Anbieter mit einer kleinen Flash-Lösung, die er anschließend, dem Geschäftserfolg entsprechend, schrittweise erweitert.
Dies funktioniert jedoch nur dann effizient, wenn die zugrunde liegende Storage-Software eine flexible Scale-out-Architektur von Anfang an unterstützt – andernfalls sind aufwendige Migrationsschritte inklusive Datentransfer auf ein neues Storage-Array notwendig, sobald das alte Speichersystem nicht mehr ausreichend Kapazität liefert.
Offen für Innovationen
Wer heute eine Software für übergreifendes Datenmanagement einführt, sollte darauf achten, dass diese Lösung neben Flash und Cloud auch zukünftige Technologien integrieren kann. Hier spielen schwer fassbare Faktoren wie die Innovationsfreude des Herstellers eine Rolle, aber auch Marktanteile und Stabilität des Anbieters. Ob ein heute hoch gehandeltes Flash-Start-up auch in fünf Jahren noch eine Anpassung an neue Protokolle und Schnittstellen bietet, kann niemand mit Bestimmtheit sagen. Eines ist klar: Das Wettrennen der Speichertechnologien geht in den kommenden Jahren weiter.
So arbeiten die Festplatten-Hersteller bereits daran, die Speicherdichte weiter zu steigern. Das Advanced Storage Technology Consortium (ASTC) sieht im Jahr 2025 erste Festplatten mit 100 TByte. Ob sich der hierfür notwendige technologische Aufwand bei den fallenden Flash-Preisen rechnet, wird sich zeigen. Im Flash-Segment prognostiziert Toshiba SSD-Kapazitäten von bis zu 128 TByte bis etwa 2018 auf Basis von Quadruple Level Cells (QLC). Darüber hinaus arbeiten Intel und Micron an der 3D-XPoint-Technologie: Diese soll mithilfe einer Art Phase Change Memory arbeiten und dadurch noch einmal mehr Geschwindigkeit im Vergleich zu Flash bieten und etwa ab 2017 verfügbar sein.
Insgesamt gelingt Flash-Technologie erst in Kombination mit intelligenten Software-Funktionen eine Infrastruktur, die höchste Datenverfügbarkeit und Datensicherheit bietet. Die Integrationsfähigkeit von Flash-Storage mit vorhandenen und zukünftigen Storage-Infrastrukturen sollte höchste Priorität haben, wenn man die laufenden IT-Kosten permanent niedrig halten will. Gleichzeitig muss die Integration mit IT-Ressourcen aus der Cloud möglich sein, um das Hybrid-Cloud-Modell zu unterstützen. Hierfür ist eine übergreifende Datenmanagement-Plattform notwendig, mit der sich aktuelle und künftige Speichertechnologien effizient integrieren und steuern lassen.