Die Datenlunte brennt
Von Gerald Strömer
Die Anforderungen an Speicherinfrastrukturen im Data Center steigen kontinuierlich. In den nächsten 24 Monaten rechnen Marktforscher mit einer regelrechten Datenflut. Betreiber von Rechenzentren sowie Unternehmen der Enterprise-Klasse und große mittelständische Firmen mit eigenen Infrastrukturen müssen sich rechtzeitig auf dieses Extremszenario einstellen, wenn sie der Lage Herr bleiben wollen.
Ein modernes Storage-System muss extrem leistungsfähig, sehr flexibel und hoch skalierbar sein. Es muss äußerst (energie-)effizient arbeiten, möglichst wenig Stellfläche benötigen, hochgradig automatisiert sein und sich zentral verwalten lassen. Kurz: Es muss rundum zukunftssicher sein. Der Bedarf an solchen Lösungen besteht: Wenn man sich die Trends ansieht, die sich in diversen großen Studien rund ums Rechenzentrum abzeichnen, sind Upgrades auf solche Systeme dringend notwendig.
Der Countdown läuft
Die im September 2012 veröffentlichte aktuelle Version von Symantecs State of the Data Center – eine Befragung unter 2453 IT-Profis aus 34 Ländern – ergab z.B., dass Rechenzentren weltweit immer komplexer werden. Als Gründe dafür wurden aktuelle Trends wie Mobile Computing, Cloud-Technik und Virtualisierung genannt. Immer komplexere Infrastrukturen sind aber grundsätzlich fehleranfälliger und wartungsaufwendiger. Das ist gar nicht gut.
Laut Ciscos Global Cloud Index vom Oktober 2012 wächst der Cloud-basierte Datenverkehr im Rechenzentrum schneller als jeder andere Bereich; er soll bis 2016 das Sechsfache (4,3 Zettabyte) des heutigen Werts erreichen. Der gesamte weltweite Datenverkehr in Rechenzentren soll sich auf 6,6 Zettabyte vervierfachen. In drei Jahren wird der Cloud-Traffic Cisco zufolge also rund zwei Drittel (64 %) des gesamten Datenverkehrs ausmachen – 2011 waren es nur 39 %. Der Großteil (76 %) dieses Cloud-Traffics wird laut Cisco 2016 innerhalb des Datacenters selbst entstehen und überwiegend durch Storage sowie Produktions- und Entwicklungsdaten erzeugt werden. Das ist eine gewaltige Menge.
Teil 1 beginnt mit den sprunghaft ansteigenden Datenströmen – dem Rohstoff der Informationswirtschaft von morgen. Teil 2 schildert Szenarien, in denen Big-Data-Analyse bereits handfeste Ergebnisse in Echtzeit bringt. Teil 3 geht noch einen Schritt weiter und folgt dem Apache-Hadoop-Framework ein Stück in die Zukunft. Ein Extrabeitrag warnt vor Abwarten im Angesicht der Datenlawine. Gerade der Mittelstand könnte Flexibilität als Trumpf ausspielen.
Im Februar 2013 veröffentlichte Oracle dann seinen Next Generation Data Center Index 2013, der ein recht überraschendes Fazit hatte: Europäische Unternehmen, die ihre Daten im letzten Jahr zu externen Dienstleistern ausgelagert hatten, holten sie wieder in die eigenen Rechenzentren zurück. Laut Oracle wurden viele Unternehmen 2011 vom rasanten Datenwachstum überrascht und lagerten Daten aus. Dieser Trend schien sich 2012 wieder umzukehren. „Dies lässt den Schluss zu, dass der Wert, den die Unternehmen ihren Daten zumessen, gestiegen ist“, so Oracle im NGDCI. Allein an diesen beiden gegenläufigen Trends zeigt sich, dass die Fähigkeit, Daten nahtlos zwischen Private und Public Clouds zu verschieben, immer wichtiger wird.
Ganz aktuell hat nun IDC seine Studie Storage in Deutschland 2013 vorgestellt. Ihr Fazit: Stark steigende Datenmengen sind Treiber für die Anforderungen an Speichertechnologien in Rechenzentren, die Ausrichtung der Speichertechnologien auf wachsende Datenmengen hat oberste Priorität. Die Mehrheit der Befragten habe das auch erkannt; es sollen verstärkt Investitionen in zukunftsorientierte Lösungen wie Storage-Virtualisierung, Cloud-Storage, SSD-/Flash-Speicher und konvergente Systeme erfolgen.
Die heutige Situation darf man durchaus als Umbruch verstehen – und das birgt nicht nur Risiken, sondern auch Chancen. Mag sein, dass Firmen sich durch die aktuellen Trends vorzeitig zu einem Upgrade gezwungen fühlen, das sie gar nicht auf dem Radar hatten. Aber wenn dadurch veraltete Hardware endlich durch moderne, in jeglicher Hinsicht überlegene Systeme ersetzt wird, ist die Entwicklung insgesamt sogar positiv zu sehen.
Auch wenn die jüngsten Studien in ihrer Gesamtheit ein wenig alarmierend klingen, so bleibt doch genügend Zeit für angemessene Reaktionen. IT-Verantwortliche dürfen nur eins nicht tun: nichts. Denn wer jetzt in Schockstarre verfällt oder wichtige Entscheidungen auf die lange Bank schiebt, riskiert vor allem in den Bereichen Storage und Netzwerke eine massive Überlastung der Infrastruktur im Rechenzentrum. Rechtzeitige Investition in moderne Systeme verhindern nicht nur dieses Szenario, sondern verschaffen dem jeweiligen Unternehmen auch einen handfesten Wettbewerbsvorteil gegenüber anderen Firmen, deren IT-Entscheider vor der Situation die Augen verschließen und das Beste hoffen.
Fazit: Handlungsfähig bleiben
IT-Verantwortliche stehen vor allem im Storage-Bereich zunehmend unter Druck. Einerseits müssen sie dafür sorgen, dass die Storage-Technik den kontinuierlich und rapide steigenden Anforderungen an Performance, Kapazität und Effizienz genügt. Andererseits erwartet man von ihnen auch Einsparungen. Die Berichtslage lässt momentan einen Schluss zu: Diese beiden entgegengesetzten Vorgaben lassen sich langfristig nur dann unter einen Hut bringen, wenn rechtzeitig ernsthafte Investitionen in zukunftsfähige Speichersysteme erfolgen.