Spezialisten im Datendepot
Von Güner Aksoy, Pure Storage
In den letzten Jahren hat sich die IT in vielerlei Hinsicht enorm gewandelt, auch und gerade im Bereich Storage. So sind beispielsweise Cloud-Computing-Architekturen entstanden und der Durchbruch von Flash hat den Aufbau von Speicherinfrastrukturen stark beeinflusst. Nach der Virtualisierung von Rechenleistung und Netzwerken setzt sich jetzt konsequenterweise auch die Datenvirtualisierung durch. Auch das Internet der Dinge wächst und wächst – und treibt das Datenwachstum unaufhörlich voran. Eine neue Klasse von Datenbank- und Analyseanwendungen, einfacher als ältere, schwerfällige relationale Datenbanken und mit einem schlanken integrierten Speichermanagement, soll die Big-Data-Herausforderungen bewältigen.
Mit den technischen Innovationen haben sich auch die Anforderungen an die Fachkräfte in der Storage-Industrie grundlegend verändert. Zusätzlich zu den Fähigkeiten aus der alten Welt der IT, werden nun fundierte Kenntnisse zu aktuellen Themen wie Cloud-IT, Konvergenz, Virtualisierung, bimodale IT, DevOps und Infrastructure as Code erwartet, die allesamt die IT-Welt erobern. Zudem hat die Geschwindigkeit, in der diese Neuerungen die IT-Bühne betreten, deutlich zugenommen. Betrugen früher die Innovationszyklen etwa fünf Jahre, taucht heute im Schnitt bereits alle zwei Jahre schon wieder etwas völlig Neues auf. Viele dieser Innovationen werden durch immer leistungsfähigere und effizientere Speicherlösungen unterstützt oder überhaupt erst ermöglicht. Die neuen technologischen Ansätze eröffnen Möglichkeiten für innovative Anwendungen. Storage-Experten müssen diese Anwendungen verstehen, spätestens dann, wenn Kunden sie einsetzen wollen und hierfür eine geeignete Speicherlösung benötigen.
Cloud, Virtualisierung und Konvergenz
Cloud-Lösungen sind auf dem Vormarsch, einerlei ob Unternehmen auf Ressourcen aus der öffentlichen Cloud zurückgreifen, eine private Cloud betreiben oder sich für das gängige Hybrid-Cloud-Modell entscheiden. Egal ob es um Big-Data-Analytik, Mobilität, Online-Marketing oder das Internet der Dinge geht: Die Verfügbarkeit von Cloud-Ressourcen und vorhandene Cloud-Fähigkeiten werden in jedem Fall zum geschäftskritischen Faktor. Bei der Wahl zwischen den verschiedenen Cloud-Modellen sind Aspekte wie Kosten, Datensicherheit, Kontrolle über die Daten, Compliance, Skalierbarkeit und Agilität entscheidungsrelevant. Auch wenn die Skepsis gegenüber Public Clouds abnimmt: Viele Unternehmen sehen zumindest ihre hochgradig geschäftskritischen und sensiblen Daten nach wie vor in einer Vor-Ort-Infrastruktur besser aufgehoben. Um diese gefühlte hohe Sicherheit auch tatsächlich in der Praxis zu erzielen, muss die Speicherinfrastruktur für die private Cloud oder den vor Ort betriebenen Teil der Hybrid-Cloud hohe Erwartungen an Daten- und Ausfallsicherheit erfüllen. Hinzu kommen Cloud-typische Anforderungen hinsichtlich Kosteneffizienz und Skalierbarkeit. Hier besteht ein großes Potenzial für die Storage-Branche, fundierte Kundenberatung vorausgesetzt.
Schwarz auf Weiß
Dieser Beitrag ist zuerst in unserer Magazinreihe „IT & Karriere“ erschienen. Einen Überblick mit Download-Links zu sämtlichen Einzelheften bekommen Sie online im Pressezentrum des MittelstandsWiki.
Herkömmliche Rechenzentren wandeln sich zunehmend zu virtualisierten Service-on-Demand-Infrastrukturen, die bei Bedarf von Ressourcen aus der öffentlichen Cloud unterstützt werden. Die Integration einer Speicherinfrastruktur in eine private oder hybride Cloud ist folglich ein Terrain, auf dem sich Storage-Experten sicher bewegen müssen. So besteht heute bereits die Möglichkeit, vor Ort eingesetzte Storage-Arrays direkt mit der Public Cloud zu verknüpfen und die Workflows für Anwendungsentwicklung, DevOps und Datensicherung ebenso nahtlos mit dem Storage zu integrieren. Dies sorgt für mehr Geschwindigkeit und Agilität in der Anwendungsentwicklung und ermöglicht es Kunden, bedarfsgerecht ihre Workloads zwischen Private und Public Cloud zu verschieben.
Storage-Lösungen existieren dabei nicht als Inseln, sondern werden in einer optimalen Kombination mit Rechenressourcen, Vernetzung und Virtualisierung eingesetzt. Eine wichtige Voraussetzung hierfür ist die Konvergenz von Speicherumgebung und übrigen Komponenten im Rechenzentrum. Ziel ist es, durch einen hohen Integrationsgrad und ein einheitliches Management den Betrieb zu vereinfachen, Prozesse zu beschleunigen und Kosten zu reduzieren. Die nächste Stufe der Konvergenz ist eine hyperkonvergente Infrastruktur aus Rechen-, Netzwerk-, Virtualisierungs- und Speicherressourcen. Hyperkonvergenz wird somit zum kommenden vielversprechenden Betätigungsfeld für die gesamte Storage-Branche.
Bimodale IT, DevOps und IaC
Storage-Experten müssen ebenso bereit sein, sich mit einer neuen Art von IT zu befassen, der bimodalen IT. Der Begriff wurde geprägt durch das Analystenhaus Gartner und unterscheidet zwei Modi, wie IT betrieben wird: Der erste Modus ist auf den effizienten und zuverlässigen Betrieb der bestehenden herkömmlichen Infrastruktur ausgelegt. Beim zweiten Modus stehen Innovation und Agilität im Vordergrund. In vielen Unternehmen existieren diese beiden IT-Welten ohnehin bereits. Das Ziel darf aber nicht eine „Zwei-Klassen-IT“ oder eine „IT der zwei Geschwindigkeiten“ sein. Bimodale IT bedeutet, die beiden Modi optimal zu betreiben, um das Unternehmen in einer schnelllebigen Zeit der IT-Transformation voranzubringen. Storage-Experten können ihre Kunden dabei unterstützen, eine zeitgemäße Speicherinfrastruktur aufzubauen, die auch den Anforderungen der Modus-zwei-IT hinsichtlich Agilität und Flexibilität gerecht wird.
Der Ansatz der bimodalen IT steht oft im Zusammenhang mit DevOps. Dies wiederum ist ein Ansatz für eine produktivere Softwareentwicklung. Dabei sollen die zwei traditionell völlig getrennt operierenden Teams für Entwicklung (Development) und IT-Betrieb (Operations) näher zusammenrücken. DevOps sieht vor, die Kommunikation, Zusammenarbeit, Integration und Automatisierung zu stärken. Das Ziel ist es, dadurch die Geschwindigkeit und Qualität der Dienstleistungen von beiden Seiten, also „Dev“ und „Ops“, für das Unternehmen zu erhöhen. Gartner sieht DevOps dabei nicht nur in der Modus-zwei-IT realisierbar, wie oft vorausgesetzt wird, sondern eher als Brücke zwischen beiden IT-Ansätzen. Generell gilt DevOps als nicht völlig problemlos umzusetzen, da es auf die richtige Kombination aus Philosophie, Praktiken und Tools ankommt. Für den Storage-Vertrieb bedeutet dies umso mehr, dass die Mitarbeiter DevOps verstehen müssen und sich in die neue, gemeinsame Perspektive von Entwicklern und IT-Betrieb hineinversetzen können.
Ebenso sollten sich Storage-Experten mit dem Thema IT-Automatisierung und der neuen Infrastrukturwelt befassen, das Stichwort lautet hier: Infrastructure as Code (IaC). Dieser Ansatz steht für eine programmierbare IT-Infrastruktur, die nicht manuell, sondern automatisch per Code verwaltet und bereitgestellt wird. Die Infrastruktur, also Rechen-, Netzwerk- und Speicherressourcen, wird genauso behandelt wie die Softwareentwicklung, was nicht zuletzt auch dem DevOps-Gedanken entgegenkommt. Statt – wie bisher – langwierig die Bereitstellung von Ressourcen anzufordern, dürfen Entwickler in diesem neuen Szenario die Infrastruktur selbst kontrollieren und sich eigenhändig nach Bedarf bedienen. Voraussetzung dafür ist unter anderem die Verfügbarkeit leistungsfähiger Speicherressourcen. IaC- und DevOps-Szenarien bilden also ein weiteres attraktives Feld, in dem sich Storage-Anbieter durch eine kompetente Beratung künftig verstärkt profilieren können.
Technologie als Business-Mehrwert
Neben dem technologischen Fortschritt und der Etablierung neuer Ansätze und Philosophien, hat auch das Verständnis der IT in Sachen Business den IT-Markt verändert. Das riesige Potenzial der Daten wurde als entscheidend für die Zukunft der digitalen Wirtschaft erkannt. Die IT-Hersteller müssen sich künftig darauf konzentrieren, aus den Daten mehr für ihre Kunden herauszuholen. Big Data wird in Zukunft noch größer werden – und das Handling dieser Daten muss schneller werden, sei es für Datenanalyse, wissenschaftliche Zwecke oder maschinelles Lernen, das im wachsenden Internet der Dinge an Bedeutung gewinnen wird.
Daten haben sich zum wesentlichen Produktionsfaktor entwickelt, während die Infrastruktur als reine Commodity, also beliebige Komponente, angesehen wird. Die eigene Hardware droht weiter an Bedeutung zu verlieren, da immer mehr Ressourcen aus der Public Cloud heraus bereitgestellt werden. Auf der anderen Seite hat das eigene Rechenzentrum noch lange nicht ausgedient, teilweise ist bereits von einem Gegentrend zum Insourcing die Rede, da bestimmte Anwendungen besser in der Vor-Ort-Infrastruktur aufgehoben sind. Konvergenz und Integration mit Cloud-Ressourcen werden hier eine große Rolle spielen.
Storage-Hersteller sollten die Chance nutzen, als Business Enabler aufzutreten, während sie früher einfach nur Anbieter, Lieferant oder im besten Fall Lösungspartner waren. Für Vertriebsmitarbeiter bedeutet dies: Wer gestern ein guter Verkäufer war, der muss heute ein Business-Partner und Berater sein, der Anwendungsfälle analysiert und erkennt, wie diese technologisch und prozessual am besten unterstützt werden können. Künftig wird es immer mehr darauf ankommen, dem Kunden überzeugend zu erklären, warum es – eben doch – nach wie vor auf die richtige Hardware ankommt, in Kombination mit einer leistungsfähigen Betriebssystemsoftware für die Speicherumgebung.
Die Vertriebsprofis von morgen sollten in der Lage sein, individuelle Business-Value-Argumentationen zu entwickeln. Hierzu müssen sie technologische Fakten in einen geschäftlichen Kontext übersetzen und den Mehrwert verdeutlichen können. Dieser Mehrwert könnte beispielsweise die Verkürzung der Time-to-Market-Spanne in der Produktentwicklung sein. Ein Beispiel wäre ein Kunde, der seine ERP-Software auf einer virtualisierten Umgebung betreibt. Trotz der immer wieder erweiterten, herkömmlichen Speicherinfrastruktur hat der Kunde mit kontinuierlich ansteigendem Datenwachstum zu kämpfen. Die Latenz- und Zugriffszeiten bei der Nutzung der ERP-Software sind ein weiteres Problem, zudem ist das Storage-Management komplex und daher zeitaufwendig. Jetzt gilt es Überzeugungsarbeit zu leisten und zu erklären, warum ein Umstieg auf ein modernes Speichersystem nicht nur aus technischer, sondern auch aus betriebswirtschaftlicher Sicht die richtige Lösung ist.
Mix aus Theorie und Praxis
Wie können Storage-Anbieter durch ihr Personalmanagement dafür sorgen, dass sie Kunden richtig ansprechen, beraten und betreuen? Nicht zuletzt geht es auch darum, das eigene Personal strategisch vorteilhaft in Stellung zu bringen. Setzen einige, meist etablierte Hersteller bevorzugt auf alte Hasen, so kommt bei neueren Vertretern am Markt und aufstrebenden Start-ups die Smartphone-Generation zum Zuge. Ist die Altersstruktur gemischt, kann das Vertriebsmanagement aus beiden Pools die richtigen Leute für die jeweiligen Kunden aussuchen. Junge Mitarbeiter bringen zwar meist das frischere Wissen mit, sie müssen aber erst Praxiserfahrung gewinnen. Dazu gehört auch, das Risikobewusstsein der älteren Kollegen zu erlernen, wenn es um die Realisierbarkeit eines Projekts geht. Jung und Alt sollten also unbedingt gleichberechtigt ans Ruder, denn sie können durchaus voneinander lernen.
Storage – das merk ich mir
Aktuelles theoretisches Wissen kann hier mit jahrelanger praktischer Erfahrung kombiniert werden. Weiterbildung spielt bei den Herstellern hierbei ebenso eine wichtige Rolle. Große Unternehmen haben oft gute interne Ausbildungsprogramme, während kleinere Firmen eher auf das Eigenengagement ihrer Mitarbeiter setzen oder die eine oder andere Fortbildung springen lassen. In jedem Fall heißt es dranbleiben, an einem sich rasch wandelnden, dynamischen IT-Markt, in dem die Storage-Branche eine zentrale Rolle spielt.