Mehr MIPS auf den Mainframe!
Von Ariane Rüdiger, freie Autorin (München)
Mit dem Aufkommen von Arbeitsplatz- und Abteilungsrechnern schien es lange Zeit völlig klar: Der Weg der Großrechner konnte auf Dauer nur ins Abseits führen. Eine ganze Generation von IT-Spezialisten lebte als Mainframer in der Vorstellung, einer aussterbenden Art anzugehören. Spezialisten für andere IT-Formen hielten sich für die Avantgarde und glaubten an ihre Aufgabe, die längst fällige Ablösung der Boliden in den zentralisierten Rechenzentren zu befördern.
Alternativen im Stresstest
Derweil entstanden in den Unternehmen mit der verteilten IT komplexe, miteinander vernetzte Hardwaresilos mit unübersichtlichen Protokollstacks. Solche Infrastrukturen sind teuer zu betreiben und zu warten, Fehler lassen sich manchmal nur nach langwierigen Analysen einer Fehlerquelle zuordnen, und wenn jemand mehr Storage oder einen neuen Server braucht, kann es durchaus Monate dauern, bis dem Wunsch entsprochen wird – einfach deshalb, weil es nicht schneller geht.
Derartige Systeme sind zudem häufig entweder unterausgelastet oder am Überlaufen. Dem sollte durch Virtualisierung abgeholfen werden, was sich aber als höchst unvollkommenes Heilmittel entpuppte. Dazu suchten mit dem Aufkommen von Internet, Windows-Plattformen und Android-Smartphones bislang kaum gekannte Schädlingsfluten aus dem Dark Web die Infrastrukturen der geplagten IT-Manager heim. Die Folge: 80 % ihrer Zeit verbringen sie mit Routine, nur 20 % mit der Entwicklung kreativer neuer Ideen, die dem Kerngeschäft nutzen.
Dann kam die Cloud – funktional betrachtet nichts weiter als ein höchst modular aufgebauter Mainframe, der seine Services nicht mehr nur Firmenmitarbeitern, sondern einer breiten Allgemeinheit zur Verfügung stellt. Was in den Rechenzentren von AWS, Google oder Amazon steht, basiert zwar auf Standardprozessoren, doch die Geräte, die genutzt werden, sind längst so aufgebaut, wie es die jeweiligen Cloud-Hyperscaler von den Hardwarelieferanten wünschen – angepasst an hochskalierbare Umgebungen und im Gebrauch austauschbar.
Auch hyperkonvergente Infrastrukturen, die unter einem Hypervisor und Betriebssystem alle Systemkomponenten, gepackt in integrierte Standardmodule, bereitstellen, sind im Grunde ein Versuch, die wildwüchsig wachsende IT in Abteilungen wieder stärker zu zentralisieren, gleichzeitig aber flexibel zu halten. Sie sollen den Management- und Skalierungsaufwand in Grenzen halten und cloudähnliche Services für die Anwender ermöglichen.
Schwarz auf Weiß
Dieser Beitrag erschien zuerst in unserer Magazinreihe „Rechenzentren und Infrastruktur“. Einen Überblick mit freien Download-Links zu sämtlichen Einzelheften bekommen Sie online im Pressezentrum des MittelstandsWiki.
Zurück in die Zukunft
Das alles kann man sich zumindest hinsichtlich vieler Kerngeschäftsprozesse wunderbar ersparen, das scheinen langsam viele IT-Abteilungen von Großunternehmen zu erkennen. Denn im Rechenzentrum steht oft noch ein Mainframe, auf dem nach wie vor, meist ohne größere Friktionen, jahrzehntealte Software vor sich hin läuft und beispielsweise ohne großes Gewese den monatlichen Lohndurchlauf für sechsstellige Mitarbeiterzahlen durchpumpt. Die inzwischen ebenfalls oft jahrzehntealten Ablösungsprojekte haben sich nämlich in den meisten Unternehmen als schwierig bis undurchführbar erwiesen. Also wird jetzt vielerorts die Parole „Zurück, marsch, marsch!“ ausgegeben.
Doch dank einiger Modernisierungsschritte auf Herstellerseite scheint es inzwischen durchaus vorstellbar, den Mainframe auch mit in eine cloudisierte und serviceorientierte, softwaregetriebene IT-Zukunft als soliden Unterbau mitzunehmen.
Das zeigte sich beispielsweise auf einem Workshop zum Thema IBM Mainframe des Software- und Beratungshauses ARS in München. Es hat sich auf Themen rund um IBM-Mainframes, -Lizenzmanagement und Ähnliches spezialisiert. Die Workshops begannen vor drei Jahren mit einer Handvoll Besuchern. Vor einigen Wochen kamen schon rund 40 Neugierige, größtenteils von Unternehmen und Institutionen, in denen ein IBM-Mainframe im Rechenzentrum parallel zu moderneren Infrastrukturen läuft. Und viele von ihnen berichteten, dass in ihren Häusern Ablösungsprojekte entweder bereits selbst wieder abgelöst werden oder kurz davor stehen. Allenthalben bilden sich neue Arbeitsgruppen, die den Mainframe bei IT-Fachleuten, Anwendern und Geschäftsleitung wieder gesellschaftsfähig machen und neue Anwendungen dorthin verlagern sollen.
„Je mehr ich in den Mainframe einsteige, desto cooler finde ich ihn“ – Andreas Bechtloff, zTalent bei DATEV. (Bild: Rüdiger)
Bei der genossenschaftlich organisierten DATEV e.V. etwa hat sich die Gruppe zTalents entwickelt, junge Programmierer und Systemspezialisten, die die Arbeit mit dem Mainframe interessanter finden als die mit verteilten oder hochmodularen Architekturen. „Rund 80 von etwa 1800 bis 2000 DATEV-IT-Spezialisten sind dabei“, berichtet Andreas Bechtloff, selbst ein zTalent. „Ich finde die Funktionalität des Mainframes cool“, begründet er, warum er sich auf dieses Gebiet spezialisiert, „je mehr man einsteigt, desto cooler.“ Bechtloff will, dass „die Emotionalität aus der Debatte um die Workload-Platzierung genommen wird.“ Wenn eine Load am besten auf dem Mainframe laufe, dann solle man sie auch dort laufen lassen und nicht aus politischen Gründen auf anderen Plattformen. Die DATEV zum Beispiel betreibt zwei gespiegelte z14-Systeme.
Der z14 ist auch als Mainframe in nur einem einzigen 19-Zoll-Rack lieferbar. So passt das Gerät in jedes Rechenzentrum. (Bild: IBM)
z.future bei T-Systems
Bei T-Systems wurde inzwischen ein komplettes abteilungsübergreifendes Mainframe-Innovationsprogramm eingerichtet. „Bis 2017 gab es bei uns keine strategische Weiterentwicklung der Mainframe-Architektur“, berichtete Gundula Folkerts, T-Systems. „Inzwischen verwendet unser Management die Begriffe Management und Mainframe in einem Satz.“ Man nutzte nach wie vor alte Sprachen und Architekturen wie Cobol und entwickelte nach Wasserfall-Methodik. Doch die Mainframe-Ablösungsprojekte, die parallel gefahren wurden, erwiesen sich als zu aufwendig. Deshalb entwickelte T-Systems 2017 zusammen mit dem Software- und Beratungshaus PKS, das sich auf die Softwareanalyse spezialisiert hat, eine Mainframe-Modernisierungsstrategie. Im November 2017 wurde dann das Mainframe-Innovationsteam gebildet, das nun arbeitet. Es soll die geplante Strategie umsetzen und Schritt für Schritt die gesamte Mainframe-Architektur renovieren. Dazu gehört auch ein gerütteltes Maß an Mainframe-Imagepflege. Das Motto des Teams lautet: „z.future.einfach.machen.“
Dabei wird z/Linux statt z/OS als neue Betriebssystemplattform implementiert, um auch eine z-System-Cloud betreiben und moderne Programmiersprachen besser nutzen zu können. Als Leuchtturmapplikationen hat T-Systems Blockchain, Kryptografie und Cloud definiert. Die noch vorhandene IDMS-Datenbank soll durch DB/2 abgelöst werden, Cobol durch Java. Eine zeitgemäße Entwicklungsumgebung samt Konfigurationsmanagement ist ebenfalls geplant. Entwickelt wird zukünftig mit agilen Methoden, mit Scrum und nach DevOps-Prinzipien.
Das Leuchtturmprojekt Blockchain wird mithilfe von Programmierung mit C auf z/Linux für einen Usecase aus der Automobilindustrie umgesetzt. Dabei kommt IBMs bevorzugtes Open-Source-Produkt für den Aufbau eines verteilten Hauptbuches, Hyperledger Fabric, zum Einsatz. Derzeit liegt Hyperledger Fabric direkt auf einer LPAR, soll aber später in eine virtuelle Maschine verlagert werden.
Besonders vorteilhaft wirkt sich die hohe Leistung des Mainframes beim Berechnen der Hashwerte aus. Verglichen mit konventionellen x86-Rechnern der aktuellen Generation leistet der verwendete z13 drei- bis zehnmal mehr – je länger der Schlüssel, desto größer wird der Abstand. Blockchains unterschiedlicher Betreiber sollen sich sauber getrennt voneinander auf einem System betreiben lassen, wenn sie in getrennte Secure Service Container gepackt werden.
Docker auf dem Mainframe
Nach der schrittweisen Migration auf eine Java-Architektur, für die es bereits eine Mainframe-Referenzarchitektur gibt, sollen auch Docker-Container auf dem Mainframe möglich werden. DB/2 erhält eine Appserver-GUI, die einzelnen Datenbankservices werden also als Apps über eine grafische Schnittstelle bereitgestellt, wie man das aus dem Internet gewohnt ist. Um die Portierung der alten Cobol-Software auf die neue Java-Umgebung durchzuführen, wird teils neu geschrieben, teils kommen Werkzeuge zum Einsatz. Allerdings erzeugen diese einen rein technischen Code ohne Java Business Objects, der dann wieder umgestrickt werden muss.
Neue Prozesse legt T-Systems jetzt grundsätzlich als Microservices unter z/Linux auf dem Mainframe ab; die Mitarbeiter, die bislang Microservices für andere Plattformen entwickelt haben, werden auf den Mainframe migriert. Die Kommunikation der Microservices mit der DB/s-Datenbank auf demselben System erfolgt derzeit über Hypersockets.
Statt der gewohnten CICS-Logik erhält die Software RESTful-APIs, denn sie lässt sich nicht ohne Programmieraufwand als Service bereitstellen. Der Zugriff erfolgt über Middleware, wobei Open-Source- und IBM-Tools eingesetzt werden. Demnächst soll auch versucht werden, CICS-Transaktionen mit gekapselten Funktionen zu realisieren, die dann in der neuen Umgebung weiter betrieben werden könnten. Das funktioniert allerdings nur bei Transaktionen ohne Interaktionen mit den Anwendern.
Attraktiv durch Datenschutz
Das Projekt zeigt, dass gerade da, wo Zuverlässigkeit, Leistung und Sicherheit eine wichtige Rolle spielen, der Mainframe deutlich an Charme gewinnt – möglicherweise auch eine Auswirkung der verschärften Datenschutzregeln, die seit 25. Mai europaweit gelten. So wies Tobias Leicher, IBM, darauf hin, dass die Nutzung der mit dem z14 möglichen Komplettverschlüsselung zwar das System teurer mache: um 10 %. Verglichen mit den hohen Strafen, die in Zukunft bei Datenschutzpannen gegen Firmen verhängt werden können, die die Sicherheit ihrer Kundendaten nicht priorisieren, scheint das moderat. Zur Erinnerung: In schweren Fällen können die Datenschützer bis zu 4 % vom weltweiten Umsatz eines Unternehmens als Bußgeld einfordern. Bei Firmen mit mehrstelligem Milliardenumsatz können da leicht zweistellige Millionensummen zustande kommen.
Philipp Brune, Professor für Wirtschaftsinformatik an der Hochschule Neu-Ulm sieht das ähnlich: „Es gibt einen Umschwung im Denken. Viele erkennen, dass der Mainframe einzigartig hinsichtlich Transaktionsdurchsatz, Hochverfügbarkeit und Sicherheit ist, und erklären ihn wieder zur strategischen Plattform.“ Es sei bei den modularen Architekturansätzen wie der Hyperkonvergenz nicht machbar, die Mainframe-Leistung in Software abzubilden. Schließlich setze Transaktionsverarbeitung Datenkonsistenz voraus, und die verursache bei modularen Architekturen einen immensen Aufwand wegen der Kommunikation, die zwischen den Knoten nötig ist.
„Transaktionssicherheit, Hochverfügbarkeit und Sicherheit des Mainframes lassen sich von modularen Architekturen nicht reproduzieren“ – Prof. Philipp Brune, Hochschule Neu-Ulm. (Bild: Rüdiger)
Neue Preispolitik bei IBM
Diese Argumente scheinen auch viele Praktiker zu überzeugen. Dazu kommt, dass IBM anscheinend die Zeichen der Zeit erkannt hat und seine vormals horrenden Preise seit 2014 flexibler und insgesamt wettbewerbsfähiger gestaltet. So gibt es seitdem ein spezielles Pricing für mobile Workloads, 2015 folgte ein attraktiveres Preismodell für den Betrieb zweier aktiver Maschinen in zwei unterschiedlichen Ländern. 2017 wurde ein Container Pricing eingeführt, wobei die Container auch auf mehreren LPARs liegen dürfen. Für drei Standardszenarien, sogenannte Solutions, nämlich Anwendungsentwicklung, Test und neue Anwendungen, wurden vollkommen neue Metriken eingeführt. Zum Bereich „neue Anwendungen“ gehört etwa eine Payment Pricing Solution für elektronische Bezahlsysteme, bei der Kunden nicht mehr pro genutzter Ressource, sondern pro Transaktion an IBM zahlen. „Das ist erst der Anfang“, versprach ARS-Geschäftsführer Joachim Gucker.
Die Auswirkungen ließen nicht lange auf sich warten: Zur Ankündigung seiner 14. Generation des z-Systems konnte IBM massives Absatzwachstum bei Mainframes verkünden. In Europa kam es vor allem durch mehr Verarbeitungspower bei bereits vorhandenen Systemen zustande, in Asien aber, mit seinen stark wachsenden Unternehmen, wurden auch neue Mainframes verkauft. Angesichts der EU-DSGVO führt IBM dabei die starke Datensicherheit der mittlerweile cloudtauglichen Mainframes als Argument ins Feld.
Ärgerlich aus Anwenderperspektive ist nur, dass es zu IBM als Mainframe-Lieferanten faktisch so gut wie keine Alternative gibt. Fujitsu entwickelt zwar die ehemalige Siemens-Plattform BS/2000 weiter, doch ist ihr weltweiter Marktanteil vergleichsweise marginal. Für Kunden ist es selten gut, wenn nur ein Anbieter existiert, der letztlich Preise und Angebot diktieren kann. Hier Veränderungen zu erwarten, erscheint bislang illusionär, doch war die IT-Branche schon für so manche Überraschung gut.