Daten umschichten kommt günstiger
Von Sabine Philipp im Auftrag von Oracle Deutschland
Der IDC-Studie „Storage in Deutschland 2013“ zufolge rechnen zwei Drittel der befragten 219 IT-Fach- und Führungskräfte in folgenden zwei Jahren mit einem Datenzuwachs von über 20 %. Für die Autoren hat die Ausrichtung der Speichertechnologien auf wachsende Datenmengen daher oberste Priorität. Dabei gilt es zunächst, den bereits vorhandenen Speicher so effizient wie möglich zu nutzen: Olaf van der Weide, Sales Consultant bei Oracle Deutschland, sieht hier großes Potenzial in Thin Provisioning und in einem überlegten Information Lifecycle Management (ILM).
Virtualisieren und aufteilen
„Beim Thin Provisioning“, sagt der Experte, „geht es im Prinzip darum, den Speicherplatz nicht isoliert verschiedenen Unternehmensbereichen zur Verfügung zu stellen, sondern – lapidar ausgedrückt – die Kapazitäten in einen Topf zu werfen. Eine Schicht zwischen der Hardware und dem Frontend ordnet den Abteilungen dann den Speicher zu, den sie benötigen.“ Der enorme Vorteil liegt darin, dass Unternehmen auf diese Weise den Speicher flexibel zuweisen können. Und: „Das Wachstum ist sichergestellt, da die Unternehmen die Hardware bei wachsendem Bedarf schnell aufrüsten können. Gleichzeitig wird die Auslastung des Systems optimiert“. Allerdings müssen die Systeme auch für eine solche Lösung ausgestattet sein.
Olaf van der Weide ist Sales Development Manager Disk Storage Europe North bei Oracle Deutschland. Der Elektrotechniker beschäftigt sich seit über 20 Jahren mit dem Thema Storage, Archive, Backup & Recovery und leitete zunächst als Projektmanager, später als Chef-IT-Architekt verschiedene Vorhaben zu anspruchsvollen Storage-Lösungen.
Olaf van der Weide, Sales Development Manager Diskstorage EMEA North, Oracle Hardware Sales, olaf.van.der.weide@oracle.com, www.oracle.de
Information Lifecycle Management
Ebenfalls zukunftsträchtig ist für van der Weide ein überlegtes Information Lifecycle Management (ILM), also ein Speicherkonzept, das Informationsobjekte über ihre gesamte Lebensdauer hinweg intelligent verwaltet. Dabei ermittelt eine Regelmaschine unter Berücksichtigung von Vorgaben aus den Geschäftsprozessen und der Kostenstrukturen der Speicherhierarchie, welche Informationen an welchem Ort und auf welchem Medium am besten aufgehoben und angemessen verfügbar sind.
„In einem solchen System kommen verschiedene, hierarchisch aufeinander abgestimmte Festplattenmedien zum Einsatz“, erklärt van der Weide und nennt ein Einsatzbeispiel: „Daten, die Sie jeden Tag benötigen und die schnell geladen werden müssen, speichert das System auf schnellen SSD-Festplatten. Sind sie mehrere Wochen inaktiv, migriert sie das System auf langsamere, aber günstigere HDD-Platten.“ Automatische Routinen sind bei solchen Konzepten ein entscheidender Erfolgsfaktor.
Ein wichtiger Aspekt sind in diesem Zusammenhang die rechtlichen Vorgaben für Geschäftsunterlagen. Steuerwichtige Dokumente und Daten müssen gesetzeskonform archiviert werden. Dazu gehören u.a. auch E-Mails mit Rechnungsanhängen. Gute ILM-Systeme berücksichtigen solche Aspekte automatisch. Unternehmen auf der Suche sollten den Wunsch nach solchen Fähigkeiten aber in ihrer Projektbeschreibung bzw. in ihrem Lastenheft genau festhalten. Denn, wie in Teil 1 dieser Serie bereits erwähnt, es gibt oft verschiedene Ansichten darüber, was eine Funktion genau leisten soll.
Der BITKOM betont zu Recht, dass ILM kein Produkt sei, sondern eine Kombination aus Prozessen und Technologien – und dass der Begriff in vielen und zum Teil unscharfen Definitionen verwendet werde. Das kann van der Weide bestätigen, der einmal mehr die Bedeutung klarer Begrifflichkeiten hervorhebt, vor allem bei so essenziellen Punkten wie dem Disaster-Recovery-Konzept.
Szenarien für den Ernstfall
Dass allzu viele Unternehmen gerade diesen unternehmenskritischen Punkt immer noch unterschätzen, ist dem Fachmann ein Dorn im Auge. Er weiß z.B. von einem mittelständischen Unternehmen mit 500 Mitarbeitern zu berichten: Nach einem Brand war die komplette Infrastruktur zerstört, sodass an ein Arbeiten nicht zu denken war. Noch schwerer wog aber der Verlust der Unternehmensdaten. „Die Mitarbeiter wussten nicht mehr, welche Posten noch offen waren. Und glauben sie nicht, dass die Kunden, die das mitbekommen haben, freiwillig gezahlt hätten!“ Nach vier Wochen war die Firma insolvent.
Um Abhilfe zu schaffen, sei zunächst wichtig zu definieren, was für das Unternehmen konkret eine Datenkatastrophe darstellt. Van der Weide berichtet von einem Hersteller von Fotobüchern, der das Thema Disaster Recovery sehr ernst nahm und bereits beim Ausfall einer Komponente, egal an welcher Stelle, den Bestand bedroht sah. So führte er eine parallele Disaster-Infrastruktur ein, die sofort greifen konnte, sobald das Primärsystem hakte.
Fazit: Immer mit funktionierenden Daten
So etwas ist natürlich teurer. In diesem Fall hatte das Ausfallsystem dafür aber noch den positiven Nebeneffekt, dass der Betrieb seine Performance zu Stoßzeiten deutlich erhöhen konnte. Diese Spitzenzeiten lagen immer nach den Ferien und vor Weihnachten statt – wenn eben die Leute vermehrt Fotobücher erstellen. Das Unternehmen nutzte dann den Datenbankklon seines Disaster-Konzepts, damit die Kunden auf zwei Datenbanken lesend zugreifen konnten. Die Antwortzeiten verringerten sich daraufhin drastisch.
Teil 1 rät zu einem vernünftigen Storage Management, bevor die Big-Data-Welle die Kapazitäten auswäscht. Teil 2 erklärt, wie eine zukunftstaugliche Speicherlösung ausgelegt ist und welche Funktionen unabdingbar sind.