Optimierte Datenbanken laufen im Cluster
Von Sabine Philipp im Auftrag von Oracle Deutschland
Etwa 65 bis 80 % der IT-Budgets gehen in die Aufrechterhaltung der Systeme. Das sind die Erfahrungswerte von Matthias Weiß, Direktor Mittelstand Technologie, Oracle Deutschland. Der Kostenfaktor entwickelt sich meist proportional zum Wildwuchs auf den Servern. Und das ist kein Wunder: Denn autarke Systeme und Kundendatenbanken mit unterschiedlichen Datensätzen erhöhen den Pflegeaufwand. Zentral administrierte Lösungen könnten den Betrieb vereinfachen und deutlich Kosten sparen. Dennoch zögern viele Mittelständler diesen Schritt heraus. Warum eigentlich?
„In vielen Unternehmen herrscht die Vorstellung, dass sie bei einer Konsolidierung die Systeme und Datenbestände parallel betreiben müssen und dass sie zu guter Letzt eine Stange Geld für neue Hardware in die Hand nehmen müssen“, berichtet Weiß. Das muss aber keineswegs der Fall sein, denn „Unternehmen können ihre bestehenden Systeme in Gesamtkonzepten wie z.B. in einem Cluster, virtuellen Farmen oder privaten Cloud-Umgebungen weiterhin einsetzen.“ Selbst komplexe Datenbanken kann man sauber migrieren und auf günstigen ausfallsicheren Clustern betreiben.
Intelligente Lastverteilung
Ein Cluster ist ein Rechnerverbund aus mindestens zwei Rechnern (Cluster-Knoten), die intelligent gekoppelt sind. Der Anwender bemerkt davon nichts. Für ihn stellt sich das so dar, als gäbe es nur einen Rechner. Ein weiterer Pluspunkt: „Wenn ein Server durch hohe Zugriffszahlen ausgelastet ist, aber andere Cluster-Knoten freie Kapazitäten haben, können die Systeme einiger Hersteller selbstständig entscheiden, diese Arbeit auf andere Cluster-Knoten zu verlagern“, erklärt Weiß. Sobald der aushelfende Knoten die Aufgaben abgearbeitet hat, liefert er das Ergebnis wieder zurück. Dies ist auch Grundkonzept für Cloud Computing.
Cluster kommunizieren von Hauptspeicher zu Hauptspeicher. „Bildlich gesprochen: Bei einer Anfrage an den Knoten 1 fragt dieser den Knoten 2, ob er die Daten im Hauptspeicher hat und ob er sie an ihn schicken kann, ohne auf Platten zugreifen zu müssen. Dies erhöht die Performance.“ So können die Nutzer zunächst einmal auf den gesamten Datenbestand zugreifen.
Matthias Weiß ist seit 1990 für die ORACLE Deutschland B.V. & Co. KG tätig. Im Laufe der Jahre hatte er dort verschiedene technische und Management-Funktionen im Großkunden- und Partnerbereich inne. Innerhalb des Unternehmens ist er für „Technologie im Mittelstand“ zuständig. Ein Schwerpunkt seiner Tätigkeit ist die strategische IT-Beratung und Partnerunterstützung.
ORACLE Deutschland B.V. & Co. KG, Riesstraße 25, 80992 München, 0800-1824138, dir_ie@oracle.com, www.oracle.de
Um Anwendungen und Datenbanken, die auf unterschiedlichen Servern laufen, miteinander zu verbinden und zu integrieren, gibt es verschiedene Integrationstechniken über sogenannte Gateway-Funktionen. Die praktische Folge: „Wenn ein Nutzer einen Datensatz in eine Datenbank schreibt, trägt er sie damit automatisch auch in die anderen Datenbanken ein“.
Bereinigte Datensätze
Um für die IT-Konsolidierung eine einzige, doublettenfreie Datenbank, eine sogenannte Single Source of Truth zu erstellen, extrahieren viele Unternehmen die Daten zunächst einmal in eine Gesamtdatenbank, vergleichen die Einträge, eliminieren die Dubletten und überführen die neuen, nun dublettenfreien Datensätze in eine zentrale Datenquelle.
Damit nicht jeder Mitarbeiter auf geschützte Daten zugreifen kann, rät Weiß zu Lösungen, die an die einzelnen Datensätze eine Art digitales Post-it hängen und sie auf diese Weise als unkritisch, vertraulich oder streng vertraulich deklarieren. Solche Lösungen sollten auch gleich an die Daten gekoppelt sein, sodass im Endeffekt alle Nutzer unabhängig von der Anwendung mit derselben Datenbank arbeiten können, aber eben nur ein klar definierter Kreis Zugriff auf die sensiblen Informationen hat.
Teil 1 erklärt, wie Datenbanken und Anwendungen in sauberen Clustern oder Private Clouds besser und sicherer laufen. Teil 2 betont, dass dann auch das Storage-System clusterfähig sein muss und dass Notfallpläne nur greifen, wenn sie regelmäßig geprobt werden.
Fazit: Konsolidiert Kosten sparen
Eine Konsolidierung von Serversystemen und Datenbanken ist oft einfacher als gedacht und spart unterm Strich Aufwand, Energie und Kosten. Insgesamt bleiben spürbar mehr Ressourcen für das eigentliche Geschäftsmodell und die Entwicklung von Innovationen. Dass Unternehmen dann auch endlich mit aufgeräumten Datensätzen arbeiten können und meist auch das Identity Management wirklich klappt, sind weit mehr als angenehme Nebeneffekte. Ebenso ist der Sicherungsaufwand konsolidierter Datenhaltungssysteme in der Regel weitaus geringer. Um eines kommt allerdings kein System herum: um verlässliche Backups.
- Wie die optimale Datensicherung bei konsolidierten und virtualisierten Systemen aussieht und was es dabei zu beachten gilt, erklärt Teil 2 dieser Serie.