Von den Branchenriesen lernen

Hochverfügbarkeit richtig umsetzen

16. Dezember 2015
Rafael Kansy ist Senior IT Consultant bei msg.
Hochverfügbarkeit spielt insbesondere für kritische Systeme eine wichtige Rolle. Diese sind hochverfügbar, wenn der Betrieb trotz Ausfall von Komponenten aufrechterhalten wird. Die Voraussetzung für Hochverfügbarkeit sind eine entsprechende Ausfallsicherheit, Lastverteilung sowie Backup-Funktionalität.

Dass Großkonzerne sich die modernste Technik leisten können, ist bekannt. Aber nicht nur die unterschiedlichen Geldmittel hindern mittelständische Unternehmen daran, Facebook und Google sofort alles nachzumachen: der Leitspruch "Kaufe niemals die erste Version" sorgt dafür, dass nur im Ausnahmefall die neueste Technik angewandt wird. Nach ein bis zwei Jahren Marktreife lässt sich schließlich besser entscheiden, wo die Stärken und Schwächen liegen und ob die Technik für das eigene Unternehmen geeignet ist. Hochverfügbarkeit ist ein gutes Beispiel für dieses Phänomen.

Technologisch hat sich seit den ersten Angeboten viel verändert. Startups und Branchengiganten haben bereits erfolgreich Hochverfügbarkeit umgesetzt. Dennoch herrscht in vielen Unternehmen noch Unklarheit über mögliche Einsätze, Konzepte und Vorteile - sie reagieren mit Unkenntnis oder setzen verfügbare Software nicht korrekt ein.

Dabei gibt es genügend Gründe, sich mit Hochverfügbarkeit auseinander zu setzen: Unternehmen, die jetzt mittel- und langfristige IT-Entscheidungen treffen, etwa zur Automatisierung der Infrastruktur, sollten sich die Vorteile und Möglichkeiten vor Augen führen. Das eigene System lässt sich stabilisieren und gegen Hochlasten absichern, Fehler werden frühzeitig entdeckt und drastisch reduziert, und die damit verbundene Automatisierung ermöglicht deutliche Einsparungen bei Wartung und Betrieb.

Wie ausgelastet ist mein System - und wie gut funktioniert es?

Monitoring sorgt dafür, dass für Unternehmen stets ersichtlich ist, was funktioniert und was nicht. Das gilt für den normalen Betrieb und noch viel mehr im Fall einer Reparatur oder eines Upgrades. Es gibt daher mindestens drei gute Gründe, warum sich Unternehmen mit Monitoring beschäftigen sollten: Erstens ist es hilfreich für alle, die sich mit Automatisierung beschäftigen, manuelle Prozesse zu identifizieren und zu ersetzen. Hier können Unternehmen jeder Größe effizient Geld und Fehler einsparen.

Zweitens lassen sich mit intelligentem Monitoring auch technische und funktionelle Fehler im System finden und eliminieren, bevor sie Schaden anrichten. Drittens können Unternehmen Ausfälle und Reaktionen auf anfallende Lasten besser antizipieren, wenn die Grenzen der eigenen Performance klar umrissen und die zu erwartenden Lasten bekannt sind.

Der erste Schritt zur Hochverfügbarkeit besteht darin, sich Informationen über die eigene Infrastruktur zu verschaffen: Wie ausgelastet ist mein System? Wie viele Ressourcen verbraucht es wirklich? Danach lassen sich die Fehlerfälle betrachten. Nicht alle Fehler müssen direkt behoben werden, komplexe Systeme kommen mit einer gewissen Anzahl an Fehlern gut zurecht.

So lassen sich Fehler durch falsche Eingaben, die im Logfile gespeichert werden, leicht beheben. Komplettausfälle wichtiger Systemkomponenten benötigen hingegen größere Refactoring-Maßnahmen. Fehlermetriken erfüllen die Funktion, einen wertvollen Einblick in die Ausrichtung der Infrastruktur zu liefern und Fehler in Zukunft wirksamer zu bekämpfen.

Zur Startseite