Wiederherstellung von IT-Systemen im Katastrophen-Fall

Strategien für das Disaster Recovery

25.10.2007 von Andreas Schaffry
Fallen aufgrund einer Naturkatastrophe IT-Systeme aus, müssen sie rasch und ohne Datenverluste wiederhergestellt werden. Unter anderem deshalb geben Firmen immer mehr Geld für Disaster-Recovery- sowie Hochverfügbarkeitslösungen aus. Jedoch erfolgt der Abgleich zwischen den Produktiv-Systemen und den Sicherungskopien meist noch manuell, ist dadurch ungenau sowie mit einem hohen administrativen Aufwand verbunden. Diese Meinung vertreten die Marktforscher von IDC in einem Trendpapier zum Thema Disaster Recovery.
Ob Mittelständler oder Großkonzern: Unternehmen sehen in Datenverfügbarkeit und Disaster-Recovery die größte Herausforderung.

Fällt nach einer Naturkatastrophe wie dem Hurrikan "Kathrina" oder bedingt durch einen Terroranschlag die Firmen-IT aus, muss diese so schnell wie möglich wiederhergestellt werden und einsatzbereit sein. Im Ernstfall ist es nämlich entscheidend für das Geschäft, ob IT-Systeme in drei Stunden oder erst in drei Tagen wiederhergestellt sind sowie reibungslos und ohne Datenverlust laufen.

Teil der Geschäftsstrategie

Da immer mehr Unternehmen ihre Abläufe IT-gestützt abwickeln, muss die Ausfallsicherheit der IT sowie eine schnelle Wiederherstellung von Systemen und Geschäftsdaten im Katastrophenfall Teil der Geschäfts-Strategie sein.

Den Marktforschern zufolge geben die Unternehmen deshalb auch immer mehr Geld für Data-Protection- und Recovery-Lösungen aus. Doch obwohl Unternehmen verstärkt in solche Lösungen investieren, um sich gegen Katastrophen-Fälle abzusichern, haben sie erhebliche Probleme effektive Prozesse und Abläufe für die Wiederherstellung von Daten und Systemen aufzubauen und zu pflegen.

Manuelle Tests erfordern viel Aufwand

Die meisten Disaster-Recovery-Umgebungen werden bislang nur manuell und periodisch getestet. Auf diese Weise ist es für Firmen schwierig, sicherzustellen, ob es von allen kritischen Daten und Geschäfts-Prozessen ein Back-Up gibt sowie Lücken in den Sicherungskopien auszumachen.

Manuelle Überprüfungen stören zudem den laufenden Betrieb und binden unnötig personelle Ressourcen. Zum Beispiel müssen Mitarbeiter aus den unterschiedlichen IT-Bereichen, wie Betriebssysteme, Datenbank oder Anwendungsentwicklung, in den Prozess eingebunden sein.

Daraus resultiert ein hoher Abstimmungsaufwand, was Kosten nach oben treibt. Zudem lassen sich durch manuelle Tests Änderungen an der Konfiguration sowie deren Spiegelung in einer Sicherheitskopie nicht nachvollziehen.

Da sich moderne Rechenzentren überdies dynamisch entwickeln und verändern, liefern periodisch durchgeführte manuelle Tests keine Echtzeit-Informationen. Das wirkt sich vor allem in großen Unternehmen, die oft mehrere hundert verschiedene Anwendungen im Produktiv-System betreiben, negativ aus. Jede einzelne Anwendung zu testen ist praktisch unmöglich.

Dynamische IT in Echtzeit überwachen

Deshalb halten die Analysten in den dynamischen IT-Umgebungen von heute automatisierte Überwachungs- und Test-Prozesse in Echtzeit für zwingend erforderlich. Unternehmen sollten entsprechende Lösungen für Disaster Recovery sowie Hochverfügbarkeits-Software einführen.

Der Hauptvorteil automatisierter Tests sowie einer Überwachung in Echtzeit ist, dass Firmen dadurch eine konsistente und jederzeit aktuelle Sicht auf ihre Disaster-Recovery-Umgebung haben. So werden Lücken zwischen dem Produktiv-System und dem Back-Up-System zeitnah entdeckt und behoben. Zudem sparen Unternehmen auf diese Weise Prozesskosten, denn zeitaufwändige Abstimmungsrunden, bedingt durch manuelles Testen, entfallen.

In dem White Paper "Disaster Recovery Management: An Emerging Approach to Avoiding Data Protection Disasters" haben die Marktforscher von IDC verschiedene Marktprognosen sowie Marktstudien ausgewertet.