Rechenzentrums-Studie

IT-Ausfall kostet Millionen

Dr. Andreas Schaffry ist freiberuflicher IT-Fachjournalist und von 2006 bis 2015 für die CIO.de-Redaktion tätig. Die inhaltlichen Schwerpunkte seiner Berichterstattung liegen in den Bereichen ERP, Business Intelligence, CRM und SCM mit Schwerpunkt auf SAP und in der Darstellung aktueller IT-Trends wie SaaS, Cloud Computing oder Enterprise Mobility. Er schreibt insbesondere über die vielfältigen Wechselwirkungen zwischen IT und Business und die damit verbundenen Transformationsprozesse in Unternehmen.

Voraussetzung dafür ist, dass im Rahmen eines Hochverfügbarkeitskonzepts ein Rechenzentrum ohne Single-Point-of-Failure aufgebaut wird. Dabei werden alle systemrelevanten Komponenten, etwa Anwendungs-Server, Datenbanken oder Speichersysteme, redundant ausgelegt.

Disaster-Recovery-Pläne regelmäßig testen

Kommt es dennoch zu einer ungeplanten Downtime, können Firmen die Ausfallzeiten von Anwendungen und Systemen durch die Implementierung einer effizienten und planvollen Strategie für das Disaster Recovery (DR) verringern. Erfolgreiche DR-Programme orientieren sich dabei an den jeweils individuellen Anforderungen und erfassen die gesamte Organisation - vom Top-Management bis zu den Fachanwendern.

Zugleich müssen die Disaster-Recovery-Konzepte laufend an Veränderungen bei den IT-Infrastrukturen angepasst werden und regelmäßig sowie praxisnah getestet werden. Tritt dann der Ernstfall ein und es fällt eine Anwendung aus, kann diese schnell wiederhergestellt werden. Laut Studie testen nur 27 Prozent der Laggards regelmäßig ihre DR-Konzepte.

Für die Untersuchung befragten die Marktforscher von Aberdeen weltweit 125 Unternehmen zu Aspekten in Bezug auf einen Ausfall im Rechenzentrum. Dazu gehören die durchschnittliche Anzahl und die Dauer der Ereignisse (Incidents), die Kosten pro Downtime-Stunde sowie die benötigte Zeit um 90 bis 100 Prozent der von einem Ausfall betroffenen Geschäftsprozesse wiederherzustellen.

Zur Startseite