Strategien


IT-Infrastruktur zu komplex

IT-Fehler verursachen Milliardenkosten

Thomas Pelkmann ist freier Journalist in München.

Aber gibt es eine Hauptursache für diese hohen Ausfallkosten? Einen Hinweis darauf findet Roger Sessions in der wachsenden Zahl der Ausfälle. Allein der Anteil "gefährdeter IT-Projekte" habe in den vergangenen Jahren von 30 auf 43 Prozent zugenommen. Manche machen die schlechte Kommunikation zwischen Business und IT für das wachsende Risiko verantwortlich. Das sei zwar auch ein Faktor, räumt Sessions ein, aber es gebe keine Anzeichen dafür, dass sich das in den vergangenen Jahren nennenswert verschärft habe. Auch die gewachsene Funktionalität der Lösungen sei nicht das Problem, denn die Fehlerrate steige stärker, als der Funktionsumfang.

Komplexität der IT-Systeme sorgt für hohe Ausfallkosten

Tatsächlich, so der CTO von ObjectWatch, sei die zunehmende Komplexität der IT-Infrastruktur Schuld an den steil ansteigenden Ausfallkosten. Hier gebe es eine direkte Verbindung zum gewachsenen Funktionsumfang: Steigt der um 25 Prozent, bedeute das für die Komplexität der Systeme ein Plus von gleich 100 Prozent. Die Komplexität steige mit der Funktionalität, sinke, wenn die Funktionalitäten aufgeteilt würden und steige erneut mit der Vernetzung der zuvor partitionierten Systeme.

Je komplexer aber ein System ist, argumentiert Sessions, umso schwieriger und kostenintensiver sei die Arbeit mit diesem System. Die Probleme bei der Wartung hingen dabei weniger vom bloßen Funktionsumfang als davon ab, wie diese Funktionalität organisiert ist.

Wenn Komplexität aber das Problem ist, liegt die Lösung auf der Hand: Einfachheit. "Wir sind nicht gut darin, hochkomplexe Systeme zu gestalten", resümiert Roger Sessions. "Was wir wirklich gut machen, ist das Aufsetzen einfacher Systeme."

Was so leicht daherkommt, sei tatsächlich aber selbst ein komplexes Unterfangen, so Sessions, zu dem Commitments, Schulungen und veränderte Prozesse gehörten.

Zur Startseite