Data-Center-Modernisierung

Das Rechenzentrum zukunftssicher planen

19.09.2013
Von Rüdiger Könnig

Hochverfügbarkeit und ihre Bedingungen

Aus prozessualer Sicht ist die 24x7-Verfügbarkeit heute State of the Art, Unterbrechungen werden praktisch nicht mehr akzeptiert. Damit die Services immer zur Verfügung stehen, muss in der Regel die Redundanz erhöht werden. Für maximale Redundanz sind getrennte Systeme, idealerweise über zwei Standorte gespiegelt, mit einem nahtlosen Disaster-Recovery-Konzept notwendig. Nicht nur die Server müssen an zwei Standorten doppelt ausgelegt sein. Hinzu kommen zwei unabhängige USV-Anlagen (Unterbrechungsfreie Stromversorgung) und eine Niederspannungshauptverteilung (NSHV). Insbesondere die Wärmeentwicklung kann bei einem Ausfall der Klimaanlage zum Problem werden.

Die Temperatur steigt dann pro Minute um ein bis zwei Grad, schnelle Abhilfe ist also gefragt. Daher muss nicht nur die Elektrotechnik, sondern auch die Klima- und teilweise die Gebäudetechnik redundant ausgelegt werden. Hier stoßen interne Rechenzentren in Unternehmen häufig an die Grenze machbarer Investitionen. Unabhängig davon, ob ein Standort ganz wegbricht oder nur eine Komponente ausfällt, muss eine High-Availability-Lösung unterbrechungsfrei weiterlaufen. Solche Vorgaben werden aus Kostengründen in der Regel nur für einige wenige kritische Anwendungen wie Buchungssysteme oder Produktionssysteme umgesetzt. Wird mit IT-Dienstleistern zusammengearbeitet, bestimmt der Kunde jeweils den Grad der Verfügbarkeit pro Applikation.

Virtualisierung verändert Energiebedarf

Auch die Verteilung des Energiebedarfs hat sich komplett geändert. Während früher mit Einzellösungen gearbeitet wurde, führt die Virtualisierung und der Einsatz von immer kompakteren Servern wie Blades heute zu einer Bündelung von Energieressourcen. Auf diese Weise kommt es leicht zu Volumina von 20 Kilowatt Last pro Quadratmeter. Nur einen Meter weiter kann aber ebenso eine Komponente mit nur fünf Kilowatt Energiebedarf stehen.

RZ-Betreiber haben deshalb meist kein Platzproblem mehr, zunehmend jedoch ein Kühlungsproblem. Die Wasserkühlung ist bereits aus fast allen Rechenzentren verschwunden. Stattdessen sorgt Luftkühlung dafür, dass die ServerServer nicht überhitzen. Für Planung und Betrieb hat das weitreichende Folgen. Lüftungsanlagen und Verteilung müssen im Vorfeld entsprechend bedacht werden, damit Racks, die besonders heiß werden, ausreichend gekühlt werden können. Techniken wie Strömungssimulationen und die regelmäßige Kontrolle durch Bilder mit der Wärmebildkamera sind hier hilfreich. Alles zu Server auf CIO.de

Durch einstellbare Bodenplatten lässt sich ferner der Luftdurchsatz erhöhen. Vor allem aber muss jederzeit transparent sein, was in welchem Rack läuft und wie viel Energie durchschnittlich und in Hochlastzeiten verbraucht wird. Grundlage für ein profundes Energie-Management sind regelmäßige Verbrauchsmessungen sowie eine Configuration-Datenbank, die alle Informationen über das eingesetzte Equipment enthält.

Zur Startseite