Virtualisierung unerwünscht

Die Server-Strategie der Deutschen Flugsicherung

30.04.2013
Von Hartmut Wiehr

Natürlich sei nicht alles mit Standards zu erschlagen, fügt er hinzu. Dort, wo es nicht möglich sei, Dell-Server einzusetzen, müsse man nach wie vor mit Hardware von anderen Herstellern weiterarbeiten. Bei individuell aufgesetzten Lösungen scheide Dell öfters aus, weil man zu sehr an den Standards orientiert sei. Dies gelte zum Beispiel für einige Thin-Client-Umgebungen.

Konsolidierung und Ausfallsicherheit

Auch müsse man an einem gewissen Altbestand von Alpha-Servern (Hewlett-Packard) festhalten, weil die Portierung der dort eingesetzten speziellen Software auf Standard-Hardware nicht trivial sei. Bei manchen Installationen habe man sich darüber hinaus in langfristigen Planungen festgelegt. In diesen Fällen greift der Rahmenvertrag, so Riedel, nicht auf Anhieb. Und er fügt hinzu: "Wir haben es immerhin geschafft, in den Server-Landschaften überwiegend Dell einzusetzen."

Christian Riedel ist bei der DFS zuständig für den Server-Einkauf und für entsprechende Ausschreibungen. Diese fallen wegen der Sicherheitsproblematik sehr detailliert aus.
Christian Riedel ist bei der DFS zuständig für den Server-Einkauf und für entsprechende Ausschreibungen. Diese fallen wegen der Sicherheitsproblematik sehr detailliert aus.
Foto: DFS

Die zentrale Aufgabe der DFS – Sicherung von Flugverkehr und Luftraum über Deutschland – bringt es mit sich, dass die IT und hier insbesondere die Hardware einigen Besonderheiten gehorchen muss. Dazu gehören u. a. absolute Ausfallsicherheit, Redundanz und vollständige, identische Austauschbarkeit der Hardware.

Beim Thema Ausfallsicherheit hat sich die DFS für einen relativ seltenen Ansatz entschieden. Bei der Ausschreibung ging es dementsprechend gleich um zwei Server-Architekturen: einmal mit AMD- und einmal mit Intel-CPUs. Man wollte vermeiden, dass das Ersatzsystem der Flugsicherung bei einem Absturz oder sonstigen Fehlern nicht aus den gleichen CPU-Komponenten wie das Hauptsystem besteht. Deshalb entschied man sich für zwei getrennte x86-Architekturen.

Damit will man in erster Linie vermeiden, dass ein Serienfehler bei CPU oder Chipsatz im Hauptsystem auch im Ersatzsystem vorkommen kann – mit der fatalen Folge, dass dieses nicht anspringt und die Server komplett den Dienst versagen. Zwei technisch nicht identische Hardware-Systeme auf x86-Basis sollen für die Business Continuity sorgen – was natürlich nur geht, wenn beide über die gleiche Code-Struktur auf der Ebene von Betriebssystem und Middleware verfügen. Nur so können ja die Applikationen im Falle des Falles weiter ihre Arbeit verrichten.

Zur Startseite