Projekte


CERN-IT zwischen Kleinstteilchen und Commodity-Lösungen

Das Speichermonster von Genf

08.11.2005
Von Thomas Zeller
Bei der europäischen Organisation für Kernforschung CERN beginnt im kommenden Jahr die Jagd nach dem Kleinstteilchen Higgs Bosom. Dafür setzt die Institution neben der Physik auch auf die IT. Um den ständig wachsenden Anforderungen der Wissenschaftler standhalten zu können, legt die IT-Abteilung ihre Hoffnungen vor allem auf Grid Computing und Commodity-Lösungen.

Die Arbeit im CERN lässt oft keine Zeit die Schönheit der Landschaft um den Genfer See zu genießen. Das gilt besonders vor anstehenden Experimenten. In einer solchen Phase befinden sich jetzt nicht nur die Wissenschaftler, sondern auch die ITler der Einrichtung. "Stellen Sie sich vor, die Physiker könnten mit dem Experiment beginnen, und es hakt dann bei der IT. Das wäre für uns eine Art Supergau", sagt Bernd Panzer-Steindel, Computing Fabric Area Manager beim CERN.

Damit das nicht passiert, arbeitet die IT zurzeit auf Hochtouren. Denn bereits im kommenden Jahr wollen die Wissenschaftler mit der Jagd nach Kleinstteilchen wie dem Higgs Bosom beginnen, das nach seiner Entdeckung das Verständnis für die Entstehung von Materie verbessern soll. Sie benötigen dafür neben einem Teilchenbeschleuniger, wie dem großen Hadronkollider LHC, vor allem eine gigantische Speicherkapazität.

"Allein in dem LHC werden in jeder Sekunde 40 Millionen Teilchenkollisionen gemessen", sagt Francois Grey, Leiter der Kommunikationsabteilung der IT. Daraus filtern die Wissenschaftler anschließend pro Sekunde rund 100 für sie interessante Kollisionen heraus. Pro Teilchenzusammenprall wird ein Megabyte Speicher für die Aufzeichnung benötigt. "Auf das Jahr gerechnet, bedeutet das einen Speicherbedarf von rund zehn Petabyte für ein LHC-Experiment", rechnet Grey weiter vor. Das ist in etwa das Zehntausendfache, dass die eine Digitalisierung der jährlichen weltweiten Buchproduktion mit rund einem Terrabyte Speicher verschlingen würde.

Das Speichern der Daten ist jedoch nur ein Problem, dem sich die IT des CERN stellen muss. Ein anderes ist die Informationsanalyse. Bisher verfügt die Forschungseinrichtung über 2.000 Dual-Prozessoren-Rechner in ihrer Server-Farm. Das reicht bei weitem nicht aus. Grey spricht von 100.000 Prozessoren, die benötigt würden um die Analysen, im Rahmen der Anforderungen zu erledigen.

Zur Startseite