Nur mit Hightech-Storage zu meistern

Urknallexperimente erzeugen riesige Datenmengen

12.11.2009
Nach langer Pause ist der Teilchenbeschleuniger am CERN wieder gestartet. Bei der Kollision von Protonen entstehen dort Verhältnisse wie kurz nach dem Urknall - und gigantische Datenmengen. Diese versucht man mit frei nach oben skalierbaren Storage-Technologien in den Griff zu bekommen.
Der "Large Hadron Collider", der größte Teilchenbeschleuniger der Welt, erzeugt gigantische Datenmengen (Quelle: Cern).
Der "Large Hadron Collider", der größte Teilchenbeschleuniger der Welt, erzeugt gigantische Datenmengen (Quelle: Cern).
Foto: CERN

Die Suche nach der Weltformel kann weiter gehen: Am Europäischen Zentrum für Elementarteilchenphysik CERN in Genf ist der Teilchenbeschleuniger Large Hadron Collider (LHC) wieder gestartet worden. Durch die Experimente wollen Wissenschaftler dem Universum seine letzten Geheimnisse entlocken. "Letztlich erforschen wir am CERN das, was die Welt im Innersten zusammenhält", erklärt Physik-Professor Arnulf Quadt von der Universität Göttingen in Anspielung auf Goethes Faust.

Der LHC ist der größte Teilchenbeschleuniger der Welt, in dem Protonen mit beinahe Lichtgeschwindigkeit aufeinander geschossen werden. Bei dieser Kollision entstehen Verhältnisse wie kurz nach dem Urknall - und gigantische Datenmengen, die kein Computer alleine bearbeiten und speichern könnte. Daher werden die Informationen auf verschiedene Rechner auf der ganzen Welt verteilt. Das so entstehende Netzwerk, Grid genannt, ist wiederum in verschiedene Schichten (Tier) mit unterschiedlichen Aufgaben unterteilt.

Blick in die Band-Bibliothek im Computer Center des CERN (Quelle: Cern).
Blick in die Band-Bibliothek im Computer Center des CERN (Quelle: Cern).
Foto: Storagetek

Auch in Deutschland haben die am CERN mitwirkenden Forschungseinrichtungen ein Netz an Rechenknoten geschaffen. In Karlsruhe wurde ein Rechenzentrum auf Tier-1-Ebene aufgebaut. Darüber hinaus gibt es Tier-2-Grid-Zentren, an denen das DESY (Deutsches Elektronen-Synchrotron) in Hamburg und Berlin/Zeuthen, die Rheinisch-Westfälische Technische Hochschule Aachen, die Ludwig-Maximilians-Universität München, das Max-Planck-Institut für Physik in München und die Universitäten in Wuppertal, Freiburg und Göttingen beteiligt sind. Beim Aufbau der deutschen Tier-2-Grid-Zentren setzte der Großteil der Beteiligten auf Server- und Speicherlösungen von HP.

Hohe Effizienz auf engstem Raum

HP stattete die Forscher mit HP ProLiant BL460c- sowie BL2x220c-Blade-Servern aus. Für eine hohe Dichte im Rack sorgt die spezielle Bauweise der BL2x220c-Systeme. Sie ermöglicht es, dass zwei unabhängige Server in einen Blade-Einschub passen. Insgesamt sind im deutschen Grid 803 Dual-CPU-Rechner mit 6.424 Prozessorkernen im Einsatz. Dank der platz- und energiesparenden Blade-Technologie liefern die neuen Systeme hohe Leistung auf kleinstem Raum. Für die optimale Temperatur sorgen 13 wassergekühlte Racks, sogenannte HP Modular Cooling Systems (MCS). Als Speicherlösung sind vor allem HP StorageWorks 60 Modular Smart Arrays mit SATA-Festplatten im Einsatz. Zusammen verfügen die Forscher damit über ein Volumen von 2.151 TByte.

Mit dem neuen Grid sind die deutschen Wissenschaftler für ihre Forschungen gut gerüstet. Sie profitieren von höherer Sicherheit, da das Grid den Ausfall einzelner Systeme im Notfall kompensieren kann. Da wichtige Daten redundant gespeichert sind, können verschiedene Wissenschaftler parallel auf die gleichen Informationen zugreifen. Sollte die Datenmenge, wie zu erwarten, in den kommenden Jahren weiter steigen, lässt sich die IT-Infrastruktur problemlos nach oben skalieren und weiter ausbauen.