Das wissenschaftliche Grid-Computing hat am Dienstag einen Meilenstein erreicht: Acht große Rechenzentren in Europa und den USA haben über zehn Tage einen kontinuierlichen Datenstrom von 600 Megabyte pro Sekunde ausgetauscht.
Diese Datenmenge über eine ISDN- Leitung zu verschicken würde etwa 3.000 Jahre dauern.
Die Daten wurden vom europäischen Forschungszentrum CERN in Genf verschickt. Mit diesem Test wurde der Datenaustausch simuliert, der ab dem Jahr 2007 notwendig ist, um die Daten eines internationalen wissenschaftlichen Großexperiments zu handhaben. Dann geht nämlich bei CERN der Large Hadron Collider (LHC) in Betrieb, ein Experiment der Elementarteilchenphysik, das über zehn Jahre rund um die Uhr einen Datenstrom von 1.500 Megabyte pro Sekunde liefern wird. Die deutsche Schaltstelle für das schnellste Rechnernetz der Welt ist das Forschungszentrum Karlsruhe. An dem jetzt erfolgreich abgeschlossenen Test waren außerdem zwei Rechenzentren in den USA und jeweils ein Rechenzentrum in Frankreich, Großbritannien, Italien und den Niederlanden beteiligt.
CERN sorgt für Datenflut
Bis zum Jahr 2007 wird beim europäischen Forschungszentrum CERN in Genf unter dem Namen LHC (Large Hadron Collider) der größte Beschleuniger der modernen Teilchenphysik aufgebaut. In einem 27 Kilometer langen, kreisförmigen Teilchenbeschleuniger werden dann Protonen oder Bleikerne mit nahezu Lichtgeschwindigkeit aufeinander geschossen. Beim Zusammenstoß werden Unmengen kleinerer Elementarteilchen entstehen und dadurch Einblick in die innerste Struktur der Materie geben. LHC wird zum datenintensivsten Experiment der Physik: In jeder Sekunde müssen über 100 Millionen Messdaten registriert werden. Drei Millionen Gigabyte an Daten müssen jährlich gespeichert und für weltweit verteilte Wissenschaftlergruppen aufbereitet werden. Auf CD-ROM gepresst ergäbe die Datenmenge einen Stapel, der doppelt so hoch ist wie die Zugspitze.
Die Physiker drohen in dieser Datenflut zu ertrinken. Ein einzelnes Rechenzentrum kann den Bedarf nicht mehr abdecken. So entstand die Idee, die Daten und die benötigte Rechenleistung in einer hierarchischen Schichtenstruktur über die ganze Welt zu verteilen und die einzelnen Standorte über eine besonders leistungsfähige Internetstruktur miteinander zu verknüpfen.