Der Supercomputer
Seit November vergangenen Jahres steht der zweitschnellste Rechner der Welt in Deutschland. Genauer gesagt: im Forschungszentrum Jülich. Der Supercomputer mit dem Namen Jugene ist in etwa so schnell wie 20.000 handelsübliche PC zusammen.
Wer mit dem Zug von Düren zum Forschungszentrum Jülich fährt, passiert Haltestellen wie "Krauthausen" und "Im Großen Tal". Ackerland zieht hinter den Panoramascheiben der Rurtalbahn vorbei. Der gut zwei Quadratkilometer große Forschungskomplex liegt mitten im Stettenicher Forst.
Einmal angekommen warten Passkontrolle, Linoleum-Flure und Sicherheitsschleusen auf den Besucher – Jugene, der momentan zweitschnellste Computer der Welt, ist gut versteckt.
In der großen Lagerhalle des "Jülich Supercomputing Centre" ist es kühl. Jugene will es so. Seine Vorgänger Jump und Jubl auch. Die drei Supercomputer ragen in Form dutzender mattschwarzer Kästen aus dem Hallenboden hervor. Symmetrisch. Telefonzellengroß.
In den schwarzen Schränken, dicht gedrängt: Prozessoren. Allein der im November in Betrieb genommene Jugene hat 65.536 Stück, verteilt auf 16 Schränke. Norbert Attig, Abteilungsleiter für Anwendungssupport, erklärt warum es so viele sind:
"Ganz naiv ist es so: Wenn sie hundert Prozessoren an einem Programm arbeiten lassen, wo sonst nur ein Prozessor dran arbeiten kann, dann haben sie einen Zeitersparnisfaktor hundert. Wenn es tausende, zehntausende, hunderttausende sind, ist dieser Faktor immer größer."
Damit all die Prozessoren überhaupt zusammen arbeiten können, ist ein ausgeklügeltes Netzwerk nötig. Und natürlich die richtige Software:
"Ein Programm muss es auch hergeben, möglichst viele Prozessoren an sich arbeiten zu lassen. Wenn das nicht gegeben ist, nutzt ihnen der schönste Parallelrechner überhaupt nicht."
Aber: Was macht man jetzt eigentlich mit dem Supercomputer? Der Physiker Rolf Müller sitzt am Ende eines anderen, langen Flures in seinem Büro und betrachtet eine mögliche Antwort auf diese Frage: die Simulation des Ozonlochs.
"Ein Aspekt, der in den atmosphärischen Wissenschaften wichtig ist, insbesondere in den höheren Luftschichten, in denen wir uns bewegen, ist, dass es sehr schwierig ist, dort Messungen zu machen. Wir benutzen deswegen die Computermodelle, um das vollständige Bild nachzusimulieren und gleichzeitig mit den Stützstellen, die uns die Messungen liefern, abzugleichen."
Seine Simulation arbeitet mit hunderttausenden fest definierten Luftpaketen. In jedem einzelnen wird die Chemie simuliert, die das Ozonloch erzeugt. So kommt es zu dem immensen Rechenaufwand.
"Der Grund warum man das tut, ist dass man diese Vorgänge im Detail verstehen will. Das ist das Prozessverständnis, das letztendlich dazu führt, dass man auch Prognoserechnungen machen kann: Prognoserechnungen zur Entwicklung des Ozonlochs und im größeren Rahmen natürlich zur Entwicklung des Klimageschehens insgesamt in der Atmosphäre."
Umso größer die Rechenleistung wird, umso längere Zeiträume können berechnet und umso feinere Strukturen simuliert werden. Dabei überwiegen die wertvollen Erkenntnisse, die man über das Klima erlangt, wohl auch den Schaden, den ihm Jugene mit seinem Stromverbrauch von etwa 500 Kilowatt zufügt.
Der Supercomputer rechnet immer an mehreren Problemen gleichzeitig. Forscher aus ganz Deutschland stellen Anträge zur Berechnung ihrer Simulationen. So auch der Jülicher Physiker Paul Gibbon. Er lässt nun eine Berechnung, die sonst Wochen oder Monate dauern würde, in drei Stunden von zweitausend Prozessoren gleichzeitig erledigen. Sein Forschungsgebiet ist die Beschleunigung positiv geladener Teilchen mit Hilfe eines Lasers. Ein so erzeugter Strahl könnte zum Beispiel in der Tumorbehandlung helfen. Doch zunächst muss man genau verstehen, wie sich die einzelnen Teilchen verhalten. Dabei bietet die Simulation am Supercomputer entscheidende Vorteile gegenüber dem Experiment:
"Man kann den Einfluss zum Beispiel der Wetterbedingungen ausschließen, dass man vielleicht im Labor nebenan irgendwas macht, was das Experiment gerade stört. Optik ist sehr empfindlich, insbesondere Laseroptik. Man braucht nur ein wenig am Tisch schütteln und schon ist die ganze Spiegelung kaputt."
Auf experimentelle Ergebnisse kann Paul Gibbon zwar nicht verzichten – doch ohne den Supercomputer wäre seine Forschung kaum möglich. Der veraltet dabei übrigens genau so schnell wie jeder andere Rechner auch. Deshalb hat man sich in Jülich ein ehrgeiziges Ziel gesetzt: Spätestens 2010 möchte man den ersten Petaflop-Rechner in Betrieb nehmen. Was das heißt? Sagen wir einfach, die Forscher werden noch präzisere Simulationen erstellen können. Und in einer gut gekühlten Lagerhalle irgendwo im Stetternicher Forst bei Jülich wird es noch ein wenig lauter.
Einmal angekommen warten Passkontrolle, Linoleum-Flure und Sicherheitsschleusen auf den Besucher – Jugene, der momentan zweitschnellste Computer der Welt, ist gut versteckt.
In der großen Lagerhalle des "Jülich Supercomputing Centre" ist es kühl. Jugene will es so. Seine Vorgänger Jump und Jubl auch. Die drei Supercomputer ragen in Form dutzender mattschwarzer Kästen aus dem Hallenboden hervor. Symmetrisch. Telefonzellengroß.
In den schwarzen Schränken, dicht gedrängt: Prozessoren. Allein der im November in Betrieb genommene Jugene hat 65.536 Stück, verteilt auf 16 Schränke. Norbert Attig, Abteilungsleiter für Anwendungssupport, erklärt warum es so viele sind:
"Ganz naiv ist es so: Wenn sie hundert Prozessoren an einem Programm arbeiten lassen, wo sonst nur ein Prozessor dran arbeiten kann, dann haben sie einen Zeitersparnisfaktor hundert. Wenn es tausende, zehntausende, hunderttausende sind, ist dieser Faktor immer größer."
Damit all die Prozessoren überhaupt zusammen arbeiten können, ist ein ausgeklügeltes Netzwerk nötig. Und natürlich die richtige Software:
"Ein Programm muss es auch hergeben, möglichst viele Prozessoren an sich arbeiten zu lassen. Wenn das nicht gegeben ist, nutzt ihnen der schönste Parallelrechner überhaupt nicht."
Aber: Was macht man jetzt eigentlich mit dem Supercomputer? Der Physiker Rolf Müller sitzt am Ende eines anderen, langen Flures in seinem Büro und betrachtet eine mögliche Antwort auf diese Frage: die Simulation des Ozonlochs.
"Ein Aspekt, der in den atmosphärischen Wissenschaften wichtig ist, insbesondere in den höheren Luftschichten, in denen wir uns bewegen, ist, dass es sehr schwierig ist, dort Messungen zu machen. Wir benutzen deswegen die Computermodelle, um das vollständige Bild nachzusimulieren und gleichzeitig mit den Stützstellen, die uns die Messungen liefern, abzugleichen."
Seine Simulation arbeitet mit hunderttausenden fest definierten Luftpaketen. In jedem einzelnen wird die Chemie simuliert, die das Ozonloch erzeugt. So kommt es zu dem immensen Rechenaufwand.
"Der Grund warum man das tut, ist dass man diese Vorgänge im Detail verstehen will. Das ist das Prozessverständnis, das letztendlich dazu führt, dass man auch Prognoserechnungen machen kann: Prognoserechnungen zur Entwicklung des Ozonlochs und im größeren Rahmen natürlich zur Entwicklung des Klimageschehens insgesamt in der Atmosphäre."
Umso größer die Rechenleistung wird, umso längere Zeiträume können berechnet und umso feinere Strukturen simuliert werden. Dabei überwiegen die wertvollen Erkenntnisse, die man über das Klima erlangt, wohl auch den Schaden, den ihm Jugene mit seinem Stromverbrauch von etwa 500 Kilowatt zufügt.
Der Supercomputer rechnet immer an mehreren Problemen gleichzeitig. Forscher aus ganz Deutschland stellen Anträge zur Berechnung ihrer Simulationen. So auch der Jülicher Physiker Paul Gibbon. Er lässt nun eine Berechnung, die sonst Wochen oder Monate dauern würde, in drei Stunden von zweitausend Prozessoren gleichzeitig erledigen. Sein Forschungsgebiet ist die Beschleunigung positiv geladener Teilchen mit Hilfe eines Lasers. Ein so erzeugter Strahl könnte zum Beispiel in der Tumorbehandlung helfen. Doch zunächst muss man genau verstehen, wie sich die einzelnen Teilchen verhalten. Dabei bietet die Simulation am Supercomputer entscheidende Vorteile gegenüber dem Experiment:
"Man kann den Einfluss zum Beispiel der Wetterbedingungen ausschließen, dass man vielleicht im Labor nebenan irgendwas macht, was das Experiment gerade stört. Optik ist sehr empfindlich, insbesondere Laseroptik. Man braucht nur ein wenig am Tisch schütteln und schon ist die ganze Spiegelung kaputt."
Auf experimentelle Ergebnisse kann Paul Gibbon zwar nicht verzichten – doch ohne den Supercomputer wäre seine Forschung kaum möglich. Der veraltet dabei übrigens genau so schnell wie jeder andere Rechner auch. Deshalb hat man sich in Jülich ein ehrgeiziges Ziel gesetzt: Spätestens 2010 möchte man den ersten Petaflop-Rechner in Betrieb nehmen. Was das heißt? Sagen wir einfach, die Forscher werden noch präzisere Simulationen erstellen können. Und in einer gut gekühlten Lagerhalle irgendwo im Stetternicher Forst bei Jülich wird es noch ein wenig lauter.