Neue Fortschritte bei der Entwicklung von Supercomputern
Die Supercomputer sind in diesem Jahr in eine neue Dimension vorgestoßen. Der stärkste löst mittlerweile eine Billiarde Rechenaufgaben in der Sekunde und damit hat die Weltrangliste der Supercomputer - die Top 500 - nach mehr als dreieinhalb Jahren einen neuen Spitzenreiter: Die Anlage namens Roadrunner.
In ihren Anfangsjahren waren Supercomputer tatsächlich ein bisschen so wie HAL 9000 in Stanley Kubricks "2001 Odyssee im Weltall": Ein futuristisches Design, hochintelligent und stets bereit, den bei weitem nicht so intelligenten Menschen beiseite zu schubsen und die Macht zu übernehmen.
Zumindest hatten sie ein sehr beeindruckendes Äußeres. Und sie trugen respekteinflößende Namen: Cray etwa oder Thinking Maschines. Meist waren es so genannte Vektor-Computer, die ihre Rechenbefehle auf viele Zahlen gleichzeitig anwendeten. So konnten sie sehr gut Strömungen berechnen und wurden etwa in der Automobilindustrie eingesetzt, um aerodynamische Fahrzeuge zu entwickeln. Das hat sich inzwischen geändert. Heute sind IBM und Hewlett-Packard die größten Supercomputerbauer, Unternehmen, die auch sonst nahezu alles produzieren, was die IT-Industrie zu bieten hat.
" Diese Unternehmen, die wir meist mit Arbeitsplatzrechnern in Verbindung bringen, bauen heute im Prinzip Supercomputer, indem sie Arbeitsplatzrechner zusammenschalten. Supercomputer sind heute keine Spezialsysteme mehr. "
So Larry Smarr, der Gründer des US-amerikanischen National Center for Supercomputing Applications. Dr. Erich Strohmaier vom Lawrence Berkeley National Laboratory fasst die Geschichte des Hochleistungsrechnens so zusammen:
" Das moderne Supercomputing wurde ja ins Leben gerufen durch die Vektorrechner, Ende der 70er, Anfang der 80er Jahre. Die Vektorrechner sind dann abgelöst worden, Anfang der 90er Jahre, durch speziell entworfene Rechnersysteme, große Rechnersysteme, Parallelrechnersysteme mit regulären Prozessoren. Und die dann wieder abgelöst worden sind, Anfang der 2000er Jahre, durch Cluster, die halt Standardknoten und Standardverbindungsnetzwerke benutzen. "
Und von Generation zu Generation hat sich die Rechenleistung der Zahlenfresser jeweils vertausendfacht. Ein Vektorrechner wie die Crays der Anfangsjahre brachte es auf eine Milliarde Berechnungen pro Sekunde. Das schafft heute ein Notebook. Ende der 90er Jahre dann gelang es mit ASCI Red, einer Spezialentwicklung von Intel, erstmalig eine Atombombenexplosion vollständig im Computer zu simulieren. Ein Teraflops war dazu nötig, eine Billion Gleitkommaberechnungen pro Sekunde. Seitdem führen die USA keine realen Kernwaffentests mehr durch, und die Computerwissenschaftler befassen sich mit dem Petaflops-Rechnen: Billiarden von Rechenaufgaben, so viele müssen sekündlich abgearbeitet werden, um die räumliche Struktur menschlicher Proteine per Computer zu bestimmen.
" Die Rolle der Proteinfaltung besteht darin, uns dazu anzuspornen, einen Petaflops-Rechner zu entwickeln. Denn für die Proteinfaltung braucht man so einen starken Computer. Aber eigentlich ist das nur ein Vehikel für die Entwicklung eines Systems, das mehr kann als nur Proteine falten. "
So IBMs Supercomputerchef David Turek. Jetzt gibt es den Petaflops-Rechner. "Roadrunner" heißt er. Und er arbeitet ausgerechnet mit Cell-Chips, so ähnlich wie sie auch in Sonys Playstation takten. Das sei ein Trend, sagt Jim Tully vom Marktforschungsunternehmen Gartner.
" Früher war es die Datenverbreitung in Unternehmen, die die Prozessor-Entwicklung vorangetrieben hat. Das aber ändert sich. Heute wird zunehmend die Consumer-Elektronik zur treibenden Kraft. "
Ungebrochen ist auf jeden Fall der Trend zu immer höherer Leistung. Professor Hans-Werner Meuer – er stellt zweimal jährlich die Top500 zusammen, die Liste der 500 stärksten Supercomputer der Welt:
" Das nächste ist ganz klar, der nächste Faktor 1000 sind Exa-Flops-Rechner, und nach der Einschätzung der Top500-Autoren erwarten wir den elf Jahre später, also nach unserer Projektion im Jahr 2019. Und wenn Sie wollen, dann noch mal elf Jahre später den so genannten Zeta-Flops. Aber da sollten wir vielleicht ein bisschen vorsichtig sein. "
Da fragt man sich natürlich schon: Wo soll das alles enden? Wann sind die Supercomputer-Bauer mal zufrieden? Wann haben sie genügend Rechenleistung? Wahrscheinlich hat die Antwort Konrad Zuse, der Erfinder des Computers, schon vor Jahren gegeben: Computerbauer haben nie genügend Rechenleistung.
" Wenn Sie jetzt in die Wissenschaft gehen, in die theoretische Physik, da kriegen Sie natürlich Probleme, da können Sie rechnen noch und noch. Da reichen auch die schnellsten heutigen Computer noch nicht aus. "
Zumindest hatten sie ein sehr beeindruckendes Äußeres. Und sie trugen respekteinflößende Namen: Cray etwa oder Thinking Maschines. Meist waren es so genannte Vektor-Computer, die ihre Rechenbefehle auf viele Zahlen gleichzeitig anwendeten. So konnten sie sehr gut Strömungen berechnen und wurden etwa in der Automobilindustrie eingesetzt, um aerodynamische Fahrzeuge zu entwickeln. Das hat sich inzwischen geändert. Heute sind IBM und Hewlett-Packard die größten Supercomputerbauer, Unternehmen, die auch sonst nahezu alles produzieren, was die IT-Industrie zu bieten hat.
" Diese Unternehmen, die wir meist mit Arbeitsplatzrechnern in Verbindung bringen, bauen heute im Prinzip Supercomputer, indem sie Arbeitsplatzrechner zusammenschalten. Supercomputer sind heute keine Spezialsysteme mehr. "
So Larry Smarr, der Gründer des US-amerikanischen National Center for Supercomputing Applications. Dr. Erich Strohmaier vom Lawrence Berkeley National Laboratory fasst die Geschichte des Hochleistungsrechnens so zusammen:
" Das moderne Supercomputing wurde ja ins Leben gerufen durch die Vektorrechner, Ende der 70er, Anfang der 80er Jahre. Die Vektorrechner sind dann abgelöst worden, Anfang der 90er Jahre, durch speziell entworfene Rechnersysteme, große Rechnersysteme, Parallelrechnersysteme mit regulären Prozessoren. Und die dann wieder abgelöst worden sind, Anfang der 2000er Jahre, durch Cluster, die halt Standardknoten und Standardverbindungsnetzwerke benutzen. "
Und von Generation zu Generation hat sich die Rechenleistung der Zahlenfresser jeweils vertausendfacht. Ein Vektorrechner wie die Crays der Anfangsjahre brachte es auf eine Milliarde Berechnungen pro Sekunde. Das schafft heute ein Notebook. Ende der 90er Jahre dann gelang es mit ASCI Red, einer Spezialentwicklung von Intel, erstmalig eine Atombombenexplosion vollständig im Computer zu simulieren. Ein Teraflops war dazu nötig, eine Billion Gleitkommaberechnungen pro Sekunde. Seitdem führen die USA keine realen Kernwaffentests mehr durch, und die Computerwissenschaftler befassen sich mit dem Petaflops-Rechnen: Billiarden von Rechenaufgaben, so viele müssen sekündlich abgearbeitet werden, um die räumliche Struktur menschlicher Proteine per Computer zu bestimmen.
" Die Rolle der Proteinfaltung besteht darin, uns dazu anzuspornen, einen Petaflops-Rechner zu entwickeln. Denn für die Proteinfaltung braucht man so einen starken Computer. Aber eigentlich ist das nur ein Vehikel für die Entwicklung eines Systems, das mehr kann als nur Proteine falten. "
So IBMs Supercomputerchef David Turek. Jetzt gibt es den Petaflops-Rechner. "Roadrunner" heißt er. Und er arbeitet ausgerechnet mit Cell-Chips, so ähnlich wie sie auch in Sonys Playstation takten. Das sei ein Trend, sagt Jim Tully vom Marktforschungsunternehmen Gartner.
" Früher war es die Datenverbreitung in Unternehmen, die die Prozessor-Entwicklung vorangetrieben hat. Das aber ändert sich. Heute wird zunehmend die Consumer-Elektronik zur treibenden Kraft. "
Ungebrochen ist auf jeden Fall der Trend zu immer höherer Leistung. Professor Hans-Werner Meuer – er stellt zweimal jährlich die Top500 zusammen, die Liste der 500 stärksten Supercomputer der Welt:
" Das nächste ist ganz klar, der nächste Faktor 1000 sind Exa-Flops-Rechner, und nach der Einschätzung der Top500-Autoren erwarten wir den elf Jahre später, also nach unserer Projektion im Jahr 2019. Und wenn Sie wollen, dann noch mal elf Jahre später den so genannten Zeta-Flops. Aber da sollten wir vielleicht ein bisschen vorsichtig sein. "
Da fragt man sich natürlich schon: Wo soll das alles enden? Wann sind die Supercomputer-Bauer mal zufrieden? Wann haben sie genügend Rechenleistung? Wahrscheinlich hat die Antwort Konrad Zuse, der Erfinder des Computers, schon vor Jahren gegeben: Computerbauer haben nie genügend Rechenleistung.
" Wenn Sie jetzt in die Wissenschaft gehen, in die theoretische Physik, da kriegen Sie natürlich Probleme, da können Sie rechnen noch und noch. Da reichen auch die schnellsten heutigen Computer noch nicht aus. "