"Das ist der Beginn des Personal Supercomputing"
David Turek, Vice President Deep Computing bei IBM im Interview mit Technology Review über die nächste Generation von Supercomputern.
David Turek, Vice President Deep Computing bei IBM, im Interview mit Technology Review über die nächste Generation von Supercomputern, den Wert von Benchmarks und den Supercomputer-Markt in Europa.
Technology Review: Eines der Geheimnisse für einen wirklich dauerhaften Erfolg besteht meiner Meinung nach darin, der Konkurrenz immer um einen Schritt voraus zu sein. Wie sieht also der nächste Schritt von IBM, die nächste Generation von Blue Gene, aus?
David Turek: Die Idee fĂĽr Blue Gene stammt etwa aus dem Jahr 1999. Die Entwicklung einer solchen Idee erfordert immer eine Menge Planung und Zeit.
Ich würde sagen, wir haben ein Hand voll Ideen, wie es weiter gehen könnte. Der Grund dafür, dass wir nicht auf eine einzelne Idee setzen, ist der, dass wir in der Vergangenheit gesehen haben, wie dramatisch der Markt sich verändern kann. Wenn man nur auf ein einzelnes Pferd setzt und verliert, kann das die eigene Geschäftsgrundlage schwer beschädigen.
Eine der Ideen, die wir mit Blue Gene verfolgen, ist die Idee des "Dense Computing" -- ein anderes Beispiel dafür sind unsere Blade-Server. Dabei geht es darum, das Problem der Abwärme zu lösen, das Problem des Energie- und Platzbedarfs, ohne Abstriche bei der Rechenleistung machen zu müssen. Wir haben in den vergangenen Jahren sicherlich Supercomputer mit einer fantastischen Rechenleistung gesehen, aber die sind auch schrecklich teuer, was den Betrieb angeht.
Ich glaube, dass der Trend zum "Dense Computing" weiter anhalten wird. Und in dem MaĂźe, wie die Kosten fĂĽr diese Technologie weiter fallen, werden auch mehr und mehr kleine und mittlere Unternehmen, Arbeitsgruppen -- bis hin zu einzelnen Individuen -- Zugriff auf diese Rechenleistung bekommen. Das ist der Beginn des "Personal Supercomputing".
Die zweite Frage ist, durch welche Faktoren wird die technologische Entwicklung der Supercomputer in Zukunft angetrieben. In den vergangenen Jahren war diese in hohem MaĂźe die technische Entwicklung im Bereich der PCs -- deshalb haben wir die Entwicklung all dieser Linux-Cluster gesehen. Ich denke, in Zukunft wird die Technologie aus dem Spiele-Sektor angetrieben.
Zum einen kann man sehen, dass dieser Sektor wirtschaftlich gesehen rapide wächst. Zum anderen sind Computerspiele technisch sehr anspruchsvoll und stellen hohe Anforderungen an die Rechenleistung. Textverarbeitung bietet keinen technologischen Anreiz für die Enwicklung von Supercomputern. Der Cell-Prozessor ist ein Beispiel dafür. Er hat eine enorme Rechenleistung, und mit der Zeit werden sich dafür eine ganze Reihe weiterer Anwendungen ergeben.
Der dritte Faktor ist unser Engagement in einer ganzen Reihe internationaler Projekte. Wir arbeiten sehr eng mit der DARPA zusammen an Projekten, die möglicherweise 2010 zu marktfähigen Produkten führen -- so wie die Entwicklung von Blue Gene ja auch bereits vor fünf oder sechs Jahren begonnen hat. Um in diesem Geschäft erfolgreich zu sein, muss man sich auch zu langfristigen Projekten bekennen.
TR: Wie wird diese neue Maschine dann aussehen? Einfach eine noch größere Version von Blue Gene?
Turek: Wenn wir von einer größeren Blue-Gene-Maschine reden, müssen wir unterscheiden, ob sie eine Maschine meinen, die mehr Platz einnimmt, oder die mehr Rechenleistung hat.
Es ist kein Geheimnis, dass wir an Petaflops-Computern arbeiten. Ich bin zuversichtlich, dass wir die Petaflops-Grenze bis zum Ende des Jahrzehnts locker durchbrechen werden.
Wir arbeiten mit einer ganzen Reihe von Kunden, um zu sehen, wie und wofür sie Petaflop-Rechner einsetzen würden. Wenn Sie sich erinnern -- es war erst 1999, als wir zum ersten Mal Teraflops Rechenleistung zur Verfügung hatten. Das war damals eine Sache für Regierungen und einige Forscher. Jetzt müssen wir uns Gedanken machen über die Programmierbarkeit, Service, die Bedienerfreundlichkeit und die möglichen Anwendungen. Die Technologie, die wir entwickeln, muss auch nach unten skalierbar sein. Sehen Sie, wir haben ein System im Lawrence Livermore Labor mit über hundert Teraflops, aber die Kunden kaufen auch einzelne Maschinen mit einem Teraflop. Und die Technologie ist dieselbe, wie auf der großen Maschine, die Software, die Entwicklungsumgebung. Man muss die Technologie so entwerfen, dass man sie für sehr große Systeme genauso verwenden kann, wie für kleinere Anwendungen.
"Das ist der Beginn des Personal Supercomputing"
TR: Wenn man sich die aktuellen Supercomputer ansieht, dann sind wir von Petaflops vielleicht noch einen Faktor drei entfernt. Gibt es prinzipielle technische Probleme, um diesen Faktor zu ĂĽberwinden? Oder ist da alles nur eine Frage der Skalierung?
Turek: Ich denke, man muss zwei Dinge betrachten. Das eine ist die Skalierung selbst. Wenn wir den Rechner noch größer machen, darf die Leistungsaufnahme nicht linear steigen -- die "Power Envelope" darf bei einem Anstieg der Rechenleistung um den Faktor drei nur um 30 bis 40 Prozent zunehmen.
Der zweite Punkt ist, dass ich die wirklichen Probleme eher auf der Seite der Software, der Administration und der Programmierbarkeit erwarte. Wenn Ihr System einige hundertausend Prozessoren enthält, wird die Verwaltung ein ernsthaftes Problem, genauso wie die Fehlersuche. Also arbeiten wir mit vielen verschiedenen Leuten -- auch der Open-Source-Community -- daran, diese Technologie zu entwickeln. Tatsächlich ist dies auch in dem DARPA-Projekt, an dem wir arbeiten, ein zentraler Baustein. Ich erwarte die wichtigsten Innovationen auf der Software-Seite.
TR: Also nicht bei der Hardware?
Turek: Ich habe nicht gesagt, dass es bei der Hardware keine Innovationen geben wird. Aber um die massive Saklierung dieser Maschinen zu bewältigen, braucht man eine ganze Menge substanzieller neuer Software.
TR: Es hat eine Menge Diskussionen darüber gegeben, ob der Linpack-Benchmark für die Top-500-Liste immer noch geeignet ist, die Kapazitäten eines Supercomputers wirklich abzubilden. Was sagen Sie dazu? Sagt die so ermittelte Rechenleistung wirklich etwas aus, oder ist es nur eine Zahl?
Turek: Ich denke es ist eine wichtige Zahl. Weil sie etwas in einem historischen Kontext aussagt. Sie zeigt die Evolution der Maschinen und sie gibt einen Hinweis darauf, wie die weitere Entwicklung aussehen wird. Aus unserer Perspektive gibt es aber einen klaren Unterschied zwischen Benchmarks und Business. Benchmark-Ergebnisse stehen immer nur am Beginn eines Dialoges.
Wir können -- nicht für all unsere Kunden aber für viele -- sagen, dass die Anwendungen, die gerechnet werden, in der Regel schwierig an Supercomputer anzupassen sind. Und was man lernt, wenn man all diese verschiedenen Benchmarks laufen lässt, ist, dass es keine universell gute Architektur für einen Supercomputer gibt. Deswegen haben viele Kunden auch mehrere Installationen mit unterschiedlichen Architekturen. Das zeigt umso mehr, wie unwichtig Benchmarks eigentlich sind. Wir haben immer darauf geachtet, die Vielfalt der Anwendungen unserer Kunden auch auf eine Vielfalt der am besten für eine Aufgabe geeigneten Hardware abzubilden.
TR: Die Märkte für Supercomputer in Europa und den USA dürften sich substanziell voneinander unterscheiden. Spielt Europa hier überhaupt eine Rolle? Wie beurteilen Sie die europäische Entwicklung?
Turek: Aus meiner Perspektive entwickelt sich die Nachfrage. Es gibt nicht nur auf europäischer Ebene Initiativen, sondern auch von lokalen Regierungen -- das Mare-Nostrum-Projekt ist ein gutes Beispiel dafür. Und die Supercomputer, die jetzt in Europa installiert sind, wären vor einigen Jahren noch die schnellsten der Welt gewesen.
Interview: Wolfgang Stieler (wst)