"Das ist der Beginn des Personal Supercomputing"
Seite 2: "Das ist der Beginn des Personal Supercomputing"
TR: Wenn man sich die aktuellen Supercomputer ansieht, dann sind wir von Petaflops vielleicht noch einen Faktor drei entfernt. Gibt es prinzipielle technische Probleme, um diesen Faktor zu ĂĽberwinden? Oder ist da alles nur eine Frage der Skalierung?
Turek: Ich denke, man muss zwei Dinge betrachten. Das eine ist die Skalierung selbst. Wenn wir den Rechner noch größer machen, darf die Leistungsaufnahme nicht linear steigen -- die "Power Envelope" darf bei einem Anstieg der Rechenleistung um den Faktor drei nur um 30 bis 40 Prozent zunehmen.
Der zweite Punkt ist, dass ich die wirklichen Probleme eher auf der Seite der Software, der Administration und der Programmierbarkeit erwarte. Wenn Ihr System einige hundertausend Prozessoren enthält, wird die Verwaltung ein ernsthaftes Problem, genauso wie die Fehlersuche. Also arbeiten wir mit vielen verschiedenen Leuten -- auch der Open-Source-Community -- daran, diese Technologie zu entwickeln. Tatsächlich ist dies auch in dem DARPA-Projekt, an dem wir arbeiten, ein zentraler Baustein. Ich erwarte die wichtigsten Innovationen auf der Software-Seite.
TR: Also nicht bei der Hardware?
Turek: Ich habe nicht gesagt, dass es bei der Hardware keine Innovationen geben wird. Aber um die massive Saklierung dieser Maschinen zu bewältigen, braucht man eine ganze Menge substanzieller neuer Software.
TR: Es hat eine Menge Diskussionen darüber gegeben, ob der Linpack-Benchmark für die Top-500-Liste immer noch geeignet ist, die Kapazitäten eines Supercomputers wirklich abzubilden. Was sagen Sie dazu? Sagt die so ermittelte Rechenleistung wirklich etwas aus, oder ist es nur eine Zahl?
Turek: Ich denke es ist eine wichtige Zahl. Weil sie etwas in einem historischen Kontext aussagt. Sie zeigt die Evolution der Maschinen und sie gibt einen Hinweis darauf, wie die weitere Entwicklung aussehen wird. Aus unserer Perspektive gibt es aber einen klaren Unterschied zwischen Benchmarks und Business. Benchmark-Ergebnisse stehen immer nur am Beginn eines Dialoges.
Wir können -- nicht für all unsere Kunden aber für viele -- sagen, dass die Anwendungen, die gerechnet werden, in der Regel schwierig an Supercomputer anzupassen sind. Und was man lernt, wenn man all diese verschiedenen Benchmarks laufen lässt, ist, dass es keine universell gute Architektur für einen Supercomputer gibt. Deswegen haben viele Kunden auch mehrere Installationen mit unterschiedlichen Architekturen. Das zeigt umso mehr, wie unwichtig Benchmarks eigentlich sind. Wir haben immer darauf geachtet, die Vielfalt der Anwendungen unserer Kunden auch auf eine Vielfalt der am besten für eine Aufgabe geeigneten Hardware abzubilden.
TR: Die Märkte für Supercomputer in Europa und den USA dürften sich substanziell voneinander unterscheiden. Spielt Europa hier überhaupt eine Rolle? Wie beurteilen Sie die europäische Entwicklung?
Turek: Aus meiner Perspektive entwickelt sich die Nachfrage. Es gibt nicht nur auf europäischer Ebene Initiativen, sondern auch von lokalen Regierungen -- das Mare-Nostrum-Projekt ist ein gutes Beispiel dafür. Und die Supercomputer, die jetzt in Europa installiert sind, wären vor einigen Jahren noch die schnellsten der Welt gewesen.
Interview: Wolfgang Stieler (wst)