Research Group of Prof. Dr. M. Griebel
Institute for Numerical Simulation
maximize

Informationstechnik: Höchstleistungsrechner setzt sich aus vielen einzelnen Kleincomputern zusammen

Supercomputing zum Billigtarif

VDI nachrichten, Mannheim, 27. 8. 99 -
Supercomputer sind teuer. Koppelt man hingegen eine Reihe von Personalcomputern, bestückt mit gängigen Prozessoren, so läßt sich hohe Rechenleistung zu geringen Preisen erreichen. Allerdings ist bei diesen Clustern die interne Kommunikation noch ein Problem.

Schon immer suchten Hochschulen und Forschungsinstitute nach kostengünstigen Alternativen zu den teuren Supercomputern. Eine Möglichkeit bilden sog. Self-made-Systeme, die auf marktüblichen Personalcomputern basieren und sich für einen Bruchteil der Kosten echter Supercomputer zusammenbauen lassen. Bei geeigneten Problemen bringen sie erstaunliche Leistungen.

1993 startete bei der US-Raumfahrtbehörde NASA das erste, ``Beowulf'' genannte Cluster, dessen Name seither als Synonym für viele ähnliche PC-Kopplungen gilt. Charakteristisch für diese Konfigurationen sei, so Beowulf-Vater Thomas Sterling vom California Institute of Technology (Caltech), daß sie in kurzer Zeit zu erschwinglichen Preisen mit der leistungsfähigsten Prozessor-Technologie ausgestattet werden könnten. ``Hingegen ist der Supercomputer-Markt schwerfällig und durch hohe Einstiegskosten belastet'', erklärte Sterling auf der 14. Mannheimer Supercomputer-Konferenz. So erreicht beispielsweise das Avalon-Cluster am amerikanischen Los Alamos National Laboratory eine gemessene Leistung von knapp 50 GFlop/s (50 mal 109 Gleitkommaoperationen/s). Das Cluster liegt damit auf Platz 160 in der Weltliste der 500 leistungsfähigsten Supercomputer, die von der Uni Mannheim aufgestellt wird.

Cluster vom Typ Beowulf verwenden Personalcomputer, die auf Prozessoren wie Intel x86, DEC Alpha oder PowerPC basieren, um Rechenleistungen zu den niedrigst möglichen Preisen zu erhalten. Sie nutzen dabei sowohl bei der Leistung der Mikroprozessoren als auch bei der Speicherdichte die jeweils modernsten technologischen Entwicklungen. Zudem machen es weiterentwickelte Netzwerktechniken möglich, Cluster mit tolerierbaren Bandbreiten und Verzögerungszeiten aufzubauen. Als Betriebssysteme werden frei erhältliche, auf Unix basierende Produkte wie BSD, Solaris und insbesondere Linux verwendet, die als zuverlässig und gut unterstützt gelten.

Beowulfs nutzt man heute nicht nur im technisch-wissenschaftlichen Bereich, sondern beispielsweise auch für das Informationsmanagement, erklärt Sterling. Allerdings eigneten sich die Cluster nicht für alle Probleme; insbesondere sollte der Anteil der Datenübertragung zwischen den Knoten nicht zu hoch sein, da Kommunikationsprobleme noch nicht befriedigend gelöst seien. Dennoch erwartet Sterling, daß in zwei bis drei Jahren ein Teraflops-Beowulf (1012 Flop/s) für 1 Mio. Dollar zu haben sein wird.

Die im Center for Advance Computing Research am Caltech eingerichteten Beowulf-Cluster arbeiten nach dem Message-Passing-Programmiermodell massiv paralleler Supercomputer. Anwendungen von solchen Hochleistungssystemen, beispielsweise aus der physikalischen Optik, der Strukturanalyse oder Finite-Elemente-Berechnungen, ließen sich auf die Cluster übernehmen und in durchaus annehmbarer oder sogar mit Supercomputern vergleichbarer Zeit lösen.

Auch in Deutschland hat das PC-Cluster-Computing mit mehreren innovativen Lösungen Bedeutung erlangt. Vorreiter sind Forschungsinstitute an Hochschulen und in der Industrie, beispielsweise beim Maschienenbauer Trumpf in Mannheim oder dem Chemiekonzern BASF in Ludwigshafen. In die weltweite Top-500-Liste gelangt sind die Universität Paderborn (Platz 355) mit der neuen Siemens-hpcLine (Intel-Prozessoren) und das Institut für Angewandte Mathematik in Bonn mit dem Self-made-Cluster Parnass2 (Platz 362). Bemerkenswert ist die Lösung der GWDG in Göttingen, wo die betreffenden PC tagsüber den Studierenden mit WinNT zur Verfügung stehen und in der Nacht als Linux-Cluster konfiguriert werden.

Beträchtliche Erfahrungen hat man auch an der Universität Mannheim gewonnen, wie ihr Wissenschaftler Heinz Kredel berichtet. Nach seinen Untersuchungen ist die Hardware (CPU, Boards) aus Standardkomponenten bei den in Deutschland installierten Clustern durchweg stabil. Bei der Betriebssoftware dominiert Linux; WinNT dürfte sich nicht durchsetzen. Probleme bereitet noch die Netz-Hardware, die entweder zu hohe Latenzzeiten aufweist oder noch zu teuer ist. Genannt werden vor allem Fast-Ethernet sowie das in der hpcLine verwendete SCI (Scalable Coherent Interface) und Myrinet. Größere Bedeutung könnte nach Kredels Einschätzung das Verbindungsnetzwerk Atoll (Atomic Low Latency) auf der Basis von schnellen Crossbars erlangen, das ab dem Jahr 2000 zur Verfügung stehen soll. Der Atoll-Baustein (Network on an Chip) ist ein von der Universität Mannheim und der PCS System Group von Siemens gemeinsam entwickelter, hochintegrierter Chip für den Aufbau von sehr leistungsfähigen Rechenclustern.

Nach Angaben von Franz-Josef Pfreundt, Wissenschaftler der Universität Kaiserslautern, erreicht die Leistung von PC-Clustern heute die Klasse von Parallelrechnern wie der IBM SP-2. Seine Prognose: Die künftigen technologischen Entwicklungen lassen einen verstärkten Konkurrenzkampf zwischen Self-made-Clustern und den echten Supercomputern erwarten.

KRISTIN MIERZOWSKI