ISC 2010

Cloud-Trend führt Supercomputing zu neuer Blüte

26.04.2010
Von Dr. Horst Gietl
Am 30. Mai 2010 startet in Hamburg zum 25. Mal die International Supercomputing Conference. Cloud Computing und die steigende Datenflut, so kommentiert Horst Gietl für die CW, machen das Thema heißer denn je.

"Jahrelang als akademische Spielwiese abgetan, steht das Supercomputing im Zeitalter der Cloud vor einer Renaissance. Der Einzug von Cluster-Infrastrukturen und Commodity-Prozessoren hat dazu maßgeblich beigetragen.

High-Performance-Computing-(HPC-)Systeme sind nicht mehr die Domäne der Wissenschaftler. Technologiekonzepte wie das Cloud Computing, aber auch die hohen Anforderungen an die IT in fast allen Branchen und Industrien haben zu einem rasant steigenden Interesse beigetragen. Treibender Faktor ist das Bestreben, unternehmenskritische Geschäftsprozesse und Informationen zu digitalisieren. Außerdem gilt es, die immens großen Datenmengen zu verarbeiten, die verschiedene Zukunftstechnologien mit sich bringen.

IT-Manager, die permanent nach der Maxime "Do more with less" zu einem ökonomischen Umgang mit der IT aufgerufen sind, kommen nicht umhin, sich mit HPC zu beschäftigen. Überall dort, wo schnell und zuverlässig fundierte Informationen für die Aufrechterhaltung der Geschäftsprozesse erforderlich sind, beispielsweise im Data-Mining, muss Computerleistung auf hohem Niveau schnellstmöglich verfügbar sein.

HPC-Cluster sind erschwinglich

Dass heute HPC-Lösungen zur Verfügung stehen, die sich einfach und elegant in die bestehende IT-Infrastruktur einbinden lassen, ist den weit verbreiteten Cluster-Architekturen, den Compute- und Storage-Blades sowie der breiten Verfügbarkeit preiswerter Standardprozessoren zu verdanken. Durch den Commodity-Gedanken, der längst auch das Supercomputing beherrscht, sind technologische und finanzielle Bedenken gegen HPC-Konzepte aus dem Weg geräumt. Das Ziel: Komplexe technische Aufgaben müssen einfach und schnell gelöst werden.

Für die Hersteller von Supercomputern ergeben sich damit Möglichkeiten, ihre Kosten für die bisher komplexen HPC-Entwicklungen zu amortisieren und Zugang zu neuen Märkten zu finden. Softwareanbieter haben längst erkannt, dass für sie nicht nur die Top-Supercomputer-Installationen interessant sind, sondern sich ein riesiger Markt kleinerer HPC-Systeme geöffnet hat. Sie müssen einfach bedienbare Plattformen bereitstellen, auf denen parallele Systeme effizient laufen und die auf der Hardware verschiedener Anbieter laufen.

International Supercomputing Conference

Rabatt für Computerwoche-Leser

  • Leser, die vom 30. Mai bis zum 3. Juni beim Supercomputing-Treff in Hamburg dabei sein wollen, erhalten einen Rabatt von 15 Prozent auf die Registrierungsgebühren. Dazu bitte eine E-Mail an registration@supercomp.de mit dem Betreff CW-Rabatt schicken.

  • Auf der International Supercomputing Conference (ISC) treffen sich seit 25 Jahren Experten aus aller Welt. Supercomputer tragen dazu bei, dass die Vision von Sun Microsystems, "das Netzwerk ist der Computer", Wirklichkeit werden könnte - dank der Cloud-Infrastrukturen, die auf Hochleistungs-Computing angewiesen sind.

  • Die ISC hat sich über die Jahre zu einer IT-Kongressmesse entwickelt, die Anwender aus allen Branchen anspricht, sofern deren Rechenbedarf über die Fähigkeiten eines Standardservers hinausgeht.

  • Auf der Agenda stehen Themen aus allen Bereichen der Höchstleistungs-IT von der Produktentwicklung bis zur Klimaforschung, von Pharmaforschung bis Business-Intelligence. Gleichzeitig ist die ISC’10 die größte europäische Ausstellung für HPC-Lösungen aus Hardware, Software, Storage und Networking

Mit solchen Basislösungen lassen sich neue Applikationen schaffen und vorhandene integrieren. Damit steigt die Produktivität der Arbeitsabläufe von der Workstation bis zum HPC-Cluster. Selbst mittelständische Unternehmen, typischerweise nicht mit den üppigsten IT-Budgets ausgestattet, können so hochskalierbare Prozesse schnell und kostengünstig realisieren.

Neue Entwicklungen im Parallel Processing

Viele Softwarehersteller haben in den letzten Jahren gewaltige Anstrengungen unternommen, um Software zu parallelisieren. Ein Ziel war dabei die Verlagerung von Desktop-Lösungen auf HPC-Server, um die Durchlaufzeiten bei Simulationen zu verkürzen. Damit stehen Tools zur Verfügung, mit denen Anwendungen problemlos auf hunderten oder sogar tausenden Prozessorkernen ausgeführt werden können.

Obwohl Cloud Computing heute in erster Linie als Hype erlebt wird, spricht die Tatsache, dass sich große Markt-Player wie IBM, Microsoft, Google oder Amazon intensiv damit beschäftigen, dafür, dass diesem Paradigma die Zukunft gehören wird. Interessant ist, dass die Cloud einen zusätzlichen Zugang zum High Performance Computing bietet. Ein Trend im HPC lautet deshalb "Infrastructure as a Service". Die Benutzer klicken sich mit Hilfe eines Portals in eine Cloud ein und reservieren sich in Minutenschnelle beliebig viele Prozessoren mit einer bestimmten Hardware-Charakteristik oder einer speziellen Software. Indem die Anforderung als auch die Freigabe von Supercomputing-Ressourcen per Knopfdruck möglich wird, fällt eine weitere Hürde." (hv)