ISC 2015

High Performance Computing im Umbruch

22.07.2015
Von 
Bernhard Haluschak war bis Anfang 2019 Redakteur bei der IDG Business Media GmbH. Der Dipl. Ing. FH der Elektrotechnik / Informationsverarbeitung blickt auf langjährige Erfahrungen im Server-, Storage- und Netzwerk-Umfeld und im Bereich neuer Technologien zurück. Vor seiner Fachredakteurslaufbahn arbeitete er in Entwicklungslabors, in der Qualitätssicherung sowie als Laboringenieur in namhaften Unternehmen.
Die Supercomputing-Branche erfreut sich durch Big Data und Data Analytics wachsender Beliebtheit. So steigt die Nachfrage nach "kleinen" und leistungsfähigen Rechnern stetig an. Dagegen stagniert der Bau neuer Großcomputer.

Auf der International Supercomputing Conference (ISC) 2015 in Frankfurt haben sich Experten aus aller Welt zum Stelldichein getroffen, um Neuigkeiten aus dem High-Performance-Computing-Bereich auszutauschen und zu diskutieren. Die Veranstaltung eröffneten Martin und Thomas Meuer, die Söhne des Mannheimer Informatikers Prof. Dr. Hans Meuer, der im Januar 2014 verstarb und der Mitschöpfer der Top500-Liste der Supercomputer gilt. Die 45. Top500-Liste zeigte auf den ersten 10 Plätzen nur wenige Veränderungen. Lediglich ein neuer Superrechner, der Shaheen II aus Saudi Arabien auf Basis von Cray-XC40-Hardware, konnte sich auf einem 7. Platz schieben.

Interessant sind aber die Platzierungen dahinter. So ist Deutschland unter den Top10 zwar nur mit dem JUQUEEN - BLUEGENE/Q-Superrechner von IBM auf dem neunten Platz vertreten, doch insgesamt hat sich die Anzahl der Supercomputer-Projekte in der Top500-Liste von 26 auf 37 seit den letzten sechs Monaten erhöht. Überwiegen nutzen die Betreiber diese Anlagen für akademische Belange und zu Forschungszwecken. Allerdings offenbart die Analyse, dass die Industrie mehr und mehr Interesse an solchen Hochleistungsrechner findet.

So zeigte der Automobilhersteller Mercedes-Benz in einer Konferenz-Keynote, in Vertretung von Jürgen Köhler (RD/FNB, Mercedes Benz Cars Develeopment, Daimler), wie High Performance Computing die Automobilentwicklung beeinflusst. Neben Crash-Simulationen nutzen die Autobauer HPC zur Analyse von Materialeigenschaften bei bestimmten Umwelteinflüssen beziehungsweise Fahrsituationen in Bezug zum Beispiel auf Temperatur und Materialbelastung. Mit der Verwendung von HPC-Technologie erhoffen sich die Autobauer ein tieferes Verständnis für komplexe Systeme sowie die Reduzierung des Prototypenbaus und weniger Prototypentests. Damit einhergehend natürlich einen kürzeren Entwicklungsprozess für neue Automodelle und damit verbunden eine Kostenreduktion beim Endprodukt.

Im Zuge von Big Data inklusive Data Analytics, Industrie 4.0 und Internet of Things steigt das Interesse der Industrie an maßgeschneiderten HPC-Systemen. Sie sollen die Unmengen von Daten in Echtzeit ordnen und analysieren, um somit das Unternehmensbusiness zu optimieren oder gegebenenfalls neue Businessmodelle zu kreieren.

Know-how bündeln

Um diesen Anforderungen gerecht zu werden und sowohl kleine und große Unternehmen High Performance Computing schmackhafter zu machen, haben sich die großen HPC-Anbieter auf der ISC 2015 in Frankfurt zu Allianzen formiert.

Im sogenannten Center of Excellence (CoE) in Houston / Texas wollen künftig HP und Intel interessierten Unternehmen Entwicklungs- und Planungshilfen für HPC-Anwendungen zur Verfügung stellen. Darüber hinaus beabsichtigen die Partner, das bestehende europäische Entwicklungszentrum in Grenoble weiter auszubauen.

Eine Grundlage dieser Kooperation bildet das HPC System Framework von Intel, das in das HPC Solutions Framework von HP zum Einsatz kommen soll. Damit sollen besonders Industrieunternehmen aus den Bereichen Finanzdienstleistungen, Oil- und Gaswirtschaft oder Gesundheitswesen für den Einsatz von HPC-Systemen gewonnen werden. HP bietet hierfür seine Apollo-Systeme an, die mit Intels kommender Co-Prozessorarchitektur Xeon Phi (Codename: Knights Landing) ausgestatten sind, Als Bindeglied der Supercomputing-Knoten kommt Intels Omni-Path-Archtektur zum Einsatz. Zudem sollen die Systeme das parallel arbeitende File-System Lustre Enterprise Edition nutzen. Darüber hinaus präsentiert Intel die Omni-Path Architecture 100 Series. Die Next Generation Fabric soll besonders durch seine hohe Message Rate und geringe Latenzzeit beindrucken. Das Produkt kommt in den Ausführungen als Host Fabric Adapter oder Switch zum Einsatz.

Auch IBM und Nvidia gaben bekannt, dass sie ein Centers of Excellence im Lawrence Livermore National Laboratory und im Oak Ridge National Laboratory in den USA aufbauen. Auf Basis der für 2017 geplanten HPC-Systeme Summit und Sierra sollen in den Zentren, dann die Rechenleistung für wissenschaftliche und technische Zwecke genutzt werden. Der operative Betrieb soll allerdings erst 2018 aufgenommen werden.

Die Technologie der beiden Supercomputersysteme basiert auf IBMs-Power-Prozessoren in Verbindung mit Nvidias Tesla GPU und dem Hochgeschwindigkeits-Interconnect NVLink. Auch Mellanoxs EDR 100 GBit/s InfiniBand-System-Interconnect kommt zum Tragen.

Auch der Supercomputerbauer Cray versucht, sein Know-how der industriellen Klientel schmackhaft zu machen. So bietet das Unternehmen nicht nur spezielle hochperformante Hardwarean an wie die XC- oder CS-Serie, sondern auch spezielle Analysesoftware. Sie sammelt Daten im "Internet of Things" über spezielle Sensoren, formt diese zu Echtzeit-Daten-Streams und leitet diese über eine Data-Exchange-Engine weiter zu einer grafischen Analyseeinheit. Dort werden die Daten ausgewertet und für den Anwender visualisiert. Auf Basis dieser Ergebnisse können die Firmen dann zum Beispiel ihr Business an die veränderte Marktlage anpassen.

Fazit: Durch die steigende Datenflut (Big Data) in Verbindung mit Data Analytics sind leistungsfähige Rechnersysteme gefragt. Dabei müssen sie individuell auf die entsprechenden Bedürfnisse des Unternehmens anpassbar sein und gute Skalierfähigkeit besitzen. (hal)