Passwort vergessen?  | 
 |  Passwort vergessen?  | 
Suche
  • Login
  • Login

Dienstag, 12. Dezember 2017

High-Performance-Computing

Olymp der schnellen Rechner

Von Michael Matzer | 27. Juli 2017 | Ausgabe 30

Hardware wird energieeffizienter und unterstützt zunehmend Methoden der künstlichen Intelligenz. Damit werden immer genauere und vor allem schnellere Simulationen komplexer Vorgänge möglich.

ISC BU
Foto: Boris Lehrner for HLRS

Hazel Hen: Das System am Höchstleistungsrechenzentrum Stuttgart ist durch Kundenaufträge zu 95 % ausgelastet.

Noch immer ist die Top500-Liste der leistungsfähigsten Supercomputer die Messlatte für Erfolge im Hochleistungsrechnen (High-Performance-Computing – HPC). Die zweimal im Jahr erstellte Liste basiert auf einem Leistungstest (Benchmark) namens Linpack. Es gibt aber inzwischen auch andere Maßstäbe, so den HPCG-Benchmark, der sich an typischen Speicheroperationen kommerzieller Software orientiert, oder Green500, bei dem die Rechenleistung pro verbrauchtem Watt gemessen wird.

Zweimal China, einmal Schweiz

In der Spitzengruppe im letzteren Segment ist am meisten Bewegung zu sehen, denn hier spielen die raschen technischen Fortschritte auf dem Gebiet der Rechenbeschleuniger eine gewichtige Rolle: Grafikprozessoren (GPUs), die die Parallelverarbeitung von Daten erleichtern und gleichzeitig geringeren Stromverbrauch als konventionelle Prozessoren haben. Tonangebend im GPU-Markt ist der Hersteller Nvidia. Dessen Tesla-P100-GPU und Prozessoren von Intel haben dem Schweizer Superrechner „Piz Daint“ den nötigen Leistungsschub verliehen, um unter die Top drei zu gelangen (s. Kasten).

Diese Beschleunigung muss sich allerdings auch auf dem Gebiet der Leitungen zwischen Prozessoren, GPUs und dem Speicher widerspiegeln. Seit zwei Jahren erfreut sich Intels Omni-Path-Architektur (OPA) für Netzwerke großer Verbreitung. Sie bietet hohen Datendurchsatz von 100 Gbit/s auf dem PCIe-Bus, geringe Latenzzeiten und niedrigen Stromverbrauch in kompatiblen Geräten. Dieser Erfolg verweist auf ein wachsendes Problem der Hochleistungstechnologie: Das reine Rechnen ist inzwischen meist schnell genug, doch die Verbindung zwischen den einzelnen Komponenten, die noch auf den Standards Ethernet und Infiniband basiert, hinkt hinterher. Der PCIe-Bus 3.0 wurde jahrelang nicht erneuert, erst seit Juni 2017 gibt es neue Spezifikationen. Sie sollen bis 128 Gbit/s im Vollduplexmodus ermöglichen.

Die Suche nach energiesparenden Rechnerarchitekturen in den verschiedenen nationalen und universitären HPC-Projekten hat vor allem einen Grund: den enormen Energieverbrauch, den künftige Systeme haben werden. Angestrebte Rechenleistungen im Exaflops-Maßstab bedeuten Trillionen Rechenoperationen pro Sekunde und einen hohen Kühlungsbedarf. Die Branche bezeichnet dieses Ziel als Exascale. „Solche Systeme haben einen Energiebedarf von 20 MW bis 30 MW“, erläutert Klaus Gottschalk, HPC-Experte bei IBM Deutschland. Dieser Bedarf ist zwar heute schon zu decken, aber zu unvertretbaren Kosten. Gottschalk sieht deshalb eine Exascale-Architektur erst ab dem Jahr 2020 oder gar erst 2023 kommen.

Michael Resch, Leiter des Höchstleistungsrechenzentrums Stuttgart (HLRS) und Vorsitzender des Gauss Centre for Supercomputing, erkennt in dem Exascale-Wettrennen wenig Sinn. Sein Cray-XC40-Superrechner „Hazel Hen“ erbringt zwar 7,42 Petaflops Spitzenleistung, doch die Kundschaft aus Industrie und Wirtschaft, die den Rechner nutzt, wünscht eine reale Leistung, die derzeit bei etwa 1 Petaflops liegt. Verlässlichkeit und Verfügbarkeit sind nach Reschs Ansicht genauso wichtig wie die reine Rechenleistung. Zudem laufen zahlreiche Rechenprojekte gleichzeitig und parallel ab. „Die chinesischen Supercomputer sind nach chinesischen Angaben nur zu 15 % bis 20 % ausgelastet“, hat Resch auf der Internationalen Supercomputing Conference in Frankfurt/M. erfahren. „Unser Hazel Hen ist die ganze Zeit zu ca. 95 % ausgelastet.“

Für HPC gibt es eine Fülle an Einsatzfeldern. Am HLRS ist das vor allem die Materialwissenschaft. Aber auch die Meteorologen profitieren. Um beispielsweise Stürme besser verfolgen oder die Unwetterentstehung vorhersagen zu können, nutzen Experten in den USA Methoden der künstlichen Intelligenz (KI). Die University Corporation for Atmospheric Research (UCAR), das National Center for Atmospheric Research (NCAR) und die IBM-Tochter Weather.com entwickeln ein neues Modell für die globale Wettervorhersage. Datenmengen von bis zu 1 Petabyte werden dabei im Hauptspeicher mit entsprechenden Algorithmen und Modellen verarbeitet. Ziel ist es, Vorhersagen vor allem in immer kleineren Regionen akkurater zu machen. Auch die Simulation des weltweiten Klimawandels lässt sich mit diesen Methoden realisieren, so etwa am Potsdamer Institut für Klimafolgenforschung (PIK).

Speziell für Anwendungen der KI hat Nvidia seine neue V100-GPU entwickelt. Erste Exemplare davon wurden vergangene Woche an 15 KI-Forschungseinrichtungen übergeben. Darunter auch das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI) sowie das Max-Planck-Institut für Intelligente Systeme. Die GPU verfügt über 21 Mrd. Transistoren. An der Princeton University wollen Kernfusionsforscher mit diesen Chips eine Treffsicherheit ihrer Vorhersagen für Störungen im Plasma von bis zu 95 % erzielen. Auch die Nachfrage der Industrie nach KI ist hoch, z. B. für Berechnungen und Simulationen bei der Suche nach Rohstoffquellen wie Öl und Gas.

Während die Hardware signifikante Fortschritte vorweisen kann, muss auch die Software mithalten. Nicht jede Applikation ist für jede HPC-Umgebung geeignet, denn Voraussetzung ist stets die Parallelverarbeitung von Daten in einem Rechencluster. HPC wächst seit 2015 mit der Analyse von Big Data zu HPDA (High Performance Data Analytics) zusammen. Bei HPDA ist die Nutzung von KI-Algorithmen mittlerweile unerlässlich. Im Hinblick auf dieses Einsatzgebiet präsentierte Cray auf der ISC-Konferenz mit Urika-XC eine Analytics-Softwaresuite für Cray-XC-Superrechner.

Die Suite umfasst Werkzeuge für Graphenanalyse, KI-Technologie und Big-Data-Analyse. „So können Analyse- und KI-Workloads parallel zu wissenschaftlichen Modellierungen und Simulationen ausgeführt werden, so dass der Zeit- und Kostenaufwand für die Datenmigration zwischen Systemen entfällt“, so der Hersteller. Zum Einsatz kommt die Lösung bereits auf dem Schweizer System Piz Daint, aber auch am HLRS.

stellenangebote

mehr