Passwort vergessen?  |  Anmelden
 |  Passwort vergessen?  |  Anmelden
Suche

Freitag, 22. März 2019

Memory-Driven Computing

Rechnen inmitten der Datenmassen

Von Ariane Rüdiger | 16. August 2018 | Ausgabe 33

Hewlett Packard Enterprise (HPE) stellt den Speicher ins Zentrum neuer Rechnerarchitekturen.

Bildartikel zu The Machine Research Project 1.jpg
Foto: HPE

The Machine: Das Konzept des Memory-Driven Computing hat HPE mit diesem Projekt erforscht. Jetzt geht es in den Einsatz.

Der Umgang mit den zu erwartenden Datenfluten, die durch die Digitalisierung und Trends wie das Internet der Dinge entstehen, steht im Mittelpunkt der neuen strategischen Ausrichtung von HPE. „75 % der Daten werden in Zukunft am Edge anfallen und müssen auch dort verarbeitet werden“, ist Tom Bradicich, Vice President und General Manager IoT und Converged Edge Systems, überzeugt. „Edge“ meint den Rand des Netzwerks, also etwa die Maschinen, Roboter und Sensoren in der Fabrik. Hier soll noch mehr Intelligenz als bisher Einzug halten, damit die Daten tatsächlich mit vertretbarem zeitlichen und energetischen Aufwand nahe am Ort ihrer Entstehung analysiert werden können.

Dazu soll schon bald ein alter Bekannter beitragen: der Memristor. Das ist ein neuartiger, nichtflüchtiger Speicherbaustein, an dem Hewlett Packard Labs seit vielen Jahren arbeitet. Anders als nomale Speicherzellen können Memristoren auch Werte zwischen 0 und 1 annehmen – ihr Widerstand ändert sich analog zu einem angelegten Magnetfeld. HPEs Memristoren schaffen derzeit 32 unterscheidbare Werte zwischen 0 und 1 (nicht zu verwechseln mit den Qubits im Quantencomputer, die 0 und 1 gleichzeitig darstellen).

Ein solches Bauelement eignet sich besser als die bisherigen Speicherzellen für das Anlernen neuronaler Netze. Mathematisch betrachtet, lernen neuronale Netze durch Operationen, die man als Matrix-Vektor-Multiplikation bezeichnet und die immer wieder durchgeführt werden. Soll ein neuronales Netz, das mit einem optischen Sensor gekoppelt ist, etwa bestimmte Merkmale erkennen, werden zum Anlernen entsprechende Bilder dem neuronalen Netz in möglichst vielen Varianten vorgeführt.

Bei jedem Durchlauf passt sich das neuronale Netz erneut an: Die Wertigkeiten der einzelnen Knoten und Verbindungen ändern sich, bis das Netz die erwünschten Merkmale mit einer ausreichend hohen Wahrscheinlichkeit richtig qualifiziert und sie von anderen belanglosen optischen Inputs unterscheiden kann. Als Hardware nutzte man bislang für den Lernvorgang leistungsfähige grafische Beschleuniger im Rechenzentrum. Das dauerte lange, zudem verbrauchen diese viel Energie – und die ist gerade am Edge häufig rar.

Memristoren, die durch flexibel ansteuerbare Leitungen in Form einer Matrix verbunden sind, können solche neuronale Netze dagegen direkt physisch abbilden und sind daher schneller. Außerdem verbrauchen sie erheblich weniger Strom. Derartige Module bezeichnet man als neuromorphe Beschleuniger. Voraussichtlich wird HPE schon bald Systeme aus der Edgeline-Familie anbieten, die über einen solchen neuromorphen Beschleuniger verfügen.

Für speicherzentrierte Rechner steht das Projekt „The Machine“, das HPE vor rund vier Jahren ankündigte. Dessen Resultate sollen sich demnächst in allen Produkten des Hauses wiederfinden. Ein Beispiel dafür ist Superdome Flex, HPEs erster speicherzentrierter Hochleistungsrechner. Die 64 Intel-Skylake-Prozessoren, die maximal in ein Superdome-Flex-Chassis passen, können sämtlich direkt auf insgesamt 96 TByte Memory zugreifen. Einige Pilotkunden wie das Deutsche Zentrum für Neurodegenerative Erkrankungen (DZNE) oder Travelport, der Betreiber eines großen Reiseportals, haben bereits begonnen, mit dem System zu arbeiten.

Allerdings muss für das speicherzentrierte Rechnen die Software angepasst werden. Schließlich sind die vorhandenen Programme darauf zugeschnitten, dass im Zentrum eines Computers der Prozessor steht, der seinerseits auf den Speicher als nachgeordnete Einheit zugreift. „Doch bei den heutigen Datenmengen ist es einfach nicht mehr sinnvoll, weil es viel zu aufwendig ist, die Daten zum Prozessor zu transportieren. Speicherzentrierte Systeme drehen diese Logik um. Das macht vollkommen neue Herangehensweisen möglich“, erklärt Kirk Bresniker, Chefarchitekt und CTO der Hewlett Packard Labs. Sei der Speicher groß genug, lasse sich auf diese Weise nahezu jede Aufgabe In-Memory und damit viel schneller erledigen.

HPEs Kunden sollen nun die Chance erhalten, erste Erfahrungen mit der speicherzentrierten Arbeitsweise zu machen. Die ersten Daten aus der praktischen Nutzung sind ermutigend. Auf der Cebit, wo HPE und das DZNE ihre Kooperation bezüglich des Superdome Flex bekannt gaben, berichtete das DZNE, dank des neuen Systems habe sich die Analyse von Genominformationen um das 100-Fache beschleunigt.