Passwort vergessen?  | 
 |  Passwort vergessen?  | 
Suche
  • Login
  • Login

Donnerstag, 12. Oktober 2017, Ausgabe Nr. 41

Donnerstag, 12. Oktober 2017, Ausgabe Nr. 41

Neue Rechnerarchitekturen

Rechnen mit Speicher und Quanten

Von Jens D. Billerbeck | 1. Juni 2017 | Ausgabe 22

Hewlett Packard Enterprise will mit „The Machine“ den Speicher in den Mittelpunkt stellen. Und die Protagonisten des Quantencomputers wollen Probleme lösen, an denen klassische Rechner scheitern.

neumann bu2
Foto: J. D. Billerbeck

The Machine: Auf der Cebit zeigte HPE an seinem Messestand diesen Prototypen des neuen Rechnerkonzepts, bei dem der universelle Arbeitsspeicher im Mittelpunkt steht.

Auf der Suche nach neuen Computerarchitekturen gab es in den vergangenen Tagen gleich auf zwei Baustellen Neues zu vermelden: Hewlett Packard Enterprise (HPE) stellte den neuesten Meilenstein seines Forschungsprojekts „The Machine“ vor. Und IBM vermeldete den erfolgreichen Test der bislang leistungsstärksten universellen Quantenprozessoren des Unternehmens.

The Machine – der Speicher im Mittelpunkt. Meg Whitman, CEO von HPE, nennt das Ziel: „Wir brauchen einen Computer, der speziell für das Zeitalter von Big Data erschaffen wurde.“ Das Konzept hinter The Machine heißt „Memory-Driven Computing“. Dabei steht der Arbeitsspeicher im Zentrum der Rechnerarchitektur und nicht – wie bisher – der Prozessor. So lassen sich Ineffizienzen in der Interaktion zwischen Arbeitsspeicher, Plattenspeicher und Prozessoren vermeiden. Mark Potter, CTO von HPE und Director der Hewlett Packard Labs: „Die Architektur, die wir vorgestellt haben, kann in jeder Rechnerkategorie eingesetzt werden – von intelligenten Geräten im Internet der Dinge bis hin zum Supercomputer.“

Der aktuelle Prototyp basiert auf 160 TByte Speicher, der über 40 physische Rechnerknoten verteilt ist. Im Endausbau soll die maximale Speicherkapazität bei mehreren Exabytes liegen können. Ein Hochleistungsnetzwerk auf Basis optischer Verbindungen stellt sicher, dass jeder Prozessor auf den Speicher gleichberechtigt zugreifen kann. Das Ganze wird von einem Linux-basierten Betriebssystem gesteuert. Zudem existieren Softwarewerkzeuge, um die Vorteile des künftig im Überfluss vorhandenen nichtflüchtigen Arbeitsspeichers voll auszuschöpfen. Denn das ist ein weiterer Unterschied zu heutigen Computern: Der Arbeitsspeicher hält seine Daten auch nach dem Ausschalten. Das von HP entwickelte Prinzip des Memristors, eines auf veränderten Widerstandswerten beruhenden Speicherprinzips, wird derzeit vom Speicherspezialisten Western Digital als Resistive Ram (ReRam) entwickelt.

Analysten sind, was die Perspektiven von The Machine angeht, optimistisch gestimmt: „HP stellt die bisherigen Computerstrukturen auf den Kopf; die Systeme sind jetzt speichergesteuert, ein Ansatz, mit dem sich schlagartig viele Probleme leichter lösen lassen“, sagt Gartner-Analyst Chirag Dekate. Bei Forrester sieht man es ähnlich. „Es gibt einen unendlichen Vorrat an bislang ungelösten Problemen, die mit dem neuen System angegangen werden könnten“, sagt deren Analyst Richard Fischera. Doch das ist alles noch etwas Zukunftsmusik. Laut HPEs Projektleiter Sharad Singhal wird es noch fünf Jahre dauern, bis marktreife Systeme verfügbar sind.

Noch länger wird es möglicherweise dauern, bis eine weitere Computerinnovation in breiter Front praktisch eingesetzt wird: der Quantencomputer. Geforscht wird an diesem neuen Rechnerprinzip an vielen Hochschulen und Forschungseinrichtungen weltweit. Und auch die Großen der IT wie Google, Microsoft oder IBM arbeiten daran.

Foto: J. D. Billerbeck

Quantenbits: Auf Platinen wie dieser realisiert IBM seine Qubits, die dann bis fast auf den absoluten Nullpunkt gekühlt werden müssen.

Jeder heutige Computer rechnet mit Bits, den kleinsten Informationseinheiten, die entweder die Werte 0 oder 1 annehmen. In der Welt der Quantencomputer wird mit sogenannten Qubits gerechnet. Solche Qubits können nicht nur die Werte 1 und 0 annehmen, sondern auch beide Werte gleichzeitig. Zudem können weit entfernte Qubits gekoppelt sein.

Das Ganze ist wenig anschaulich, aber Protagonisten des Quantencomputers setzen große Erwartungen in das Prinzip, das zukünftig Berechnungen über riesige Datenmengen erlauben soll. Um z. B. alle Zustände zu speichern, die nur 64 Qubit gleichzeitig annehmen können, braucht es laut IBM-Forscher Stefan Filipp 74 Exabyte an Speicher. Bei IBM sieht man zukünftige Anwendungen von Quantencomputern z. B. in der Prozessoptimierungen, bei Finanzmodellen und Risikoanalysen, in Simulationen, in den Materialwissenschaften und der Chemie sowie bei der quantenbasierten Verschlüsselung.

Bisher hatte IBM einen Quantenprozessor mit 5 Qubit im Einsatz, mit dem Algorithmen entwickelt und getestet wurden. Jetzt stehen zwei neue Prozessoren mit 16 Qubit bzw. 17 Qubit zur Verfügung. Auf ersteren können Entwickler, Programmierer und Forscher kostenlos zugreifen, um Quantenalgorithmen auszutesten und Experimente durchzuführen. Der zweite ist ein Prototyp eines kommerziellen Prozessors und soll den Kern der ersten kommerziell verfügbaren IBM-Q-Systeme bilden.

Aktuelle Entwicklungen rund um den Quantencomputer präsentiert die Konferenz „Die Quanten kommen“ des News-Portals Golem am 23. Juni in Berlin. http://www.golem.de/g20j/

stellenangebote

mehr