Home / Big Data / Datenanalyse: „Bislang ein Jet, der fährt, statt zu fliegen“

Datenanalyse: „Bislang ein Jet, der fährt, statt zu fliegen“

Machine-gallery-prototype

Ein Protoyp von „the Machine“. Quelle: HP

Das explosionsartige Wachstum von Datenmengen stellt selbst Hochleistungsverfahren wie SAP Hana zur Echtzeit-Analyse vor immer größere Herausforderungen. Der Flaschenhals ist die Hardware, wie auf einer Tagung von Informatikforschern am Hasso-Plattner-Institut (HPI) in Potsdam mitgeteilt wurde.

Deutlich wurde: Blitzschnelle und flexible Big Data-Auswertungen mit der am HPI erforschten und mitentwickelten In-Memory-Technologie wie sie SAP Hana verwendet, stoßen auf Seiten der Hardware mittlerweile auf physikalische Grenzen. Beim Hauptspeicher-Datenmanagement residieren dabei riesige Datenmengen ausschließlich im schnellen Hauptspeicher eines Computers mit vielen Rechenkernen und werden dort mit Hilfe einer speziell organisierten Höchstgeschwindigkeits-Datenbank verarbeitet.

„Derzeit ist die Situation praktisch so, als säße ein Formel-1-Pilot in einem Jet und fährt damit nur, statt abzuheben und rasant zu fliegen“, erklärte HPI-Wissenschaftler Frank Feinbubeder.

Eine völlig neue Hardware muss her

Logische Konsequenz wäre es, die Hardware anders zu bauen. Das sei jedoch schwierig, so ein Wissenschaftler. Hewlett Packard, einer der Ausrüster und Partner des HPI-Spitzenforschungslabors, präsentierte in Potsdam seinen Ansatz für eine völlig neue Computer-Generation mit einer andersartigen Netzwerkarchitektur. Ihr Kernstück: Memristoren, an denen HP bereits seit 2008 experimentiert.

Bei Memristoren handelt es sich um passive Bauelemente, deren Widerstand variabel ist. „Der jeweilige Wert hängt stets davon ab, wie viele Ladungen in welcher Richtung vorher geflossen sind. Auch wenn kein Strom mehr zugeführt wird, bleibt dieser Zustand erhalten“, erklärte HP-Entwickler Axel Simon auf dem Future SOC Lab Day. Die Forscher wollen diese Eigenschaft zum Speichern von Daten und zum Rechnen nutzen.

Closeup of HP's Memristor devices on a 300mm wafer.

Prototypen der Memristoren Quelle: HP

Memristoren verfügen theoretisch über sehr hohe Kapazitäten und extrem schnelle Zugriffszeiten im Nanosekundenbereich. Wermutstropfen: Bislang liegen HP noch keine Muster vor. Laut Simon sollen 2016 erste Bauteile verfügbar sein.

Memristoren sollen auch Eingang in neuartige Prozessoren (Systems-on-Chips, SOC) finden und über „Photonics“, eine serielle optische Verbindung, kommunizieren. So könnten noch gewaltigere Datenmengen blitzschnell ausgewertet werden. Herkömmliche Verbindungen seien dabei nicht praktikabel.

Komplettiert wird das HP-Konzept „The Machine“ durch Moonshot-Systeme. Pro Rack sollen sich so Datenmengen von mehr als 150 Petabyte speichern lassen. Herkömmliche Festplatten fassen nur einen Bruchteil. Angedacht für „The Machine“ soll ein Setting von bis zu acht Racks sein. HP wolle sein neues System in zwei bis drei Jahren zur Marktreife bringen und dann vorstellen, so Simon.

Cloud Computing verbraucht weltweit so viel Strom wie ganzes Land

Mit dieser Struktur auf Memristoren-Basis ließe sich auch extrem viel Energie einsparen. Denn aktuell lasse sich der Energieverbrauch des weltweiten Public Cloud-Computings mit dem ganzer Industriestaaten vergleichen. In einem in Potsdam präsentierten Vergleich rangiert der Energieverbrauch für Cloud-Computing auf dem fünften Platz hinter dem von China, den USA, Russland und Japan.

Share

About Christoph Witte

Christoph Witte arbeitet als IT-Publizist und Kommunikationsberater in München. Seit langem ist er fester Bestandteil der IT-, TK und Online-Community in Deutschland.

Leave a Reply