Passwort vergessen?  | 
 |  Passwort vergessen?  | 
Suche
  • Login
  • Login

Donnerstag, 14. Dezember 2017

IT-Sicherheit

Big Data lässt Anwender im Speicher nach Bytes suchen

Von Michael Matzer | 18. Oktober 2013 | Ausgabe 42

Mit Big Data sehen sich täglich immer mehr Anwender konfrontiert, sie müssen aber dennoch ihre Daten zuverlässig sichern. Herkömmliche Backup-Software stößt längst an ihre Grenzen. Nun erlauben Technologien wie Snapshots, Replikation und Objektspeicher die Sicherung und Wiederherstellung größter Datenmengen.

A42 S10 UA Zitat

Unternehmen, die zur Sicherung und Wiederherstellung ihrer Daten verpflichtet sind, haben zunehmend mit der anschwellenden Datenflut zu kämpfen. "Um 30 % bis 50 % nimmt der Datenbestand pro Jahr zu", weiß Mario Werner, Sales Manager beim Hersteller SyncSort.

Betroffen sind in erster Linie "Unternehmen der Finanzindustrie, Handelsunternehmen und Provider von Cloud-Diensten", weiß Heiko Wüst, Sales Engineer bei Speicherspezialist Nexenta Systems. "Also Unternehmen, die große Datenmengen im Petabyte-Bereich entweder selbst verwalten oder als Cloud-Dienst nutzen. Ihr Problem besteht darin, dass sie zwar Millionen von Dateien über Nacht sichern können, aber im Bedarfsfall deren Wiederherstellung nicht ebenso schnell schaffen." Ein unerwartetes Desaster könne sehr hohe Kosten nach sich ziehen.

Längst haben sich deshalb in Produkten für die Datensicherung Techniken durchgesetzt, mit deren Hilfe sich der Datenumfang reduzieren lässt. Dazu gehören Deduplizierung, um Dubletten zu eliminieren, und Kompression, also Verdichtung. Auch durch Ersetzen langsamer Trägermedien durch schnellere lässt sich der Vorgang beschleunigen.

"Allein die Suche nach den wiederherzustellenden Dateien und großen Katalogen kann auf langsamen Datenträgern Stunden dauern", warnt André Triebel, Business Solutions Consultant des Netzbetreibers und Cloud-Service-Anbieters Interoute. Ein weiterer Flaschenhals ist das lokale Netzwerk, das mitunter über geringe Bandbreite verfügt und nur wenig skaliert.

Zwei Methoden der Sicherung erfreuen sich bei den IT-Experten zunehmender Beliebtheit. Durch Snapshot-Technologie lässt sich die Sicherung größerer Dateien vermeiden und eine zeitnahe Wiederherstellung realisieren. Die Software legt sozusagen laufend Updates eines Schnappschusses des Gesamtsystems an. Die andere Methode sind redundante Systeme. Ein ganzes Rechenzentrum lässt sich in einem nicht allzu weit entfernten Rechenzentrum spiegeln; die Daten werden durch stetige Replikation auf dem neuesten Stand gehalten. Dieser Mini-Cluster, der der Ausfallsicherheit dient, ist für Rechenzentren von Banken gesetzlich vorgeschrieben.

Das eigentliche Problem besteht jedoch nicht in der Sicherung, sondern der Wiederstellung. Um Fehler in der Software oder bei der Bedienung rückgängig machen zu können, können leistungsfähige Speicherprodukte zwar schnell eine Wiederherstellung des vorherigen Zustands gewährleisten. Aber je größer und heterogener die Speicher-Infrastruktur, desto aufwendiger ihre Verwaltung.

Heiko Wüst befürwortet den Einsatz des "relativ neuen Dateisystems ZFS, das zahllose Vorteile vor herkömmlichen Dateisystemen hat, beispielsweise was Datenintegrität, Komprimierung und Snapshots angeht". ZFS-basierende Produkte erlauben die Verwendung von preisgünstiger Standardhardware ohne Herstellerbindung. Auch Konzepte für "Unified Storage" sind für ZFS kein Problem. Außerdem werden immer mehr Lösungen entwickelt, die auf dem quelloffenen ZFS basieren, darunter NexentaStor, FreeBSD und FreeNAS.

Mit Objektspeicher ist eine weitere neue Technologie im Kommen, die führende Speicher-Hersteller wie NetApp, Nexenta oder EMC unterstützen. "Statt Dateinamen und Freigabenamen zu vergeben, wird nur ein Inventarname in einem Katalog angelegt", erläutert Alexander Wallner, Area Vice President Central EMEA NetApp. "Die Aufnahme der Objekte kann über Unix- und Windows-Filesysteme in einem Speicher Grid, also einem Cluster im Petabyte-Bereich, erfolgen." Dann könne der Nutzer Klassen von Objekten anlegen und jeder Klasse eine Behandlungsregel zuweisen.

"Im Katalog der Objekte", so Wallner weiter, "kann der Nutzer mithilfe einer leistungsfähigen Suchfunktion das Objekt leicht wiederfinden und es durch Zurückholen wiederherstellen – das macht Backup überflüssig."

Wichtig seien jedoch offene Standards für die Integration und Interoperabilität anderer Kataloge. "Wir können Meta-Index-Suchmaschinen leicht anbinden", versichert Wallner. Darüber hinaus sorge seine Storage-Grid-Software dafür, Daten und Objekte Policy-basiert und vollautomatisiert dorthin zu verlagern, wo der Nutzer sie haben möchte.

Wallner sieht großen Bedarf an solchen Objektspeichern überall dort, wo ein Content Repository wichtiges und vertrauliches Bild- und Dokumentenmaterial in großem Umfang verwaltet. So setzen etwa die Universitätskliniken von North Carolina bereits ein Storage Grid, also die Infrastruktur eines Objektspeichers, zur Sicherung ihrer zahlreichen Röntgenaufnahmen von Patienten ein.

"Das massive Wachstum beim Internet der Dinge (Smart Devices, Remote-Sensoren) und bei mobilen Geräten wird zu einer starken Zunahme des Objekt Storage führen", ist sich Jay Kidd, Cheftechnologe von NetApp, sicher.

"Wir stehen hier gerade am Anfang eines neuen Konzeptes mit ersten Implementierungen", resümiert André Triebel von Interoute. "Bis sich der komplette Paradigmenwechsel zum Objekt-Storage in der Praxis etabliert hat, wird noch eine Weile vergehen. Es ist aber gut möglich, dass dafür gesetzliche Vorgaben geändert werden müssen." 
  MICHAEL MATZER

stellenangebote

mehr