Home / Themen / Analysen / Datenspeicherung im Data Center: Klassisch liegt vor Advanced

Datenspeicherung im Data Center: Klassisch liegt vor Advanced

Datenverarbeitung, -speicherung und -archivierung sind zentrale Kerndisziplinen eines Rechenzentrums. Vom klassischen Fileserver bis hin zu fortgeschrittenen hybriden Speichersystemen gibt es viele verschiedene Storage-Konzepte. Bei innovativen Speichertechnologien wie All-Flash-Arrays und hybriden Flash-HDD-Speichersystemen sind viele Rechenzentrumsbetreiber noch verhalten. Das ergab die Studie Optimized Data Center.

0846463

Für die Erfüllung der Aufgaben eines Rechenzentrums ist es nötig, dass alle Elemente der IT-Infrastruktur aufeinander abgestimmt sind. Ein mögliches Nadelöhr ist hierbei die Datenspeicherung. Einige Systeme verarbeiten Daten deutlich schneller, als sie über herkömmliche Datenspeicher gespeichert oder zur Verfügung gestellt werden können und auch die Datenmengen steigen rasant an. Bei der Wahl kommt es dann letztendlich auch wieder auf den Spagat zwischen Funktionalität und Kosten an.

Ein wichtiger Punkt ist die heute absolut notwendige dauerhafte Verfügbarkeit von Daten und Datenverarbeitung, ohne die kaum noch ein Unternehmen seinen Geschäftsalltag bestreiten kann. Knapp die Hälfte alle RZ-Betreiber sei sehr zufrieden mit der Bereitstellung von hochverfügbarem Speicher und nur wenig schlechter werde die Beschaffung von neuen Speicherelementen umgesetzt. Schlechter sehe es hingegen beim Austausch von veraltetem Storage aus, was die Klassifizierung, Lokalisierung und den eigentlichen Austausch der Storage-Hardware umfasst.

Verhaltene Bewertung fortgeschrittener Storage-Konzepte

Was die innovativen Speichertechnologien angeht, seien noch viele Rechenzentrumsbetreiber verhalten. Nur wenige RZ-Betreiber messen All-Flash-Arrays und hybriden Flash-HDD-Speichersystemen bereits eine große Bedeutung zu und dementsprechend sind diese auch eher selten gut umgesetzt. Das gelte auch für die Storage-Virtualisierung, die die geringste Relevanz-Bewertung erhält.

Wichtiger sind den Betreibern die Kosten, was sich in den relevanter eingeschätzten Aspekten kosteneffiziente Speicherung kalter (d.h. selten genutzter/veränderter) Daten und Auto-Tiering widerspiegelt. Mögliche Lösungen zur Kosteneinsparung hängen allerdings oftmals mit der Virtualisierung von Storage zusammen.

Archivierung erfolgt meist klassisch auf Festplatte oder Bandspeicher

Die (vorerst) letzte Station von Daten ist die Archivierung. Auch diese ist von Bedeutung, weil im Nachhinein oftmals doch noch auf archivierte Daten zugegriffen werden muss und weil es für viele Dokumente gesetzliche Aufbewahrungspflichten gibt, die es einzuhalten gilt. Hier gibt es also nicht nur Anforderungen an den gelegentlichen Zugriff, sondern auch an die Sicherstellung der Existenz. Entsprechend gut wird diese Aufgabe umgesetzt; bei nahezu der Hälfte der Unternehmen gut oder sehr gut, nur etwa elf Prozent äußern eine mangelhafte Umsetzung der Datenarchivierung.

Interessant ist auch das gegenwärtige Vorgehen bei der Archivierung in Data Centern. Es gibt zum einen die Möglichkeit die Archivierung intern oder extern zu lokalisieren und zum anderen die Wahl des Mediums, die meist zwischen Festplatten oder Bandspeichern ausfällt – wobei sich die Geister scheiden, welche Technologie nun besser sei (u.A. bezogen auf RTO, RPO, Gesamtkosten).

Die meisten Unternehmen haben unterschiedliche Technologien parallel im Einsatz – das gilt insbesondere für eine steigende Unternehmensgröße. Das kann zum einen die Kombination zwischen Festplatten und Bandspeichern sein, um die Anforderungen an Zugriff und Archivierungsdauer bestmöglich mit den Kosten zu vereinbaren. Oder die Kombination von interner und externer Speicherung, um möglicherweise nicht ausreichende interne Kompetenzen durch spezielles Expertenknowhow eines Dienstleisters zu ergänzen.

Ein großer Teil der Unternehmen setzt auf Festplatten, die im Falle von großen HDDs bereits einen Kompromiss zwischen Kosten und Geschwindigkeit darstellen. Größere Unsicherheit gibt es noch bezüglich externer Speicherung. Online-Archivierungslösungen werden tendenziell eher von kleineren Betreibern genutzt, externe Archivierungsdienstleister tendenziell eher von größeren.

Optimized Data Center Benchmark Tool

Optimized Data Center verfolgt das Ziel, Server- und Rechenzentrumsbetreiber aller Größenklassen zu unterstützen, indem es für einen ganzheitlichen Überblick über das eigene Rechenzentrum sorgt. Rund 160 verschiedene Gesichtspunkte aus den Bereichen Rechenzentrumsbetrieb, physische und virtuelle IT-Infrastruktur, Gebäudeinfrastruktur und externen Anbindung können dafür strukturiert im Onlinetool evaluiert und anschließend detailliert ausgewertet werden. Die verschiedenen Angaben werden zu vergleichbaren Indizes aggregiert, die verschiedenen Referenzen wie der Größenklasse, dem Geschäftsmodell oder der Branche gegenübergestellt werden können.

Die Studie wurde von der techconsult GmbH in Zusammenarbeit mit iX und Partnern aus der Anbieterlandschaft für Rechenzentrumslösungen erstellt. So trugen Microsoft, Schneider Electric und ITENOS wertvolles Wissen rund um ihre jeweiligen Kernkompetenzen bei.

 

Share

Leave a Reply