Mit dem Siegeszug der Cloud und dem hohen Anteil an virtualisierten Infrastrukturen ist ein neues Zeitalter der IT bereits Realität. Auch mittelständische Unternehmen schaffen immer häufiger die Basis für eine self-service-orientierte IT in einem Cloud-Modell. Ein in diesem Zusammenhang unterschätztes Thema sind dabei jedoch belastbare IT-Verfügbarkeitsstrategien dieser digitalen Infrastrukturen. Dies hat erneut eine (nicht-repräsentative) Befragung unter 70 bis 120 IT-Entscheidern im Rahmen einer CEMA-Eventserie unterstrichen.
Server-Virtualisierung ist im deutschen Mittelstand gesetzt
Die Server-Virtualisierung bietet Unternehmen eine Menge Vorteile. Von der Konsolidierung ihrer physikalischen Serverlandschaft, der damit einhergehenden Kostenreduzierung über einen besseren Automationsgrad bis hin zu einer vereinfachten Bereitstellung und Verschiebung von Applikationen. Diese Vorzüge sind mittlerweile auch in der ganzen Breite des deutschen Mittelstands angekommen. Jedes der befragten Unternehmen hat mindestens gewisse Bereiche seiner Serverlandschaft virtualisiert. So haben 10 Prozent der Befragten ein Viertel ihrer Server auf eine virtuelle Ebene gehoben. Weitere 50 Prozent berichten von einem Virtualisierungsgrad von 50 Prozent. Rund 40 Prozent sind sogar bereits All-In und haben 100 Prozent ihrer Serverlandschaft virtualisiert.
VMware ist dabei erwartungsgemäß der am weitesten verbreitete Hypervisor. Über 80 Prozent der befragten IT-Entscheider setzen auf vSphere, um ihren physikalischen Servern eine Virtualisierungsschicht zu verpassen. Weit abgeschlagen folgt Microsoft Hyper-V der gerade einmal einen Einsatzgrad von 12 Prozent für sich in Anspruch nehmen darf. Mit rund 5 Prozent hat der Citrix XenServer unter deutschen mittelständischen Unternehmen keine Bedeutung, wenn es um die Virtualisierung ihrer Serverlandschaften geht.
Storage-Virtualisierung ist auf dem Vormarsch
Auch die Virtualisierung der Storage-Infrastruktur birgt für Unternehmen einige Vorzüge. So sorgt eine redundante Verteilung der Speicherkapazitäten zunächst für eine höhere Verfügbarkeit der Daten. Weiterhin lässt sich damit der Auslastungsgrad der physikalischen Storage-Pools optimieren und somit die Nutzung effizienter gestalten.
Im Vergleich zur Server-Virtualisierung findet die Storage-Virtualisierung unter deutschen Mittelständlern noch eine deutlich geringere Verbreitung. Über ein Drittel der befragten Unternehmen geben an, eine virtualisierte Storage-Infrastruktur im Einsatz zu haben. Etwa ein weiteres Drittel setzt noch auf klassische Storage-Architekturen, plant aber mit deren Virtualisierung. Hingegen setzen immer noch 40 Prozent der deutschen mittelständischen IT-Entscheider nicht auf Storage-Virtualisierung.
Der Grund für den im Vergleich zur Server-Virtualisierung geringen Einsatzgrad hängt vermutlich mit den negativen Erfahrungen der vergangenen Jahre zusammen. Das größte Problem der Storage-Virtualisierung bestand in ihrer schlechten Skalierbarkeit. Zwar haben Unternehmen diverse Proof of Concepts gestartet, um anschließend jedoch feststellen zu müssen, dass sich die gewünschte Skalierbarkeit nicht erfüllen lässt und die I/O Performance weit von dem entfernt war, wie es von klassische Storage-Infrastrukturen bekannt war.
Diese Herausforderungen haben die Storage-Anbieter allerdings erkannt und ihre Lösungen über die letzten Jahre immer weiter verbessert. Diese technologische Evolution sowie Best-Practices sorgen nun für eine steigende Adaptionsrate.
Auf die Unternehmen kommt allerdings eine weniger gute Nachricht zu. Das Internet der Dinge, Industrie 4.0 und andere datengetriebene Dienste sorgen für eine Informationsflut, die es zu bewältigen gilt. Es ist daher an der Zeit sich alternative Ansätze zu überlegen, um Herr der Lage zu bleiben und die Kontrolle nicht zu verlieren.
Geht es um den Aufbau belastbarer Storage-Infrastrukturen und damit um einen performanten Transfer der Daten überlassen deutsche Mittelständler nichts dem Zufall. Knapp 40 Prozent setzen auf eine homogene SAN-Infrastruktur (Storage Area Network) basierend auf dem Fibre Channel (FC) Protokoll, dem auf Grund seines vollständig integrierten Ansatzes ein hoher Effizienzgrad nachgesagt wird. Weiterhin lässt sich FC ideal dafür einsetzen, um große Entfernungen mit einer hohen Übertragungsgeschwindigkeit sicherzustellen. Über ein Fünftel der Befragten setzt auf das kostengünstigere iSCSI-Protokoll, das sich immer mehr zu einer echten Alternative beziehungsweise Erweiterung zu Fibre Channel herauskristallisiert. Letzteres zeigen knapp ein Viertel der Unternehmen, die sowohl Fibre Channel als auch iSCISI in ihrer Storage-Infrastruktur verbaut haben. Auf das NFS-Protokoll setzen nur etwa 15 Prozent der deutschen Mittelständler, um damit NAS-Infrastrukturen (Network Attached Storage) aufzubauen und Dateisysteme über das Netzwerk bereitzustellen.
Im Katastrophenfall haben es mittelständische IT-Entscheider schwer
Auf Basis der bestehenden Disaster-Recovery Strategien sollten mittelständischen IT-Entscheidern fest die Daumen gedrückt werden. Denn fast drei Viertel (73,5 Prozent) vernachlässigen ein externes Cloud-basiertes Backup- und Disaster Recovery Management, um ihre Daten für den Katastrophenfall zu schützen und schnell wiederherzustellen. Immerhin sehen 12 Prozent darin eine Option. Nur eine Minderheit von etwa 15 Prozent verfolgt bereits einen modernen Ansatz und realisiert eine Backup-Strategie mit einem lokalen Cloud-Anbieter.
Damit bewegen sich die meisten Unternehmen auf einem sehr dünnen Eis. Denn ein Ausfall der Systeme oder der Verlust geschäftskritischer Daten kann für viele Unternehmen, die heute und zukünftig stark von digitalen Infrastrukturen abhängig sind, existenzbedrohlich werden. Im Ernstfall ist es für die Unternehmen also häufig überlebenswichtig, dass IT-Systeme möglichst schnell wiederhergestellt werden können und sich der Datenverlust dabei auf ein Minimum beschränkt.
Damit ist eine Disaster-Recovery-Strategie basierend auf modernen Back Up und Disaster Recovery-Lösungen eine Grundlage für den Fortbestand der Unternehmen. Diese Systeme werden bereits in verschiedenen Ausführungen hinsichtlich Produktumfang und Deployment-Modell angeboten. Somit können leistungsfähige Lösungen bereits heute lokal und kostengünstig bezogen werden.
Diejenigen, die bereits heute in der Lage sind, solche Katastrophenfälle erfolgreich zu überwinden und Systeme und Daten beinahe in Echtzeit wiederherzustellen, sind offenbar den Konkurrenten weit voraus. Spätestens wenn das Kind in den Brunnen gefallen ist wird sich die Spreu vom Weizen trennen.
Die genutzten Daten wurden auf der Veranstaltungsreihe IT.forum des Systemhauses CEMA erhoben. Maßgeblich wurden CIOs und Systemadministratoren von mittelständischen Unternehmen mit mindestens 200 Mitarbeitern befragt.