Home / Themen / Trends / Trendprognose für 2018: Das Rechenzentrum der 4. Generation kommt

Trendprognose für 2018: Das Rechenzentrum der 4. Generation kommt

Die nächste Generation von Rechenzentren wird nicht mehr auf zentrale, große Einrichtungen beschränkt sein, sondern den Rand von Netzwerken, der immer intelligenter wird und geschäftskritisch ist, nahtlos integrieren. Diese Rechenzentren der 4. Generation sind gegenwärtig im Aufbau und sollen die IT-Netzwerke der 2020er Jahre maßgeblich prägen.

Die Entstehung dieser Edge-abhängigen Infrastruktur zählt zu den fünf wichtigsten Rechenzentrumstrends, die ein globales Expertengremium von Vertiv, ehemals Emerson Network Power, für 2018 identifiziert hat.

„Wachsende Datenmengen – vor allem getrieben durch die Smartphone-Nutzung und das Internet of Things – bringen Unternehmen dazu, ihre IT-Infrastruktur zu überdenken, um den steigenden Anforderungen der Verbraucher gerecht zu werden“, erklärt Giordano Albertazzi, President von Vertiv in Europa, Mittlerer Osten und Afrika. „Auch wenn Unternehmen viele Wege einschlagen können, um diesem Wachstum gerecht zu werden, entscheiden sich doch die meisten IT-Verantwortlichen dafür, die notwendige Infrastruktur näher an den Endnutzer zu rücken – also an den Netzwerkrand. Unabhängig davon, welchen Ansatz Unternehmen wählen: Geschwindigkeit und konsistente Services werden für die Verbraucher entscheidend sein.“

In der Vergangenheit hatte Vertiv Trends rund um die Themen Cloud, integrierte Systeme und Infrastruktursicherheit identifiziert. Für 2018 erwartet das Unternehmen folgende fünf Trends, die das Ökosystem rund um Rechenzentren prägen werden:

1. Entstehung der 4. Rechenzentrumsgeneration:

Ob traditionelle IT-Schränke oder 150 Quadratmeter große Mikro-Rechenzentren: Unternehmen verlassen sich mehr und mehr auf den Netzwerkrand. Rechenzentren der 4. Generation sollen Edge und Core ganzheitlich sowie harmonisch integrieren. Damit seien diese neuen Rechenzentrums-Architekturen weit mehr als einfache und verteilte Netzwerke.

Möglich werde diese Entwicklung durch innovative Architekturen, die Kapazität durch skalierbare, kostengünstige Module nahezu in Echtzeit bereitstellen. Genutzt werden dafür optimierte Kühllösungen und Stromversorgungen mit hoher Dichte sowie Lithium-Ionen-Batterien und innovative Einheiten zur Stromverteilung. Zusätzlich integrieren diese Konzepte modernste Überwachungs- und Management-Technologien, die den gleichzeitigen Betrieb von Hunderten oder gar Tausenden verteilten IT-Knoten erlauben. Dadurch sollen sich komplexe Strukturen auflösen. Latenzzeiten sowie Anschaffungskosten sinken und die Auslastung werde optimiert. Außerdem könnten Unternehmen je nach Bedarf netzwerkbasierte IT-Kapazitäten hinzufügen.

2. Cloud-Anbieter fokussieren auf Colocation:

Die Cloud-Nutzung nehme rasant zu, so dass Cloud-Anbieter oftmals die Nachfrage nach Kapazitäten nicht erfüllen können. Und tatsächlich versuchen es einige auch gar nicht erst, so Vertiv. Sie konzentrieren sich auf die Bereitstellung von Services und andere Prioritäten, anstatt neue Rechenzentren zu bauen. Unterkapazitäten gleichen sie über die Angebote von Colocation-Providern aus.

Mit ihrem Fokus auf Effizienz und Skalierbarkeit könnten Colocation-Anbieter hingegen dem zunehmenden Bedarf an Rechenzentrumskapazität schnell nachkommen und gleichzeitig die Kosten weiter senken. Die zunehmende Verbreitung von Colocation-Standorten gebe Cloud-Anbietern die Möglichkeit, Colocation-Partner an Standorten auszuwählen, die am besten zum Bedarf ihrer Endverbraucher passen und Edge-Computing ermöglichen. Die Colocation-Anbieter reagieren auf diesen Bedarf, indem sie Teile ihrer Rechenzentren für Cloud-Services bereitstellen oder ganze maßgeschneiderte Einrichtungen anbieten.

3. Neukonfiguration der Rechenzentrums-Mittelklasse:

Es sei kein Geheimnis, dass das größte Wachstum im Rechenzentrumsmarkt im Hyperscale-Umfeld – in der Regel Cloud- oder Colocation-Anbieter – und beim Edge-Computing erfolgen werde. Mit dem Wachstum der Colocation- und Cloud-Ressourcen haben die Betreiber traditioneller Rechenzentren nun die Chance, ihre Einrichtungen und Ressourcen, die wichtig für den lokalen Betrieb sind, neu zu strukturieren und zu konfigurieren.

Unternehmen mit mehreren Rechenzentren werden den Konsolidierungsprozess ihrer internen IT-Ressourcen fortsetzen. Laut Vertiv werden sie wahrscheinlich  alle Möglichkeiten zur Auslagerung in die Cloud oder zu Colocation-Anbietern nutzen und eigene Infrastrukturen verkleinern. Und sie werden auf Konfigurationen setzen, die sich schnell implementieren lassen und kurzfristig skalierbar sind. Diese neuen Einrichtungen werden kleiner, aber effizienter und sicherer sein – bei gleichzeitig hoher Verfügbarkeit. Das entspreche dem äußerst kritischen Charakter der Daten, die diese Unternehmen schützen wollen.

In Teilen der Welt werde sich Cloud und Colocation langsamer durchsetzen. Hier seien hybride Cloud-Architekturen der nächste Schritt. Sie kombinieren sicher eigene IT-Ressourcen im Interesse von Kosten- und Risikominimierung mit einer privaten oder öffentlichen Cloud.

4. High-Density kommt (endlich):

Die Rechenzentrums-Community hat schon seit einem Jahrzehnt eine erhebliche Zunahme bei der Leistungsdichte im Rack prognostiziert, doch diese Steigerungen erfolgten bisher bestenfalls in kleinen Schritten. Das soll sich jetzt ändern. Zwar bleiben Dichten unter 10 kW pro Rack der Standard, aber in Hyperscale-Einrichtungen seien inzwischen 15 kW keine Seltenheit mehr bzw. nähern sich einige sogar 25 kW.

Warum jetzt? Haupttreiber sei die Einführung und starke Verbreitung von hyper-konvergenten Computing-Systemen. Colocation-Anbieter legen natürlich besonderen Wert auf den verfügbaren Platz in ihren Einrichtungen und hohe Rackdichten bedeuten höhere Erträge, so Vertiv. Fortschritte bei der Energieeinsparung durch neue Server- und Chiptechnologien könnten das unausweichliche Vordringen von High-Density nur etwas verzögern. Es gebe aber gute Gründe zur Annahme, dass eine Mainstream-Bewegung in Richtung höherer Dichten eher einem langsamen Marsch als einem Sprint gleichen wird. Deutlich höhere Dichten könnten den Formfaktor von Rechenzentren grundlegend ändern – von der Stromversorgungsinfrastruktur bis hin zur Art und Weise, wie Unternehmen die High-Density-Umgebungen kühlen. High-Density sei im Kommen – aber wohl eher gegen Ende 2018 und danach.

5. Die Welt reagiert auf Edge-Computing:

Mehr und mehr Unternehmen verlagern ihre Rechenkapazitäten an den Rand ihrer Netzwerke. Daher sei eine kritische Bewertung der Einrichtungen, in denen Edge-Ressourcen untergebracht sind, sowie der Sicherheit und des Eigentums der dort vorhandenen Daten erforderlich. Dies umfasse nicht nur die physikalische und mechanische Struktur, die Bauweise und Sicherheit von Edge-Einrichtungen, sondern auch komplexere Fragen im Zusammenhang mit den Eigentumsrechten an den Daten. Regierungen und Aufsichtsbehörden weltweit seien hier zunehmend gefordert, sich dieser Herausforderungen anzunehmen und zu handeln.

Daten für Analysezwecke durch die ganze Welt in die Cloud und wieder zurück zu transportieren, dauere viel zu lange und ist zu umständlich. Daher seien immer mehr Daten-Cluster und Analysefunktionen direkt am Edge angesiedelt – einem Edge, das sich oft an ganz anderen Orten oder in ganz anderen Ländern befinde, als der Stammsitz des Unternehmens. Wer ist dann Eigentümer dieser Daten und was darf dort mit ihnen gemacht werden? Die Debatte darüber ist im Gange und 2018 sollen dieser Diskussion Antworten und Maßnahmen folgen.

Share

Leave a Reply