Home / Allgemein / IT-Trends für 2016: Container, Clouds und „Fast Big Data“

IT-Trends für 2016: Container, Clouds und „Fast Big Data“

Schlüsseltechnologien wie Betriebssystem-Virtualisierung, Big Data und Cloud Computing werden 2016 höhere Reifegrade erreichen, die Unternehmen und IT-Verantwortlichen neue Möglichkeiten zur Digitalisierung eröffnen, aber auch neue Strategien und Investitionen erforderlich machen. Das sind für EMC die wichtigsten IT-Trends des Jahres.

Trend 1: Container erreichen „Enterprise-grade“

„Container-Technologien“ zur Betriebssystem-Virtualisierung wurden ursprünglich für große Internetdienste wie Facebook oder Netflix entwickelt. Doch inzwischen haben sie sich auch als Werkzeuge für das Entwickeln neuer Mobile-Apps, Web- oder Big-Data-Anwendungen bewährt. 2016 könnte das Jahr werden, in dem die Container endlich auch in der Unternehmens-IT Einzug halten – mit neuen Features, die ihren Einsatz mit Geschäftsanwendungen erlauben.

Doch noch stehen dieser Entwicklung laut EMC zwei Hemmnisse entgegen:
Erstens unterstützen Container bisher keine Laufzeit-Persistenz. Falle in der Umgebung etwa eines Social-Media-Dienstes ein einzelner Container aus, werde dieser einfach neu aufgesetzt. Für Geschäftsanwendungen sei es jedoch wichtig, dass Daten im Bedarfsfall umgehend wiederhergestellt werden können.

Um dieses erste Hemmnis zu überwinden, könnten Entwickler Container-Spezifikationen künftig um Enterprise-Grade-Storage-Einheiten erweitern – und diese entweder über bestehende Protokolle oder über neue, Container-spezifische Abstraktionen ansteuern. Das würde die Virtualisierungs-Anwendungen in der Lage versetzen, Laufzeit-Informationen zwischenzeitlich oder dauerhaft zu speichern.

Zweitens werden viele Container-Entwickler während der nächsten Monate fortschrittliche Steuerungs- und Sicherheitskonzepte implementieren. Und die werden den Containern eben jene „Enterprise-IT-Features“ bescheren, die ihnen bisher fehlten: Möglichkeiten zur Validierung, Prüfung oder Sicherheits-Zertifizierung beispielsweise, oder interne Firewalls.

Trend 2: Big Data beschleunigt auf Echtzeit

Auch Big-Data-Analytics-Technologien werden 2016 weiter reifen und ein neues „Zwei-Schichten“-Betriebsmodell hervorbringen: Dessen erste Schicht wird aus „herkömmlichen“ Big-Data-Analytics-Verfahren bestehen, die sehr große Datenmengen zeitverzögert auswerten. In der zweiten Schicht sollen dagegen neue Analytics-Verfahren eingesetzt werden, die verhältnismäßig große Datenmengen mittels In-Memory-Technologie in Echtzeit auswerten. Dabei sollen Technologien wie DSSD, Apache Spark oder GemFire eine Rolle spielen, die der von Hadoop in nichts nachstünden.

Diese „zweite Schicht“ könnte Unternehmen und Behörden neue Möglichkeiten beim Nutzen von „Data Lakes“ erschließen – und beispielsweise Ad-hoc-Auswertungen möglich machen, mit denen die Organisationen schon auf Veränderungen reagieren können, während diese noch passieren. So entstünde ein Höchstmaß an Agilität und Reaktionsvermögen.

Bevor die In-Memory-Analytics-Schicht diese Versprechen wirklich einlösen kann, müssen IT-Verantwortliche jedoch noch zwei Hürden überwinden: Erstens brauchen sie Infrastruktur-Technologien, die genügend Raum und Speicherplatz für große Big-Data-Bestände bieten, sowie einen Plan dafür, wie Daten effizient zwischen Objektspeicher- und In-Memory-Maschinen verschoben werden. Schließlich unterscheidet sich die Arbeitsgeschwindigkeit der beiden Geräte-Arten erheblich, und die zuständigen Systemadministratoren werden den Demarkationspunkt im Auge behalten müssen, damit Daten schnell und transparent hin und her wandern können.

Viele Hersteller entwickeln deshalb bereits neue Objektspeicher, Rack-Scale Flash-Storage oder Technologien, mit denen Anwender beides zu einheitlichen Systemen zusammenzufassen können. Und auch Open-Source-Initiativen arbeiten daran, die Herausforderung der verschiedenen Übertragungsgeschwindigkeiten zu meistern.

Zweitens sollten die Betreiber großer In-Memory-Infrastrukturen diese mit Daten bespielen, die sowohl persistent als auch dynamisch sind. Die Schwierigkeit dabei bestehe darin, dass beim „Persistieren“ von Daten auch alle Fehler mitgespeichert werden, die diese Daten gegebenenfalls haben. Das kann zur Weiterverarbeitung invalider Daten, verfälschten Auswertungen oder gar zu Fehlern in Anwendungen führen. Deshalb dürften 2016 jede Menge Datendienste im „Storage-Stil“ Einzug in In-Memory-Umgebungen halten: Deduplikation, Snapshots, Tiering, Caching, und Replikation sowie die Fähigkeit, den letzten bekannten Status zu speichern, an dem Daten valide waren oder eine Umgebung fehlerfrei.

Trend 3: Enterprise-Clouds werden Workload-spezifisch

Im kommenden Jahr werden viele Unternehmen Cloud-Dienste besser verstehen und einsetzen als bisher. Und einige dürften so weit gehen, einen neuen Cloud-Computing-Ansatz zu verfolgen: Dafür werden sie Cloud-Service-Portfolios nutzen, die jeweils mehrere, für verschiedene Anwendungs-Workloads optimierte Dienste bereitstellen. Also etwa einen Dienst für SAP-Workloads und einen anderen für Mobile Apps.
Momentan suchen IT-Verantwortliche meist noch nach einzelnen Cloud-Services, die alle oder zumindest mehrere Geschäftsanforderungen erfüllen. Doch dieser Ansatz war schon immer zu simpel. Und je weiter sich Cloud-Computing verbreitet, desto deutlicher zeichnen sich vier Arten von Cloud-Diensten ab, zwischen denen IT-Verantwortliche wählen können und sollten:

  • On-Premise Cloud anstelle von Client-Server Computing
  • Hybride Cloud (teils on-, teils off-premise) für Clients und Server
  • On-Premise Cloud für Cloud, Mobile und IoT Technologien
  • Off-Premise Cloud für Cloud, Mobile und IoT Technologien

Diese Methoden eigenen sich entweder dazu, bestehende IT-Investments in die Cloud zu verlagern oder neue Cloud-Services und Infrastrukturen aufzubauen. Organisationen werden Cloud-Strategien benötigen, die alle vier dieser Cloud-Formen berücksichtigen. Wer keinen Plan für alle vier hat, nimmt in Kauf, Workloads auf dafür ungeeigneten Clouds zu betreiben – und entsprechende wirtschaftliche oder regulatorisch-rechtliche Risiken einzugehen.

Derart umfassende Cloud-Strategien werden natürlich nicht ohne die Möglichkeit auskommen, Daten und Workloads sicher und nachvollziehbar zwischen den verschiedenen Clouds hin- und her zu bewegen. Zudem sollten IT-Verantwortliche Off-Premise-Ressourcen natürlich genauso verwalten können wie solche aus dem eigenen Rechenzentrum. Beides ist keineswegs einfach, aber möglich: Technologien wie Cloud Gateways, Cloud-Abstraktionen wie CloudFoundry und Virtustream xStream, Software-definierte Datenreplikation oder Verschlüsselungsdienste machen „Cloud Interworking“ realisierbar.

Trend 4: Unternehmen suchen Cloud-Native-Entwickler

Je mehr Unternehmen dazu übergehen, Clouds nicht mehr nur zu bauen, sondern auch zu nutzen, desto klarer wird: Beim Cloud Computing geht es überwiegend darum, das Entwickeln und Bereitstellen verschiedenster Geschäftsanwendungen zu vereinfachen. Doch das Entwickeln in der Cloud verlangt nach grundsätzlich anderen Fähigkeiten als denen, die bisher für die Anwendungsentwicklung erforderlich waren. Deshalb entsteht in vielen Unternehmen eine „Kompetenzlücke“ – und die kann die Umsetzung von Cloud-Strategien erheblich erschweren.

Das können sich die Unternehmen nicht leisten. Die Fähigkeit, „Cloud-native“-Anwendungen zu entwickeln, dürfte in diesem Jahr zu einem Wettbewerbsvorteil werden, vielleicht sogar zu dem Wettbewerbsvorteil.Deshalb werden Unternehmen ihre Softwareentwicklung im kommenden Jahr entsprechend verändern – entweder durch das Schulen eigener Mitarbeiter oder das Beauftragen externer Entwickler.

Share

Leave a Reply

Your email address will not be published. Required fields are marked *

*