Home / Allgemein / Big Data – die Datenflut nutzen für gewinnbringende Datenanalysen und neue adaptive Führungsstrategien

Big Data – die Datenflut nutzen für gewinnbringende Datenanalysen und neue adaptive Führungsstrategien

Big Data – nur ein Hype oder ein Megathema, das die Geschäftswelt und die Gesellschaft verändert? Diesen Fragen ging der Presse-Round-Table „Big Data gleich Big Business“ auf den Grund, zu dem sich eine sechsköpfige Expertenrunde am 6. Juni 2013 in München einfand. Die mit vielen Praxisbeispielen garnierten Beiträge lieferten eine Gesamtschau auf ein facettenreiches Thema – mit Einblicken in neue Geschäftsmodelle, neue Berufsbilder wie das des Data-Scientist, in Infrastruktur- und Datenanalyse-Konzepte sowie in Implikationen auf strategisches Management und das datengetriebene, adaptive Unternehmen.

 Vor zahlreichen IT- und Wirtschaftsjournalisten diskutierten in München IT-Experten der Unternehmen EMC, IBM, Oracle, SAS Deutschland sowie der Software AG aktuelle Entwicklungen rund um den Megatrend Big Data. Die von den Fachjournalisten Christoph Witte und Wolfgang Miedl moderierte Veranstaltung eröffnete Dr. Carlo Velten, Senior Advisor beim Analystenhaus Experton Group mit einem Blick aus der Vogelperspektive. Er konstatierte dabei eine wachsende Bedeutung von Lösungen rund um Datenmanagement und Analyse, die sich auch in Marktzahlen manifestieren. So prognostiziert sein Unternehmen für dieses Jahr mit Big Data ein Umsatzvolumen von 600 Millionen Euro allein in Deutschland. Beispielhaft verwies er auf Wachstumschancen in Sparten wie der Datenauswertung und -veredelung: „Hier florieren inzwischen Startups mit neuartigen Geschäftsmodellen wie Content Mining und Social Media Monitoring, indem sie Stimmungen im Internet in Echtzeit auswerten – basierend auf Daten von Google und anderen Unternehmen.“

Den Big Data-Markt zeichnete der Analyst als Pyramide, an deren Basis sich die Infrastruktur befindet, während sich an der Spitze der Data Scientist als neues Aufgabenprofil konstituiere: „Data Scientists sind Spezialisten, die die neuen Monitoring- und Analyse-Tools beherrschen und aus aggregierten Daten geschäftlich verwertbare Visualisierungen erzeugen“, so Velten. Noch bleiben allerdings viele Potenziale ungenutzt, weil Daten brach liegen und die Unternehmen noch nicht wüssten, wie sie diese nutzenbringend aufbereiten und als Grundlage für Entscheidungen verwenden können.

Bekannte Technologien und neue Arten von Daten

Einig waren sich die Experten ob der positiven Entwicklungsdynamik dieses Marktsegments, die auf der stetig wachsenden Flut an anfallenden Daten basiert. „Mit der zielgerichteten Auswertung von Daten lassen sich neue Geschäftspotentiale und Wachstumschancen erschließen. Das Thema hat Relevanz für die strategische Ausrichtung der Unternehmen“, so Dirk Heitmann, Director Business Analytics bei IBM. Doch mit der Zunahme der Daten allein lasse sich das Phänomen Big Data nicht hinreichend erklären, warf Günther Stürner ein, der als Vice President Sales Consulting bei Oracle Deutschland arbeitet. Viele Algorithmen und Ideen im Umgang mit Datenmassen hätten nämlich  schon vorher existiert. Technologien wie In-Memory für die schnelle Bearbeitung und NoSQL für den Umgang mit unstrukturierten Daten seien keine Revolution.

Was Big Data hingegen so besonders macht, seien Phänomene wie Daten mit sehr geringer Dichte. Darunter zählen  beispielsweise Daten von Sensoren, die zwar auch bisher schon in enormen Mengen angefallen sind, aber erst mit Speicher- und Analysemethoden aus dem Big Data-Arsenal effizient weiterverwendet werden und in Zusammenhang mit bestehenden Daten für neue Erkenntnisse sorgen können. Als weiteres Big-Data-Kriterium gilt die Echtzeitverarbeitung, wie Anton Hofmeier, Vorstandsmitglied der Software AG/Terracotta anhand des Kundenbeispiels Ebay/Paypal erläuterte.

Paypal optimiert Betrugserkennung mit In-Memory

Um Betrugsversuche abzuwehren, überprüfte Paypal in der Vergangenheit während des Bezahl-Vorgangs 50 festgelegte Regeln innerhalb von 650 Millisekunden – völlig unbemerkt vom Benutzer. Nachdem zunehmende Betrugsfälle die Verschärfung der Abwehrmaßnahmen erforderlich machten, baute Paypal diese Kontrollroutinen im Rahmen eines In-Memory Big-Data-Projekts aus. Dabei erreichte der Zahlungsdienstleister eine Steigerung auf 1000 Prüfregeln im selben Sekundenbruchteil – und das in einem Datenpool von bis zu 160 Terabyte.

Dinko Eror, Senior Director Global Services Lead bei EMC, verwies in diesem Zusammenhang auf wichtige Grundlagenentwicklungen im Bereich der Speichersysteme, die mit Techniken wie Deduplizierung erst die Voraussetzungen für das Speichern und Verwalten der riesigen Datenschätze ermöglichen.

Fraport AG kann mit Big Data Fluggastströme prognostizieren

Dass es am Ende auf die Analyse ankommt, um aus dem „Rohstoff Daten“ wertvolle Entscheidungsgrundlagen herauszufiltern, erläuterte Dr. Dirk Mahnkopf, Business Advisor bei SAS Deutschland. Als Praxisbeispiel brachte er den Kunden Fraport AG in Person von Stefan Sabatzki mit in die Runde, der beim Frankfurter Flughafenbetreiber ein Datawarehouse-Projekt umsetzte. Im Zentrum stand hierbei ein sensorbasierendes Überwachungssystem, mit dem der Passagierfluss verbessert und Staus verhindert werden sollen. Auf der Grundlage statistischer Modelle kann die Fraport AG nun mit einer Abweichung  von drei Prozent die Fluggastströme in den Terminals vorhersagen und somit Warteschlangen an allen Abfertigungspunkten weitgehend vermeiden.

Am Ende erörterte die Expertenrunde schließlich noch, in welcher Weise Big Data künftig die Unternehmensführung beeinflussen wird. Noch fehle in den Entscheidungsebenen bisher ein Grundverständnis für das enorme Potenzial von Geschäftsdatenanalysen. Doch die Teilnehmer waren sich einig, dass strategisches Management zukünftig nicht mehr darauf verzichten kann und Entscheidungen zunehmend auf Erkenntnissen aus Datenanalysen fällen wird – mit Unterstützung eines Chief Analytics Officers.

 

Share

Leave a Reply

Your email address will not be published. Required fields are marked *

*