Home / Allgemein / Mit Künstlicher Intelligenz die enormen Datenmengen kosteneffzient verarbeiten

Mit Künstlicher Intelligenz die enormen Datenmengen kosteneffzient verarbeiten

Seit zwei Jahren ist Künstliche Intelligenz das Top-Thema der digitalen Elite und der Venture Capitalists im Silicon Valley. Was ist der Grund für das Comeback? Welchen Einfluss wird das Thema Machine Learning für die IT- und Digitalisierungsstrategien der Unternehmen in den kommenden 2-5 Jahren haben?

15_11_26 Carlo Velten

von Carlo Velten, CEO des IT-Research- und Beratungsunternehmens Crisp Research AG

Treiber der Investitionswelle in den letzten Jahren sind die großen Internet- und Cloud-Konzerne. Allen voran Google, Facebook, Microsoft und IBM. Diese investierten allein im Jahr 2015 mehr als 10 Milliarden US-Dollar in Forschung und Entwicklung im Bereich der künstlichen Intelligenz. Der Grund liegt auf der Hand. So bieten neue Verfahren im Bereich von Machine Learning, Deep Learning oder auch der kognitiven Systeme nicht nur die Basis für neue Services und Geschäftsmodelle wie intelligente Assistenten á la Siri und Google Now oder auch für Industrie-Lösungen im Gesundheitsbereich. Sondern vor allem bringen sie einen direkten ROI, wenn sich mittels optimierter Verfahren und Algorithmen die Service-Performance sowie die User Experience der eigenen Internet- und Suchdienste optimieren lässt. Die optimierte Vermarktung von Werbeplätzen oder die schnellere Berechnung relevanter Suchergebnisse liefern einen direkten Business Value für Google, Facebook oder Microsoft – und zwar in Milliardenhöhe.

Künstliche Intelligenz ist somit kein Hype- und Marketing-Trend für die Internetkonzerne, sondern eine der wesentlichen Stellschrauben für deren zukünftige Wettbewerbsstärke und Profitabilität. Dabei kommt Google, Facebook und Microsoft eines zu Gute – der Zugriff auf riesige Mengen an Kunden- und Log-Daten, die die Grundlage zur Modellbildung und Training der neuen Algorithmen und lernenden Systeme („Deep Learning“) sind. Ein Innovationsvorsprung, den nur wenige der anderen Akteure vorweisen können.

Digitale Transformation – Wegbereiter der künstlichen Intelligenz

Nach Jahrzehnten in der akademischen Nische erlebt das Thema „Künstliche Intelligenz“ eine neue Innovations- und Wachstumsphase. Und dies nicht nur für eine Hand voll globaler Internetfirmen. Die maßgeblichen Gründe sind:

  • Unbegrenzte / kostengünstige Rechenleistung (Cloud)
  • Verfügbarkeit riesiger Datenmengen als Grundlage der Modellentwicklung und des Trainings (Big Data)
  • Investitionen in Verbesserung der Verfahren, Tools und Frameworks

Aber vor allem entsteht eine Vielzahl neuer Use Cases sowie die Notwendigkeit, die im Rahmen von Big Data anfallenden Datenmengen zu beherrschen, kosteneffizient zu verarbeiten und zu analysieren. Und dies gilt für nahezu alle Branchen und Unternehmen, die im Kontext der digitalen Transformation aufgebrochen sind, ihre Geschäftsprozesse, Kundenbeziehungen und Business Modelle umbauen.

Als konkrete Beispiele für den Einsatz von Machine Learning und Cognitive Computing im Unternehmenskontext lassen sich anführen:

  • Betrugserkennung bei Transaktionen
  • Spamerkennung
  • Personalisierung von Inhalten und Apps
  • Dokumentenklassifizierung
  • Prognose der Kundenabwanderung oder Conversion Rates im eCommerce
  • Automatisierte Lösungsempfehlung für den Kundendienst
  • Sentiment-Analysen (z.B. positive / negative Meinungen oder Äußerungen)
  • E-Mail-Klassifizierung
  • Diagnosesysteme z.B. in der Krebsdiagnostik
  • Erkennung von Objekten im Kontext „Autonomes Fahren“

Um IT- und Digitalisierungsentscheidern eine erste Orientierung hinsichtlich des Einsatzes der verschiedenen Verfahren nach Branchen zu bieten, hat Crisp Research auf Basis einer Vielzahl an Fallstudien  ein Use Case-Raster (siehe Grafik)  entwickelt. Darüber hinaus zeigt der Beitrag von Kollege Björn Böttcher beispielhaft, welcheEinsatzmöglichkeiten sich im Kontext der Medizin bzw. in Krankenhäusern ergeben.

 

Quelle: Crisp Research

Quelle: Crisp Research

Vertikalisierung und Produktifizierung – Trends bis 2020

Auch wenn das Einsatzspektrum von künstlicher Intelligenz vor dem Hintergrund der Digitalisierung sehr breit ist und ebenso eine Vielzahl an Technologien zu betrachten sind, lassen sich folgende strategische Trends herauskristallisieren:

  • Vertikalisierung: Je konkreter die KI-Verfahren und -Lösungen auf den Einsatz in einer speziellen Branche mit ihren individuellen Strukturen, Modellen, Datensätzen und Herausforderungen fokussiert werden, desto größer der Innovationserfolg und Business Value. Daher ist von einer starken „Vertikalisierung“ der KI-Lösungen im Sinne von „Industry Solutions“ auszugehen. Hierauf sollten sich Technologie- und Transformation Provider einstellen.
  • Produktifizierung: Viele der Industry Solutions oder auch einzelne KI- und Machine Learning-Verfahren werden zukünftig als „Machine Learning-as-a-Service“ angeboten. Aus Verfahren und Modellen werden somit nutzungsabhängige und service-basierte Geschäftsmodelle. Hier sind vor allem die großen Public Cloud Provider führend, die auf ihren Plattformen über genügend Rechenleistung und globale Skalierbarkeit verfügen.
  • Algorithm Design: Die Entwicklung und das Training von Modellen und Algorithmen entwickelt sich in den kommenden Jahren zu einem stark wachsenden Markt- und Dienstleistungs-segment. Hier haben auch kleinere Dienstleister eine Chance, da hier nicht die Mannstärke und Unternehmensgröße, sondern Spezialisierung und Skills die zentralen Auswahlkriterien auf Kundenseite sind.
  • Bots: Die Entwicklung und der Einsatz von autonomen Agenten, „Bots“ und mobilen Apps mit Spracherkennung nehmen dynamisch zu. Was als Assistenz-Systeme im Consumer-Segment begonnen hat (Apple Siri, Google Now, Microsoft Cortana), erhält zukünftig immer mehr Relevanz im Business-Kontext. Von der Buchung einer Dienstreise bis zur Unterstützung von Aussendienstmitarbeitern fächert sich der Einsatz intelligenter Assistenten mit Integration in die digitalen Geschäftsprozesse immer weiter auf.
  • API-Economy: Mit dem Zugriff auf weltweit über 15.000 APIs sind der Nutzung externer Datenströme nahezu keine Grenzen gesetzt. Von der automatisierten Auswertung von Satelliten-Bildern, über die Analyse von Videostreams aus Sicherheitskameras im öffentlichen Raum mittels Gesichtserkennung bis hin zur Prognose von Stauinformationen. Alles Einsatzmöglichkeiten für Machine-Learning-Verfahren, bei denen eigene und fremde Datenströme analysiert und zu neuen Diensten verschmolzen werden.
  • ML-Appliances & ML Hardware: Mit der Vorstellung seiner “Tensor Processing Unit” hat Google kürzlich einen eigenen Chip vorgestellt, der die Performance und die Effizienz bei der Durchführung von Machine Learning-Verfahren erheblich verbessern soll. Parallel dazu konzipieren die großen Cloud-Provider spezifische Hardware-Set-Ups in ihren Rechenzentren, um Machine Learning-Operationen auf möglichst effizienten Infrastrukturen („as-a-Service“) anbieten zu können. Die Hardware-Anbieter werden wohl mit eigenen Machine-Learning Appliances nachziehen, was für Industriekunden sicherlich attraktiv sein kann, die ihre heiligsten Daten nicht zum „Number Crunching“ auf externe Plattformen verschieben wollen.

Empfehlung an den CIO – Machine Learning als Königsdisziplin der Digitalisierung

Nach aktuellen Prognosen von Crisp Research werden sich die Ausgaben für Infrastruktur, Software & Plattformen, Algorithmen-Design und verbundene Dienstleistungen von rund 1,96 Mrd. Euro im Jahr 2015 auf rund 15 Mrd. Euro im Jahr 2020 nahezu verzehnfachen. Die detaillierten Prognosen nach Branchen, Use Cases und Technologien veröffentlicht Crisp Research in Kürze in einem speziellen Report.

CIOs und Digitalisierungsverantwortliche sollten sich darauf gefasst machen, dass nicht nur unternehmensintern diese Art von Skills nachgefragt werden, sondern auch, dass diese in den kommenden Jahren ein knappes Gut sein werden. Denn die Anzahl an Machine-Learning-Spezialisten ist begrenzt. Und die Schnittmenge derjenigen, die auch noch Business-Verständnis mitbringen umso kleiner.

Daher empfiehlt Crisp Research:

  • Machine Learning-Experten anheuern und/oder ausbilden
  • Kooperationen mit Universitäten und Startups eingehen (hier arbeiten viele Nachwuchstalente mit gutem statistischen Background)
  • Eigene Big Data-Experten im Thema „Machine Learning“ weiterbilden (Vorträge, Workshops etc.)
  • Proof of Concepts durchführen, um erste eigene Erfahrungen zu sammeln
  • Intensive Diskussion mit Digitalisierungs- und Business Entscheidern, um relevante Use Cases frühzeitig zu identifizieren (Erfolg im Machine Learning brauchen Anlaufphase, um a) Skills aufzubauen, b) Daten zu organisieren und c) die Modelle und Verfahren zu optimieren)

 

Share

Leave a Reply