7. Erschließen Sie das Potenzial

Daten sind die Währung der neuen, digitalen Wirtschaft. Das Kennzeichen des datengetriebenen Erfolgs liegt jedoch in der Fähigkeit jedes Unternehmens, Informationen effektiv zu nutzen, um Geschäftsergebnisse zu verbessern - von der Steigerung der Kundenzufriedenheit bis zur Reduzierung von Risiken.

IT-Führungskräfte erwarten Großes von Big Data. Laut 2018 IDG Research Survey betrachten viele Analytics als die Technologie, die in den nächsten drei bis fünf Jahren am wahrscheinlichsten Einfluss auf ihre Organisation haben wird.

Welche dieser disruptiven Technologien wird sich in den nächsten drei bis fünf Jahren höchstwahrscheinlich auf Ihre Organisation auswirken?

Ordnen Sie die Liste per Drag & Drop nach Wichtigkeit.


Was Sie sagen:

  • 1Self-Service IT
  • 2Cloud/SaaS
  • 3Big data/analytics
  • 4Spracherkennungstechnologien / Digitale Assistenten
  • 5WiFi der nächsten Generation
  • 6Internet of Things

Was andere CIOs sagen:


Quelle: 2018 IDG Research Survey

Allerdings werden viele CIOs, die ihre Organisationen als datengetriebene Unternehmen ausrichten, durch unflexible IT-Infrastrukturen und veraltete Data Warehouses ausgebremst. Die wachsende „App-Datenlücke“ zwischen Anwendungen und den Daten, die geschäftliche Nutzer täglich benötigen, kann die Produktivität beeinträchtigen. Das steigende Volumen, die zunehmende Geschwindigkeit und die Verschiedenheit der Daten stellen Unternehmen noch immer vor Herausforderungen, wenn es darum geht, Speicher- und Rechenkapazität einfach und kosteneffizient zu skalieren.

41% der CIOs erwarten, dass ihr Unternehmen in den nächsten 12 Monaten die Investitionen in Big Data, Analytics, Data Mining und Business Intelligence erhöhen wird.

Quelle: 2018 IDG Research Survey

Organisationen benötigen große Mengen von beidem, um schneller Entscheidungen treffen und in Echtzeit auf das Auf und Ab des Marktgeschehens reagieren zu können. Sie benötigen außerdem Speicher, der so intelligent ist, dass er Ausfallzeiten und andere Störungen, die die geschäftlichen Abläufe beeinträchtigen, vorhersagen und abwenden kann. HPE konnte in diesem Zusammenhang nachweisen, dass seine prädiktive All-Flash-Lösung automatisch 86% aller speicherbezogenen Störungen im Voraus erkennt und verhindert. Das Ziel ist ein Rechenzentrum, das selbst heilend, selbst verwaltend und selbst optimierend ist.

In Branchen mit hohen Datenvolumina, wie in der Biomedizin, beschleunigen viele Unternehmen den Umstieg auf Public Clouds, wenn sie an die Grenzen ihrer lokalen Speicher- und Verarbeitungskapazitäten stoßen.

„Die Macht der Genomik ist eine Frage von Wahrscheinlichkeiten. Sie brauchen eine große Menge an Datensätzen,” sagt William Mayo, CIO beim Broad Institute, einer biomedizinischen Forschungsorganisation. „Ich kann keine Petabytes an Daten in einem Rechenzentrum verarbeiten. Das muss draußen in der öffentlichen Cloud beginnen und dort bleiben.”

Die Herausforderung wird noch gewaltiger, wenn CIOs beginnen, neue Datenquellen aus dem Internet of Things (IoT) und anderen „Edge“-Geräten zu integrieren. Viele dieser Daten bleiben aus praktischen Erwägungen, wie Datengröße, Antwortzeit sowie Datenschutz und Datenhoheit dort, wo sie erstellt wurden.

Wenn Unternehmen also die öffentliche Cloud verwenden, um anspruchsvolle Analysen für große Datenmengen durchzuführen, müssen sie sich auch auf eine Zukunft vorbereiten, die durch Edge Analytics gekennzeichnet ist. Dabei kommt Machine Learning zum Einsatz, um Daten überall dort zu verarbeiten, wo sie gerade liegen und Analyseergebnisse statt lediglich Rohdaten an das Hauptsystem zu senden.

Einblicke in Echtzeit

Eine drei bis vier Jahre dauernde Initiative zur Modernisierung der Dateninfrastruktur von SunTrust Banks basierend auf einer Hadoop-Data-Lake-Plattform hat dem Finanzdienstleister geholfen, das Datenmanagement und die Datenverwaltung zu verbessern und die Analysefunktionen mit zusätzlichen operativen Echtzeitdaten zu versorgen, sagt Anil Cheriyan, SunTrust CIO.

„Analytics ist ein Kernbestandteil dessen, was wir tun, ob es um Risikoübernahme, Betrug oder eine von zahlreichen anderen Komponenten geht“, sagt Cheriyan. Die Modernisierung hunderter traditioneller Datenbanken zu einem Data Lake hat die Geschwindigkeit, mit der die Bank Informationen verarbeiten und den Mitarbeitern in der gesamten Organisation bereitstellen kann, stark erhöht.

„Unsere digitalen Plattformen sind jetzt eng mit unserem Datenpool verbunden, was uns hilft, unsere Kunden besser zu verstehen“, erklärt er. „Eine integrierte Sicht auf frühere Interaktionen, sowohl online als auch in unseren Niederlassungen, ermöglicht uns, unsere Kunden besser zu bedienen“, fügt er hinzu.

Data Analytics ist eines von drei Technologieprojekten, dem Unternehmen höchste Wichtigkeit einräumen.

Quelle: 2018 IDG Research Survey

Schwachstellen beseitigen

Bei AmeriPride trafen CIO Steven John und sein Team vor zweieinhalb Jahren die Entscheidung, das bestehende Informationsverarbeitungssystem des Unternehmens abzulösen und durch ein Data Warehouse zu ersetzen, das – wie John einräumt – niemals die Vision oder finanzielle Unterstützung hatte, um effektiv zu arbeiten. An seiner Stelle implementierte das Unternehmen drei Kernkomponenten: Tableau Visualisierungssoftware, Micro Focus Vertica – eine verteilte Analytics-Datenbank – und schließlich eine Daten-Management-Plattform von Informatica.

Im Kern half das vereinfachte System Johns Team, ein signifikantes Problem zu beseitigen: Es reduzierte die erforderliche Zeit für die Erstellung der täglichen Betriebsberichte. Ein Prozess, der früher 36 Stunden dauerte, läuft nun in weniger als 15 Minuten ab.

Durch die optimierte Berichterstellung konnte AmeriPride seine Analyseaktivitäten unternehmensweit ausdehnen. Johns Team hat 20 Dashboards erstellt, mit denen die Mitarbeiter jetzt täglich arbeiten und die Echtzeit-Einblicke in alle Bereiche von Sicherheitsstandards bis hin zum Flottenmanagement ermöglichen.

„Wir haben 60 Niederlassungen in Nordamerika und jede ist im Grunde ein kleines Unternehmen“, sagt John. „Sie brauchen täglich Informationen, die es ihnen ermöglichen, ihre Kunden zu bedienen und mit unseren Kennzahlen zu vergleichen, um zu sehen, ob sie gewinnen oder verlieren.”

Die Analytics-Infrastruktur ist zu einem grundlegenden Teil von AmeriPrides umfassender Vision zur Vereinfachung, Standardisierung und Automatisierung im gesamten Unternehmen geworden.

„Wir hatten einen dreibeinigen Hocker mit zwei Beinen: gute Bewertung und gute Führung“, sagt John. „Wir fügten gute Daten hinzu, die uns eine solide Basis geben, um bessere Entscheidungen zu treffen. Sie haben die gesamte Dynamik des Unternehmens beeinflusst.“

„Wir haben früher bereits viel automatisiert. Heute versuchen wir KI-Lösungen zu integrieren, müssen aber auch – etwa im Falle eines Hackerangriffs – Business Continuity in der Produktion sicherstellen.”

– Michael Kranz
CIO Thyssenkrupp Steel Europe

Machine Learning fördert Einblicke

Eine flexible hybride IT-Infrastruktur, die die Speicher- und Rechenkapazität nach Bedarf skalieren kann, öffnet die Tür zu einem Datenstrom, der herkömmliche Datenverwaltungsmethoden, Tools und Analytics-Teams überfordert. Hier spielt Machine Learning eine immer wichtigere Rolle. Organisationen prüfen zunehmend den Einsatz von Lösungen, die Machine-Learning- und Predictive-Analytics-Methoden für zahlreiche infrastrukturbezogene Aktivitäten wie die Vorhersage von Ausfallzeiten, präskriptive Analytik, Fehler-Ursachen-Analyse und sogar für Analytics-basierten Tech-Support nutzen.

„Eine große Datenmenge kann eine Last sein, wenn man nicht mit ihr umgehen kann“, sagt Jeff Wike, CTO bei DreamWorks Animation, dem Schöpfer von Blockbuster-Filmen, wie zum Beispiel „Shrek" und „How to Train Your Dragon". Und DreamWorks Animation erzeugt sehr viele Daten: Ein einzelner 90-minütiger, computergenerierter, animierter Spielfilm mit 24 Bildern pro Sekunde beinhaltet 130.000 Einzelbilder - etwa 500 Millionen digitale Dateien. Das Bildrendering des Studios verarbeitet während der Bilderstellung bis zu 112.000 Transaktionen pro Sekunde, während sie täglich fast 1 Million Artefakte zu diesen Informationen sammeln, sagt Wike.

„Viele Daten können eine Last darstellen, wenn Sie nicht wissen, was damit zu tun ist.”

— Jeff Wike,
CTO, DreamWorks Animation

Im Rahmen einer umfassenderen Transformation seines Rechenzentrums und der Datenverwaltungsarchitektur hat DreamWorks seine Rendering-Operationen mithilfe moderner Analytics-Funktionen optimiert.. Der Ansatz hilft festzulegen, wie lange es dauert ein bestimmtes Bild zu erstellen und auf der Grundlage früherer Ergebnisse festzustellen, welche Ressourcen exakt für bestimmte Aufgaben benötigt werden.

Die Automatisierung dieser Analyse ist ein großer Schritt weg von der manuellen Prüfung von Protokolldateien auf der Suche nach Mustern. „Raten war nicht sehr zuverlässig“, sagt Wike. „Indem wir diese Artefakte speichern und ihre Muster mittels Machine Learning vorhersagen, wissen wir exakt wie viele Ressourcen wir aufwenden müssen, wenn ein ähnlicher Vorgang ansteht.” Das System hat die Rendering-Leistung um etwa 15% verbessert.

Die Analysetools nutzen auch Anomalie-Erkennung, um Probleme mit den Rendering-Prozessen zu identifizieren. „Anomalien können verhindern, dass ein Projekt abgeschlossen wird“, sagt Wike. „Die Fähigkeit, Probleme zu erkennen, während oder gar bevor sie auftreten und dann zu bewerten — das ist von immensem Wert.”

„Das ist wirklich der größte Vorteil. Es bedeutet eine enorme Zeitersparnis für die Künstler und spart technische Ressourcen bei der Lösung von Problemen, wenn wir in der heißen Phase einer Produktion sind“, sagt er. „Das ist unbezahlbar!”



Machine Learning spielt auch bei SunTrust eine immer wichtigere Rolle für den Schutz seiner Kunden vor betrügerischen Aktivitäten.

„Es gibt viele aktive Bösewichte, die versuchen, Finanzinstitute auszunutzen um Geld zu stehlen,” sagt Cheriyan. „Moderne Echtzeit-Analyse-Tools, die maschinelles Lernen nutzen, ermöglichen es uns, umfangreiche Analytics-Funktionen in unsere Geschäftsprozesse und die operativen Kernsysteme zu integrieren.”

Durch die Verbindung von Risikomanagementsystemen mit Transaktionssystemen kann SunTrust potenziell unangemessenes Verhalten schneller erkennen und proaktiv Maßnahmen ergreifen. „Die Geschwindigkeit, mit der wir Informationen verarbeiten und bereitstellen können, ist der entscheidende Vorteil,” sagt er.

Schritt 7

7. Die drei „C“

Unternehmen nutzen Edge Computing, um intelligentere Gebäude, Städte, Arbeitsbereiche, Einkaufserlebnisse, Produktionsstätten und vieles mehr zu errichten. Hier erfahren Sie, wie Sie tiefere Einblicke in die „intelligenten Netzwerkränder“ erhalten.
Konnektivität (Connectivity)

Vernetzen oder verbinden Sie die Geräte und Dinge am Netzwerkrand: Autos, Werkzeuge, Gadgets, Geräte, Menschen, Stromnetze, Roboter, Straßenlampen, Pumpen, Gebäude usw.

Steuerung (Control)

Konfigurieren, bedienen oder orchestrieren Sie Dinge und Geräte.


Berechnen (Compute)

Analysieren Sie Daten von Rand des Netzwerks, um neue geschäftliche, technische oder wissenschaftliche Erkenntnisse zu erhalten.


Kapitel Highlights ansehen

Tiefer in Hybrid-IT eintauchen

Das Playbook für den strategischen CIO

Erstellen Sie einen Spielplan, um die digitale Transformation mithilfe des richtigen Hybrid-IT-Mix zu beschleunigen.