Passwort vergessen?  |  Anmelden
 |  Passwort vergessen?  |  Anmelden
Suche

Donnerstag, 21. Februar 2019

Informationstechnik

Große Kluft zwischen Erwartung und Realität

Von Harald Weiss | 8. November 2018 | Ausgabe 45

Analytics gelten als Geheimwaffe für viele Businessprobleme. Doch es mehren sich Anzeichen, dass die Erwartungen vielfach überzogen sind. W

Analytics BU
Foto: H. Weiss

Provokante These: Analytics-Anbieter Teradata warb so für den richtigen Umgang mit den Softwarewerkzeugen, um wirklich hilfreiche Antworten zu finden.

Analytics, die Untersuchung und Interpretation großer Datenbestände, startete einst als Teilbereich der „Business Intelligence“ (BI) genannten Softwareanwendungen. Doch die Verfügbarkeit von immer mehr Daten sowie besserer mathematischer Methoden und vor allem die rasant zunehmende Rechenleistung haben die Analytics aus der Nische geführt.

Heute unterscheiden sie sich in zwei Spielarten: auf Big Data basierende Auswertungen von historischen Daten – z. B. das Erkennen von Absatztrends – sowie neuerdings Datenanalysen in Echtzeit (Real Time) – etwa zur unmittelbaren Betrugserkennung bei Kreditkartentransaktionen. Besonders den Real-Time-Analytics wird eine große Zukunft prophezeit. „Bei IoT werden schon bald Billionen an Sensoren Exabytes an Daten liefern, die alle sofort ausgewertet werden müssen“, sagt Karishma Borkakoty von der indischen IT Business School.

Hohen Erwartungen in die Analytics auf Seiten des Managements steht aber immer häufiger die für die Fachabteilungen in Unternehmen zu große Komplexität der Anwendungen gegenüber. Doch Abhilfe ist in Sicht: „Augmented Analytics werden es endlich ermöglichen, dass wichtige Einblicke in die Geschäftsabläufe von allen Mitarbeitern gewonnen werden können – nicht nur von Datenwissenschaftlern“, erklärte David Cearley, Vice President beim Marktforschungsunternehmen Gartner, kürzlich auf dem Firmensymposium in Orlando. Dazu müssten neue Technologien entwickelt werden, mit deren Hilfe komplexe Analysen auch von Nicht-Fachleuten in den Fachbereichen erstellt und direkt genutzt werden können. Auf seiner jüngsten Top-Ten-Liste der wichtigsten IT-Trends für 2019 sieht Gartner die Augmented Analytics auf Platz zwei.

Es gibt also derzeit noch erhebliche Defizite beim Einsatz von Analytics-Anwendungen. Auch der auf Analytics spezialisierte Softwareanbieter Teradata meint, dass der Boom bei den Anwendungen bislang zu selten die erhofften Ergebnisse produziert hätte. „Hört endlich auf, euer Geld für Analytics auszugeben – investiert endlich in Antworten“, sagte dessen COO Oliver Ratzesberger provozierend in seiner Eröffnungsrede zur diesjährigen Hausmesse „Analytics Universe“ in Las Vegas. In einer eigenen Untersuchung kommt Teradata zu dem Ergebnis, dass drei Viertel aller Topmanager die bestehenden Analytics-Tools für zu komplex halten. Die Folge sei, dass inzwischen Milliarden bei der Entwicklung unnützer Anwendungen vergeudet worden seien, da die IT-Verantwortlichen mit immer neuen Methoden und Technologien versuchen würden, die Kluft zwischen Erwartung und Machbarem zu schließen.

Doch nicht nur bei den Technologien gebe es ein Defizit, was die Analytics angeht, sondern auch bei den Fragestellungen. Ein anschauliches Beispiel dafür war die Analyse eines Restaurantbetriebs, der bis abends um 23 Uhr geöffnet hatte. Die Daten zeigten ganz klar, dass sich der Betrieb nach 22 Uhr nicht mehr lohnt und dass man problemlos bereits um diese Zeit schließen könnte, was zu deutlichen Einsparungen führen würde. Gesagt – getan, doch danach zeigten die Daten, dass sich jetzt auch nicht mehr der Betrieb von 21 Uhr bis 22 Uhr lohnt. Erst das Hinzuziehen eines Branchenexperten brachte die erhoffte Klarheit: In der letzten Stunde ist niemals ein gutes Geschäft möglich – egal, wann man schließt.

Gerade an solchen fachspezifischen Dateninterpretationen würde es häufig noch stark mangeln. „Bei vielen Usern stoßen die neuen datenbasierten Entscheidungshilfen nicht immer auf das erforderliche Verständnis“, sagt Forrester-Analystin Martha Bennet. Sie spricht von einer Art „Daten-Analphabetentum“, das weit verbreitet sei. Beispielsweise lassen sich allein durch die Art der gewählten Grafiken oder mit den jeweiligen Skalierungen unterschiedliche Trendeindrücke erwecken, die dann zu falschen Schlussfolgerungen führen können. Bennet spricht hier von einem Mangel an Datenkompetenz bei den Managern, auf den die Unternehmen zunehmend achten sollten.

Neben den überzogenen Erwartungshaltungen oder fehlerhaften Interpretationen gibt es aber auch IT-interne Ursachen für die schwachen Analytics-Ergebnisse. Laut Ratzesberger ist die Wurzel des Übels eine extrem heterogene Datenlandschaft mit vielen Silos, die kaum oder gar nicht zielgerichtet ausgewertet werden können. Auch hierzu gibt es in der Teradata-Untersuchung deutliche Hinweise. So sagen 80 % der befragten Business-Manager, dass sie nicht den Zugriff auf all die Daten haben, die sie für ihre Entscheidungen benötigen. „Um relevante Antworten auf die akuten Businessprobleme zu erhalten, muss man zuerst bei den Datenbeständen Ordnung schaffen“, lautet sein Rat an die Adresse der CIOs.

Mit Teradatas neuer Datenplattform Vantage soll diese Arbeit leichter möglich sein. Darin hat der Anbieter jetzt viele Werkzeuge, Technologien und Anwendungen zusammengefasst, die das Auswerten von großen heterogenen Datenbeständen erleichtern sollen. Kernstück ist eine relationale Datenbank sowie ein Objektspeichersystem, die über einen Highspeed-Bus verbunden sind. Hinzu kommt eine Machine-Learning-Engine. Vantages Objektspeicher unterstützt semi-strukturierte und unstrukturierte Daten und er lässt sich mit den Cloud-Speicherlösungen von Amazon und Microsoft verbinden. Also Analytics aus einer Hand? Ratzesberger räumt ein, dass die Zentralisierung aller Analysefunktionen unter dem Teradata-Schirm die Freiheitsgrade verringere, andererseits aber vor allem für wesentlich geringere Komplexität sorge.