Passwort vergessen?  |  Anmelden
 |  Passwort vergessen?  |  Anmelden
Suche

Sonntag, 24. Februar 2019

Big Data

Aus Datenmassen Informationen machen

Von Ariane Rüdiger | 17. Mai 2018 | Ausgabe 20

Datenanalyse als Suche nach der geschäftsrelevanten Stecknadel im Heuhaufen hat ausgedient. Strukturierte, zielorientierte Methoden schaffen geschäftlichen Nutzen.

Bildartikel zu data_B64738673.jpg
Foto: panthermedia.net/ymgerman

Um aus den von Sensoren und anderen Quellen massenweise erzeugten Daten geschäftsrelevante Erkenntnisse zu machen, ist mehr nötig als nur guter Wille sowie Hard- und Software. „Die Zeit der zufälligen Herangehensweise an die Datenanalyse ist definitiv vorbei“, weiß Yasmeen Ahmad, Data Scientist und Customer Success Director beim Analysespezialisten Teradata. IT-Anbieter setzen heute auf ausgefeilte Methodiken, um gemeinschaftlich mit dem Kunden geschäftstaugliche Analyseideen zu entwickeln und zu implementieren. Wichtige Anwendungen solcher datengetriebenen Lösungen in Unternehmen liegen in der Verbesserung des Kundenerlebnisses oder der Optimierung interner Prozesse.

Der lange Weg zur Lösungsfindung beginnt laut Ahmad meist mit einem Workshop. Teilnehmer solcher halb- bis ganztägigen Veranstaltungen sind die unterschiedlichsten Interessenträger aus dem Kundenunternehmen, je nach Konzept aber auch Endkunden dieses Kunden, Partner oder externe Spezialisten.

Am Anfang, so erläutert die Expertin, stehe eine mehr oder weniger ausgedehnte Ideenfindungsphase, die noch nicht viel mit analytischen Werkzeugen zu tun hat. Gruppenarbeit, klassisches Brainstorming, Ideenkärtchen, interaktive Tafeln – jedes Mittel ist recht, um Probleme zutage zu fördern, von denen der potenzielle Anwender annimmt, dass sie mithilfe von Datenanalyse lösbar wären.

In der Regel folgen dann eine Priorisierung und Bewertung der gesammelten Ideen, die helfen, den geschäftlichen Wert einer Idee und ihre Machbarkeit einzuschätzen. Oberste Priorität erhalten Ideen, die mit hoher Wahrscheinlichkeit umsetzbar sind und auch einen großen geschäftlichen Nutzen versprechen. Dabei spielt natürlich eine Rolle, ob die für die Umsetzung erforderlichen Datenquellen überhaupt greifbar sind.

Vielfältige Werkzeuge: Erst danach geht es an die eigentliche Projektumsetzung. Bei einigermaßen überschaubaren Projekten soll sie laut Ahmad nicht zu lange dauern – höchstens ein paar Monate. Und es ist keinesfalls gesagt, dass die Lösung immer im analytischen Einsatz komplexer Algorithmen besteht. In einem Fall, von dem Ahmad anlässlich eines Datenanalyse-Workshops für Journalisten berichtete, untersuchte eine Bank die Schritte ihrer Kunden bis zur Eröffnung eines Sparkontos. Dabei fiel auf, dass diese oft dreimal die Filiale aufsuchen mussten, ehe der Vorgang abgeschlossen war. Grund: Mitarbeiter wurden nach der Zahl der vereinbarten Termine belohnt und nicht nach dem Erfolg der Kundentreffen. Das ließ sich auch ohne Algorithmeneinsatz ändern.

Sind Datenanalysen die gewählte Methode, wird der Anwendungsfall genau definiert und dann die Verfügbarkeit der nötigen Daten geprüft. Dann bilden sich Teams für Datenbeschaffung und -formatierung sowie für die eigentliche Analyse.

Nun geht es an die eigentliche Datenarbeit: Die Daten werden geladen und vorbereitet, analytische Modelle erstellt und geeignete Werkzeuge ausgewählt, also Kernaufgaben von Datenanalytikern. Vier grundsätzliche Klassen von Algorithmen für jeweils spezifische Aufgaben stehen Ahmad heute zur Verfugung: Prognosealgorithmen, Algorithmen für die Segmentierung oder das Bündeln von Datenbeständen, Klassifikationsalgorithmen und Assoziations-algorithmen, die verborgene Zusammenhänge sichtbar machen.

Zu jedem Algorithmentyp gibt es diverse Varianten, und jede hat spezifische Stärken und Schwächen, die es gegeneinander abzuwägen gilt. Kriterien sind hier beispielsweise die Genauigkeit, die Interpretierbarkeit, die Geschwindigkeit, die Einfachheit, die Stabilität oder die Skalierbarkeit eines Algorithmus. So sind neuronale Netzwerke zwar sehr genau, allerdings schwer interpretierbar, während Entscheidungsbäume leicht interpretierbar sind, aber weniger differenziert. Außerdem beginnen Ahmad und ihre Kollegen damit, mehrere Algorithmen zu einem analytischen Vorgang zu kombinieren.

In dieser Phase stellen sich oft knifflige Aufgaben der Datenmodellierung, etwa, wenn wichtige Parameter nur lückenhaft im Datensatz vorhanden sind. Dann gilt es, andere Parameter oder Methoden zu finden, die den jeweiligen Parameter ersetzen können. Lösungen dafür, das bestätigt die Expertin aus der Praxis, sind so individuell wie die Fälle.

Da ist es vorteilhaft, wenn Datenanalytiker aus einem möglichst breiten Tool-Spektrum wählen können und sich nicht auf das Angebot eines einzigen Herstellers oder Werkzeugs beschränken müssen. Daher sind bei analytischen Plattformen offene Schnittstellen besonders wichtig – neues Werkzeug, ob kommerziell oder aus der Open-Source-Community, kommt ständig auf den Markt. Gängige Analysetools wie die Open-Source-Lösungen Knime und R-Workbench kommen mit vielen vorkonfigurierten analytischen Funktionen. Eigene, neue Analysealgorithmen schreiben Datenanalytiker wie Ahmad im geschäftlichen Umfeld dagegen eher selten.

Mit der so entwickelten Analyselösung lassen sich meist erste Ergebnisse erzielen, die zeigen, ob das gewählte Handwerkszeug passt und die erzeugten Einsichten den Erwartungen entsprechen. Dafür wenden die Experten die Algorithmen auf Daten aus der Vergangenheit an und untersuchen, ob die Ergebnisse der Analysen in etwa den Ergebnissen in der Realität gleichen. Gegebenenfalls müssen die Methoden weiter angepasst oder verfeinert werden. Solche Optimierungen werden künftig auch durch Algorithmen unterstützt – sie sind besonders dafür geeignet, auffällige Muster zu erkennen.

Erst danach entsteht in der Abschlussphase eine endgültige Implementierungsempfehlung, die erwartete Amortisation wird dokumentiert, ein Plan für die Implementierung und Weiterentwicklung erstellt und das Ganze schließlich den Entscheidungsträgern präsentiert, die sich im besten Fall davon überzeugen lassen, die so entwickelte Lösung auch praktisch einzusetzen. Ahmad weiß, dass das nicht das Ende des Weges ist: Denn während der Nutzung wird so eine Lösung anhand der praktischen Erfahrung ständig weiter angepasst. Sofern es nicht ohnehin in der Natur der verwendeten Algorithmen liegt, mit jedem Datensatz dazuzulernen.