Predictive Analytics, Artificial Neural Networks, Deep Learning –

Dies sind nur einige der Schlagwörter, die momentan – im Zuge der digitalen Transformation – häufig fallen. Oft fallen diese Begriffe jedoch ohne einen direkten thematischen Bezug und es wird suggeriert, dass jeder nun auf den Zug aufspringen sollte, um nicht abgehängt zu werden. Doch was steht eigentlich hinter den einzelnen Methoden und wofür eignen sie sich? Können klassische BI-Methoden eventuell den gleichen Benefit mit  erheblich niedrigerem Investitionsaufwand ermöglichen?

In dem Data-Mining Tool RapidMiner erstellter Workflow zur Erstellung des neuronalen Netzes

Tatsächlich reicht die Literatur über neuronale Netze weit zurück bis in die Mitte des 20. Jahrhunderts und ist somit alles andere als ein Zukunftsszenario. In dieser Zeit wurde sich, bedingt durch die sehr geringe bis nicht vorhandene Rechenleistung, vermehrt auf die theoretisch-mathematischen Grundlagen konzentriert. Heute jedoch erfahren neuronale Netze eine wahre Renaissance, da gerade die Erkennung von Mustern in dieser Datenflut immer wichtiger wurde. Sie sind, wenn auch verborgen und den meisten Menschen unbekannt, in fast jedem Bereich wieder zu finden. Von der Spracherkennung des Smartphones, über die automatische Erkennung und Digitalisierung von Handschriften bei der Post, bis hin zur autonomen Steuerung von Fahrzeugen oder der präzisen Stellung von Diagnosen bei komplizierten Krankheitsverläufen. Doch ist der Vorteil der neuronalen Netze mit einem großen Preis verbunden. So können neuronale Netze oft sehr gute Prognosen erstellen, liefern jedoch keine direkte Erkenntnis darüber, wieso sie zu dem Ergebnis gekommen sind.

Das Datenchaos wird hinsichtlich Mustern analysiert und die Ausfallwahrscheinlichkeit eines Sensors ausgegeben

Dieses bekannte Black-Box-Problem neuronaler Netze kann zwar mithilfe statistischer Analyse und Heuristiken, wie Sensitivitätsanalysen entschärft werden, doch komplexe kausale Zusammenhänge, d.h. Aussagen darüber, wieso beispielsweise ein Sensor einer Maschine ausfällt, können nicht aus diesem Netz extrahiert werden. Es sollte bei Investitionsüberlegungen somit abgewogen werden, ob Wirkung oder Ursache im Fokus der Analyse steht. So könnte es im Bereich der Maschinenanalyse von Vorteil sein zu wissen, weshalb eine Störung öfter an der Maschine auftritt, um diese präventiv zu beheben. Für diese Art von Anwendungsfall würde sich dann beispielsweise eher der Einsatz eines Entscheidungsbaums eignen, da dieser die Strukturen und Muster der Daten, durch Klassifizierung in eine visualisierte und interpretierbare Form bringt.

Anstatt also direkt auf den Zug aufzuspringen, sollten verschiedene Methoden in einem Methoden-Pitch direkt am Use-Case erprobt werden, um herauszufinden, welche Methode für das spezifische Problem die Richtige ist. Oft können dann gleiche oder annähernd ähnliche Ergebnisse mit einem wesentlich geringeren Aufwand erzielt werden.

Oft werden kausale Zusammenhänge durch kluge Visualisierungen schneller deutlich

Wenn Sie momentan vor einer solchen Entscheidung stehen oder bereits einen konkreten Use-Case vor Augen haben, freuen wir uns Sie bei der Auswahlentscheidung und darauffolgender Implementierung zu unterstützen.

Für weitere Vertiefung in dieses Thema:

Philipp Güntzel: Funktionsweise und exemplarische Anwendung künstlich neuronaler Netze unter besonderer Berücksichtigung des „Black-Box“-Problems, Institut für Technische Betriebswirtschaft (2017)