WE ARE HIRING! | JOBS @LANA LABS

Enthüllung: Das steckt hinter der Prozessanalyse | Ursachenanalyse mit LANA Process Mining

Enthüllung: Das steckt hinter der Prozessanalyse | Ursachenanalyse mit LANA Process Mining
October 11, 2018 Shirin

Als LANA User führt man schon ein entspanntes Dasein. Die Prozessanalyse ist quasi ein Selbstläufer und mit nur einem Klick wird Optimierungspotential aufgedeckt. Aber hast du dich jemals gefragt, was hinter den Kulissen abläuft? Wie LANA komplexe Datenauswertungen, die sonst Wochen an manueller Arbeit in Anspruch nehmen würden, innerhalb von Sekunden durchführt?

Kein Problem, ich erklär’s dir. In diesem Artikel veröffentlichen wir erstmals Informationen zu unserem unserem Machine-Learning-Algorithmus, der für die automatisierte Ursachenanalyse verantwortlich ist. Lasst uns die Welt komplexer und konfuser Algorithmen ein Stück weit entmystifizieren!

Falls du einen Überblick brauchst, was die LANA Ursachenanalyse alles leisten kann, schau dir unseren Beitrag Wie wir mit Daten den Prozessabweichungen auf den Grund gehen an.

Machine Learning Intro | LANA Process Mining

Die Ursachenanalyse deckt Ursachen von Prozessschwachstellen auf, die dem User datenbasierte Ansatzpunkte zur Prozessoptimierung liefern. Dabei werden nicht nur verantwortliche Einflussfaktoren identifiziert, sondern auch präzise Regeln formuliert, die explizit beschreiben wann und warum das Problem aufgetreten ist.

Doch wie funktioniert die automatisierte Ursachenanalyse? Was passiert in den Sekunden, nachdem der User auf das Glühbirnen-Icon geklickt hat? Wie ist der Algorithmus in der Lage, Wochen an manueller Arbeit von komplexen Datenauswertungen, innerhalb so kurzer Zeit umzusetzen?

Erstmal zu unserem Hauptakteur: Die Ursachenanalyse wird von unserem eigens entwickelten Machine-Learning-Algorithmus durchgeführt, der auf der Methode des induktiven maschinellen Lernens basiert. Der ML-Algorithmus identifiziert relevante Strukturen in den Daten und ist verantwortlich für das Aufstellen der Regeln – sogenannter Klassifizierer – mit einer möglichst hohen Präzision, Deckung und Prognosefähigkeit.

Keine Panik – was die Begriffe in diesem Kontext bedeuten und warum sie so wichtig sind, klären wir noch in aller Ruhe.

Aber alles der Reihe nach: Logischerweise wird die Ursachenanalyse nach der Performance- oder Conformance-Analyse angewendet. Anhand dieser Analysen werden Prozessschwachstellen identifiziert. Sobald der User eine zu untersuchende Schwachstelle auswählt, definiert er damit die Problemstellung für den Algorithmus. Stellen wir uns beispielsweise vor, dass der User eine Abweichung analysieren möchte, die anhand des automatisierten Soll-Ist-Abgleichs aufgedeckt wurde.

Soll-Ist-Abgleich Process Mining

Die Problemstellung ist binärer Natur, d.h. entweder verzeichnet ein Fall bzw. Geschäftsvorfall eine Prozessabweichung oder nicht. Nehmen wir folgendes Beispiel: Die Aktivität “Resolution and Recovery” im dargestellten Prozessmodell wird bei einem Fall entweder übersprungen oder ausgeführt. Das Gleiche gilt auch für andere Arten von Schwachstellen, wie zum Beispiel für Bottlenecks.

Und dann geht’s auch schon los: Im ersten Schritt unterteilt der ML-Algorithmus die gesamte Datenbasis eines Prozesses nach dieser Problemstellung, d.h. nach “abweichend” oder “nicht abweichend”. Anschließend analysiert er die Einflussfaktoren bzw. Attribute, die der Klassifikation “abweichend” zugeordnet wurden. Dabei identifiziert der ML-Algorithmus signifikante Muster oder Gesetzmäßigkeiten.

Machine Learning Muster | LANA Process Mining

Das können Einflussfaktoren oder Kombinationen von Einflussfaktoren sein, die in verschiedenen Formen mit der Problemstellung korrelieren. Anhand dieser Informationen werden die Regeln bzw. Klassifizierer formuliert.

Bist du noch dabei? Jetzt kommen wir zum nächsten Schritt: Hier werden aus den ermittelten Regeln die “Besten” ausgewählt, die letztendlich dem User präsentiert werden. Wie werden die besten Regeln genau ausgewählt? Gute Frage. Die Vorgehensweise ist vergleichbar mit dem Entscheidungsbaumverfahren. Das heißt, die Regeln werden sequentiell nach der Ausprägung bestimmter Eigenschaften geprüft und anhand einer Entscheidungsregel klassifiziert. Ziel ist die Klassifikation der Regeln als signifikant oder nicht signifikant.

Machine Learning Entscheidungsbaum | LANA Process Mining

Soweit, so gut. Die Herausforderung liegt in der Bestimmung der Entscheidungsregel, also ab wann eine Regel als signifikant eingestuft wird. Dazu klären wir erstmal, welchen Anspruch wir an eine Regel haben. Die Regeln sollten für möglichst viele Fälle gelten, also eine hohe Deckung haben, und dabei möglichst präzise sein.

Ja, der Elefant im Raum ist immer noch die Präzision. Das ändern wir jetzt.

Die Präzision einer Regel definiert, wie spezifisch die Ursache beschrieben wird. Weniger präzise Regeln treffen tendenziell auf viele Fälle zu, während sehr präzise Regeln meist nur auf vereinzelte Fälle zutreffen. Das war noch nicht so hilfreich? Probieren wir’s mit einem Beispiel. Das Ganze ist nämlich ziemlich intuitiv: Wenn eine Regel besagt, dass die Kosten pro Fall über einem Euro liegen – wir aber wissen, dass die durchschnittlichen Kosten pro Fall bei rund 4000 Euro liegen – dann ist die Regel sehr unpräzise. Höchstwahrscheinlich gilt diese Regel aber für nahezu alle Fälle und hat damit eine sehr hohe Deckung. Umgekehrt sieht’s ähnlich aus. Es muss also ein ein optimaler Kompromiss gefunden werden.

Der ML-Algorithmus hat also den optimalen Punkt – das Entscheidungskriterium – zwischen einer präzisen Regel mit niedriger Deckung und einer unpräzisen Regel mit hoher Deckung zu bestimmen. Natürlich gibt es auch Extremfälle, wo beispielsweise Präzision und Deckung sehr hoch sind.

Dazu stellen wir mal eine Frage ins Publikum: Wer weiß, mit welcher Art von Problem wir es hier zu tun haben?

Machine Learning Frage | LANA Process Mining

Ja, es ist das gute alte Optimierungsproblem. Der ML-Algorithmus hat den Punkt zu finden, der die Präzision und gleichzeitig die Deckung maximiert. Warum ist die Bestimmung solch eines Entscheidungskriteriums so wichtig?

Eine Regel, die beispielsweise sehr präzise ist, aber auf nur einen Fall zutrifft, liefert dem User wenig Information zu seinen Daten oder der Problemursache. So wird nur erklärt, was die Abweichung bei genau diesem Fall verursacht hat. Ob die Abweichung zufällig verursacht wurde oder ob tatsächlich ein Prozess- oder anderes Problem vorliegt, ist unklar. Daher werden nur Regeln dargestellt, die eine Kombination aus hoher Präzision und hoher Deckung sind, sodass dem User signifikante Problemursachen angezeigt werden, anhand derer er konkrete Verbesserungsmaßnahmen ableiten kann.

Sobald der ML-Algorithmus das Optimierungsproblem gelöst hat, kann die signifikante Regel dem User präsentiert werden.

Das soweit zum Thema “automatisierte Ursachenanalyse”. Du hast schon wieder die Hälfte vergessen? Kein Problem, hier ist nochmal die leserfreundlichere Kurzfassung:

Wählt der User eine Schwachstelle für die Ursachenanalyse aus, liefert er damit dem ML-Algorithmus eine binäre Problemstellung. Der ML-Algorithmus unterteilt die Prozessdaten entsprechend, analysiert die relevanten Daten nach Mustern oder Gesetzmäßigkeiten, die die potentiellen Ursachen darstellen. Anhand dieser Informationen formuliert er dann Regeln. Innerhalb eines Klassifikationsverfahrens werden aus diesen Regeln die signifikanten Regeln ermittelt. Diese Regeln sind möglichst präzise und gelten für möglichst viele Fälle. Damit werden dem User aussagekräftige Regeln geliefert, anhand derer er konkrete Verbesserungsmaßnahmen ableiten kann. So kann die Umsetzung und der Prozess selbst gezielt verbessert werden.

Klingt spannend? Wir haben noch viel mehr auf Lager!

In unserem kostenlosen Online-Kurs zu Process Mining lernst du nicht nur die Funktionsweise der Ursachenanalyse. Wir zeigen dir das gesamte Process-Mining-Paket: von der Datenextraktion bis zur Dashboard-Erstellung.