Quantitative Analyse

Prozesskosten senken mit Process Mining

19.06.2013 von Georg Knöpfle
Process Mining ist zwar noch wenig bekannt. Doch steckt in der Technologie viel Potenzial, um Prozesse zu optimieren und Kosten zu senken. Wie das funktioniert, erklärt Georg Knöpfle von KPMG in seiner Kolumne.
Georg Knöpfle ist Partner bei KPMG Consulting.
Foto: KPMG

Big Data ist momentan ein IT-Hype an dem keiner mehr vorbeikommt. Große Datenbestände sind für Unternehmen nicht nur ein Schatz, wenn es darum geht, inhaltliche Erkenntnisse, wie beispielsweise das Kundenverhalten, auszuwerten. Mit Transaktions- und Log-Daten aus den ERP- und Workflow-Systemen können auch wertvolle Erkenntnisse über die innerbetrieblichen Abläufe gewonnen werden.

Die Praxis zeigt, dass in vielen Fällen noch erhebliches Kostensenkungspotenzial bei diesen Prozessen realisiert werden kann: Eine Studie des Fraunhofer IPA bei 170 deutschen Unternehmen hat herausgefunden, dass das Optimierungspotenzial bei deren administrativen Prozessen circa 30 Prozent beträgt.

Um Transparenz über die Prozesse herzustellen, versuchen Unternehmen oft, mithilfe qualitativer Methoden (z.B. Interviews) die Effizienz der Prozesse und die Einhaltung der Prozessvorgaben zu überprüfen. Dieser Ansatz stößt in der Praxis oft aus folgenden Gründen an seine Grenzen:

Um diesen Herausforderungen gerecht zu werden, unterstützt die Process Mining-Technologie, basierend auf den Daten der Workflow- und ERP-Systeme, bei der Erstellung einer umfassenden quantitativen Analyse. Um diese Analysen zu ermöglichen wird vorab aus ERP-Daten und deren Zeitstempel der Prozessablauf softwaregestützt ermittelt und dargestellt - ein echtes Reverse Engineering auf Prozessebene.

Praktische Anwendung

Automatisierte Erstellung einer Prozessdarstellung aus Logdaten durch ein Process Mining-Tool (im Bild: ProM)
Foto: KPMG

Process Mining ist für Unternehmen interessant weil es für die Optimierung die gleiche Perspektive auf Verwaltungsprozesse erlaubt wie auf physische Produktionsprozesse. Im Vergleich zu Produktionsprozessen lassen sich administrative Prozesse nicht auf die gleiche einfache Art, wie z.B. durch Beobachtung der Produktion, analysieren. Bisher wird schwerpunktmäßig punktuell die Prozessqualität und -effizienz durch sogenannte Leistungsindikatoren (Key Performance Indicators - KPIs) gemessen.

Oft zeigen diese allerdings nur das Symptom und nicht die Ursache. Interessant daran ist auch, dass unterschiedliche Organisationen Herausforderungen in Prozessen an unterschiedlichen Stellen in den Prozessen haben. Dies hängt ab von Faktoren wie z.B. Geschäftsmodell, Automatisierungsgrad, Datenqualität bei Stammdaten oder dem Systemharmonisierungsgrad.

Die Betrachtung von Prozess-Herausforderungen auf der gesamten Prozesskette zeigt häufig, dass die Fehlerquelle nicht im organisatorischen Bereich der Einheit liegt, welche den Fehler zur weiteren Prozessbearbeitung klären muss.

Ein CFO im produzierenden Gewerbe bekannte kürzlich: "Wir haben durch Workflows unsere Prozesse automatisiert, allerdings ist der Kosteneinsparungseffekt nicht so nachhaltig wie erwartet". Ursache dafür war in diesem Fall, dass Prozessabweichungen durch die neuen Technologien zwar automatisiert unterstützt wurden, jedoch Klärungsfälle trotzdem noch manuell bearbeitet werden mussten. Die Automatisierung wurde somit ausgebremst.

Hierin erkennt man eine der wesentlichen Voraussetzungen für eine erfolgreiche Automatisierung: die Berücksichtigung des Lean Management-Prinzips "Null-Fehlertoleranz".

Ein Beispiel: Werden im Beschaffungsprozess in den Bestelldaten und Lieferantenstammdaten keine konsistenten Zahlungsbedingungen eingepflegt, kann dies für den Einkäufer eine Ersparnis von einigen Minuten darstellen. Nach Erhalt der Ware wird allerdings im buchhalterischen Prozess festgestellt, dass eine Abweichung auf der Rechnung des Lieferanten zur Bestellung und zum Lieferantenstammsatz besteht und diese geklärt werden muss.

Der Buchhalter wird nun erheblich mehr Zeit benötigen für die Klärung, da die Ursache des Problems nicht in seinem organisatorischen Umfeld zu suchen ist. In diesem Fall ist häufig noch ein möglicher Skontoabzug durch die Klärungsdauer in Gefahr.

Ausblick und Entwicklung

Bisherige Möglichkeiten der Kostenoptimierung in Prozessen erfahren eine wesentliche Ergänzung durch die mächtigen Darstellungs- und Analysemöglichkeiten von Process Mining-Tools. Sämtliche Erkenntnisse aus den tatsächlichen Prozessabläufen lassen sich über Wirtschaftlichkeitsrechnungen gut bewerten um somit eine Entscheidung für mögliche Anpassungsmaßnahmen vorzubereiten.

Im Gegensatz zu bisherigen Möglichkeiten der Prozessoptimierung wird insbesondere auch die gesamte (oft funktionsbereichsübergreifende) Prozesskette betrachtet. Aus der Zusammenarbeit der am Prozess beteiligten Funktionen sind weit größere Optimierungspotenziale realisierbar verglichen zu der Optimierung in der jeweiligen Funktion. Die transparente Darstellung der Zusammenhänge im Prozess erlaubt eine gezielte Diskussion zwischen den Unternehmensfunktionen und verhindert eine oft gesehene Auseinandersetzung auf Basis einzelner Problemfälle.

Die aktuelle Process Mining-Technologie ist vielen Unternehmen und Fachabteilungen aktuell noch unbekannt. Das Aufzeigen der Möglichkeiten dieser Technologie inspiriert vielfach die beteiligten Mitarbeiter und Manager zum Eruieren von weiterem Optimierungspotenzial und fördert eine Kultur der laufenden Verbesserung erheblich.

Diese Technologie wird mittelfristig Unternehmen noch erhebliche Vorteile bieten soweit sie in eine entsprechende Organisation und Prozesslandschaft eingebettet ist. Generell lässt sich aber auf jeden Fall festhalten, dass die Process Mining-Technologie ein neues Kapitel im Lean-Management für Verwaltungsfunktionen aufschlägt.

Auswahl aktuell verfügbarer Process Mining Tools

  • ARIS PPM (Software AG)

  • DISCO (Fluxicon)

  • ProM (Universität Eindhoven)

  • Futura Reflect (Futura Process Intelligence)

  • Perceptive Reflect (Perceptive Software)

Georg Knöpfle ist Partner bei KPMG Consulting.