Analytics für Compliance

In-Memory erkennt Muster von Betrügern



Martin Solberg ist Director Banking bei Sopra Steria Consulting und beschäftigt sich in dieser Position seit 1999 mit der Analyse von Kundeninformationen. Der studierte Wirtschaftsingenieur ist fokussiert auf das digitale Enabling von Finanzdienstleistern.

Um beispielsweise im Bereich Betrugsmanagement komplexe Prozesse transparent zu machen, müssen Unternehmen - je nach Branche - Massendaten aus den unterschiedlichsten Quellen wie zum Beispiel Personenanzahl, Flugbuchungen und Hotelzimmerreservierungen kombinieren.

Umfassende Regelwerke erforderlich

Eine solche Auswertung lässt sich nur mit umfassenden Regelwerken durchführen, unter anderem mit der Fähigkeit zur Analyse von Beziehungsnetzwerken. Tendenziell verlängern sie die Laufzeiten und produzieren mehr Auffälligkeiten. Dadurch steigt die Anzahl der echten Treffer und die Quote der Fehlalarme wird schlechter.

Um dies zu verhindern, sind strengere Regeln mit komplexerer Bedingungsstruktur beziehungsweise Kontra-Indikatoren erforderlich. Sie kennzeichnen legitimes Verhalten und erhöhen die Produktivität der Investigation.

Die Laufzeiten steigen eventuell prohibitiv an und die zeitliche Distanz zwischen betrügerischer Aktion und Entdeckung wird größer. Das schränkt die Handlungsmöglichkeiten zur Schadensminderung ein.

Dreistufige Einführung von In-Memory

Die beauftragten Unternehmensverantwortlichen für Informationssicherheit, Risiken und Compliance sind nicht immer in der Lage, die Möglichkeiten von In-Memory-Datenbanken zu erkennen. Denn die fehlende Ex-ante-Transparenz über den erzielbaren Nutzen stellt eine große Hürde dar. Durch eine dreistufige Einführung lässt sich diese leichter überwinden, wenn auf jeder Stufe Transparenz über die erschlossenen Vorteile und die Investition herrscht:

Stufe1 : Technologie-Transformation

Die existierende konventionelle Technologie-Infrastruktur wird durch die neue Infrastruktur ersetzt und die bestehende Prüflogik eins zu eins abgebildet. Dadurch müssen bestehende Prozesse nicht oder nur wenig verändert werden. Investments und Friktionen bleiben gering, die Akzeptanz der Anwender ist hoch.

Stufe 2: Fortgeschrittene Prüflogik

Die konventionelle Regelbasis wird erweitert sowie geschärft und Kontra-Indikatoren werden eingeführt. Dazu ist kein spezielles Know-how notwendig. Die Zahl der verifizierten Treffer wird erhöht und die "False Positives" reduziert. Die Qualitätsoptimierung sorgt für Effizienzgewinne und spart Kosten.

Stufe 3: Paradigmenwechsel

Ergänzend oder ersetzend werden neue Analyse- und Prüfmethoden eingesetzt. Die Kundensegmentierung erfolgt auf Basis des Transaktionsverhaltens, die Entdeckung wird um Mechanismen der selbstständigen Musteridentifikation ergänzt. Mit Methoden der Predictive Analytics lassen sich Verdachtsmomente sammeln und prognostizieren. Riskante Transaktionen können vor ihrer Ausführung in einen zusätzlichen Prüfungs- und Autorisierungsprozess übergeleitet werden. Der Schadenseintritt wird verhindert. Dazu ist neues methodisches Know-how notwendig, das während der ersten beiden Stufen aufgebaut werden kann.

Mit dieser Vorgehensweise lassen sich Nutzenpotenziale der In-Memory-Technologien schrittweise erschließen und Investitionen sowie Prozessänderungen "schlank" halten. Durch die Performanz der In-Memory-Technologien können Entdeckung, Investigation, Case-Management und ReportingReporting verschiedener Sachgebiete in einer Anwendung integriert werden. Alles zu Reporting auf CIO.de

Fazit

Die neuen digitalen Zugangskanäle sowie die Endgeräte eröffnen sowohl Kunden als auch Betrügern neue Handlungsmöglichkeiten. Zugunsten der Bedienbarkeit verzichten viele Unternehmen darauf, einzelne Geräte ihrer Kunden zu autorisieren. Mit Hilfe von Informationen wie "User Agent" und Geotargeting lassen sich im Zusammenhang mit Kunden- und Produktraten betrügerische Merkmale erkennen.

In Kombination mit einem "Security-Information-Event-Management-System" (SIEM), das Log-Informationen auf Basis verhaltensbasierter Muster prüft, steigt die Erkennungsrate deutlich an. Durch den Aufbau eines umfangreichen Datenpools und einer flexiblen Verarbeitung lassen sich aktuelle und zukünftige Anforderungen erfüllen.

Zur Startseite