Tobias Bumm/ Dezember 14, 2020/ Uncategorized

Finanzdienstleister und Unternehmen haben die Verpflichtung, das Finanzsystem vor kriminellem Missbrauch zu schützen. Doch die Prozesse zur Aufdeckung von Finanzkriminalität sind oft durch ein hohes Maß an manueller, repetitiver und datenintensiver Arbeit gekennzeichnet. Dank Künstlicher Intelligenz (KI) hat der Finanzsektor kostengünstige Möglichkeiten, Finanzkriminalität effektiver zu bekämpfen.

Eine Gratwanderung für Banken

KI kann einen großen Beitrag zur Bekämpfung von Finanzkriminalität leisten. Allerdings ist eine große Schwachstelle das Auftreten von Fehlalarmen. Das sind entweder Transaktionen, die einen Alarm ausgelöst haben und sich nach einer Untersuchung als nicht verdächtig erweisen oder Fälle, die einen Alarm auslösen hätten sollen, aber nicht entdeckt wurden. So frustrierend es auch sein mag, Ressourcen verbraucht zu haben für einen Fall, der schon zu Beginn der Entdeckung hätte gelöst werden können, schlimmer sind die nicht entdeckten Fälle. Banken bewegen sich hier auf einem schmalen Grat, um die richtige Entscheidung zu treffen.

Durch den Einsatz von KI-Lösungen können die meisten Compliance-Warnungen schnell verarbeitet und auch (vor-)entschieden werden. Auf diese Weise wird ein Teil der Arbeitslast, die auf den Compliance-Mitarbeitern lastet, deutlich reduziert. Ein kritisches Problem bei der Verwendung von KI für Entscheidungsprozesse ist jedoch, dass die Algorithmen des maschinellen Lernens zwar eine hohe Präzision erreichen, aber nicht leicht nachvollzogen werden kann, wie eine Empfehlung zustande kommt. Kunden möchten vielleicht wissen, warum ihr Guthaben eingefroren ist oder ihr Kreditantrag abgelehnt wurde. Es ist daher sehr wichtig, dass die Modelle erklärt werden können und keine Black Box darstellen.

Öffnen der Black Box?

Explainable AI (XAI) ist eine wichtige Entwicklung KI-Modelle erklärbar, transparent und verständlich zu machen. Es ermöglicht die Modelle zu verstehen und damit die Vorteile, die solche KI-Systeme bieten, effektiv zu nutzen. Gleichzeitig wird eine hohe Vorhersagegenauigkeit erzielt. Um Modelltransparenz zu schaffen, experimentieren viele Institutionen mit maschinenbasierten Ansätzen in Kombination mit Transparenztechniken wie LIME oder Shapley-Werten. Das letztgenannte Beispiel ist ein einheitlicher Ansatz zur Erklärung der Vorhersage eines beliebigen maschinellen Lernmodells. Dazu wird jedem Merkmal, das im Modell verwendet wird, ein relativer Wichtigkeitswert zugewiesen: ein SHAP-Wert. Diese SHAP-Werte schlüsseln eine Vorhersage auf, um die Auswirkung jedes Faktors anzuzeigen. Somit kann zum Beispiel erklärt werden, warum der Kreditantrag eines Kunden abgelehnt wurde.

Diese Modelle und Anwendungen werden ständig weiterentwickelt und verbessert. Aber Compliance-Beauftragte und Mitarbeiter werden in absehbarer Zeit weiterhin eine große Rolle in allen Prozessen spielen.


Mehr zum Thema Künstliche Intelligenz und Compliance: