Compliance: Warum die Nachvollziehbarkeit von Entscheidungen wichtig ist

Compliance: 5 Gründe, warum die Nachvollziehbarkeit von Entscheidungen wichtig ist
© Aboltin – stock.adobe.com

Zahlreiche neue Gesetze und Verordnungen und gleichzeitig immer professioneller werdende kriminelle Aktivität machen die Arbeit von Compliance-Abteilungen in Banken und Versicherungen zunehmend komplexer. Unterstützung durch Künstliche Intelligenz in Form von Machine Learning kommt da wie gerufen, um bei der Analyse und Bewertung riesiger Datenmengen zu helfen.

Doch es ist wichtig, der neuen Technologie nicht blind zu vertrauen. Stattdessen sollte man ihre Funktionsweise kennen, um sie optimal einzusetzen. Thomas Ohlemacher, Produkt Manager bei ACTICO zeigt fünf Gründe auf, warum es für die Banken-Compliance zentral ist, die Entscheidungen von Machine-Learning-Anwendungen nachvollziehen zu können:

1. Vorgaben der BaFin erfüllen

Die Bundesanstalt für Finanzdienstleistungsaufsicht gibt klar vor, dass die Erklärbarkeit von verwendeten Modellen zu gewährleisten ist. In der bereits 2018 veröffentlichten Studie „Big Data trifft auf künstliche Intelligenz“ schreibt die BaFin:

„Es liegt in der Verantwortung des beaufsichtigten Unternehmens, die Erklärbarkeit/ Nachvollziehbarkeit von BDAI-basierten Entscheidungen [Big Data Artificial Intelligence] für sachkundige Dritte zu gewährleisten. Modelle lediglich als Blackbox zu betrachten, sieht die Aufsicht kritisch. Durch neue Ansätze ist es den Unternehmen, die diese Modelle verwenden, zumindest möglich, Einblicke in die Funktionsweise des Modells zu erhalten und die Gründe für Entscheidungen kenntlich zu machen.“

2. Vertrauen durch Transparenz aufbauen

In Unternehmen herrscht gegenüber KI-Technologien oft große Skepsis und Ablehnung. Das liegt häufig daran, dass die Beteiligten nicht verstehen, was die Lösung im Detail tut.

Daher ist es für Unternehmen, die die Akzeptanz der neuen Technologie fördern wollen, wichtig, den Schritt von einer undurchschaubaren Black Box zu einer White Box zu gehen. Das bedeutet, Machine-Learning-Prozesse mit ihren Regeln so darzustellen, dass auch Dritte sie verstehen und somit klar ersichtlich wird, wie bestimmte Entscheidungen zustande kommen.

So kann der Compliance Manager die nötige Transparenz schaffen, um das Vertrauen aller Stakeholder im Unternehmen zu gewinnen und zu einem compliance-konformen Verhalten zu motivieren.

3. Optimierung erfordert Verständlichkeit

Um die Qualität des automatisierten Analyseprozesses kontinuierlich zu verbessern, muss man seine Funktionsweise verstehen. Ergebnisse auf Basis selbstlernender Algorithmen müssen kontrolliert werden, um die Richtigkeit der Entscheidungsparameter zu überprüfen, Auffälligkeiten festzustellen und das System nachjustieren zu können. Findet das nicht statt, kann es zu schweren Problemen kommen.

Veränderte Rahmenbedingungen oder statistische Ungenauigkeiten können im Zeitverlauf dazu führen, dass eigentlich harmlose Transaktionen versehentlich als Geldwäsche, Betrug oder Marktmissbrauch eingestuft werden.

Nur, wenn sich die KI-gestützten Prozesse genau nachvollziehen lassen, sind Rückschlüsse darauf möglich, wo und warum ein falscher Treffer entstanden ist. Mit diesen Informationen kann das System dann entsprechend angepasst werden.

4. Bessere Kommunikation durch nachvollziehbare ML-Entscheidungen

Wurde eine Transaktion fälschlicherweise als Betrug, Geldwäsche oder Marktmissbrauch eingestuft, herrscht bei den zuständigen Personen natürlich Erklärungsbedarf. Wenn das System einen Treffer liefert, dann muss der Verantwortliche zunächst anhand der Entscheidungsparameter überprüfen können, ob dieser wirklich gerechtfertigt oder nicht relevant ist.

Dazu muss er wissen, wie die Software diese Transaktion beurteilt hat und welche konkreten kombinierten Eigenschaften zu diesem Ergebnis geführt haben. Auf dieser Basis kann er vom Kunden gegebenenfalls weitere Informationen einholen, die den Verdacht erhärten oder widerlegen. Und er kann den Fall entsprechend an die Behörden kommunizieren.

5. Bessere Trefferquote und sinkende Kosten

Die Nachvollziehbarkeit von ML-Entscheidungen sorgt für eine stetige Qualitätsverbesserung, optimierte Treffer und vereinfachte Prüfung von Compliance-Fällen. So lässt sich die Zahl unnötiger Abklärungen infolge eines falschen Treffers (False Positive), die mit hohem manuellem Prüfungsaufwand verbunden sind, deutlich reduzieren.

Die Kundenbetreuer werden von einer Vielzahl „sinnloser“ Treffer entlastet und können sich auf wirklich relevante Aufgaben konzentrieren. So macht die Erklärbarkeit von Machine-Learning-Entscheidungen eine effiziente Optimierung des Systems möglich, was Kosten deutlich reduziert.