Skip to main content

BaFinTech: Hawk AI über erklärbare Künstliche Intelligenz

bafintech_banner_explainableAI

Die BaFinTech 2022, die Innovationskonferenz der deutschen Bundesanstalt für Finanzdienstleistungen in Berlin, war nach zwei Jahren Pandemie eine sehr gut besuchte Veranstaltung der BaFin und der Bundesbank – mit den Spitzen der Finanzindustrie zu Gast. Bereits in Vorträgen von Mark Branson, Chef der BaFin, oder Dr. Joachim Wuermeling, Vorstandsmitglied der Bundesbank, wurde klar: die BaFin und die Bundesbank stellen sich längst nicht mehr die Frage, ob moderne Technologien eingesetzt werden dürfen, sondern wie diese zielgerichtet, sicher und erklärbar eingesetzt werden können – egal ob Cloud, Blockchain oder Künstliche Intelligenz.

Als einer von sehr wenigen Softwareherstellern, präsentierte Wolfgang Berner, CTO von Hawk AI, in einem 20 minütigen Impulsvortrag einen umfassenden Einblick in ein Thema, welches Banken in ganz Europa stark beschäftigt und ganz im Geiste der Veranstaltung stand: Künstliche Intelligenz erklärbar machen. An der anschließenden Podiumsdiskussion zum Thema „Maschinelles Lernen in Risikomodellen” nahmen neben Wolfgang auch Dr. Stefan Blochwitz, (Bankgeschäftliche Prüfung und Umsetzung internationaler Standards BBk), Dr. Christopher Lotz (Quantitative Risikomodellierung, BaFin) und Dr. Clemens Frey, (Partner, Ernst & Young GmbH) an der Diskussion teil. Hier sind die interessantesten Schlussfolgerungen aus dem Impulsvortrag und der Podiumsdiskussion:

 

Woher stammen die Befürchtungen einer Blackbox-KI? Wie löst eine umfassende KI-Erklärbarkeit das Problem?

In stark regulierten Bereichen wie der Geldwäschebekämpfung sind Überlegungen, wie transparent und nachvollziehbar die Anwendung einer Künstlichen Intelligenz ist, völlig angebracht. Klassische Bedenken gegenüber einer solchen „Blackbox-KI” entstehen insbesondere, wenn die Entscheidungen der KI zu sehr abgekoppelt von den Ursprungsdaten sind und wenn keine Transparenz über die Arbeitsweise der Algorithmen besteht.

Dass dieses Thema auch das Publikum der BaFinTech interessierte, wurde zuvor bereits in einer Frage an Dr. Wuermeling deutlich: „Dürfen bestimmte KI-Verfahren (Convolutional Neural Networks (CNNs)) nicht eingesetzt werden, weil sie nicht zu 100% mathematisch erklärbar sind?“ Die klare Antwort darauf – „Wir prüfen risikobasiert!“ – unterstreicht dabei passend, dass Künstliche Intelligenz in der Geldwäschebekämpfung in erster Linie kontextrelevant erklärbar sein muss. Solch ein zielgerichteter Ansatz ebnet ganz grundlegend den Weg für eine effektivere Bekämpfung von Geldwäsche durch neue Technologien.

KI transparenter und besser erklärbar zu machen ist daher ein essentieller Erfolgsfaktor von Hawk AI. Mittels einer transparenten Darstellung und automatisch erstellten Audit-Trails zu jeder KI-Entscheidung (also auditierbare Detailberichte) macht Hawk AI’s Lösung die Nutzung Künstlicher Intelligenz klar nachvollziehbar und damit compliant.

Hawk AI sieht in dem hohen Maß an Transparenz den Schlüssel für Vertrauen und Akzeptanz in der Compliance-Industrie. Aus diesem Grund geht für das Unternehmen die Notwendigkeit der KI-Erklärbarkeit weit über rein aufsichtsrechtliche Anforderungen hinaus.

Mit klar verständlicher KI behält man als Finanzinstitut immer die Übersicht und Kontrolle – und das auch bei äußerst komplexen Modellen wie neuronalen Netzen. Man sollte aber keinen PhD in Data Science haben müssen, um eine KI zu verstehen, die die eigenen Teams de facto als virtuelles Teammitglied aktiv unterstützt.

Erklärbarkeit setzt sich daher für Hawk AI aus zwei Bereichen zusammen:

• Was ist die Begründung für eine KI-getriebene, individuelle Entscheidung?
• Wie wurden die Algorithmen entwickelt, die zur KI beitragen (Model Governance)?

Dieser umfangreiche Blick auf Erklärbarkeit passt auch optimal in den risikobasierten Ansatz, den die Regulatorik vorsieht.

 

Erklärbarkeit individueller Entscheidungen der KI

Für Hawk AI ist klar - nur was fachlich erklärbar ist, wird am Ende auch akzeptiert. Die genauen Kriterien für eine Entscheidung oder die statistische Wahrscheinlichkeit für bestimmte Risiken und Zusammensetzung der Algorithmen zählen ebenso dazu wie eine lückenlose Dokumentation des KI-Entscheidungsprozesses. Essentiell ist dabei auch, dass all dies in klar verständlicher Sprache ausgedrückt wird und nicht in rein technischer Fachsprache.

Jedes Detail und jede Datenquelle müssen dabei überprüfbar sein, so zum Beispiel, ob bestimmte Werte auffällig hoch oder niedrig sind im Vergleich zu einer spezifischen Peer Group. Es muss dabei transparent sein, warum die KI bestimmte Erwartungswerte annimmt und auf welche Weise Werte miteinander korrelieren. Die Datenlage muss so klar sein, dass ein Compliance-Mitarbeiter mit denselben Daten zur selben Entscheidung kommen würde.

Zusätzlich helfen konsistente Feedback- und Validierungsprozesse die Entscheidungen stetig zu verbessern. Die KI lernt damit direkt von den Entscheidungen des Compliance-Teams und kann dieses zukünftig somit sogar noch besser unterstützen.

 

Erklärbarkeit der KI-Modellentstehung und Evolution

Aber nicht nur zu Beginn ihrer Anwendung muss die KI transparent sein – da sie durch den Kontakt mit neuen Daten selbstständig besser wird, ist es auch notwendig, solche Optimierungen nachvollziehen zu können. Deswegen wird jeder Veränderungsprozess der KI zusätzlich in der Software (auf der sogenannten Pipeline) festgehalten und bedarf expliziter Freigabe. Die KI entwickelt sich also niemals weiter, ohne dass es das Compliance-Team nachvollziehen und kontrollieren kann.

Man hat also immer die Kontrolle darüber, mit welchen Daten die KI trainiert wird und ob die verbesserte Version letztendlich auch zum Einsatz kommt. So kann bei regelmäßiger Überprüfung stets nachvollzogen werden, warum es möglicherweise zu Verbesserungen der Ergebnisse kommt.

 

KI-Geldwäschebekämpfung ist zum Einsatz bereit – mit Hawk AI ist sie transparent und sicher

Aus diesen Gründen spricht Hawk AI in Zusammenhang mit Künstlicher Intelligenz von einer „Whitebox-KI”, deren Technologie im Gegensatz zur „Blackbox-KI” für das Compliance-Team ganz und gar verständlich ist. Unsere Software bietet daher vollständige Kontrolle und somit Sicherheit. Die Anwendung von Künstlicher Intelligenz in der Finanzbranche revolutioniert den Kampf gegen Finanzkriminalität nachhaltig.

Technologiegetriebene Geldwäschebekämpfung übertrifft traditionelle Systeme nicht nur deutlich in Effizienz und Effektivität, sondern ist durch ihre Fähigkeit aus kriminellen Verhaltensmustern zu lernen, auch besonders zukunftssicher. Der Einsatz von KI gegen Finanzkriminalität wird damit langfristig zum Industriestandard werden. Die Technologie hat sich bereits seit Jahren in der Praxis bewiesen. Selbst in sehr großen Finanzinstitutionen ist sie heute schon im Einsatz oder zumindest in ersten Piloten etabliert.


Share this page