#ResponsibleAI #GenAI #Digitalisierung #Innovation #EUDigitalstrategie
Mittlerweile hat sich herumgesprochen, dass Künstliche Intelligenz die Finanzbranche verändert. In kaum einem Bereich wird nicht über den möglichen Einsatz von KI nachgedacht – vom algorithmischen Handel und der Betrugserkennung bis hin zu Bots und Avataren im direkten Kundenumfeld. KI ist eine disruptive Technologie.
Doch der Erfolg ist nicht garantiert. Mögliche Vertrauensverluste bei Anwendern durch fehlende Nachvollziehbarkeit der Entscheidungen, können ein Risiko für die Anwendung solcher KI-Systeme sein. Aus gesellschaftlicher Sicht besteht das Risiko, dass ein KI-System unerwünschte Entscheidungen trifft. Mit beiden Risiken muss umgegangen werden.
Anwender wie Finanzinstitute müssen sicherstellen, dass diese Technologien verantwortungsvoll entwickelt und eingesetzt werden. Das umfasst Kategorien wie Fairness, Transparenz, Sicherheit und Robustheit. Im Kontext des Finanzsektors in der DACH-Region ist der in mehreren Dimensionen „verantwortungsvolle“ Einsatz von KI nicht nur optional, sondern unerlässlich. Begleitet durch strenge regulatorische Rahmenbedingungen und eine starke Betonung des Vertrauens.
Welche Herausforderungen gibt es mit Responsible AI und womit sehen sich Institutionen im Finanzsektor konfrontiert? Welche praktischen Schritte können Risiken reduzieren und gleichzeitig regulatorische Anforderungen erfüllen?
Responsible AI basiert auf mehreren Grundprinzipien, die Finanzinstitute in ihre KI-Strategie einbeziehen müssen:
Eines der Hauptprobleme im Zusammenhang mit KI im Finanzwesen ist das Risiko einer ungerechten Behandlung oder Voreingenommenheit bei der Entscheidungsfindung. Finanzinstitute können KI-Systeme beispielsweise zur Bestimmung der Kreditwürdigkeit bei Privatkunden oder die Aufdeckung von betrügerischen Transaktionen nutzen. Wenn die Daten, die zum Trainieren dieser KI-Modelle verwendet werden, historisch bedingte Verzerrungen enthalten, könnten die Modelle die ungerechte Behandlung bestimmter demografischer Gruppen aufrechterhalten oder sogar verstärken. Das kann zu ethisch unerwünschten Ergebnissen führen, wenn beispielsweise aufgrund eines Merkmals eine Person per se keinen Kredit bekommt. Die Festlegung von Fairness-Metriken und die Integration verschiedener Datensätze in das Trainingsmodell sind entscheidende Schritte, um solche Ergebnisse zu vermeiden.
Der Einsatz von KI-Systemen führt zudem zu Herausforderungen in Bezug auf Transparenz und Rechenschaftspflicht. Viele KI-Modelle arbeiten als „Black Boxes“, bei denen nicht einmal die Entwickler vollständig verstehen, wie die KI-Systeme zu bestimmten Entscheidungen kommen. Dieser Mangel an Erklärbarkeit kann erhebliche Risiken mit sich bringen, gerade wenn Entscheidungen sowohl gegenüber den Regulierungsbehörden als auch den Kunden gerechtfertigt werden müssen.
Erklärbare KI (Explainable AI, XAI) ist eine Schlüsselkomponente der „Responsible AI“, da sie es den Instituten ermöglicht, klare und verständliche Erklärungen zu liefern, wie KI-Modelle funktionieren und warum sie bestimmte Entscheidungen treffen.
Finanzinstitute müssen der Entwicklung und dem Einsatz von KI-Systemen Priorität einräumen, die nicht nur genau, sondern auch interpretierbar sind. Dies ist besonders wichtig, wenn KI-Systeme an automatisierten Entscheidungen beteiligt sind. Auch sei erwähnt, dass EU-Richtlinien wie der EU AI-Act hohe Anforderungen hinsichtlich transparenter KI-Systeme stellt.
KI-Systeme in Finanzinstituten sind häufig mit der Verarbeitung sensibler Kundendaten und dem Treffen hochwertiger Entscheidungen betraut. Daher müssen diese Systeme mit einem Höchstmaß an Sicherheit gewährleisten, um Datenschutzverletzungen zu verhindern.
Darüber hinaus sind KI-Modelle auch anderen Risiken ausgesetzt, insbesondere dem des „Modelldrifts“: KI-Systeme werden auf Daten der Vergangenheit trainiert. Damit wird die Annahme getroffen, dass die Zukunft ähnlichen Regeln folgt wie die Vergangenheit. Gerade die jüngste Vergangenheit hat mit dem russischen Angriff auf die Ukraine und der Corona-Pandemie zwei Beispiele auf globaler Ebene hervorgebracht, bei denen diese Annahme nicht mehr standhielt. Praktisch in Bezug auf KI-Systeme bedeuten diese sogenannten „Strukturbrüche“ eine kritische Notfallsituation für das KI-System, da es im schlimmsten Falle nicht mehr verwendbar ist und neu trainiert werden muss.
Wenn Daten der Vergangenheit nicht mehr aussagekräftig für die Zukunft sind, sind auch die Modelle nicht mehr aussagekräftig.
Dafür müssen nicht einmal globale Effekte vorliegen – schon die Änderung von gesetzlichen Regelungen für einen betrachteten Sachverhalt lässt einen sprichwörtlich in einer anderen Welt aufwachen. Genau mit solchem Risiko muss umgegangen werden.
Als Orientierung hilft es, vier Kernziele bei der Etablierung von „Responsible AI“ – Praktiken im Auge zu behalten:
1. Valide
2. aktuelle
3. regelkonforme
4. KI-Systeme bereitstellen und in der Praxis verantwortungsbewusst einsetzen.
Finanzinstitute müssen in das Datenqualitätsmanagement investieren, um sicherzustellen, dass die Daten, die zum Trainieren und Betreiben von KI-Systemen verwendet werden, genau, repräsentativ und aktuell sind. KI-Systeme sind nur so gut wie die Daten, auf denen sie trainiert werden. Ungenaue, unvollständige oder verzerrte Daten können zu fehlerhaften KI-Modellen führen, die qualitativ schlechte oder unethische Entscheidungen treffen.
Finanzinstitute müssen robuste Mechanismen für die kontinuierliche Überwachung und Aktualisierung von KI-Modellen einrichten, um sicherzustellen, dass sie weiterhin mit ethischen Standards und regulatorischen Anforderungen in Einklang stehen. Wenn KI-Systeme im Laufe der Zeit eingesetzt werden, sind sie neuen Daten, veränderten Marktbedingungen und einem sich ändernden Kundenverhalten ausgesetzt, was zu einem Modelldrift führt.
Finanzinstitute müssen KI-Governance-Rahmenwerke einrichten, die sicherstellen, dass KI-Systeme mit den Unternehmenswerten, ethischen Grundsätzen und regulatorischen Anforderungen in Einklang stehen. Der Aufbau eines entsprechenden KI-Risikomanagements steht im Zentrum. Vielen Finanzinstituten fehlt es an formalen Governance-Strukturen, um die Entwicklung und den Einsatz von KI zu überwachen. Ohne eine angemessene Governance besteht die Gefahr, dass KI-Systeme isoliert entwickelt werden, ohne dass eine ausreichende Aufsicht durch Rechts-, Compliance- und Ethik-Teams erfolgt.
Finanzinstitute müssen ihre Mitarbeitenden nicht nur zum praktischen Einsatz von KI schulen, sondern auch zu den Grenzen der Leistungsfähigkeit von KI-Systemen sensibilisiert werden. Um Prinzipien der „Responsible AI“ erfolgreich einzuführen, müssen Finanzinstitute auf allen Ebenen eine Kultur des verantwortungsvollen Umgangs mit KI entwickeln.
Wir von Horn & Company sind darauf spezialisiert, Finanzinstitute in der DACH-Region bei der Implementierung von „Responsible AI“ – Frameworks zu unterstützen. Unser Team bietet unter anderem effektive Lösungen für folgende Herausforderungen an:
Selbstverständlich sind wir auch an spannenden Diskussionen rund um das Thema interessiert – sprechen Sie uns gerne an!
Dr. David Bauder
E-Mail: david.bauder@horn-company.de
Bruno Dück
E-Mail: bruno.dueck@horn-company.ch
Dr. Oliver Laitenberger
E-Mail: oliver.laitenberger@horn-company.de
Ihr Tor zu Branchenkenntnissen und Expertenanalysen! Folgen Sie uns auf LinkedIn für exklusive Fachartikel und Einblicke.