BSI Whitepaper zum Konzept der erklärbaren Künstlichen Intelligenz - XAI

Künstliche Intelligenz (KI) ist längst im Alltag angekommen. Sie entscheidet, ob ein Kredit bewilligt wird, bewertet Risiken in Versicherungsverträgen oder schlägt Diagnosen in der Medizin vor. Doch wie diese Entscheidungen zustande kommen, bleibt für viele ein Rätsel. Häufig arbeiten KI-Systeme wie eine „Blackbox“: Sie liefern Ergebnisse, die zwar oft hochpräzise, aber schwer bis gar nicht nachvollziehbar sind. Genau hier setzt das Konzept der erklärbaren Künstlichen Intelligenz – Explainable AI (XAI) – an.

(PDF)
Das Ziel von XAI ist es, Entscheidungen von KI-Systemen transparent zu machen.Das Ziel von XAI ist es, Entscheidungen von KI-Systemen transparent zu machen.Foto: Adobestock

Das Ziel von XAI ist es, Entscheidungen von KI-Systemen transparent zu machen. Sie soll Nutzern, Unternehmen und Behörden zeigen, warum ein System zu einem bestimmten Ergebnis gekommen ist. Das Bundesamt für Sicherheit in der Informationstechnik (BSI) hat sich diesem Thema in einem aktuellen Whitepaper gewidmet. Darin analysiert die Behörde die Chancen und Herausforderungen von XAI, zeigt Schwachstellen aktueller Methoden auf und diskutiert, wie KI-Entscheidungen nachvollziehbar und manipulationssicher gestaltet werden können.

Ein Blick in die Praxis: Kreditentscheidungen und erklärbare KI

Ein Beispiel für den Nutzen von XAI ist die Kreditvergabe. Automatisierte Systeme analysieren hier verschiedene Daten – wie Einkommen, Kredithistorie oder Beschäftigungsverhältnisse – und treffen darauf basierend Entscheidungen über Anträge. Wird ein Antrag abgelehnt, bleibt den Betroffenen oft unklar, warum. Diese fehlende Transparenz kann schnell zu Frustration führen, besonders wenn Entscheidungen als willkürlich wahrgenommen werden.

Mit XAI könnte genau das verhindert werden. So könnte ein Algorithmus erklären:
„Ihr Antrag wurde abgelehnt, da Ihr Einkommen unterhalb der erforderlichen Schwelle liegt und Ihre Kredithistorie in den letzten zwei Jahren mehrere Zahlungsausfälle aufweist.“ Gleichzeitig könnten Vorschläge gemacht werden, wie ein Antrag in Zukunft erfolgreicher sein könnte:
„Erhöhen Sie Ihr Einkommen und reduzieren Sie offene Verbindlichkeiten, um Ihre Chancen auf Genehmigung zu verbessern.“

Doch auch hier gibt es Herausforderungen: Wie kann sichergestellt werden, dass die gelieferten Erklärungen korrekt, konsistent und nicht manipulierbar sind? Das BSI-Whitepaper stellt genau diese Fragen und untersucht, welche technischen und ethischen Hürden dabei zu überwinden sind.

Die Herausforderungen: Wo XAI an ihre Grenzen stößt

Das Whitepaper analysiert die Schwierigkeiten, die bei der Entwicklung und Anwendung von erklärbaren KI-Systemen auftreten. Drei zentrale Problemfelder werden dabei besonders hervorgehoben:

  1. Uneinigkeit zwischen Erklärungsansätzen: Verschiedene Methoden zur Erklärbarkeit, wie SHAP oder LIME, liefern oft unterschiedliche oder sogar widersprüchliche Ergebnisse – selbst wenn sie dieselbe Entscheidung analysieren. Diese Uneinigkeit erschwert es, verlässliche und konsistente Aussagen über die Funktionsweise eines KI-Systems zu treffen.
  2. Manipulationsgefahr: Die Erklärungen von KI-Systemen können gezielt manipuliert werden. So könnten Angreifer oder fehlerhafte Systeme falsche Begründungen liefern, um diskriminierende oder fehlerhafte Entscheidungen zu verschleiern.
  3. Fairwashing: Unfaire oder diskriminierende Algorithmen könnten durch manipulative Erklärungen als unproblematisch erscheinen. Damit besteht die Gefahr, dass problematische KI-Systeme nicht ausreichend hinterfragt werden.

Laut Whitepaper sind diese Herausforderungen nicht nur technischer Natur. Auch ethische und regulatorische Fragen spielen eine zentrale Rolle, etwa wie diskriminierungsfreie und sichere KI-Anwendungen gewährleistet werden können.

Erklärbarkeit in zwei Ansätzen: Post-hoc Methoden und White-Box-Modelle

Das Whitepaper unterscheidet zwischen zwei grundsätzlichen Herangehensweisen zur Erklärbarkeit:

  • Post-hoc Erklärungen: Hier wird versucht, die Entscheidungen einer KI im Nachhinein verständlich zu machen. Diese Ansätze werden oft bei komplexen „Blackbox“-Modellen wie neuronalen Netzen eingesetzt, deren innere Prozesse nicht direkt nachvollziehbar sind.
  • White-Box-Modelle: Diese KI-Modelle werden von vornherein so entwickelt, dass ihre Funktionsweise transparent ist. Sie bieten von sich aus Erklärbarkeit, sind jedoch meist weniger leistungsfähig als Blackbox-Modelle.

Das Whitepaper betont, dass die Wahl zwischen diesen Ansätzen vom jeweiligen Anwendungsfall abhängt. In sicherheitskritischen Bereichen wie der Medizin oder der Kreditvergabe könnten White-Box-Modelle bevorzugt werden, während in anderen Anwendungen leistungsstarke Blackbox-Modelle mit post-hoc Erklärungen zum Einsatz kommen.

Lösungsansätze und regulatorische Anforderungen

Um die Herausforderungen der erklärbaren KI zu bewältigen, stellt das BSI-Whitepaper verschiedene Lösungsansätze vor. Dazu gehören:

  • Standardisierung: Einheitliche Standards und Richtlinien könnten die Konsistenz und Verlässlichkeit von Erklärungen verbessern und Vergleichbarkeit schaffen.
  • Manipulationssichere Methoden: Neue technologische Ansätze sollen verhindern, dass Erklärungen verfälscht werden können.
  • White-Box-Audits: Besonders in sicherheitskritischen Anwendungen könnten White-Box-Modelle verstärkt zum Einsatz kommen, um Transparenz und Nachvollziehbarkeit zu gewährleisten.

Das Whitepaper bezieht sich auch auf die geplante EU-KI-Verordnung (KI-VO), die Transparenz und Diskriminierungsfreiheit bei automatisierten Entscheidungen fordert. XAI könnte dazu beitragen, diese Vorgaben zu erfüllen. Gleichzeitig wird darauf hingewiesen, dass die praktische Umsetzung solcher Anforderungen zusätzliche Forschung und Entwicklung erfordert.

Forschung und Zusammenarbeit als Schlüssel

Die Weiterentwicklung von XAI setzt eine enge Zusammenarbeit zwischen Forschung, Wirtschaft und Regulierungsbehörden voraus. Im Whitepaper wird betont, dass neben technologischen Innovationen auch ethische Fragen geklärt werden müssen. Dazu zählen etwa die Verantwortung von Entwicklern für KI-Systeme, der Umgang mit verzerrten Daten und die Frage, wie viel Verantwortung Menschen an Algorithmen abgeben sollten.

Die Entwicklung manipulationssicherer und konsistenter Erklärungsansätze wird dabei als zentrale Aufgabe für die Zukunft gesehen. Gleichzeitig wird darauf hingewiesen, dass XAI kein Ersatz für eine umfassende Regulierung ist, sondern nur ein Baustein für mehr Transparenz und Vertrauen in KI-Systeme.

Versuch der Transparenzerzeugung

Das BSI-Whitepaper beleuchtet die Chancen und Herausforderungen von erklärbarer Künstlicher Intelligenz. Es stellt heraus, dass XAI eine zentrale Rolle dabei spielen kann, die oft als „Blackbox“ wahrgenommenen KI-Systeme transparenter zu machen. Gleichzeitig werden die Grenzen der Technologie aufgezeigt, insbesondere die Uneinigkeit zwischen Erklärungsansätzen, die Gefahr von Manipulationen und die Problematik des Fairwashings.

Mit Blick auf zukünftige Entwicklungen wird die Bedeutung von Standardisierung, manipulationssicheren Methoden und einer engen Zusammenarbeit zwischen Forschung, Wirtschaft und Politik hervorgehoben. Die Rolle von XAI wird dabei auch im Kontext der geplanten EU-KI-Verordnung diskutiert, die Transparenz und Nachvollziehbarkeit in den Mittelpunkt stellt.


Dirk Pappelbaum

Dirk Pappelbaum, Jahrgang 1971, studierte in Leipzig Mathematik. Heute ist er CEO der Inveda.net, einer Firma in Leipzig, die sich auf Software für Versicherungsmakler spezialisiert hat.

MEHR ERFAHREN
(PDF)

Unsere Themen im Überblick

Informieren Sie sich über aktuelle Entwicklungen und Hintergründe aus zentralen Bereichen der Branche.

Themenwelt

Praxisnahe Beiträge zu zentralen Themen rund um Vorsorge, Sicherheit und Alltag.

Wirtschaft

Analysen, Meldungen und Hintergründe zu nationalen und internationalen Wirtschaftsthemen.

Management

Strategien, Tools und Trends für erfolgreiche Unternehmensführung.

Recht

Wichtige Urteile, Gesetzesänderungen und rechtliche Hintergründe im Überblick.

Finanzen

Neuigkeiten zu Märkten, Unternehmen und Produkten aus der Finanzwelt.

Assekuranz

Aktuelle Entwicklungen, Produkte und Unternehmensnews aus der Versicherungsbranche.

Die neue Ausgabe kostenlos im Kiosk

Werfen Sie einen Blick in die aktuelle Ausgabe und überzeugen Sie sich selbst vom ExpertenReport. Spannende Titelstories, fundierte Analysen und hochwertige Gestaltung – unser Magazin gibt es auch digital im Kiosk.

"Das Gesamtpaket muss stimmen"
Ausgabe 05/25

"Das Gesamtpaket muss stimmen"

Bernd Einmold & Sascha Bassir
„Im Vertrieb werden wir unsere Aktivitäten ausbauen und die Kapazitäten dafür verstärken”
Ausgabe 03/25

„Im Vertrieb werden wir unsere Aktivitäten ausbauen und die Kapazitäten dafür verstärken”

Dr. Florian Sallmann
"Schema F gibt es nicht mehr"
Ausgabe 10/24

"Schema F gibt es nicht mehr"

Michael Schillinger & Andreas Bahr
Kostenlos

Alle Ausgaben entdecken

Blättern Sie durch unser digitales Archiv im Kiosk und lesen Sie alle bisherigen Ausgaben des ExpertenReports. Zur Kiosk-Übersicht