Künstliche Intelligenz (KI) ist längst im Alltag angekommen. Sie entscheidet, ob ein Kredit bewilligt wird, bewertet Risiken in Versicherungsverträgen oder schlägt Diagnosen in der Medizin vor. Doch wie diese Entscheidungen zustande kommen, bleibt für viele ein Rätsel. Häufig arbeiten KI-Systeme wie eine „Blackbox“: Sie liefern Ergebnisse, die zwar oft hochpräzise, aber schwer bis gar nicht nachvollziehbar sind. Genau hier setzt das Konzept der erklärbaren Künstlichen Intelligenz – Explainable AI (XAI) – an.
Das Ziel von XAI ist es, Entscheidungen von KI-Systemen transparent zu machen. Sie soll Nutzern, Unternehmen und Behörden zeigen, warum ein System zu einem bestimmten Ergebnis gekommen ist. Das Bundesamt für Sicherheit in der Informationstechnik (BSI) hat sich diesem Thema in einem aktuellen Whitepaper gewidmet. Darin analysiert die Behörde die Chancen und Herausforderungen von XAI, zeigt Schwachstellen aktueller Methoden auf und diskutiert, wie KI-Entscheidungen nachvollziehbar und manipulationssicher gestaltet werden können.
Ein Blick in die Praxis: Kreditentscheidungen und erklärbare KI
Ein Beispiel für den Nutzen von XAI ist die Kreditvergabe. Automatisierte Systeme analysieren hier verschiedene Daten – wie Einkommen, Kredithistorie oder Beschäftigungsverhältnisse – und treffen darauf basierend Entscheidungen über Anträge. Wird ein Antrag abgelehnt, bleibt den Betroffenen oft unklar, warum. Diese fehlende Transparenz kann schnell zu Frustration führen, besonders wenn Entscheidungen als willkürlich wahrgenommen werden.
Mit XAI könnte genau das verhindert werden. So könnte ein Algorithmus erklären:
„Ihr Antrag wurde abgelehnt, da Ihr Einkommen unterhalb der erforderlichen Schwelle liegt und Ihre Kredithistorie in den letzten zwei Jahren mehrere Zahlungsausfälle aufweist.“ Gleichzeitig könnten Vorschläge gemacht werden, wie ein Antrag in Zukunft erfolgreicher sein könnte:
„Erhöhen Sie Ihr Einkommen und reduzieren Sie offene Verbindlichkeiten, um Ihre Chancen auf Genehmigung zu verbessern.“
Doch auch hier gibt es Herausforderungen: Wie kann sichergestellt werden, dass die gelieferten Erklärungen korrekt, konsistent und nicht manipulierbar sind? Das BSI-Whitepaper stellt genau diese Fragen und untersucht, welche technischen und ethischen Hürden dabei zu überwinden sind.
Die Herausforderungen: Wo XAI an ihre Grenzen stößt
Das Whitepaper analysiert die Schwierigkeiten, die bei der Entwicklung und Anwendung von erklärbaren KI-Systemen auftreten. Drei zentrale Problemfelder werden dabei besonders hervorgehoben:
- Uneinigkeit zwischen Erklärungsansätzen: Verschiedene Methoden zur Erklärbarkeit, wie SHAP oder LIME, liefern oft unterschiedliche oder sogar widersprüchliche Ergebnisse – selbst wenn sie dieselbe Entscheidung analysieren. Diese Uneinigkeit erschwert es, verlässliche und konsistente Aussagen über die Funktionsweise eines KI-Systems zu treffen.
- Manipulationsgefahr: Die Erklärungen von KI-Systemen können gezielt manipuliert werden. So könnten Angreifer oder fehlerhafte Systeme falsche Begründungen liefern, um diskriminierende oder fehlerhafte Entscheidungen zu verschleiern.
- Fairwashing: Unfaire oder diskriminierende Algorithmen könnten durch manipulative Erklärungen als unproblematisch erscheinen. Damit besteht die Gefahr, dass problematische KI-Systeme nicht ausreichend hinterfragt werden.
Laut Whitepaper sind diese Herausforderungen nicht nur technischer Natur. Auch ethische und regulatorische Fragen spielen eine zentrale Rolle, etwa wie diskriminierungsfreie und sichere KI-Anwendungen gewährleistet werden können.
Erklärbarkeit in zwei Ansätzen: Post-hoc Methoden und White-Box-Modelle
Das Whitepaper unterscheidet zwischen zwei grundsätzlichen Herangehensweisen zur Erklärbarkeit:
- Post-hoc Erklärungen: Hier wird versucht, die Entscheidungen einer KI im Nachhinein verständlich zu machen. Diese Ansätze werden oft bei komplexen „Blackbox“-Modellen wie neuronalen Netzen eingesetzt, deren innere Prozesse nicht direkt nachvollziehbar sind.
- White-Box-Modelle: Diese KI-Modelle werden von vornherein so entwickelt, dass ihre Funktionsweise transparent ist. Sie bieten von sich aus Erklärbarkeit, sind jedoch meist weniger leistungsfähig als Blackbox-Modelle.
Das Whitepaper betont, dass die Wahl zwischen diesen Ansätzen vom jeweiligen Anwendungsfall abhängt. In sicherheitskritischen Bereichen wie der Medizin oder der Kreditvergabe könnten White-Box-Modelle bevorzugt werden, während in anderen Anwendungen leistungsstarke Blackbox-Modelle mit post-hoc Erklärungen zum Einsatz kommen.
Lösungsansätze und regulatorische Anforderungen
Um die Herausforderungen der erklärbaren KI zu bewältigen, stellt das BSI-Whitepaper verschiedene Lösungsansätze vor. Dazu gehören:
- Standardisierung: Einheitliche Standards und Richtlinien könnten die Konsistenz und Verlässlichkeit von Erklärungen verbessern und Vergleichbarkeit schaffen.
- Manipulationssichere Methoden: Neue technologische Ansätze sollen verhindern, dass Erklärungen verfälscht werden können.
- White-Box-Audits: Besonders in sicherheitskritischen Anwendungen könnten White-Box-Modelle verstärkt zum Einsatz kommen, um Transparenz und Nachvollziehbarkeit zu gewährleisten.
Das Whitepaper bezieht sich auch auf die geplante EU-KI-Verordnung (KI-VO), die Transparenz und Diskriminierungsfreiheit bei automatisierten Entscheidungen fordert. XAI könnte dazu beitragen, diese Vorgaben zu erfüllen. Gleichzeitig wird darauf hingewiesen, dass die praktische Umsetzung solcher Anforderungen zusätzliche Forschung und Entwicklung erfordert.
Forschung und Zusammenarbeit als Schlüssel
Die Weiterentwicklung von XAI setzt eine enge Zusammenarbeit zwischen Forschung, Wirtschaft und Regulierungsbehörden voraus. Im Whitepaper wird betont, dass neben technologischen Innovationen auch ethische Fragen geklärt werden müssen. Dazu zählen etwa die Verantwortung von Entwicklern für KI-Systeme, der Umgang mit verzerrten Daten und die Frage, wie viel Verantwortung Menschen an Algorithmen abgeben sollten.
Die Entwicklung manipulationssicherer und konsistenter Erklärungsansätze wird dabei als zentrale Aufgabe für die Zukunft gesehen. Gleichzeitig wird darauf hingewiesen, dass XAI kein Ersatz für eine umfassende Regulierung ist, sondern nur ein Baustein für mehr Transparenz und Vertrauen in KI-Systeme.
Versuch der Transparenzerzeugung
Das BSI-Whitepaper beleuchtet die Chancen und Herausforderungen von erklärbarer Künstlicher Intelligenz. Es stellt heraus, dass XAI eine zentrale Rolle dabei spielen kann, die oft als „Blackbox“ wahrgenommenen KI-Systeme transparenter zu machen. Gleichzeitig werden die Grenzen der Technologie aufgezeigt, insbesondere die Uneinigkeit zwischen Erklärungsansätzen, die Gefahr von Manipulationen und die Problematik des Fairwashings.
Mit Blick auf zukünftige Entwicklungen wird die Bedeutung von Standardisierung, manipulationssicheren Methoden und einer engen Zusammenarbeit zwischen Forschung, Wirtschaft und Politik hervorgehoben. Die Rolle von XAI wird dabei auch im Kontext der geplanten EU-KI-Verordnung diskutiert, die Transparenz und Nachvollziehbarkeit in den Mittelpunkt stellt.
Themen:
LESEN SIE AUCH
Professionalisierung der Cyber-Bedrohungen erreicht laut BSI-Bericht neue Dimension
Der aktuelle Bericht des Bundesamtes für Sicherheit in der Informationstechnik (BSI) zur IT-Sicherheitslage 2024 verdeutlicht die sich weiter zuspitzende Bedrohungslage im digitalen Raum.
Sicherheitslücken bei Smartphones: Elektronikmarkt muss nicht informieren
Erleichterungen im Arbeitsrecht: Was das Bürokratieentlastungsgesetz IV bringt
Das Bürokratieentlastungsgesetz IV, das am 1. Januar 2025 in Kraft trat, sorgt für einige Änderungen im Arbeitsrecht. Rechtsanwältin Sarah Kolß (Kanzlei Michaelis) erklärt, welche Neuerungen Arbeitgeber beachten sollten und wo weiterhin Vorsicht geboten ist.
Minijob 2025: Höhere Verdienstgrenze dank gestiegenem Mindestlohn
Im Jahr 2025 dürfen Minijobber durchschnittlich 556 Euro pro Monat verdienen – 18 Euro mehr als im Vorjahr. Der Lohnsteuerhilfeverein VLH erklärt, wie die Anpassung funktioniert, welche Ausnahmen möglich sind und was bei Steuern und Sozialabgaben zu beachten ist.
Lohnfortzahlung unter Beschuss: Ist der Karenztag die Lösung oder ein sozialer Rückschritt?
Die jüngste Forderung von Allianz-Chef Oliver Bäte, den ersten Krankheitstag ohne Lohnzahlung zu belassen, hat eine alte Diskussion in Deutschland neu entfacht.
Anstieg der Sozialversicherungsbeiträge 2025: Auswirkungen auf Bürger, Unternehmen und die Volkswirtschaft
Höhere Beitragsbemessungsgrenzen, ein Rekord-Zusatzbeitrag zur Krankenversicherung und angepasste Mindestbemessungsgrundlagen sorgen für spürbare finanzielle Auswirkungen – und werfen Fragen nach der Belastbarkeit des Arbeitsmarkts und der Wettbewerbsfähigkeit auf.
Elektronische Rechnungen: Pflicht ab 2025 betrifft alle Unternehmen in Deutschland
Die elektronische Rechnungsstellung wird ab 1. Januar 2025 für inländische B2B-Umsätze verpflichtend.
Augen auf beim Kauf: Unternehmenskultur als Wertetreiber bei Übernahmen
Kultur trägt wesentlich zum Unternehmenserfolg bei und spielt deshalb auch bei Firmenübernahmen eine entscheidende Rolle. Silke Masurat, Gründerin und Geschäftsführerin des Zentrums für Arbeitgeberattraktivität, klärt auf, inwieweit Kultur für den erfolgreichen Kauf verantwortlich ist.