KI: Die Black Box transparent machen

Veröffentlicht 31.01.2025 09:20, Kim Wehrs

Explainable AI (XAI) zielt darauf ab, die oft undurchsichtigen Entscheidungsprozesse von KI-Systemen verständlich zu machen. Insbesondere bei komplexen Modellen wie neuronalen Netzen, die aufgrund ihrer hohen Anzahl an Parametern als "Black Box" gelten, ist Transparenz entscheidend. Für XAI fehlt bislang eine Maßzahl für die Beurteilung der „Erklärbarkeit“ eines Modells. Hierbei begegnen sich die Erweiterung menschlicher Intelligenz mit maschineller Intelligenz und auch umgekehrt eine Erweiterung der künstlichen Intelligenz durch menschliche Intuition. 

Das Problem der Erklärbarkeit von AI ist bislang ungelöst. Während regelbasierte Lösungen der frühen AI nachvollziehbare „Glass-Box“ Ansätze darstellten, lag deren Schwäche im Umgang mit Unsicherheiten der realen Welt. Durch die Einführung probabilistischer Modellierung und statistischer Lernmethoden wurden die Anwendungen zunehmend erfolgreicher – aber immer komplexer und opak. Beispielsweise werden Wörter natürlicher Sprache auf hochdimensionale Vektoren abgebildet und dadurch für Menschen nicht mehr verstehbar. In Zukunft werden Kontext-adaptive Verfahren notwendig werden, die eine Verknüpfung zwischen statistischen Lernmethoden und großen Wissensrepräsentationen (Ontologien) herstellen und Nachvollziehbarkeit, Verständlichkeit und Erklärbarkeit erlauben – dem Ziel von explainable AI: XAI 

XAI setzt Methoden ein, um Einblicke in die Funktionsweise dieser Modelle zu ermöglichen. Dazu gehören Visualisierungen, die zeigen, welche Eingabemerkmale für eine Entscheidung relevant waren, oder Techniken wie Feature-Attributionsmethoden, die die Gewichtung einzelner Variablen offenlegen. Mit Local Interpretable Model-agnostic Explanations (LIME) oder Shapley-Werten lassen sich beispielsweise die Beiträge einzelner Faktoren zur Modellentscheidung quantifizieren.

Die Bedeutung von XAI liegt vor allem in der Nachvollziehbarkeit, das Vertrauen in KI-Systeme schafft und regulatorische Anforderungen erfüllt. In sensiblen Bereichen wie Medizin hilft XAI, mögliche Verzerrungen oder Fehler in den Modellen zu identifizieren und so ethische Probleme zu vermeiden. Durch Transparenz können zudem Schwachstellen und Optimierungspotenziale offengelegt werden, was die Weiterentwicklung der KI fördert. XAI steht damit im Spannungsfeld zwischen technologischer Komplexität und der Forderung nach Verständlichkeit, indem sie den Anwendern Werkzeuge an die Hand gibt, um die "Black Box" KI zugänglicher zu machen.
 

Prinzipien von explainable AI


Das amerikanische National Institute of Standards and Technology (NIST) definiert vier Prinzipien von explainable AI.

·      Erklärung: Systeme liefern begleitende Beweise oder Gründe für die entsprechenden Ergebnisse.

·      Genauigkeit der Erklärung: Diese Erklärungen geben den Prozess des Systems zur Generierung der Ergebnisse korrekt wieder.

·      Bedeutsamkeit: Systeme geben Erklärungen, die für einzelne Benutzende verständlich sind.

·     Wissensgrenzen: Das System funktioniert nur unter Bedingungen, für die es entwickelt wurde.

 

Maßzahl für die Beurteilung der „Erklärbarkeit“ 

Eine der Herausforderungen für XAI besteht in fehlenden Evaluationsmetriken der Erklärungen. In vielen statistischen Anwendungen existieren verschiedene, etablierte Maßzahlen für diverse Methoden, um die Güte eines Modells bewerten zu können. Für XAI hingegen fehlt eine Maßzahl für die Beurteilung der „Erklärbarkeit“ eines Modells. Zudem ermöglicht ein Benchmarking den Vergleich der XAI-Methoden bei verschiedenen Anwendungen.

Eine weitere Herausforderung betrifft die Informationssicherheit eines Modells. Die Anwendung von XAI-Techniken zur Erklärbarkeit eines ML-Modells kann die Vertraulichkeit dieses Modells gefährden. So könnte jede Information eines Modells, die durch XAI-Erklärungen enthüllt wird, genutzt werden, um das Modell durch Angriffe zu verwirren. Diese Attacken können das Modell manipulieren und zu einem anderen Ergebnis führen.

 

Synergie von menschlicher Intelligenz und maschineller Intelligenz 

Die XAI-Chance für die Zukunft besteht aus einer Verknüpfung verschiedener bereits bewährter Ansätze, z.B. logikbasierte Ontologien mit probabilistischem, maschinellem Lernen mit einem (oder mehrerer bzw. sogar vieler) human-in-the-loop zu einem hybriden Multi-Agenten Interaktionsmodell zu fusionieren, in der AI als eine Art „Servolenkung fürs Gehirn“ unterstützend verwendet wird. Dies würde nicht nur eine Erweiterung (Augmentation) menschlicher Intelligenz mit maschineller Intelligenz bedeuten, sondern auch umgekehrt eine Erweiterung der künstlichen Intelligenz durch menschliche Intuition.

 

Autor: Wolf-Dietrich Lorenz                                Bild: Pixabay

 


Lesen Sie mehr zum Thema "Künstliche Intelligenz"

Lesen Sie hier die neuesten Beiträge

Diese Webseite verwendet Cookies.   Mehr Info.      oder