KI-Entscheidungen verständlich machen

Kira Vinogradova, bei Telekom MMS auf Machine Learning, Generative KI, Explainable AI und Computer Vision spezialisiert.
Kira Vinogradova, bei Telekom MMS auf Machine Learning, Generative KI, Explainable AI und Computer Vision spezialisiert.Bild: Deutsche Telekom MMS GmbH

Zwei baugleiche Produktionsanlagen laufen in einem Betrieb. Während die eine störungsfrei läuft, meldet die andere einen drohenden Ausfall. Eine in der prädiktiven Wartung eingesetzte KI empfiehlt eine sofortige Überprüfung – doch auf welcher Grundlage? Für Instandhaltungs-Teams ist es wichtig, zu wissen, welche Datenmerkmale auf den Defekt hindeuten, welche Ereignisse in der Vergangenheit diesen möglicherweise ausgelöst haben und wie sich vergleichbare Situationen künftig vermeiden lassen. So entsteht eine Mensch-Maschine-Interaktion, die über Automatisierung hinausgeht. Der Ansatz der erklärbaren KI (Explainable AI) liefert Methoden und Techniken, die es ermöglichen, die Entscheidungen und Funktionsweise von KI-Modellen für Menschen verständlich zu machen.

Wie entscheided die KI?

Explainable AI (XAI) macht sichtbar, wie KI-Modelle zu ihren Empfehlungen gelangen. Zudem deckt erklärbare KI Verzerrungen (Bias) in den Daten auf – etwa wenn die Datensätze bestimmte Fehlerarten überrepräsentieren, Labels falsch vergeben sind oder scheinbare Zusammenhänge auftauchen, die in Wirklichkeit nicht bestehen. Die Technologie verbessert die Qualität und Verlässlichkeit von KI-gestützten Entscheidungen. Zudem schafft sie Transparenz, ermöglicht Rechenschaft und senkt das Risiko fehlerhafter Ergebnisse. Die gesetzlichen Vorgaben dafür sind bislang noch sehr vage formuliert. Ihre praktische Umsetzung erfordert daher sowohl technologische Exzellenz als auch ein klares Leitbild für verantwortungsvolle KI. Um das Verhalten komplexer KI-Modelle nachvollziehbar zu machen, kommen verschiedene Methoden der Explainable AI zum Einsatz:

·Counterfactual Explanations: Die Methode zeigt auf, welche minimalen Änderungen zu einer anderen Entscheidung geführt hätten. Daraus lassen sich Empfehlungen darüber ableiten, wie ein Ausfall künftig verhindert werden kann.

·Feature Importance: Feature Importance bewertet, welche Merkmale die Entscheidungen eines Modells am stärksten beeinflusst haben – insbesondere bei Modelltypen, die auf Entscheidungsbäumen basieren, wie Decision Trees, Random Forests oder Gradient Boosting. Zu diesen Merkmalen zählen z.B. bestimmte Sensordaten oder Werte aus früheren Wartungsprotokollen.

·Lime (Local Interpretable Model-agnostic Explanations): Lime ersetzt komplexe Modelle vorübergehend durch einfache, verständliche Modelle, die gezielt in der „Nähe“ eines bestimmten Datenpunkts trainiert wurden. Dafür erzeugt Lime künstlich veränderte Daten, indem es einzelne Merkmale ausblendet und so sichtbar macht, welche Merkmale im jeweiligen Fall entscheidend waren. Dazu gehören beispielsweise Sensorwerte oder Tabellenspalten.

·Shap (SHapley Additive exPlanations): Shap bewertet ebenfalls den Einfluss jedes Merkmals auf die Vorhersage. So lässt sich beispielsweise erkennen, welche Sensorwerte maßgeblich zur Diagnose eines bevorstehenden Ausfalls beitragen – und wie stark sie im Verhältnis zu anderen Faktoren wirken.

Auch die Darstellung der Ergebnisse spielt eine Rolle. Fortschritte in der Visualisierung von XAI machen Erkenntnisse inzwischen auch für Anwenderinnen und Anwender ohne technisches Vorwissen verständlich. Zum Einsatz kommen dabei etwa Heatmaps, die Bildklassifikationen erklären – etwa in der automatisierten Qualitätskontrolle. Balkendiagramme helfen dabei, den Einfluss einzelner Merkmale übersichtlich darzustellen. Dashboards ermöglichen nutzerfreundliche Erklärungen des Modellverhaltens. Regelmäßige Neukalibrierungen passen die Modelle zudem an aktuelle Daten an und erhalten ihre Vorhersagegenauigkeit (Modell-Drift).

Erklärbare KI implementieren

Für eine erfolgreiche Einführung ist jedoch mehr als rein technisches Knowhow erforderlich. Hier bietet sich ein systematisches Vorgehen an:

1. Bestandsaufnahme: Welche KI-Systeme sind bereits im Einsatz? Welche Datenquellen stehen zur Verfügung?

2. Zieldefinition: Wo kann XAI den größten Nutzen erzielen? Bei Wartung, Ausfallprävention, Qualitätssicherung und Effizienz der Datenaufnahme, oder wird XAI für die Akzeptanz von KI benötigt?

3. Methodenauswahl: Welche XAI-Techniken passen zu den konkreten Anwendungsfällen?

4. Pilotprojekt: In einem abgegrenzten Bereich testen, evaluieren, verbessern.

5. Skalierung: Erfolgreiche Ansätze auf weitere Bereiche übertragen.

6. Kontinuierliche Optimierung: Modelle und Parameter der XAI-Methoden regelmäßig überprüfen, neu kalibrieren und an veränderte Bedingungen anpassen.

Auf diesem Weg stehen Unternehmen oft vor technischen Herausforderungen: Neue Systeme müssen in bestehende Infrastrukturen integriert werden, es gibt Datenschutzbestimmungen und Daten müssen in entsprechender Qualität vorliegen. Interdisziplinäre Teams aus Data Scientists, Fachkräften aus der Praxis und künftigen Nutzerinnen und Nutzern sowie agile Methoden und Schulungen unterstützen die Einführung.

Explainable AI für die Zukunft

XAI macht sichtbar, warum eine KI zu einer bestimmten Einschätzung kommt, welche Datenmerkmale ausschlaggebend waren, welche Verzerrungen in den Daten auftauchen und wie ähnliche Situationen künftig verhindert werden können. Visualisierungen und lokal verständliche Erklärmodelle wie Lime oder Shap machen die komplexen Zusammenhänge auch für Nicht-Experten nachvollziehbar. Explainable AI wird somit zu einem strategischen Schlüssel auf dem Weg zu resilienter Produktion, informierter Wartung und nachhaltigem Unternehmenserfolg.