
‚Der Sicherheitsbestand von Artikel X sollte um 20 Prozent gesenkt werden.‘ – Empfehlungen eines KI-Algorithmus können die Lagerhaltung verschlanken und die Kapitalbindung verringern. Dennoch sehen sich Lagerverantwortliche in solchen Situationen der Herausforderung gegenüber, den Empfehlungen der Maschine quasi blind vertrauen zu müssen. In der Praxis ist dies für viele eine Hemmschwelle – zumal nicht zuletzt geschäftskritische Eigenschaften wie die Lieferfähigkeit von entsprechenden Anpassungen abhängen können. Abhilfe für dieses Dilemma verspricht nun ausgerechnet eine weitere intelligente Technologie: Generative Künstliche Intelligenz – beispielsweise auf Basis der Microsoft-Komponente Azure OpenAI – lässt sich in die Lage versetzen, die Faktoren zu benennen, die einer Entscheidung des Algorithmus zugrunde liegen bzw. sie maßgeblich beeinflusst haben. So erhalten Verantwortliche Begründungen und Hinweise, wie bestimmte Ergebnisse zustande kamen.
Pläuschchen mit den Daten
Das Potenzial generativer KI für die Auswertung von Datenanalysen steht bei verschiedenen Herstellern bereits seit geraumer Zeit im Fokus. So hat etwa Microsoft seinen Copilot um die Fähigkeit erweitert, Auswertungen von BI-Analysen mittels natürlicher Sprache zu kommunizieren. Im Austausch mit dem User lassen sich beispielsweise Diagramme erstellen oder der Fokus auf bestimmte Merkmale des Datensatzes legen. Darauf aufbauend arbeitet das Microsoft-Partnerunternehmen BE-terna aktuell an verschiedenen Pilotprojekten, um die Erklärungsfähigkeit von Azure OpenAI dazu zu nutzen, über die deskriptive Beschreibung der Ergebnisse hinaus auch Erkenntnisse zu deren Entstehung zu vermitteln. Auf die Frage: ‚Die KI empfiehlt im Mai eine unerwartet hohe Aufstockung des Lagerbestands von Produkt X. Woher kommt das?‘ könnte die Erklärung der KI dann lauten: ‚Im Hochsommer kam es in der Vergangenheit bereits oft zu Engpässen bei der Bevorratung von Produkt X, sowie bei ähnlichen Produkten. Daher hat die KI-Analyse empfohlen, den Lagerbestand jetzt zu erhöhen.‘
Auf dem Boden der Tatsachen
Immer wieder kursieren Beispiele durch die Medien, die zeigen, dass es generative KI-Modelle mit Realitätsnähe oder Fakten nicht so genau nehmen: ‚Wie lässt sich verhindern, dass der Pizzabelag vom Teig rutscht?‘ – ‚Mischen Sie einfach etwas Klebstoff in die Tomatensoße!‘ Wirft man einen Blick hinter die Kulissen der Technologie, sind Antworten wie diese wenig verwunderlich. Large Language Models generieren ihre Texte, indem sie nach jedem Wort ermitteln, welches nächste Wort im Kontext der Frage des Users am wahrscheinlichsten folgt. Die faktische Genauigkeit ist bei diesem Vorgehen zunächst zweitrangig. Wie lässt sich vermeiden, dass eine tatsächlich fehlerhafte KI-Analyse durch ein potenziell halluzinierendes Sprachmodell ‚erklärt‘ wird? Zu diesem Zweck kommt in der Praxis das sogenannte Grounding zum Einsatz, welches das Antwortspektrum einer generativen KI in einem bestimmten Fakten- oder Datenpool verankert und damit die Antwort des Sprachmodells in besonderer Weise an diesen Input knüpft. Dadurch erhöht sich die Wahrscheinlichkeit, dass Antworten des Sprachmodells auch faktisch zutreffend sind, um ein Vielfaches. Das Risiko von Halluzinationen sinkt.
KI auf die richtige Fährte führen
Ein Grounding kann mit der Methode ‚Retrieval-Augmented Generation‘ (RAG) umgesetzt werden. Dabei wird die eigentlich vom User gestellte Frage (Prompt) nicht unmittelbar an das Sprachmodell zur Beantwortung weitergegeben, sondern zuvor im Hintergrund – unsichtbar für die Anwenderin oder den Anwender – durch ein neues ‚Hidden Prompt‘ ersetzt, das die ursprüngliche Anfrage erweitert und das Sprachmodell durch zusätzliche Daten und Quellen auf die richtige Fährte führt. Aus der User-Frage ‚Woher kommt der Einbruch der Absatzzahlen im März?‘ wird so im Hintergrund etwa: ‚Generiere eine Antwort auf die Frage: ‚Woher kommt der Einbruch der Absatzzahlen im März?‘ Benutze für deine Antwort ausschließlich folgende Quellen: […] Sollte sich die Frage auf Basis dieser Quellen nicht beantworten lassen, gib diese Tatsache als Rückmeldung aus.‘ Welche Quellen erforderlich sind, um die Frage korrekt zu beantworten, muss im Praxiseinsatz automatisiert in Echtzeit ermittelt werden. Hierzu kommt eine zwischengeschaltete Software zum Einsatz, die Retrieval Function. Sie ermittelt mit Vektordarstellungen (den Embeddings) aller vorhandenen Informationen im Input-Fundus, welche davon besondere inhaltliche Nähe zur Frage aufweisen und daher wahrscheinlich zur Beantwortung hilfreich sein könnten.
Dokumentationen und Einflussfaktoren als Input
Um nun die Ergebnisse einer zuvor ausgeführten KI-Analyse – etwa zum Lagerbestand – zu erklären, ist spezifischer Input erforderlich: Neben der Dokumentation des jeweiligen Datenmodells sollten dabei vor allem die Parameter und Ergebnisse des KI- oder ML-Algorithmus mit übergeben werden, der den Forecast erstellt hat. Auf diese Weise kann das Sprachmodell Rückschlüsse über die Mechanismen ziehen, durch die der Algorithmus auf der Basis von Daten zu Ergebnissen kommt. Hierbei spielt die Feature Importance eine wichtige Rolle: Machine-Learning-Algorithmen können Parameter zurückgeben, die beschreiben, wie wichtig die Rolle einzelner Faktoren für die Ergebnisse des Modells waren. Auf Basis solcher Feature-Importance-Scores wäre die KI beispielsweise in der Lage, die Faktoren zu benennen, die ein bestimmtes Ergebnis maßgeblich beeinflusst haben: ‚Das Wetter fiel im untersuchten Monat deutlich stärker ins Gewicht als die Feiertage, die hier kaum eine Rolle spielten.‘ Schließlich ließen sich auch externe Quellen wie Nachrichtenseiten als Input für die Erklärung der Analyse hinzufügen. Sie verbreitern den Horizont des Sprachmodells und versetzen es in die Lage, etwa für die Erklärung eines Lieferengpasses auch auf eine hierfür relevante Lieferkettenunterbrechung aufgrund der aktuellen Lage hinzuweisen, wenn darüber auf der Nachrichtenseite berichtet wurde.
Horizont erweitern
Gestützt auf Informationen wie diese wird generative KI schon bald in der Lage sein, Kontext zur Entstehung von KI-Ergebnissen und -Empfehlungen zu liefern – und Produktionsverantwortlichen somit Einblicke in die Black Box der Algorithmen zu gewähren. Gerade bei unrealistisch erscheinendem Output können Herleitungen oder Begründungen hilfreich sein, um neben der detaillierten grafischen Aufbereitung die Stichhaltigkeit der KI-Analyse prüfen zu können, anstatt sie mangels Nachvollziehbarkeit ignorieren zu müssen. Genau dies sind die Szenarien, in denen künstliche Intelligenz ihre Vorteile ausspielen kann: bislang unentdeckte Zusammenhänge erkennen. Doch zugehört wird meist nur dem, der eine neue Erkenntnis gut begründen kann. Das gilt für Menschen wie für künstliche Intelligenzen.






































