Unternehmenswissen im LLM gespeichert

338765 479285
Bild: ©tippapatt/stock.adobe.com

Eine Studie von Yext aus dem Jahr 2023 zeigt, dass Kunden erwarten, Informationen direkt online zu finden und Probleme selbst zu lösen, anstatt den Kundenservice zu kontaktieren – neun von zehn befragten Deutschen gaben an, dass ihnen dies wichtig ist. Das Wissen, um diesen Anspruch zu erfüllen, ist bereits vorhanden. Unternehmen verfügen über umfangreiche Informationsbestände, die jedoch häufig nicht zentral zugänglich und durchsuchbar sind, sondern in Abteilungen, Laufwerken oder verschachtelten Ordnern in der Cloud liegen. Zudem stehen Unternehmen vor der Herausforderung, die Informationen für ihre Mitarbeiter aufzubereiten und bereitzustellen. Doch was wäre, wenn sich interne und externe Anfragen an KI-Modelle wie ChatGPT richten ließen? Mit Fragen in natürlicher Sprache und klaren Antworten – aber ohne Personaleinsatz.

Der geeignete Ansatz

Bevor Sprachmodelle eingesetzt werden können, müssen die Voraussetzungen geschaffen werden. Die unternehmenseigenen Daten müsen dafür strukturiert, qualitätsgesichert und aktuell gehalten werden, um sie für die Nutzung durch Sprachmodelle aufzubereiten. Dabei stellt sich die zentrale Frage: Welche spezifischen Anforderungen und Ziele verfolgt das Unternehmen? Sobald dies geklärt ist, muss das Sprachmodell mit zusätzlichen unternehmensspezifischen Daten trainiert bzw. verfeinert werden, um die Genauigkeit und Relevanz der Antworten zu verbessern. Schließlich sollten einige grundlegende Prinzipien beachtet werden:

Menschliche Kontrolle – Es muss definierte Verantwortliche geben, die das Werkzeug und die KI überwachen und steuern. KI funktioniert ohne regelmäßige Wartung nicht einwandfrei. Ungepflegte Systeme können falsche Antworten geben.
Vollständige Daten – Ein Sprachmodell kann aus unvollständigen Informationen keine gültigen Schlüsse ziehen. Die KI muss mit relevanten und vollständigen Daten trainiert werden.
Halluzinationen vermeiden – Wenn nicht genügend Informationen vorliegen, um eine Frage zu beantworten, wird die KI trotzdem antworten – und zwar falsch. Auf Basis ihrer Wahrscheinlichkeitsprozesse erfindet sie eine Antwort. Für den Nutzer sind diese Halluzinationen nur schwer von echten Antworten zu unterscheiden. Statistiken zeigen, dass die KI in manchen Fällen bis zu 20 Prozent der Antworten hinzufügt. Dieses Problem kann durch vollständige Daten und gutes Training der KI reduziert werden.
Einbettung in eine umfassende Infrastruktur – Sprachmodelle allein nützen wenig. Sie müssen sinnvoll in eine umfassende und gut entwickelte Infrastruktur eingebettet werden. Die Verantwortlichen müssen sicherstellen, dass Compliance, Datenschutz und vor allem Fehlerresistenz gewährleistet sind.

Um das Wissen in Unternehmen mit Hilfe von Large Language Models (LLM) durchsuchbar zu machen, wird ein dreistufiger Ansatz empfohlen:

1. Informationsbasis schaffen

Auf der ersten Ebene, der Daten- oder konzeptionellen Ebene, müssen Daten gesammelt, organisiert und strukturiert werden, um sie nutzbar zu machen. Dazu gehören alle im Unternehmen vorhandenen Daten: strukturierte, semistrukturierte und unstrukturierte Daten, interne Dokumente, technische Spezifikationen, Handbücher, FAQs und bereits bearbeitete Kundensupport-Tickets. Diese Informationen müssen auf geeignete Weise gespeichert werden. Das Unternehmen Yext nutzt beispielsweise Knowledge-Graphen als zentrale Datenquellen. Diese Knowledge-Graphen wurden speziell für künstliche Intelligenz entwickelt und auf Informationen für Sprachsuchen, Chatbots und andere KI-Anwendungen optimiert.

2. Inhalte für die Customer Journey

Auf der zweiten Ebene wird das Sprachmodell (Large Language Model Layer) aufgebaut und die Zusammenhänge hergestellt. Hier sollten verschiedene Personas und Zielgruppen definiert werden, die für das Unternehmen und die interne und externe Kommunikation relevant sind. Anhand dieser Zielgruppen wird die Customer Journey nachvollzogen und das in der ersten Ebene gesammelte Wissen für passende Inhalte und individuelle Antworten genutzt. Jeder Informationssuchende soll maßgeschneiderte und relevante Antworten erhalten. Dabei ist es wichtig, die Sprachmodelle regelmäßig zu überprüfen und sicherzustellen, dass alle zugrundeliegenden Daten und Parameter aktuell sind. Neue Daten müssen eingegeben und die Ergebnisse stichprobenartig überprüft werden, um die Qualität der Antworten konstant hochzuhalten und das Modell kontinuierlich zu verbessern.

3. Ausgabe und Anpassung in verschiedenen Kanäle.

Auf der dritten Ebene, der Anwendungsebene oder Syntaxebene, werden die erstellten Inhalte für verschiedene Kanäle und Zielgruppen aufbereitet (Multi-Channel Experience Layer). Diese Ebene umfasst Funktionen wie Suche, Textgenerierung, Zusammenfassungen und Transkription von Texten. Die Multi-Channel Experience Layer ermöglicht es, KI-generierte Inhalte sowohl für interne als auch für externe Kanäle sichtbar zu machen. Diese Schicht bestimmt, wie Wissen präsentiert und verstanden wird, und kann je nach Darstellung auf der syntaktischen Ebene mehr oder weniger klar, verständlich, überzeugend oder ansprechend sein. Beispielsweise kann ein Text über ein Produkt in verschiedenen Formaten verfasst sein, z.B. als Beschreibung, Bewertung oder Anleitung. Nutzer können über verschiedene Kommunikationskanäle wie Websites, Chatbots, Sprachassistenten oder E-Mails auf das so angebotene Unternehmenswissen zugreifen.

Leistungsversprechen einlösen

Sprachmodelle können, wenn sie richtig implementiert und gepflegt werden, das Wissen eines Unternehmens nutzbar machen, die Zufriedenheit von Kunden und Mitarbeitern erhöhen und die Supportkosten senken. Um dies zu erreichen, ist es wichtig, ihre Struktur klar zu definieren und die verschiedenen Ebenen miteinander zu verknüpfen. Darüber hinaus erfordern sie eine sorgfältige Planung, Implementierung und kontinuierliche Schulung, um ihr volles Potenzial auszuschöpfen.