
KI-gestützte Predictive Maintenance oder Optimierung des Qualitätswesens wird seit langem in der Industrie praktiziert. Doch mit Large Language Models dürfte sich der KI-Einsatz signifikant erweitern, auch ihre einfache Anwendbarkeit senkt Einstiegsbarrieren. Im Kern liefert generative KI ein einfaches User Interface und generiert Texte im Stile natürlicher Sprache, aber auch Bilder, synthetische Daten oder Szenarien und Zusammenfassungen. Dabei stechen drei Anwendungsfälle von GenAI in der Industrie hervor: Einige sind ohne Aufwand und Vorleistung umsetzbar, andere erfordern Vorarbeiten.
Einsatz für Antworten und Analysen
Schnell und pragmatisch implementierbar sind Hilfestellungen der öffentlich zugänglichen LLMs im Arbeitsalltag. Statt in ein manuelles Handbuch zu schauen, können Mitarbeitende über ein User Interface, meistens ein Chat, ihre Fragen oder Problemstellungen eintippen oder einsprechen. Das ist interessant, wenn die Datengrundlage entweder öffentlich zugänglich ist oder z.B. von einem Softwarelieferanten zur Verfügung gestellt wird. So plant beispielsweise Siemens mit ihrem Industrial Co-Pilot, Anwendern die Programmierung von Werkzeugmaschinen wesentlich zu vereinfachen. Microsofts Co-Pilot unterstützt bei Online-Meetings, indem das Tool Entscheidungen, Aktionspunkte und Diskussionen protokolliert und vorbereitet. Bei Produzenten gehört die Unterstützung der Dateninterpretation für Analysen ebenfalls zu den Aufgaben, die ein LLM übernehmen kann. Auch die Kommunikation ließe sich erleichtern, indem Tools wie ChatGPT Sprachbarrieren überwinden, technische Berichte oder Arbeitsprotokolle, die von Technikern diktiert werden, anfertigen. Doch spätestens wenn die Anfragen vertrauliche Daten betreffen, gibt es Grenzen für die Nutzung externer LLM-Anwendungen, zumal vertrauliche Sachverhalte bereits in der Frage selbst stecken. Außerdem dürften die Lösungen für hier anfallende Probleme selten öffentlich zur Verfügung stehen.
KI-entwickelte Produkte und Qualitätstests
Bereits mit mehr individueller Vorarbeit verbunden sind Simulationen und Übertragungen in individuelle Modelle, die Input aus den öffentlich nutzbaren LLMs mit unternehmenseigenen Daten kombinieren. In diesem Umfeld spielen digitale Zwillinge als Datenlieferanten eine wichtige Rolle. Die komplette Digitalisierung eines Produkts (etwa im Automobilbau) beschleunigt die Produktentwicklung massiv, da sich Optimierungen am Digital Twin simulieren lassen, um Produktdesigns und Anforderungen anzupassen. Entwicklungen könnten sich so von sechs bis neun Monaten auf wenige Wochen reduzieren lassen. Aufbauend auf Machine Learning (ML)-Algorithmen zur Qualitätsprüfung, kann GenAI zudem eine Ursachenanalyse für Qualitätsprobleme erstellen, Gegenmaßnahmen vorschlagen und Berichte erzeugen. Weiter können LLM eingesetzt werden, um Arbeitsschritte zu protokollieren, um etwa die Erstellung von Handbüchern oder Dokumentationen zu automatisieren.
LLM mit internen Daten
In vielen Unternehmen werden täglich eine große Menge strukturierter und unstrukturierter Daten generiert. Dazu gehören Sensorenmetriken, Bilder, Video, Telemetrie-Daten, Nutzerhandbücher, technische Beschreibungen, Qualitätspläne, Anforderungskataloge und -konzepte, Sicherheitsdatenblätter, regulatorische Anforderungen und Liefervereinbarungen. Alle diese Daten lassen sich von LLMs integrieren und analysieren. Doch oft verfügen nur einzelne Bereiche über eine große Datenmenge, die unterschiedlich kodiert, daher nicht so einfach übertragbar und nutzbar sind. Ein zentrales Datenmanagement inklusive eines einheitlichen Unternehmensdatenmodell ist eine Grundlage, um Informationen aus Rohdaten zu schöpfen.
Bewusstsein schärfen
Unternehmen sollten Regeln für den Umgang mit LLMs aufstellen, gerade für die Nutzung von offenen LLMs wie GPT und Co. Mitarbeitende müssen aufmerksam sein, keine sensiblen Unternehmens- und Kundendaten aus Versehen preiszugeben. Eine zu starke Regulierung oder gar ein generelles Verbot dieser KI-Systeme im Unternehmen dürfte hingegen wenig weiterhelfen, sondern im schlimmsten Fall eher die Attraktivität als Arbeitgeber senken. Es braucht außerdem Verantwortlichkeiten für das Management von Daten, wie es dieses beispielsweise bereits in vielen Versicherungsunternehmen mit einem Chief Data Officer gibt. Diese Führungskräfte setzen nicht nur Regeln im Sinne einer zentralen Unternehmensgovernance, sondern treiben auch die bereichsübergreifende Integration von Daten voran. Mit der strategischen Bedeutung von Daten als Ressource brauchen Unternehmen ein übergreifendes Wissensmanagement.






































