Large Language Models in Business-Software
Generative KI in ERP- und CRM-Systemen
Viele Unternehmen integrieren derzeit künstliche Intelligenz (KI) in ihre Geschäftsprozesse. Insbesondere generative KI-Systeme, die eigene Inhalte erstellen können, bieten großes Potenzial. Zum Beispiel bei der Automatisierung von Routineaufgaben.

Dieser Artikel untersucht die Chancen und Herausforderungen, die mit dem Einsatz speziell von generativer KI in der Geschäftswelt verbunden sind. Generative KI kann etwa dazu verwendet werden, wiederkehrende und zeitaufwendige Aufgaben zu automatisieren. Dies kann von der Erstellung von Berichten und Analysen bis hin zur Generierung von Marketinginhalten reichen. Mit generativer KI können Unternehmen zudem personalisierte Inhalte für ihre Kunden erstellen. Denkbar ist auch, generative KI im Customizing von ERP- und CRM-Systemen einzusetzen. Beispielsweise bei der Erstellung von Low-Code-Workflows oder auch generell in der Anwendungsentwicklung. All diese Automatisierungen von Aufgaben helfen Unternehmen, Kosten einzusparen und ihre Ressourcen effizienter einzusetzen.
Voraussetzungen für zuverlässigen KI-Betrieb
Um dauerhaft Nutzen aus den eben genannten Punkten ziehen zu können, müssen unternehmen eine Reihe von Herausforderungen bewältigen. Da generative KI eigenständig Inhalte erstellt, besteht das Risiko, dass die generierten Inhalte nicht den Qualitätsstandards des Unternehmens entsprechen. Unternehmen müssen daher Mechanismen implementieren, um die Qualität der von KI generierten Inhalte sicherzustellen. Weiter können KI-Inhalte irreführend, unpassend oder auch rechtlich unzulässig sein, wie im EU-AI-Act für gewisse Risikoklassen diskutiert wird. Das hängt vom Kontext der Generierung und dem gewünschten Output ab. Generative KI-Modelle sind stark von Daten abhängig. Wenn die Daten, mit denen die KI trainiert wurde bzw. auf die sie sich bei der Beantwortung stützen, falsch oder unvollständig sind, werden die generierten Inhalte ebenfalls fehlerhaft sein. Und nicht zuletzt ist generative KI ein Werkzeug, dessen Handhabung gelernt werden muss. Die Schulung im Umgang mit diesem Werkzeug ist daher wichtig.
Verantwortlicher Einsatz der generativen KI
Ein wesentlicher Aspekt bei der Integration von KI in ERP- und CRM-Systeme ist die Etablierung einer Struktur, um Reputationsschäden zu vermeiden und rechtlichen Anforderungen nachkommen zu können. Hierbei ist es unerlässlich, Rahmenbedingungen zu schaffen, die das Verhalten der KI im gesamten System steuert. Es sollte sichergestellt sein, dass das Prompt Engineering zentralisiert ist. Das Design und die Verwaltung von Systemeingaben sollten in den Händen einer erfahrenen Person oder einer kleinen Expertengruppe liegen. Damit können Firnmen sicherstellen, dass die generierten Outputs sowohl sicher als auch relevant sind und im Prozess gut weiterverarbeitet werden können. Auch die Benutzerfreundlichkeit ist ein wichtiger Punkt: Während die technische und administrative Seite der KI von Spezialisten gehandhabt werden sollte, muss die Anwendung für den Endbenutzer so einfach wie möglich sein. Sie sollten die KI mit einem Knopfdruck vorgangsbezogen nutzen und nur die Ergebnisse an ihre speziellen Bedürfnisse anpassen können.

Datenschutz und Integration
Daten, die zwischen dem ERP und einem Cloud-Service wie Azure Open AI übertragen werden, sollten pseudonymisiert werden. Dies stellt sicher, dass personenbezogene Daten geschützt sind, selbst wenn sie zur Verarbeitung an externe Systeme, die ebenfalls einen Datenschutz versprechen, gesendet werden. Während die Anbieter generativer KI sogenannte Large Language Models erarbeitet haben und damit leistungsstarke Werkzeuge, wird ihre Effektivität erst durch die Integration in ein Framework hergestellt. Diese Kompositsysteme ermöglichen es Unternehmen, angemessene Workflows im Kontext von Geschäftsprozessen zu gestalten.
Aufbau eines Prompt-Frameworks
In nur kurzer Zeit ist das Prompt Engineering zu einem wichtigen Hebel avanciert, um zuverlässig verwertbare Ergebnisse aus einer generativer KI zu erhalten. Diese Prompts, also Eingaben, lassen sich in einem Framework verwalten, das folgende Bedingungen erfüllen sollte:
- Der Prompt sollte klar und präzise sein, um Ambiguitäten zu vermeiden. Anweisungen zum Vorgang und Stil reduziert das Risiko unerwünschter Ergebnisse.
- Das Modell braucht Kontext. Wenn Nutzer beispielsweise nach dem Bestellstatus zu einem Produkt fragen, sollten die Ergebnisse spezifischen Parametern entsprechen.
- Für Anwendungen, bei denen die generierten Inhalte öffentlich werden, sorgen Sicherheitsfilter dafür, dass keine sensiblen Daten generiert werden.
- Anwender sollten jeden Prompt mehrmals testen und anpassen, bis die Ergebnisse wie gewünscht ausfallen. Iteratives Testen hilft, Schwachstellen oder Unklarheiten im Prompt zu identifizieren.
- Benutzer sollten Feedback zu den generierten Antworten geben können. Dies hilft, die Qualität und Relevanz der Prompts im Laufe der Zeit zu verbessern.
- Teams müssen regelmäßig geschult werden, damit sie die besten Praktiken für das Prompt Engineering kennen.
Insgesamt erfordert das Formulieren von Leitplanken für Prompts eine sorgfältige Überlegung und Planung, damit Unternehmen die Vorteile generativer KI-Modelle nutzen und gleichzeitig Risiken reduzieren und verantwortungsvoll handeln können.






































