Hype oder Game Changer?

479948
Bild: ©Gorodenkoff/stock.adobe.com

Seit der Einführung von ChatGPT haben Large Language Models große Aufmerksamkeit erlangt. Ein LLM ist eine generative künstliche Intelligenz, die menschliche Sprache verarbeiten, erzeugen und analysieren kann. Für die Digitalisierung eröffnen sich damit neue Chancen: von der Automatisierung und Effizienzsteigerung von Prozessen über Entscheidungsfindung bis hin zu neuen Geschäftsmodellen.

Der steinige Weg zur eigenen KI

Um LLMs im industriellen Umfeld zu nutzen, sind verschiedene Aspekte zu beachten. Zunächst müssen Compliance-Vorgaben und Vorschriften für den Betrieb von IT-Systemen berücksichtigt werden. Dabei stehen Vertraulichkeit, Datenspeicherung und Datenabflüsse im Fokus. Rechtliche Fragen zum geistigen Eigentum und der aktuelle Diskurs zu Urheberrechtsverletzungen sind ebenfalls relevant. Dies beeinflusst die Wahl der Modelle, der Anbieter und den IT-Betrieb (Cloud oder On-Premise). Viele kommerzielle Tools sind cloudbasiert, was den Datentransfer zu externen Anbietern erfordert. On-Premise-Systeme bieten mehr Kontrolle über die Daten, schränken jedoch die Modellwahl ein..

Modellauswahl und Training

Die vielen verfügbaren Modelle unterscheiden sich in ihrer Größe, Spezialisierung und Genauigkeit. Welches sich eignet, hängt vom Anwendungsfall ab. Neben kommerziellen Modellen wie ChatGPT gibt es auch freie Modelle wie LLama 3 von Meta. Größere Modelle liefern oft bessere Ergebnisse, erfordern aber teure Hardware – eine Hürde für kleinere Unternehmen. Um LLMs in das Unternehmen zu integrieren, müssen diese auf Unternehmensdaten zugreifen. Dafür haben sich die Ansätze In-Context-Learning, Finetuning und Retrieval-Augmented Generation (RAG) etabliert. Bei der Nutzung dieser Methoden gilt es, technische Hürden mit Hilfe von KI-Experten zu überwinden und die geeignete Infrastruktur zu wählen, die den Einsatz deutlich vereinfacht.

Forschung läuft auf Hochtouren

Die LLMs werden rasant weiterentwickelt, um die Produktivität zu erhöhen und neue Anwendungsbereiche zu erschließen. Verbesserungen werden im Halluzinationsmanagement, in der Nachvollziehbarkeit sowie bei schnelleren, effizienteren Modellen erwartet. Auch das logische Denken, bisher eine Schwäche der LLMs, ist ein intensives Forschungsfeld. Zudem entwickeln sich KI-Agenten für komplexere Aufgaben zügig weiter. Mit höherer Leistungsfähigkeit verdrängen LLMs bereits bisherige trainingsintensive Deep-Neural-Network-Architekturen, etwa in der Text- und Bildverarbeitung. Gleichzeitig ist mit einer Konsolidierung der Modellanbieter und Akteure zu rechnen. Daher sollten sich die in den eigenen Systemen verwendeten Modelle möglichst einfach austauschen lassen.

Seiten: 1 2