Wir sehen an der Innovationsfreudigkeit von kleinen europäischen Labs wie Mistral oder Flux (Bildgenerierung), dass die europäische Forschungsgemeinschaft trotzdem an der globalen KI-Entwicklung teilnehmen möchte, auch einen recht großen Einfluss hat und mit mehr Investitionen diese Ambitionen befeuert werden können und Europa zu einem echten KI-Player aufsteigen könnte.
Eberle: Europa und Deutschland fokussieren sich auf die Entwicklung von vertrauenswürdigen und transparenten KI Methoden. Ich habe auch den Eindruck, dass Europa sich auf spezifische Anwendungen von LLMs spezialisiert, zum Beispiel LLM-Grundlagenmodelle für Anwendungen in der Medizin (z.B. aignostics‘ RudolfV-Modell zur Erkennung von Pathologie-Daten), den Rechtswissenschaften (Legal LLMs wie Legal-Bert zur Bearbeitung und Erstellung von Rechtstexten) oder KI-Methoden für Quanten-Chemie.
Die Anwendung DeepSeek unterliegt der chinesischen Zensur. Inwiefern beeinflussen solche Einschränkungen die Leistungsfähigkeit von Large Language Modellen?
Eberle: Die Einschränkungen werden meist nach dem eigentlichen Modell-Training auferlegt, sind also wie ein Filter zu sehen, der ungewollte Ausgaben unterdrückt. Daher würde ich nicht grundsätzlich davon ausgehen, dass themenoffene Systeme generell leistungsfähiger sind. Falls jedoch größere Datenmengen bereits vor dem Training gefiltert werden, könnte das Auswirkungen auf die Generalisierungsfähigkeit dieser Modelle haben. Es ist hierbei ein wichtiger Unterschied, ob das Modell keine Daten über sensible Themen bekommt, oder ob das Modell nichts über diese sagen soll.
Die Expertinnen und Experten
Dr. Vera Schmitt (Forschungsgruppenleiterin) und Dr. Nils Feldhus (Postdoktorand) forschen in der XplaiNLP-Gruppe des Quality and Usability Lab an der TU Berlin zu Hochrisiko-KI-Anwendungen und entwickeln KI-gestützte Systeme zur intelligenten Entscheidungsunterstützung. Ihr Fokus liegt auf leistungsstarken, transparenten und erklärbaren KI-Systemen für Anwendungsfelder wie die Erkennung von Desinformation und die Analyse medizinischer Daten. Im Bereich der natürlichen Sprachverarbeitung arbeitet die Gruppe an Schlüsselthemen wie erklärbarer KI, der Robustheit großer Sprachmodelle (LLMs), der Modellierung von Argumentationsstrukturen sowie der Mensch-Maschine-Interaktion.
Dr. Oliver Eberle ist Postdoktorand in der Machine Learning Group des Berlin Institute for the Foundations of Learning and Data (BIFOLD) an der TU Berlin. In seiner Forschung widmet er sich vor allem der erklärbaren künstlichen Intelligenz sowie Natural Language Processing und deren Anwendungen in den Wissenschaften, wie den Digital Humanities (zum Beispiel der computergestützten Textverarbeitung) und der Kognitionswissenschaft. Er fokussiert sich dabei besonders auf die Interpretierbarkeit der Modelle und entwickelt Methoden zum besseren Verständnis der zugrundeliegenden Mechanismen von Large Language Models (LLM).






































