Studie der Staufen AG

Datenbasierte Strategien trotz unklarer Zusammenhänge

Sechs von zehn Industrieunternehmen in der DACH-Region räumen ein, bei der Analyse ihrer Daten bestenfalls an der Oberfläche zu kratzen, so das Ergebnis einer gemeinsamen Studie der Unternehmensberatung Staufen und des Datenspezialisten AppliediT. Daraus geht auch hervor, dass Unternehmen Strategien aus Daten ableiten, obwohl deren Bedeutung und Zusammenhänge oft unbekannt sind.

 (Bild: Staufen.AG Beratung.Akademie.Beteiligung)
(Bild: Staufen.AG Beratung.Akademie.Beteiligung)

„In vielen Unternehmen herrscht ein regelrechter Daten-Wildwuchs, und eine einheitliche Linie fehlt. Das erschwert es Führungskräften und Anwendern, aus den Daten relevante Informationen und Erkenntnisse abzuleiten“, sagt Dr. Michael Feldmeth, Leiter der Practice Unit Digital & Industrie 4.0 bei Staufen. Die wachsende Anzahl unterschiedlicher Formate und Anwendungen erschwere zudem eine durchgängige IT-Systemlandschaft und führe zu einer zunehmend fragmentierten Datenarchivierung.

Die von den mehr als 400 Studienteilnehmern mit Abstand am häufigsten gewählte Form der Datenarchivierung ist mit 77 Prozent ein ERP-System (Enterprise Resource Planning), gefolgt von Datenbanken wie Microsoft SQL Server oder PostgreSQL (69 Prozent) sowie Excel-Listen (54 Prozent). „Programme wie Excel sind als Tabellenkalkulation auf einen ganz bestimmten Anwendungsbereich zugeschnitten und eignen sich – ebenso wie ein ERP-System – nicht optimal zur Datenarchivierung. In der Folge bremsen Datensilos und eingeschränkte Funktionalitäten der einzelnen Systeme die Unternehmen auf ihrem Digitalisierungskurs aus“, so Feldmeth.

Oft sind nur isolierte Zahlen vorhanden

Laut Studienergebnissen führen fehlende IT-Kompatibilität und mangelndes Analyse-Knowhow dazu, dass 61 Prozent der befragten Unternehmen eingestehen, dass sie zwar isolierte Zahlen aus verschiedenen Bereichen sehen, aber zu wenig über die Zusammenhänge zwischen den Daten wissen. Dennoch fließen sie bei gut drei Viertel der Befragten in die Entwicklung der künftigen Strategie ein. Dies sei ein riskanter Weg, sagt Ignacio Quiñonero Ferrer, Geschäftsführer von AppliediT: „Die aktuellen Produktionszahlen einer Maschine liefern nur eine Momentaufnahme. Richtig interessant wird es erst, wenn die Daten der vorgelagerten Prozesse in Kombination mit dem aktuellen Ist-Zustand analysiert werden. Dann werden verborgene Zusammenhänge und interne Abhängigkeiten sichtbar.“

72 Prozent der befragten Unternehmen räumen ein, dass eine Datenanalyse ihre organisatorische Effizienz steigern würde. 57 Prozent erwarten eine Optimierung der Durchlaufzeiten, 52 Prozent eine Qualitätssteigerung und 48 Prozent eine Erhöhung der Kundenzufriedenheit.







  • Ähnlichkeit erkannt, Kosten reduziert

    In der Variantenfertigung können Medien- und Systembrüche sowie Prozesse ohne digitales Abbild schnell zu Fehlern und Fehleinschätzungen führen. Wer die Daten hingegen…


  • Prozessoptimierung in der anspruchsvollen Montage

    Das Familienunternehmen Fimab aus Neubulach im Nordschwarzwald setzt bei der Prozessoptimierung auf die Webanwendung Newdrive Analytics. Entwickelt wurde das Tool von einem…


  • Innovationstreiber Thin[gk]athon: Kollaborative Intelligenz trifft auf Industrie-Expertise

    Der Thin[gk]athon, veranstaltet vom Smart Systems Hub, vereint kollaborative Intelligenz und Industrie-Expertise, um in einem dreitägigen Hackathon innovative Lösungsansätze für komplexe Fragestellungen…


  • Was Assistenzsystemen oft im Weg steht

    Mit digitaler Werkerassistenz unterstützen Hersteller die Montageprozesse bei kleineren Losgrößen. Dabei sehen sich Unternehmen bei der Integration solcher Systeme oft mit Herausforderungen…


  • IT-Modernisierung als Softwareprojekt

    Softwarewechsel, alte Hardware und fehlende Skalierbarkeit – für die IT-Modernisierung gibt es viele Gründe. Wer umfassende Projekte dieser Art strategisch plant und…