Bildquelle: (C) zpshumway / Pixabay
"In vielen Unternehmen herrscht ein regelrechter Daten-Wildwuchs, die einheitliche Linie fehlt. Das erschwert es Führungskräften und Anwendern, aus den Daten relevante Informationen und Erkenntnisse abzuleiten", sagt Dr. Michael Feldmeth, der bei der Unternehmensberatung Staufen die Practice Unit Digital & Industrie 4.0 leitet. Die wachsende Zahl unterschiedlicher Formate und Anwendungen erschwere zudem eine auf Durchgängigkeit ausgelegte IT-Systemlandschaft und resultiere in einer zunehmend fragmentierten Datenarchivierung.
Die von den Studienteilnehmern mit Abstand am häufigsten gewählte Form der Datenarchivierung ist mit 77 Prozent ein ERP-System, gefolgt von Datenbanken wie Microsoft SQL Server oder PostgreSQL (69 Prozent) und Excel-Listen (54 Prozent). "Programme wie Excel sind als Tabellenkalkulation auf einen ganz bestimmten Anwendungsbereich zugeschnitten und eignen sich - ebenso wie ein ERP-System - nicht optimal zur Datenarchivierung. In der Folge bremsen Datensilos und eingeschränkte Funktionalitäten der einzelnen Systeme die Unternehmen auf ihrem Digitalisierungskurs aus", warnt Industrie-4.0-Experte Feldmeth.
Fehlende IT-Kompatibilität und mangelndes Analyse-Know-how führen dazu, dass 61 Prozent der befragten Unternehmen selbst einräumen, dass sie nur isolierte Zahlen aus verschiedenen Bereichen sehen, aber zu wenig über die Zusammenhänge zwischen den Daten wissen. Michael Feldmeth: "Die gesammelten Informationen verwirren eher, als dass sie einen Mehrwert liefern oder Grundlage für präzise Handlungsempfehlungen sind. Kurz: Vor lauter Zahlen sehen die Unternehmen den KPI-Wald nicht mehr."
Das Ziel: Verborgene Zusammenhänge und interne Abhängigkeiten sichtbar machen
Obwohl viele Unternehmen ihre Daten weder richtig auswerten noch vollständig verstehen, fließen sie bei gut drei Viertel von ihnen in die Entwicklung der künftigen Strategie ein. "Das ist ein riskanter Weg", sagt Ignacio Quiñonero Ferrer, Geschäftsführer von AppliediT. Der Digitalisierungsexperte empfiehlt ein methodisches Vorgehen, bei dem im ersten Schritt Daten intelligent zusammengeführt und dann statistisch ausgewertet werden: "Die aktuellen Produktionszahlen einer Maschine liefern nur eine Momentaufnahme. Richtig interessant wird es erst, wenn die Daten der vorgelagerten Prozesse in Kombination mit dem aktuellen Ist-Zustand analysiert werden. Dann werden verborgene Zusammenhänge und interne Abhängigkeiten sichtbar."
Die positiven Auswirkungen, die ein ganzheitlicher Blick auf die eigene Datenwelt haben kann, werden auch in der Industrie erkannt. So räumen 72 Prozent der Unternehmen ein, dass eine Datenanalyse ihre organisatorische Effizienz steigern würde. 57 Prozent erwarten eine Optimierung der Durchlaufzeiten, 52 Prozent eine Qualitätssteigerung und 48 Prozent eine Erhöhung der Kundenzufriedenheit.
Vor dem Hintergrund immer komplexerer Produkte und Fertigungsprozesse führt nach Ansicht von AppliediT-Geschäftsführer Ferrer kein Weg mehr an einer professionellen mathematischen Analyse vorbei: "Unternehmen müssen tiefer in die Welt der Daten eintauchen, um zu verstehen, wie sie in ihrem Inneren ticken und welche Anpassungen zu welchen Ergebnissen führen. Denn egal, ob es um Lieferketten, Produktionsprozesse oder HR-Herausforderungen geht: Oft können schon kleine Anpassungen und Feinjustierungen an wenigen Stellschrauben eine große Hebelwirkung entfalten."
Über die Studie "Digitalisierung 2024"
Für die Studie "Digitalisierung 2024" befragten die Staufen AG und AppliediT 417 Industrieunternehmen in Deutschland, Österreich und der Schweiz. Die Befragung erfolgte im Oktober und November 2023.
>> Die vollständigen Studienergebnisse können hier angefordert werden: www.staufen.ag/studie-digitalisierung-2024