17.11.2020 – Kategorie: ITK
Industrie-4.0-Konzepte: Chance für alle statt Stolperfalle

Die Erfahrung zeigt, dass die Implementierung von Industrie-4.0-Konzepten in den meisten Fällen deutlich aufwendiger und teurer ausfällt als erwartet. In einigen Fällen scheitert das Vorhaben komplett. Die Erfolgsfaktoren klingen einfach: Ziele definieren und Mitarbeiter einbinden.
Schlimm genug: Ursachen für veritables Scheitern findet man schon in der Herangehensweise und der Initiierung von Projekten. Denn die Erwartungshaltung an Industrie-4.0-Konzepte und das technisch sinnvoll Machbare weichen in vielen Fällen deutlich voneinander ab. Einerseits werden zu viele Ziele in diesen Prozess gepackt, auf der anderen Seite wird vergessen, dass es sich um einschneidende Änderungen für Prozessabläufe und für die im Unternehmen arbeitenden Menschen handelt.
Industrie-4.0-Konzepte: Vierte industrielle Revolution im Prozessanlagenbau
In vielen Unternehmen liegen große Datenmengen aus unterschiedlichen Feldern vor, zum Beispiel Prozessdaten aus der Produktionsanlage, Betriebsdaten des Gebäudes, Qualitätsparameter aus dem Labor und Maschinendaten des verbauten Equipments. Dieser unglaublich wertvolle Daten-Pool ist im Allgemeinen schlecht nutzbar – wegen der schieren Menge an Daten, aber auch weil die Erfassung, Speicherung und Verarbeitung in unterschiedlichen Softwarelandschaften erfolgt, die nur eingeschränkt oder gar nicht miteinander kompatibel sind.
Die Schwierigkeit besteht nun darin, wichtige von unwichtigen Daten zu trennen und Muster zu erkennen, die es einem Betreiber erlauben, den Herstellungsprozess eines Produktes besser zu beherrschen, Effizienzpotentiale zu erkennen und Kosteneinsparungen zu erzielen. Die bisherigen Industrie-4.0-Konzepte, wie modulare Fabriken, Virtual Plants, Digital Plants, deuten eher auf eine Evolution aufgrund der Implementierung der neu entwickelten Informationstechnologien hin als auf eine Revolution.
VTU hat derzeit mehr als 600 kleine bis sehr große Anlagenplanungen in Arbeit – keine hat einen ausgesprochenen Bezug zu „Industrie 4.0“. Das zeigt, dass die digitale Revolution bei den meisten Unternehmen noch nicht angekommen ist, zumindest nicht auf der Ebene der Produktionsanlagen.
Erst gehen, dann laufen
Es ist wichtig, sich im ersten Schritt auf die Aufgabenstellungen zu konzentrieren und diese SMART (spezifisch, messbar, akzeptiert, realistisch, terminiert) zu definieren. Eine besondere Herausforderung ist, dass keiner aus der älteren, in Arbeits- und Produktionsprozessen erfahrenen, Generation ein „digital native“ ist. Den jüngeren Automatisierungsexperten und Data Scientists fehlt wiederum das Praxiswissen aus der Produktion. „Industrie 4.0“ kann daher nur durch interdisziplinäres Zusammenarbeiten erreicht werden.
Moderne Prozessanlagen sind hoch automatisiert und generieren eine Unmenge an Daten, wie zum Beispiel durch Messgeräte erfasste Prozessdaten (Druck, Temperatur, Leitfähigkeiten, Dichte, pH-Werte etc.), manuelle Analyse-Eingaben oder in LIMS erfasste Produktdaten (Labor Informations- und Management System). Daraus lassen sich mit klassischen Analysen, wie zum Beispiel Trendlinien einfache Zusammenhänge zwischen zwei oder drei Parametern erkennen, eine tiefere Analyse, die Muster erkennbar macht, ist jedoch nicht möglich. Dieses Potential wird durch Data Analytics gehoben.
Dazu müssen die Daten in einem ersten Schritt aus verschiedenen Bereichen einander zugeordnet werden, zum Beispiel via eindeutigen Batch Nummern und eindeutigen Zeitstempeln. Das können Daten aus automatisierungstechnisch völlig getrennten Produktionsbereichen sein oder auch aus verschiedenen Automations-Ebenen einer Anlage – SPS (Maschinensteuerung), PLS (Prozessanlagensteuerung), MES (Manufacturing Execution System), ERP (Enterprise Ressource Planning).
Auch händische Aufzeichnungen eines Betriebshandbuches, Laboranalysen etc. sollten in eine einheitliche Datenbank mit einheitlichem Zeitstempel übertragen werden. Obwohl moderne Datenanalyse Tools bei dieser arbeitsintensiven Datenbereinigung unterstützende Funktionen bereitstellen, bleibt dies oft der aufwändigste Teil der Analyse.
Erfolgsfaktor Datenanalyse für erfolgreiche Industrie-4.0-Konzepte
Im nächsten Schritt erfolgt die Analyse dieser Daten mit modernen Machine-Learning-Algorithmen (ein Teilbereich der künstlichen Intelligenz) und aussagekräftigen Visualisierungen. Wichtige Zielwerte einer Produktion können selbstlernend vorhergesagt und verdeckte Zusammenhänge zwischen den Zielwerten sowie den übrigen Produktionsparametern und Daten erkannt und aufgezeigt werden.
Mit Visualisierungen werden die Analyseresultate in zielgruppengerechter Form präsentiert. So gelingt ein konstruktiver Austausch zwischen Fach- und Datenspezialisten – ein Erfolgsfaktor für gelungene Datenanalyse-Projekte. Natürlich ist die Datenanalyse ein iterativer Prozess, wobei sich Datenbereinigung, Algorithmen, Visualisierung und der fachliche Austausch gegenseitig befruchten. Die Regel ist, dass (Big)-Data-Projekte klein beginnen können und bei geringem Aufwand ersten (Big) Nutzen generieren.
Auf mehr Kommunikation setzen
Die Erfahrung zeigt, dass die meisten schlecht laufenden Projekte nicht auf der technischen Ebene scheitern. Es wird vernachlässigt, welche gravierenden Änderungsprozesse durch solche Softwareprojekte in das Unternehmen gebracht werden. Management- und Arbeitsabläufe werden beeinflusst, die einschneidende Auswirkungen auf die Mitarbeitenden haben. Wie bei jedem Change Projekt müssen die Beteiligten und Betroffenen mitgenommen und Ängste abgebaut werden. Das erfordert ein Mehr an offener Kommunikation.
Die Bereitstellung der notwendigen Ressourcen und die Organisation der Projekte ist die nächste Stolperfalle. Wenn das technisch theoretisch Machbare verlangt wird, ohne den Nutzen der Anwender in den Mittelpunkt zu stellen, können Projekte nicht erfolgreich umgesetzt werden. Das Problem danach ist, dass die wenigsten Unternehmen in der Lage sind, Projekte offiziell für gescheitert zu erklären und wirklich zu begraben. Aufgrund der bereits getätigten Investitionen oder des Gewichtes der beteiligten Personen werden solche Systeme weiter am Leben erhalten und belasten Ressourcen und Effizienz des Unternehmens.
Es ist wichtig, speziell bei Großprojekten, schrittweise vorzugehen. In kleinen Pilotprojekten mit sogenannten „Quick wins“ lernt einerseits der Betreiber den Nutzen kennen und andererseits gewinnt das Projektteam den Überblick über die bestehenden Daten und Strukturen. Damit fällt es leichter, die nächsten Schritte zum langfristigen Projekterfolg fachmännisch aufzugleisen.
Lesen Sie auch: Digitalisierung in der Pharmaindustrie: Der Weg zur smarten Tablettenproduktion

Über den Autor: Dipl.–Ing. Wolfram Gstrein ist Geschäftsführer der VTU Engineering Deutschland GmbH.
Teilen Sie die Meldung „Industrie-4.0-Konzepte: Chance für alle statt Stolperfalle“ mit Ihren Kontakten: