6 Ansätze zur Datenanalyse in der Industrie

Zwei Ingenieur:innen in Produktionskleidung analysieren Daten an 6 Computerbildschirmen

Komplexe technische Systeme wie Maschinen, Anlagen, Mess- und Regelungseinheiten oder auch Produktionslinien erzeugen heutzutage viele Daten. Um aus diesen Daten Erkenntnisse zu gewinnen, die zu verbesserten Produkten und neuen Innovationen führen, sind Ingenieur:innen darauf angewiesen, die richtigen Informationen in den Daten zu finden.

Ergebnis einer Datenanalyse können bspw. Reports mit wichtigen Kennzahlen sein, die Hinweise liefern, was im Prozess oder auf einer Anlage vor sich geht. Je effizienter der Vorgang Datenerhebung -> Erkenntnisgewinn abläuft, desto mehr gute Ideen können die Ingenieur:innen entwickeln. Und genau diese Ideen bestimmen mittelfristig über die Innovationskraft und Wettbewerbsfähigkeit Ihres Unternehmens.

Das Bindeglied zwischen Datenerhebung und Erkenntnisgewinn ist die Datenanalyse. Hierbei werden Rohdaten zu aussagekräftigen Informationen umgewandelt, aus denen Ingenieur:innen neues Wissen über technische Prozesse und Effekte ableiten können. Dieser Artikel beschreibt fünf Ansätze, mit denen solche Datenanalysen durchgeführt werden können.

Ansatz 1: Do it yourself

Aufgrund der Vielzahl heterogener Datenquellen in der Industrie sind relevante Daten häufig auf diverse Datenbanken verteilt. Andere Daten sind vielleicht sogar nur in Excel-Dateien verfügbar. Im “Do it yourself” Ansatz schreibt ein Ingenieur oder Softwareentwickler ein Skript, welches Daten per SQL-Anfragen aus den Datenbanken oder per VBA-Routine aus den Excel-Dateien ausliest, und implementiert Verarbeitungsroutinen, um die Datenflut in mutmaßlich relevante Informationen zu überführen.

Dieses Vorgehen scheint zunächst zweckmäßig und günstig, bringt aber perspektivisch einige Nachteile mit sich:

  • Implementierungskosten: Implementierung und Wartung der Softwareroutinen sind zeitaufwendig und fehleranfällig, weil Informationen aus vielen verschiedenen Datenquellen integriert werden. Jede einzelne Datenbankverbindung ist zu pflegen und simple Änderungen an Datenbanktabellen führen zu Fehlern, die schwer zu finden sind.

  • Blind Spots: Eigenentwicklungen entstehen häufig aus der Not oder aus Aktionismus heraus und werden als Insellösung ohne saubere Schnittstellen mitgeschleppt. Wenn dann das Gefühl Überhand nimmt, dass nicht alles aus den Daten herausgeholt wird, kann hilfreiche Unterstützung durch Data Analytics und KI-Technologie nur mit großem Aufwand angeschlossen werden.

  • Doppelbelastung: Sofern das Einrichten und die Wartung von Datenanalysen nicht zu Ihrem Kerngeschäft gehört, wird es für diese Tätigkeiten keine eigenen Personalressourcen geben. In diesem Fall nehmen sich zumeist die wertvollsten Fachkräfte dieser Aufgabe in Teilzeit an. Das klappt beim Einrichten noch ganz gut, wird aber mit zunehmenden Rückfragen und Wünschen der Kolleg:innen - natürlich immer dann, wenn ohnehin keine Zeit ist - zusehends zur qualvollen Doppelbelastung.

Für die Umsetzung einer längerfristig angelegten Daten- oder gar KI-Strategie ist dieser Ansatz nicht zu empfehlen. Der Ansatz kann sich allerdings gut für ein schlankes Pilotprojekt eignen, um eine erste Idee über den Informationsgehalt in den Daten zu bekommen. Die Startkosten sind gering und ein Data Scientist wird hier noch nicht unbedingt benötigt. Die größte Herausforderung ist es, den richtigen Zeitpunkt zu erwischen, um auf eine professionelle Lösung umzusteigen (Ansätze 2-5) oder eine dedizierte Abteilung aufzubauen (Ansatz 6).

Ansatz 2: Entwicklungsprojekt

Ein Entwicklungsprojekt verfolgt das Ziel, eine Software für eine inhaltlich klar umrissene Aufgabenstellung zu entwickeln. Für die Produktentwicklung kann das Ergebnis ein Softwaremodul sein, das Produkt- und Messdaten verarbeitet und diese in eine Reihe von Visualisierungen und KPIs überführt, die während der Anforderungsanalyse definiert werden.

Sofern Sie nicht alle Arbeiten mit internen Kräften umsetzen können oder möchten, können Sie auf externe Entwicklungsdienstleister zurückgreifen. Etablierte Dienstleister sind spezialisiert auf die schnelle Umsetzung von komplexen Entwicklungsprojekten, mittlerweile auch vermehrt im KI-Bereich. Neben den zumeist auf wirtschaftliche Aspekte ausgerichteten Softwaredienstleistern bieten auch einige forschungslastige Einrichtungen Leistungen im Kompetenzfeld KI-Entwicklung an.

Wer im Erfolgsfall perspektivisch keine Abhängigkeit riskieren möchte, wird jedoch nicht darum herumkommen, parallel eigene Personalressourcen aufzubauen.

Ansatz 3: Business Intelligence (BI) Software

BI-Software wie Power BI oder Qlik Sense besticht gegenüber dem “Do it yourself” Ansatz mit deutlich reduzierten Implementierungs- und Wartungskosten für Datenanalysen. Die Datenintegration wird stark vereinfacht, weil Datenquellen über das Dashboard der Software angebunden werden können. Und Visualisierungen sowie einfache statistische Auswertungen bringt gängige BI-Software als Bordmittel mit.

Aufgrund des vielfältigen Funktionsumfangs ist die Einarbeitungszeit allerdings nicht zu unterschätzen und wie beim “Do it yourself” Ansatz braucht es einen Power User als Ansprechpartner für die Kolleg:innen. Die Weiterverarbeitung von Einsichten, die aus den Daten gewonnen werden, also die “Action”, findet außerhalb der BI-Software statt. Wichtig zu beachten ist auch, dass BI-Software klassischerweise nicht die Möglichkeit bietet, Daten mittels Künstlicher Intelligenz (KI) auszuwerten (Business Intelligence vs. Artificial Intelligence-basierte Analysen). Insofern lassen sich mit BI-Software “Reports deluxe” erzeugen, es bleibt aber ein Reporting Werkzeug.

 

Ansatz 4: Data Science und ML-Plattformen

Auf Data Science und Machine Learning Plattformen wie RapidMiner und Azure ML können Nutzer:innen eigene Daten- und Analyseworkflows entwickeln und haben zudem umfangreiche Möglichkeiten, die Parameter statistischer Verfahren und Machine Learning Modelle anzupassen. Damit lassen sich Datenanalysen fahren, die deutlich über den Horizont einfacher Reports hinausgehen. Für weit verbreitete Anwendungszwecke wie Bild- oder Spracherkennung gibt es teilweise auch bereits vortrainierte KI-Modelle und Methoden.

Diese Plattformen bieten viele mächtige Möglichkeiten, sind aber in erster Linie für Data Scientists und KI-Entwickler:innen geeignet. Für Ingenieure ist die Handhabung sehr weit weg von den Werkzeugen ihrer Fachdomäne und erfordert ein tiefes Eintauchen in die KI- und Programmierwelt. Sinnvoll sind solche Plattformen, wenn sich bereits eine eigene Abteilung ausschließlich mit dem Thema Data Science beschäftigt. Der Mensch, im speziellen der Data Scientist, bleibt in der Regel das zentrale Bindeglied im Analyse- und Verwertungsprozess, da viele Ergebnisse der Plattform erklärungsbedürftig sind. Die Übertragung von Plattform-Ergebnissen in skalierbare Anwendungen bzw. Apps für den Tagesbetrieb ist eine gänzlich eigene Aufgabe.

Ansatz 5: Konfigurierbare (low code) Softwarelösung

Beim fünften Ansatz arbeiten die Ingenieur:innen in einer stark simplifizierten Softwareumgebung, deren Funktionsumfang und Analysemöglichkeiten speziell auf den Anwendungskontext zugeschnitten wurden. Dabei können sie Daten aus verschiedenen Datenquellen über ein Dashboard einlesen und im Anschluss visualisieren und analysieren, wie es auch BI-Software aus Ansatz 2 erlaubt. Jedoch wird die Bedienung deutlich vereinfacht und unnötige Komplexität vermieden, indem ausschließlich die für den Einsatzzweck relevanten Funktionen verwendet werden und sich deren Einrichtung auf die Konfiguration einiger weniger Parameter reduziert.

Ist die Softwarelösung passend gebaut, kann sie um maßgeschneiderte KI-Module ergänzt werden, die ebenfalls mit minimalem Aufwand, also “low code”, für die eigenen Zwecke konfiguriert werden können. Damit lassen sich etwa komplexe Aufgaben wie die Ursachenanalyse für unerwünschte Ereignisse automatisiert erledigen.

Lösungen dieser Art ermöglichen die enge Zusammenarbeit von Ingenieur:innen und Data Scientists in einer gemeinsamen Kollaborationsumgebung, ohne dass beide Seiten sich viel Expertise des Gegenübers aneignen müssen. Sicherlich wird eine gewisse Abhängigkeit eingegangen, aber das ist bei industriellen Lieferketten ohnehin gang und gäbe. Perspektivisch lassen sich massiv Kosten einsparen und der Fokus der eigenen Fachkräfte auf das Kerngeschäft steigern.

Ansatz 6: Eigene Abteilung

Für eine nachhaltige Inhouse-Entwicklung ist ein internes Team notwendig, dass abhängig von der Umsetzungsstrategie die nötigen Kompetenzfelder abdecken muss. In jedem Fall wird ein Entwicklungsingenieur mit Domänenexpertise für die Anforderungsanalyse und Interpretation von Analyseergebnissen benötigt.

Bei einem Entwicklungsprojekt sind zudem Softwareentwicklung und Data Science bzw. KI-Expertise erforderlich. Beim Ansatz über BI- bzw. ML-Software wird auf jeden Fall ein Data Scientist und ggf. Softwareentwickler:innen benötigt, wenn die Analyseergebnisse in eine Softwarepipeline eingebettet werden sollen.

Wenn das Ziel die Entwicklung einer eigenen Softwarelösung ist, mit der Daten flexibel angebunden und ausgewertet werden können, wird ein interdisziplinäres Team aus Front- und Backend-Entwickler:innen, Data Scientist und KI-Expert:innen sowie DevOps-Engineers benötigt. Letztere schaffen effiziente IT-Prozesse für die Skalierung und Wartung der KI-Anwendung, insb. das regelmäßige Nachtrainieren und Nachjustieren der KI-Modellparameter.

Weitere Informationen finden Sie in unseren Artikeln zu den notwendigen Kompetenzen zur Umsetzung eines KI-Vorhabens.

Fazit

Unternehmen stehen fortlaufend vor der Herausforderung, ihre  Wettbewerbsfähigkeit zu stärken. Im Industriebereich ist hierfür die Innovationskraft der Entwicklungsabteilung der entscheidende Faktor. Je besser aus Daten wichtige Erkenntnisse für die Entwicklungsabteilung gewonnen werden können, desto größer der positive Einfluss auf die Innovationskraft des Unternehmens. Für das entscheidende Bindeglied der Datenanalyse in der Arbeitskette Datenerhebung -> Datenanalyse -> Erkenntnisgewinn haben wir Ihnen 4 gängige Ansätze vorgestellt.

Bei aiXbrain verfolgen wir mit unserer Softwarelösung aiXbrain Dataray den fünften Ansatz.

aiXbrain Dataray richtet sich primär an Ingenieur:innen, die über eine einfache Bedienoberfläche Datenquellen anbinden und auswerten können. Die Software liefert bereits fertige, industrietaugliche Analysemodule, die abhängig von den konkreten Anforderungen mit nur minimalem Aufwand konfiguriert werden müssen. Wenn sich die Lösung während einer Testphase bewährt, kann sie auf beliebig viele Datensignale (Zeitreihendaten) und Datenquellen (z.B. Datenbank von Maschinen, Anlagen) skaliert werden.