Tipps und Tricks für ein erfolgreiches Data Analytics Projekt

Maschinendaten, Serviceprodukte

Tipps und Tricks für ein erfolgreiches Data Analytics Projekt

Die Digitalisierung maschineller Produktions- und Fertigungsprozesse wird immer wichtiger. Mittlerweile ist schon jede 4. Maschine smart und arbeitet vernetzt. Mithilfe von Sensoren und Big Data Analysen wird die Fabrik zu einer smarten Produktion. Maschinen, Produkte, Kunden und Lieferanten sind sowohl miteinander als auch nach außen vernetzt. Kosten werden durch die Digitalisierung reduziert und Prozesse optimiert. Mithilfe von Big Data Analytics sollen Unternehmen bessere geschäftliche Entscheidungen treffen können.

Bei der enormen Menge an Daten, die eine Maschine erzeugt, müssen die relevanten Informationen aus der großen, unstrukturierten Menge gewonnen werden. Big Data Analytics wird mithilfe von Software-Tools betrieben. Bei der richtigen Umsetzung können Kosten gespart und die eigene Produktion besser verstanden und optimiert werden. Voraussetzung hierfür sind IT-Infrastrukturen, die eine perfomante Speicherung und Verarbeitung großer Datenmengen ermöglichen.

Bedingungen & Herausforderungen

Mithilfe eines Big Data Analytics Projektes lassen sich bestehende Geschäftsprozesse optimieren und die Effizienz der Datenverarbeitung steigern. Auch bisher ungenutzte Daten können zur Unterstützung von Prozessen eingesetzt werden. Ob ein Big Data Analytics Projekt jedoch von großem Erfolg und Nutzen sein wird, ist im Voraus schwer einzuschätzen. Grund hierfür sind die wenigen Erfahrungswerte im Hinblick auf den Aufwand und den Nutzen.

Um die Digitalisierung im Unternehmen einzuführen, müssen neue Strukturen der Zusammenarbeit geschaffen werden. Auch neue Denkweisen sind oftmals notwendig. Die Anforderungen werden auch durch den Kundenbedarf definiert. Da die Digitalisierung mit einer höheren Komplexität verbunden ist, ist eine enge Zusammenarbeit mit Spezialisten aus den unterschiedlichsten Fachbereichen ausschlaggebend. Strategien müssen kontinuierlich überdacht und an die Kundenbedürfnisse angepasst werden.

Use Cases und Smart Services

Nehmen wir mal an, dass wir aus dem Salzwasser nur das Salz ziehen möchten. So ähnlich funktioniert es bei der Big Data Analyse. Hier werden Informationen aus einer großen Datenmenge gezogen und zur Generierung neuer Produkte und digitaler Geschäftsmodelle verwendet. Dies kann beispielsweise das automatische Erkennen von Maschinenfehlern sein, das Anfordern des Service Technikers über digitale Systeme oder KI-unterstütztes Condition Monitoring zur Überwachung der zeitlichen Entwicklung von Zuständen kritischer Maschinenkomponenten.

Für eine erfolgreiche Umsetzung des Big Data Analytics Projektes werden Use Cases benötigt. Use Cases sind Anwendungsfälle. Die Erstellung von Use Cases ist mithilfe von Smart Services möglich. Smart Services sind Analysealgorithmen, die aus Daten nutzenbringende Informationen herausziehen. Es gibt drei verschiedene Kategorien der Smart Services: technische, wirtschaftliche und vertriebliche Smart Services. Das Nutzungsverhalten vom Kunden steht bei vertrieblichen Smart Services im Vordergrund. Ein Beispiel hierfür wäre die Berechnung von Empfehlungen für den Kauf maschinenspezifischer Verbrauchsmaterialien. Bei den wirtschaftlichen Smart Services steht die softwaregetriebene Optimierung der Produktionsprozesse im Fokus wie beispielsweise die Reduktion des Ausschusses durch optimierte Maschinenkonfiguration. Bei den technischen Smart Services geht es um die Überwachung der Funktionsfähigkeit der Maschinen wie beispielsweise die Erkennung von Fehlern in Produktionsprozessen oder das Vorhersagen des Verschleißgerades von Maschinenkomponenten. In der Umsetzung sind meistens jedoch mehrere Smart Services beteiligt.

Erstellung von Use Cases

Effektive Use Cases schaffen einen echten Mehrwert. Somit sollte der Fokus zunächst auf folgender Fragestellung liegen: „Welche datengetriebenen Produkte und Geschäftsmodelle benötigt der Kunde bzw. das eigene Unternehmen und welche Modelle können in Zukunft relevant sein?“. Für die Entwicklung von Ideen und Lösungsansätzen ist es sinnvoll, Mitarbeiter aus verschiedenen Fachbereichen zusammen zu bringen. Für einen guten Use Case hilft das Wissen über interne Prozesse und deren Schwachstellen, Hintergrundwissen über Kunden und deren Bedürfnisse, technisches Fachwissen, strategisches Wissen sowie Kreativität. Im Idealfall werden mehrere Use Cases entwickelt und nach ihrer Priorität sortiert.

Fallstricke und wie man sie umgeht

Bei der Umsetzung kann vieles schiefgehen. Mögliche Risikofaktoren bei der Entwicklung von Use Cases könnten die fehlende Unterstützung durch die Geschäftsführung, fehlendes Verständnis und mangelnde Akzeptanz bei den Mitarbeiter sein. Zudem müssen Use Cases realisierbar sein. Zu wenig Informationen in den Daten stellt das häufigste Hindernis dar.

Aus diesem Grund ist eine Forschungsphase vorab unabdingbar. Ziel dieser Phase sollte sein, dass alle nötigen Informationen in den Daten zur Umsetzung des Use Cases enthalten sind. Ist der Informationsgehalt der Daten nicht ausreichend, muss die Datenlage durch geeignete Maßnahmen verbessert werden. Dies geht beispielsweise durch die Verwendung zusätzlicher Datenquellen oder durch eine verbesserte Sensorik. War auch dies nicht erfolgsversprechend, wird das Projekt beendet und der nächste Use Case erforscht. Was jedoch beachtet werden sollte ist, dass mit abnehmendem Ranking des Use Cases auch die Relevanz für den Kunden abnimmt.

Ein weiterer, wichtiger Punkt ist, dass sich die Use Cases an die Anforderungen des Kunden richten müssen (Mehrwert und Integrierbarkeit in bestehende Arbeitsabläufe). Ein Mehrwert entsteht dann, wenn der Kunde den Use Case in seine Produktionsabläufe integrieren kann. Sind für die Entwicklung eines Use Cases Kundendaten notwendig, so müssen genügend Kunden dazu bereit sein, diese notwendigen Daten zur Verfügung zu stellen.

Qualität der Daten

Das wichtigste Element in einem Big Data Analytics Projekt sind die Daten. Die Qualität der Daten ist für den Erfolg des Use Cases wichtiger als die reine Menge der Daten. Doch wie wird die Qualität der Daten erkannt? Datenqualität entsteht erst im Zusammenhang mit dem jeweiligen Anwendungsfall. Es gilt, die Frage zu beantworten: „Sind genügend Informationen in Form von Trends, Mustern und Zusammenhängen in den Daten enthalten?“

Die Menge der Informationen wird durch zwei Faktoren bestimmt: die Wahl der Datensätze bzw. Messgrößen und durch den Messprozess selbst. Hierbei gilt es, die Daten zunächst richtig zu identifizieren. Dabei kommen Messtechnik und Data Science zum Einsatz. Die Messtechnik ermöglicht die Erfassung von Daten mittels geeigneter Hardware und Bereitstellung an weitere Systeme. Die Data Science zieht dann, zum Beispiel mittels bestimmter Analysealgorithmen, Schlüsse aus den Daten und generiert Wissen.

Zu beachten ist, dass Änderungen an der Maschine Auswirkungen auf die Eigenschaften der Messdaten haben können. Somit geht die Gültigkeit der trainierten Modelle verloren oder der Analysealgorithmus ist nicht mehr zu gebrauchen. Um das zu vermeiden, werden in der Praxis Sicherheitsmechanismen eingebaut, um Veränderungen in den Datenmerkmalen zu erkennen und Anwender zu warnen. Zudem ist die Nachvollziehbarkeit der Herkunft der Daten enorm wichtig. Änderungen müssen stetig erfasst werden. Dies hat den Vorteil, dass Veränderungen nachverfolgt und im Analyseprozess beachtet werden können.

IT-Infrastruktur

Ein weiterer wichtiger Punkt bei der Umsetzung von Big Data Analytics Projekten ist der Aufbau von IT-Systemen wie bspw. Datenbanksysteme oder Informationssysteme. Diese ermöglichen, dass die enorme Menge an Daten gespeichert und verarbeitet werden kann. Zudem müssen die Daten exakt in bestehende IT-Systeme integriert werden können. Nur auf diesem Weg kann der erzeugte Mehrwert in vorhandene Arbeitsabläufe, Produkte oder Geschäftsmodelle gegossen werden. Bevor mit der Umsetzung gestartet wird, muss ein geeignetes Architekturmodell gefunden werden, welches den Anforderungen genügt.

Generell müssen IT-Systeme eine hohe Bandbreite an Ansprüchen erfüllen wie beispielsweise das Speichern und Verarbeiten großer, unstrukturierter Datenmengen oder die Analyse von kleinen Datenmengen in Echtzeit. Außerdem ist eine konstante Anpassung des Systems auf Skalierbarkeit erforderlich, um künftigen Anforderungen gerecht zu werden. Wichtig ist, dies von Anfang an zu tun, um nicht auf ein System zu setzen, welches bei größerer Belastung nicht weiter realisiert werden kann.

IT-Sicherheit

Wird eine Big Data Plattform eingesetzt, können verschiedene Risiken entstehen. Verschiedene Faktoren spielen hierbei eine Rolle: Beispielsweise durch Angriffe von außen, fehlerhafte Benutzung der Systeme oder durch menschliche Fehler.

Dennoch sollten Daten möglichst sicher gespeichert werden, um vor Datenmissbrauch, Diebstahl und dem damit einhergehenden Vertrauensverlust zu schützen.

Hierzu gibt es keinen allgemeingültigen Lösungsansatz. Es gibt aber ein paar Dinge, die immer Beachtung finden sollten:

  • Kommunikation aller Systeme lediglich über verschlüsselte Kanäle
  • Daten auf mehrere Instanzen verteilen. Dadurch werden Ausfälle vermieden. Fällt beispielswiese ein Teilsystem aus, beeinträchtigt es die Performance, es kommt aber nicht zum Totalausfall.
  • Zusätzlich sollten Daten durch eine passende Backupstrategie mit regelmäßigen Sicherungen geschützt werden, falls diese fehlerhaft geschrieben werden, gelöscht oder ein Softwarefehler vorliegt.

Erfolgreiche Umsetzung des Big Data Analytics Projektes

Kreativität, gemeinschaftliches, fachübergreifendes und agiles Arbeiten spielen bei der Umsetzung von Big Data Analytics Projekten eine bedeutende Rolle. Für erfolgsbringende Projekte sind sinnhafte Use Cases, Analysealgorithmen, eine IT-Infrastruktur und richtige Daten die Voraussetzung. Außerdem sollten Kunden und Mitarbeiter früh genug in die Entwicklung der Produkte und Dienstleistung einbezogen werden, denn sie entscheiden, ob eine Lösung erfolgreich sein wird oder nicht. Besonders wichtig ist: Erst einmal anfangen!

Schließen