Blog

5 Schritte zur effektiven Nutzung von Big Data

Dies ist der zweite Beitrag aus unserer Big-Data-Reihe. Lesen Sie auch unseren ersten Artikel Wo beginnt Big Data? So finden Sie heraus, ob Ihre Anwendung reif für den Wandel ist.

Vom aufziehenden Big-Data-Zeitalter verspricht sich nicht zuletzt der Fertigungssektor revolutionäre Verbesserungen. Produktionsprozesse sollen präziser und effizienter werden, die Produktnachfrage noch besser prognostizierbar und die unternehmerische Entscheidungsfindung insgesamt agiler. Diese Potenziale tatsächlich zu heben, ist jedoch nicht so einfach, wie viele vielleicht denken. Zahlreiche mittelständische Herstellungsbetriebe sammeln heute große Datenmengen, ohne genau zu wissen, wie sie diese zur Expansion des Geschäfts oder zur Erreichung anderer Ziele nutzen sollen. Haben Sie einen Überblick, wie viele möglicherweise bahnbrechenden Daten in genau diesem Moment auf Ihren Servern Staub ansetzen? Und haben Sie eine Idee, wie Sie die Nutzung dieser Informationen angehen können?

Nun – wie wäre es mit diesen fünf Schritten? 

 

Schritt 1: Identifizieren Sie das Problem und/oder Ihre Ziele

Noch vor der Untersuchung der eigentlichen Daten müssen Sie sich bewusstmachen, welche Probleme es im Unternehmen gibt, die sich einem besseren Datenverständnis lösen ließen. Das könnten Materialengpässe, gestiegene Produktionszeiten oder ein Anstieg bei Beinahe-Unfällen sein. Wir gehen heute einmal von folgendem Beispiel aus: Ein Manager eines mittelständischen Sensorherstellers stellt fest, dass zuletzt mehr Gassensoren als üblich gewartet werden mussten. Er will dem Problem auf den Grund gehen. Auch, wenn Sie vielleicht andere Ziele verfolgen: Der erste Schritt zum erfolgreichen Einsatz von Massendaten lautet immer, sich klar zu machen, wonach Sie eigentlich suchen. 

Schritt 2: Stellen Sie die richtigen Fragen

Ein Aspekt, der bei Big-Data-Analysen oft übersehen wird, ist die Qualität der Datenabfragen. Analyse-Tools helfen zwar meist, Daten-Anomalien zu erkennen. Auf die konkreten Ideen, wonach Sie suchen, müssen Sie aber immer noch selber kommen. Bei unserem Sensor-Beispiel wären z. B. diese Fragen interessant:

  • Wann fing das an, dass die Sensoren so wartungsanfällig wurden?
  • Sind auch bei anderen Produkten zurzeit erhöhte Rückläufe zu beobachten?
  • Gab es in der Vergangenheit schon einmal derartige Zunahmen? Wann?
  • Gibt es eine Korrelation zwischen der Einarbeitung neuer Mitarbeiter und defekten Sensoren?
  • Gibt es eine Korrelation mit dem Wetter?

Sammeln Sie zur Erstellung Ihrer Datenwürfel so viele Daten und Felder, wie Sie können. Je höher die Detailtiefe der Datenwürfel, desto flexibler sind Sie beim Reporting.

Schritt 3: Machen Sie die Daten-Bestandsaufnahme

Im nächsten Schritt untersuchen Sie, welche Daten Ihnen aktuell zur Verfügung stehen und auf welche Quellen Sie noch Zugriff haben. Dann bewerten Sie ihre Präzision, Relevanz, und Verarbeitungsgeschwindigkeit. Zurück zu unserem Beispiel: Dem Sensorhersteller stehen als Datenquellen das ERP-System, Zulieferer, Maschinen, Personalsystem und externe Quellen wie Wetterdienste oder soziale Medien zur Verfügung.

Jede Quelle kann anhand der „4 V“ auf ihre Relevanz abgeklopft werden. Diese vier zentralen Big-Data-Säulen sind: Volume (die Datenmenge), Variety (die Art und Struktur der Daten), Velocity (die Geschwindigkeit, mit der neue Daten eingehen und nutzbar gemacht werden müssen) und Veracity (das Maß für die Genauigkeit und Vertrauenswürdigkeit der Daten).

Schritt 4: Sammeln/aufnehmen:

Ein Hauptunterschied zwischen „small“ und „big“ Data liegt in der Art, wie diese gesammelt bzw. aufgenommen werden. Früher oder später wird die native Reporting-Funktion Ihres ERP-Systems an ihre Grenzen stoßen. Standardmäßige ERP-Berichte bieten nicht genügend Flexibilität, Daten auf die gewünschte Weise zu untersuchen. Die Verarbeitung großer Berichte kann zudem zu Leistungseinbußen führen, worunter das gesamte Team zu leiden hat. Und zuletzt bieten Standardfunktionen nicht die Möglichkeit, externe Datenquellen einzubinden. Abhilfe schafft der ETL-Prozess. ETL steht für Extract, Transform, Load, und ermöglicht es Ihnen, sämtliche Daten aus unterschiedlichen Quellen (inklusive Ihres ERP-Systems) in ein Datenformat zu bringen, das speziell auf große Datenabfragen ausgelegt ist. Anschließend können diese Daten dann in ein Analysetool geladen werden.

PROFI-TIPP: Denken Sie groß. Sammeln Sie so viele Daten und Felder zur Erstellung Ihrer Datenwürfel, wie möglich. Je höher die Detailtiefe der Datenwürfel, desto flexibler wird das Reporting. Oder anders gesagt: Beschränken Sie sich nicht auf das, wonach Sie heute filtern wollen. Denken Sie auch darüber nach, welche Filter in Zukunft wichtig werden könnten. Die Erstellung eines Datenwürfels ist sehr zeitaufwändig und fordert eine Menge menschlicher und maschineller Arbeit. Wenn Sie zu Beginn einen möglichst großen Datensatz vorbereiten, können Sie später viel Zeit sparen.

Schritt 5: Zeit für die Analyse

Jetzt können Sie Ihre Business Intelligence (BI) und die erweiterten Analyse-Tools zum Einsatz bringen. Bereiten Sie komplexe Datensätze visuell auf und nutzen Sie weitere Möglichkeiten, Antworten auf Ihre Fragen zu finden.

Die Tools helfen Ihnen, wirklich alle Unternehmensdaten zu berücksichtigen und so zu konsolidieren, dass den Entscheidungsträgern im Unternehmen zeitnah akkurate Informationen zur Verfügung gestellt werden können. Setzen Sie spezifische, messbare Ziele, legen Sie einen Handlungsleitfaden fest, wie diese zu erreichen sind, und implementieren Sie Methoden, um die Wirksamkeit dieser Maßnahmen zu überprüfen. 

Gehen wir ein letztes Mal zurück zum Sensorhersteller. Unser Manager hat nun einen zentralisierten Überblick über sämtliche Daten. Er kann sehen, dass der Wartungsbedarf bei Gassensoren in der Vergangenheit tatsächlich mehrfach angestiegen ist – und zwar üblicherweise gegen Ende März/Anfang April. Zwischen der Einarbeitung neuer Mitarbeiter und einem Anstieg defekter Teile lässt sich keine Korrelation feststellen, da die Mitarbeiter das ganze Jahr hindurch eingestellt werden. Als der Manager schließlich Daten zum Wetter, Fertigungsort und den Reparaturzeitpunkten zusammenführt, macht es Klick. Offenbar handelt es sich bei den defekten Sensoren um die Modelle, die in der Fertigungsanlage im kalten Kanada produziert und dann an andere Standorte geliefert wurden, an denen gerade die warme, feuchte Frühlingssaison begonnen hatte. Mit diesen Informationen lässt sich arbeiten: Der Manager kann jetzt die Produktions- oder Distributionsprozesse optimieren und Länder mit feuchtwarmem Klima künftig über die Fertigungsanlage in Mexiko beliefern lassen. 

Wie groß sind Ihre Datenmengen?

Wo liegt bei der Datenanalyse eigentlich die Grenze zwischen Small und Big Data? Das ist oft gar nicht so leicht zu beantworten. Wichtig ist, dass Ihre Analyse-Tools und Ihre Infrastruktur auf die Art der Datenanalyse ausgelegt sind, die Sie vornehmen müssen.

 

Small Data

Big Data

Beispiel

Monatlicher Verkaufsbericht

Bericht zum Kaufverhalten der Kunden

Beinhaltet

  • Grundlegende ERP-Berichtsdaten,
    z. B. zu Kunden, Transaktionen, Terminen
     
  • „Live“-Daten: Was geschieht in diesem Moment in Ihrem System, welche Bestellungen sind zurzeit offen? Welche Materialien werden morgen angeliefert?
  • Aufgaben, Notizen usw.
  • Tausende oder Millionen exportierter ERP-Datensätze, z. B. zu Kunden, Transaktionen, Terminen
  • Daten aus anderen relevanten Quellen: Von Maschinen und Produkten bereitgestellte IoT-Daten (Internet of Things), Lagerbestandsdaten von Lieferanten, Informationen zu Käufern (Rolle in ihren Unternehmen, Interessen, detaillierte Einkaufshistorie), Social-Media-Daten, Temperatur- oder Wetterdaten, geografische Daten usw.

Analyse mit:

  • Einzelrechner
  • Traditionellen Such- und
    Analysetools
  • Verteilter Architektur
  • Erweiterten Analyse-Tools

Wonach Sie suchen können

  • Details einzelner Datensätze
  • Einfache Trends
  • Komplexe Trends
  • Schwer auszumachende Beziehungen zwischen Daten

 

Schauen Sie bald wieder vorbei – im nächsten Artikel unserer Big-Data-Reihe beschäftigen wir uns mit der effektiven Nutzung von Metadaten. 

Letzte Blogs