Big Data Analytics für eine schlanke Produktion

2/25/2021

Lesezeit: 3 min

Big Data wird durch die "drei Vs" definiert: Volume, Velocity und Variety.

  • Volume bezieht sich auf die schiere Größe der beteiligten Datensätze. Big Data wird in Zettabytes und Petaflops gemessen. Terabytes als absolutes Minimum.
  • Velocity beschreibt das kontinuierliche Wachstum. Um ein Beispiel aus der Fertigung zu nehmen - ein Echtzeit-Datenstrom von Maschinenzustandsdaten generiert pro Tag und Werk Dutzende von Terabytes, wenn alle Maschinen angeschlossen sind.
  • Variety bedeutet, dass "Big Data" aus vielen verschiedenen Arten von Daten besteht, die mit normalen Methoden nicht integriert werden könnten. Sie könnten z. B. Genome mit Lifestyle-Daten vergleichen und Querverweise mit der Finanzhistorie ziehen.

Mit dem Aufkommen des Cloud Computing - das es jedem ermöglicht, sich mit Servern zu verbinden, die hundertmal leistungsfähiger sind als die Supercomputer von vor 20 Jahren - sind große Daten für fast jeden zugänglich geworden; in der Regel über einen einfachen Webbrowser und gegen eine relativ geringe Abonnementgebühr.

Reguläre Analytik vs. Big-Data-Analytics

Um den Unterschied zwischen regulären Analysen und Big Data-Analysen zu erkennen, muss man auf die drei Vs achten: Volume, Velocity und Variety. Reguläre Analysen werden in ähnlichen Paketen wie Big Data-Analysen angeboten, in der Regel mit kleineren, homogeneren Datensätzen, die mit geringerer Geschwindigkeit erfasst werden. Die Daten, die für reguläre Analysen verwendet werden, können immer noch bei einem oder zwei der drei Vs punkten, aber nicht bei allen von ihnen. Erst in der Kombination aller drei kommt Big Data Analytics richtig zur Geltung, insbesondere das dritte V: Variety.

Traditionelle Datenverarbeitungstechniken waren im Allgemeinen dadurch eingeschränkt, dass sie nur ähnliche Daten vergleichen konnten - zum Beispiel Zahlen gegen Zahlen. Die Vorverarbeitungsmethoden, die in der Big-Data-Analytik verwendet werden, ermöglichen es uns, sehr unterschiedliche Datentypen zu nehmen und sie zu vergleichen. Es ist diese Fähigkeit, Muster und Trends über sehr unterschiedliche Datensätze hinweg zu erkennen, die erstaunliche, bisher verborgene Erkenntnisse liefert.

Wie Hersteller Big-Data-Analytics nutzen

Big-Data-Analytics ist der Prozess des Zerschneidens, Zusammenfügens und Verpackens all dieser Daten in nützliche, umsetzbare Informationen. Heutzutage beinhaltet dies meist eine Vorverarbeitung - oft durch Algorithmen für maschinelles Lernen -, die die verschiedenen Datensätze integrieren und nach Korrelationen, Mustern und Trends suchen. Diese werden dann in Diagramme, Grafiken und Tabellen für den menschlichen Konsum und weitere Analysen übersetzt. Google Analytics ist ein gutes Beispiel dafür, wie so etwas aussieht.

Für die Fertigung bündelt die ThingWorx Big Data & Analytics Plattform beispielsweise die verarbeiteten Daten in rollenspezifische Dashboards. Techniker interessieren sich für den Zustand der Maschinen - vielleicht um zu verstehen, wann sich Teile ihrer Nutzungsdauer nähern -, während Betriebsleiter eher an der Produktionseffizienz interessiert sind. Dieselben Daten können beide Arten von Erkenntnissen liefern; sie erfordern lediglich eine unterschiedliche Verarbeitung und Darstellung.

Wie geht es weiter mit Big Data Analytics in der Fertigung?

Frühe Beispiele für Big-Data-Analysen beschränkten sich weitgehend auf digital verfügbare Daten. Das IoT erschließt die physische Welt. Das vielleicht auffälligste Beispiel ist die Fertigung. Hersteller nutzen bereits IoT-Sensoren in Verbindung mit Big-Data-Analysen zur vorbeugenden Wartung von Servicemaschinen. Dies ist an sich schon eine sehr enge Nutzung von Big-Data-Analytics, die durch geschäftliche Realitäten eingeschränkt ist.

Wenn mehr Teile des Unternehmens vernetzt werden und die Big-Data-Plattform erweitert wird, werden Daten aus dem gesamten Unternehmen gesammelt, zusammengeführt und analysiert. Silos werden aufgebrochen. Antworten des Kundendienstes können in Designentscheidungen einfließen. Produktionspläne werden on-the-fly angepasst, um die Realitäten der Lieferkette zu berücksichtigen. Völlig neue Geschäftsmodelle entstehen durch die synchrone Integration von Abteilungen, die bisher hintereinander oder parallel gearbeitet haben.

Der nächste Schritt für Hersteller besteht darin, Big-Data Analytics nicht mehr nur für die Wartung von Maschinen zu nutzen, sondern die gesamte Produktionsumgebung zu analysieren, Qualifikationsdefizite durch die Analyse von Schichtmustern zu identifizieren, neue Prozesse digital zu prototypisieren, um Verschwendung zu reduzieren, und sich in einem Optimierungsprogramm zu engagieren, das sich in immer engeren Kreisen bewegt.

Wenn Sie mehr über den Einsatz von Big-Data Analytics für eine immer schlankere Fertigung erfahren möchten, laden Sie das eBook "Lean neu definiert mit digitaler Technologie" herunter und erfahren Sie mehr über die digitalen Fertigungslösungen von PTC.

"Lean" neu definiert mit digitaler Technologie

Erfahren Sie, wie Unternehmen zukunftsweisende Technologien nutzen, um ihre "Lean", Six-Sigma- oder sonstige Effizienz-Programme zu unterstützen. eBook lesen
Tags: Industrial Internet of Things Digitale Transformation Vernetzte Geräte Predictive Analytics

Der Autor

Prema Srinivasan, Digital Content Marketing Manager Als Digital Content Marketing Manager bringe ich die neuesten Technologie-Stories ins Rampenlicht. Ich bin leidenschaftlich daran interessiert, Leser zu begeistern und Entscheidungsträger mit relevanten, aktuellen Inhalten zu versorgen.