Smart statt Big data?

Lohnen sich Big-Data-Analysen für den Anwender

Smart statt Big data?

Das Thema Big-Data-Analysen geistert schon lange durch die Branche. Doch lohnen sich diese Verfahren in Zeiten einer Industrie 4.0 wirklich und kann der Anwender diese komplexen Systeme und Algorithmen überhaupt selber bedienen? Das SPS-MAGAZIN sprach über diese Problematiken mit Rahman Jamal, Global Technology & Marketing Director bei National Instruments (NI).

 (Bild: National Instruments Germany GmbH)

(Bild: National Instruments Germany GmbH)


Was verstehen Sie unter Big Data?

Rahman Jamal: Bekanntlich ist die physikalische Welt die größte Datenquelle. Diese Daten sind allesamt analoger Natur, die dann in digitale Signale umgewandelt werden. Daher sprechen wir bei NI von Big Analog Data. Bei den Datenquellen handelt es sich z.B. um Maschinen, aber auch um Naturphänomene, die Licht, Radiowellen, Magnetismus, Spannung, Schallwellen usw. erzeugen. Diese Art von Big Data ist älter, schneller und umfangreicher als jede andere Art von Daten und heutige Ingenieure und Wissenschaftler müssen sie gut interpretieren können, um daraus einen Nutzen für ihr Unternehmen zu ziehen. Die Daten müssen die Anwender natürlich selbst erfassen, aber NI kann sie dabei unterstützen, diese Daten in Erkenntnisse umzuwandeln und einen maximalen Nutzen daraus zu ziehen.

Welche Vorteile ergeben sich aus der Analyse von Big Data?

Jamal: Prognosen sind bekanntermaßen schwierig. Doch würden Unternehmen davon profitieren, könnten sie durch Vorhersagen drohende Maschinenausfallzeiten erkennen, die Sicherheit ihres Personales sicherstellen oder die Effizienz ihrer Betriebsabläufe verbessern. Sinnvoll wäre also eine Vernetzung aller Geräte innerhalb des Unternehmens, um die richtigen Daten den richtigen Personen zur rechten Zeit vorzulegen zu können. Nur dies erlaubt es, auf Basis dieser Daten fundierte Entscheidungen zu fällen. Durch Analysen und die Steuerung und Regelung von Sensoren und Aktoren bereits in einem frühen Stadium des Lebenszyklus der Daten können Unternehmen schneller Nutzen aus den Daten ziehen. Wir adressieren dies mit unserer Hard- und Softwareplattform zur Erfassung von Informationen verschiedener Quellen und Arten, die es gestattet, die Analysen näher am Sensor durchzuführen und irrelevante Informationen bereits vorab herauszufiltern. Dies wiederum minimiert die Speicherüberlastung zentraler Server und führt schneller zu Erkenntnissen.

Rechnet sich für den Anwender überhaupt der Aufwand, um alle Daten erfassen zu können?

Jamal: Absolut! Gerade in der heutigen Zeit des Internet of Things, das aus tausenden von Sensoren mit noch nie dagewesener Embedded-Intelligenz besteht. Diese Sensoren wiederum erfassen Unmengen an Big Analog Data, die sie über extrem schnelle Drahtlosnetzwerke weiterleiten. So kann die richtige Information zur rechten Zeit zur Verfügung stehen, was es dem Anwender wie erwähnt ermöglicht, die richtige Entscheidung zu treffen. Dies wird am Ende ausschlaggebend sein, will man die Nase vorn haben. Außerdem müssen Sie bedenken, welche Kosten sich hinter falsch angewandter Datenverwaltung verstecken. Man mag vielleicht mit dem momentanen Resultat der Datenanalyse und -auswertung zufrieden sein. Hat man die Daten jedoch nicht ordentlich aufbereitet, wird es unmöglich sein, mit künftigen Anforderungen Schritt halten zu können. Eine heute getätigte Investition wird dem Anwender nicht nur einen Wettbewerbsvorteil bringen, sondern ihm auch viele Kopfschmerzen ersparen.

Welche Produkte zur Datenanalyse hat NI im Programm?

Jamal: Eine Big-Analog-Data-Lösung basiert auf einer Architektur, die auf drei Säulen fußt. Die Kombination dieser drei Säulen resultiert in einer integrierten Lösung, die sich im gesamten Zyklus von der Datenerfassung (durch den Sensor) bis hin zur Entscheidungsfindung auf Basis dieser Daten nutzen lässt. Die erste Säule bilden die Sensoren. Der erste Schritt zu einer datenbasierten Entscheidung liegt darin, die Daten exakt zu erfassen. Da die Datenquellen analoger Daten so unterschiedlich sein können, braucht jedes System entsprechende spezifische Sensoren und Aktoren, die dem jeweiligen zu messenden Naturphänomen entsprechen. Die Systemknoten bilden den zweiten Pfeiler der Big-Analog-Data-Architektur. Hierbei handelt es sich um ein Schlüsselelement einer durchgängigen Lösung, denn diese Systeme (wie etwa Compact, PXI, und CompactDAQ) unterstützen den Anwender dabei, die Vorteile präziser Datenerfassung mit denen der tiefgreifenden Datenanalyse zu kombinieren – und zwar in Echtzeit oder zeitnah nach der Erfassung der Daten. Bei diesen Systemknoten handelt es sich um über ein Netzwerk miteinander verbundene Hardware (mit dazugehöriger Software), die sich um die A/D-Wandlung, Signalkonditionierung, frühe Analyse und Weiterleitung der erfassten Daten kümmert. Haben die Daten diesen Teil durchlaufen, gelangen sie über das Edge hinweg an Säule Nummer drei: In der Regel treffen sie auf ein Netzwerk-Schaltmodul und werden anschließend an den Server weitergeleitet, wo sie gespeichert und evtl. weiteren Analysen unterzogen werden. Dies ist dann der Punkt, an dem der Anwender Nutzen aus den erfassten Daten ziehen kann und an dem dann letztendlich datenbasierte Entscheidungen getroffen werden – seien sie technischer, wissenschaftlicher oder gar geschäftlicher Natur. Auch befindet sich in diesem Pfeiler die Cloud, die sich stets wachsender Beliebtheit bei den Anwendern erfreut.

Ist der Anwender wirklich in der Lage aus dieser Datenflut die richtigen Schlüsse zu ziehen, oder benötigt er Hilfe?

Jamal: Bevor die richtigen Schlüsse aus den Daten gezogen werden, müssen diese erst einmal ausgewertet und in erster Linie auch auffindbar sein. Fast notorisch ist das Versäumnis, schon bei der Testvorbereitung und -durchführung Vorkehrungen für die effiziente Nutzung der erfassten Daten zu treffen. Allzu oft werden Messdaten und simulierte Daten ohne beschreibende Zusatzinformationen in diversen Dateiformaten verteilt auf Festplatten und Netzlaufwerken gespeichert. So entsteht schnell ein Datenfriedhof, aus dem sich nur mühsam die Datensätze extrahieren lassen, die Ingenieure für ihre tägliche Arbeit benötigen. Lassen sich Datensätze nicht finden, dann müssen Tests oder Simulationen neu erstellt werden. Ein Rückgang an Effizienz und erheblich steigende Entwicklungskosten sind die Folge. Um diesen Herausforderungen zu begegnen, hat NI eine Lösung definiert: das TDM-Dateiformat (Technical Data Management). Darin sind drei Komponenten enthalten: (a) Das offene TDMS-Dateiformat zum Speichern umfassend dokumentierter Messdaten, (b) der DataFinder zum schnellen Auffinden zuvor gespeicherter Datensätze und (c) das LabVIEW DataFinder Toolkit zur Verarbeitung von Daten und zum Erstellen von Berichten. Der erste Schritt zu einer einheitlichen Lösung für das Datenmanagement besteht darin, sicherzustellen, dass Daten so effizient, organisiert und skalierbar als möglich gespeichert werden.

Wäre es nicht sinnvoller dem Anwender statt Big Data gleich Smart Data zu liefern, d.h. bereits fertige Ergebnisse?

Jamal: Eine manuelle Auswertung solch einer Unmenge an Daten erfordert einen erheblichen Zeit- und somit Kostenaufwand. Wäre man aber in der Lage, einige der Arbeitsschritte zu automatisieren, könnte man nicht nur Zeit und Kosten sparen, sondern sich vor allem auf die eigentliche Aufgabe konzentrieren, nämlich die Interpretation der Analyseergebnisse. Eine Automatisierung gewisser Arbeitsabläufe bietet sich vor allem für immer wiederkehrende identische Bedienschritte an. Genau das war der Gedanke hinter einigen Funktionen. So gibt es etwa eine Makroaufzeichnungsfunktion zur Erstellung von VBS-Scripten für sequenzielle Analyse- und Berichterstellungsaufgaben. Auch die Scripterstellung zum Abrufen und Speichern der Daten sowie umfassende Funktionen für den Datenaustausch über SQL/ODBC, ASAM-ODS und andere Protokolle erübrigen einige manuelle Arbeitsschritte. Außerdem lassen sich anwenderspezifischer Funktionen erstellen und sogar als DIAdem-Standardfunktionen nutzen u.v.m.

National Instruments Germany GmbH
www.ni.com

Das könnte Sie auch Interessieren

Bild: Wittenstein SE
Bild: Wittenstein SE
Veränderungen in Aufsichtsrat und Vorstand bei Wittenstein

Veränderungen in Aufsichtsrat und Vorstand bei Wittenstein

Im Vorstand und Aufsichtsrat von Wittenstein gibt es Änderungen: Dr. Manfred Wittenstein, der als bisheriger Aufsichtsratsvorsitzender mit Ablauf der regulären Amtsperiode auf der Hauptversammlung aus dem Aufsichtsrat ausgeschieden ist, wird das Gremium weiterhin als Ehrenvorsitzender unterstützen. Dr. Anna-Katharina Wittenstein wechselt nach gut sieben Jahren im Vorstand in den Aufsichtsrat des Unternehmens.