Data Analysis Systems

Die Mission des Forschungsschwerpunkts „Data Analysis Systems“ (DAS) ist es, Methoden für die Analyse und Modellierung komplexer und umfangreicher (Sensor-)Daten weiterzuentwickeln und daraus Lösungen im (industriellen) Anwendungskontext zu erstellen. Angewandte Forschung wird dabei in folgenden Bereichen betrieben:

  • Big Data Processing (z.B. Verarbeitung (großer), komplexer Datenmengen auf mehreren Systemen),
  • Prozessdatenanalyse (z.B. einzelne Prozessschritte besser verstehen; virtuelle Sensoren),
  • Fehlerdetektion und -diagnose (z.B. fehlerhafte Komponenten, Maschinen, ... durch Datenanalyse erkennen und Ursachen identifizieren),
  • Predictive Analytics (z.B. datengetriebene Fehlervorhersage für Predictive Maintenance) und
  • Steuerung und Optimierung (z.B. gewonnenes Wissen aus der Datenanalyse einsetzen, um Systeme (Produktion, Maschinen, ...) zu optimieren).

Die Kernaufgabe in all diesen Anwendungen ist die Extraktion von Information und Wissen aus operativen Daten über den Prozess, das Produkt oder die Anlage, um daraus robuste Berechnungs- bzw. Vorhersagemodelle zu bilden; auch bekannt als Maschinelles Lernen, Data Mining und Wissensextraktion.
Die angewandte Forschung konzentriert sich dabei auf Methoden, die zu wesentlichen Fragestellungen im Bereich der Datenanalyse beitragen: Wie können mechanistisches Prozessverständnis und kausale Zusammenhänge aus Daten abgeleitet werden? Wie können Modelle effizient von einem Szenario auf ein anderes übertragen werden, ohne weitere teure Daten sammeln zu müssen? Wie kann Wissen, das in einer ad hoc Datenanalysesitzung gewonnen wird, modelliert, konsolidiert und algorithmisch in der nächsten Datenanalysesitzung benutzt werden? Antworten auf solche Fragen in Form von Software erlauben es uns, effizienter bessere Lösungen für datenintensive Problemstellungen unserer (industriellen) Partner zu erstellen. Z.B. würde ein Werkzeug zur Ableitung von mechanistischen Modellen aus Daten das Schließen über Ursache-Wirkungsrelationen in Produktionsprozessen auch für Nicht-Datenwissenschaftler erlauben, während gute Transfer Learning Algorithmen das effiziente Ausrollen von virtuellen Sensoren ohne teure (Re-)Kalibration ermöglichen.

Big / Stream Data Processing

  • Sichere und effiziente verteilte Big Data Algorithmen
  • Heterogenes Online Transfer Learning
  • Datenqualität und Daten- und Modellmanagement

Smart Data Discovery

  • Strukturlernen
  • Ermittlung kausaler Zusammenhänge
  • Vertrauenswürdige, interpretierbare Modelle
  • Integration von Event- / Log-Daten

 

Fault Detection and Identification

  • Schnelle (Online) Algorithmen zum Erlernen von partiellen Systemmodellen
  • Fehlerdetektion und -vorhersage
  • Optimale Instandhaltung

Predictive Analytics and Optimization

  • Transfer Learning
  • Online Transfer Learning
  • Optimierung und Steuerung komplexer Aufgabenstellungen