Themen & Lösungen

Data Science am SCCH

Data Science Anwendungen sind vielfältig. Sie spielen eine wichtige Rolle in der Wissensextraktion. In großen Datenmengen sollen Muster erkannt und damit Vorhersagen getroffen werden.
In Data Science entwickeln und verbessern wir Methoden für die automatisierte Analyse von Daten (z.B. Sensordaten) zur Wissensgewinnung, Verbesserung von Modellen und zur Optimierung. 
Bei der automatisierten Analyse von räumlich-zeitlichen Daten aus Bildern oder Videos forschen wir an neuartigen Methoden.

Angewandte Forschung für unsere (Industrie) Partner betreiben wir in folgenden Bereichen.

  • Big / Stream Data Processing (z.B. Sichere und effiziente verteilte Big Data Algorithmen; Heterogenes Online Transfer Learning; Datenqualität und Daten- und Modellmanagement),
  • Smart Data Discovery (z.B. Strukturlernen; Ermittlung kausaler Zusammenhänge; Vertrauenswürdige, interpretierbare Modelle; Integration von Event- / Log-Daten),
  • Fault Detection and Identification (z.B. Schnelle (Online) Algorithmen zum Erlernen von partiellen Systemmodellen; Fehlerdetektion und –vorhersage; Optimale Instandhaltung) und
  • Predictive Analytics and Optimization (z.B. Transfer Learning; Online Transfer Learning; Optimierung und Steuerung komplexer Aufgabenstellungen).

Die Kernaufgabe in all diesen Anwendungen ist die Extraktion von Information und Wissen aus operativen Daten über den Prozess, das Produkt oder die Anlage, um daraus robuste Berechnungs- bzw. Vorhersagemodelle zu bilden; auch bekannt als Maschinelles Lernen, Data Mining und Wissensextraktion. 
Die angewandte Forschung konzentriert sich dabei auf Methoden, die zu wesentlichen Fragestellungen im Bereich der Datenanalyse beitragen: Wie können mechanistisches Prozessverständnis und kausale Zusammenhänge aus Daten abgeleitet werden? Wie können Modelle effizient von einem Szenario auf ein anderes übertragen werden, ohne weitere teure Daten sammeln zu müssen? Wie kann Wissen, das in einer ad hoc Datenanalysesitzung gewonnen wird, modelliert, konsolidiert und algorithmisch in der nächsten Datenanalysesitzung benutzt werden? Antworten auf solche Fragen in Form von Software erlauben es uns, effizienter bessere Lösungen für datenintensive Problemstellungen unserer (industriellen) Partner zu erstellen. Z.B. würde ein Werkzeug zur Ableitung von mechanistischen Modellen aus Daten das Schließen über Ursache-Wirkungsrelationen in Produktionsprozessen auch für Nicht-Datenwissenschaftler erlauben, während gute Transfer Learning Algorithmen das effiziente Ausrollen von virtuellen Sensoren ohne teure (Re-)Kalibration ermöglichen.