Big / Stream Data Processing

Im Bereich „Big / Stream Data Processing“ forschen wir gemeinsam mit unseren wissenschaftlichen Partnern (z.B. JKU-FAW) u.a. an folgenden Themen:

Sichere und effiziente verteilte Big Data Algorithmen

Verteilte und sichere Deep Learning Algorithmen basieren auf der Idee, dass Parameter von Deep Learning Modellen lokal aktualisiert und zu einem globalen Modell zusammengeführt werden. Auf diese Weise müssen keine expliziten Daten (z.B. vom Maschinenbenutzer) zum zentralen Modellbetreiber übertragen werden. In der Praxis ist es aufgrund dieses Mechanismus sehr schwierig, Rückschlüsse auf sensible Informationen einzelner Betreiber zu ziehen.

Heterogenes Online Transfer Learning

Basierend auf unseren Entwicklungen im Bereich des Online Transfer Learnings (Generalized Online Transfer Learning) erforschen und entwickeln wir Methoden für verteiltes Lernen auf heterogenen Datenquellen. Im Gegensatz zu vergleichbaren Methoden sind die neu entwickelten Algorithmen für beliebige Zielfunktionen anwendbar und garantieren Konvergenz zur besten Kombination aus einem Quell- und einem Zielszenario.

Datenqualität und Daten- und Modellmanagement

Wir fokussieren uns auf die automatisierte Überwachung der Datenqualität, die die Untersuchung von Methoden für die kontinuierliche Datenqualitätsüberwachung von realen Informationssystemen beinhaltet. Der Schwerpunkt liegt dabei auf der Schaffung eines möglichst generischen Ansatzes, der zur Bewertung verschiedener Datenmodelle, einschließlich NoSQL-Datenbanken, eingesetzt werden kann. Die Forschungsarbeit beinhaltet die Empfehlung geeigneter Datenqualitäts-Metriken, die besonders aussagekräftige Informationen über die zeitliche Entwicklung der Datenqualität liefern.

Ausgewählte Publikationen sind im strategischen Projekt dasRES zusammengefasst aufgelistet.

zurück