Projektziele
Das Ziel von COGNITUS ist es, eine Deep Learning Pipeline bestehend aus generischen algorithmischen Bausteinen zur Verfügung zu stellen, die zur Prognose von Maschinenausfällen auf Basis von Sensor Datenströmen herangezogen werden können. Diese Bausteine sollen dann in zwei unterschiedlichen realweltlichen Anwendungsfällen eingesetzt werden und Ausfälle von Schmuck-Produktionsmaschinen im Bereich Produktion (Swarovski) bzw. Lagertechniksystemen im Bereich Logistik (SPAR) prognostizieren. Orthogonal dazu werden in COGNITUS neue datengetriebene Wartungsprozesse und -strategien entwickelt die Entscheidungen auf Basis algorithmischer Prognosen unterstützen.
Innovation in COGNITUS ergibt sich durch die Interdisziplinarität, die eine Kombination von Expertise aus den Bereichen Data Science (AIT, LineMetrics) und Instandhaltungsplanung (FhA) ermöglicht. Daraus werden neue, integrierte Data Science und Instandhaltungsplanungsmethoden hervorgehen, die offene wissenschaftliche und technische Fragestellungen adressieren, wie z.B.: die Verwendung von Deep Learning Modellen in Streaming Plattformen, oder neue Sondierungsmethoden zur Erforschung der inneren Strukturen von trainierten Deep Learning Ansätzen. COGNITUS wird außerdem neue prototypische Dashboards entwickeln, die zeigen sollen wie algorithmische Prognosen den Benutzern kommuniziert werden können und dabei versuchen, existierende Wartungssoftwarelösungen hinsichtlich User-Experience zu übertreffen.
Experten und Entscheidungsträger aus dem Bereich Wartung stellen die Benutzer-Zielgruppe des Projekts dar. Sie werden von automatisierten Prognosen profitieren und wissen wie diese Prognosen in Wartungsprozesse und -entscheidungen einfließen sollen. Dies kann ungeplante Ausfälle reduzieren und die Effektivität von Maschinen und Anlagen in beiden Anwendungsfällen um bis zu 25% erhöhen.
Projektergebnisse
- daten-getriebene Wartungs- und Entscheidungsunterstützungsmodelle die algorithmische Prognosen unterstützen,
- Komponenten zur Analyse und Visualisierung von Datenströmen,
- Softwarebibliotheken zum Training, zur Evaluierung und zur Erklärung von Deep Learning basierten Ausfallsprognosemodellen, sowie
- zwei Pilot-Demonstratoren in den Bereichen Produktion und Logistik, die eine Beurteilung und Quantifizierung des Nutzens auf operativer und geschäftlicher Ebene ermöglichen.