Name des Teilnehmers: Marcel Reith-Braun
Beschreibung des IT-Forschungsprojekts: Ein entscheidender Nachteil heutiger künstlicher neuronaler Netze, so wie sie beispielsweise in der Bilderkennung, dem automatischen Fahren oder der Sprachverarbeitung eingesetzt werden, ist die Ausgabe von Vorhersagen ohne zugehöriges Vertrauensniveau. Verlässt man sich ungeprüft auf diese Vorhersagen, kann dies zu schwerwiegenden Folgen führen (z. B. im automatischen Fahren, bei Nichterkennung eines anderen Verkehrsteilnehmers). In der industriellen Praxis führt dies zu einer großen Skepsis gegenüber dem Einsatz neuronaler Netze und steht ihrem flächendeckenden Einsatz im Wege.
Mittels der Ausgabe zusätzlicher Unsicherheiten zu den Vorhersagen der neuronalen Netze kann diesem Nachteil begegnet werden. Anhand der Unsicherheiten kann eingeschätzt werden, inwieweit den Netzausgaben vertraut werden kann. Zur Unsicherheitsschätzung sind u. a. Bayes’sche neuronale Netze ein vielversprechender Ansatz. Aufgrund der großen Komplexität heutiger neuronaler Netze ist die Unsicherheitsschätzung jedoch nur approximativ möglich, wodurch sich Fehler ergeben. In der Praxis sind die so gewonnenen Unsicherheitsschätzungen selbst oft nicht vertrauenswürdig und dem ursprünglichen Problem kann erneut nicht begegnet werden.
Im Zuge dieses Vorhabens soll eine Methodik zur Evaluierung und Eingrenzung des Gültigkeitsbereichs der Unsicherheitsschätzungen entwickelt und auf ein industrienahes Beispiel aus der vorausschauenden Instandhaltung oder der Modellierung komplexer Regelstrecken angewendet werden. Kern ist die Entwicklung eines (statistischen) Tests, welcher überprüft, ob die vom neuronalen Netz ausgegebenen Daten vom zu Grunde liegenden probabilistischen Modell stammen können. Anschließend soll dem Problem nicht vertrauenswürdiger Unsicherheiten durch Eingrenzung auf Bereiche valider Unsicherheitsschätzungen begegnet werden.
Software Campus-Partner: KIT, IAV
Umsetzungszeitraum: 01.02.2021 – 14.05.2022