Name des Teilnehmers: Alexander H. Berger
Projekttitel: Interpretierbares Maschinelles Lernen zur Unterstützung klinischer Entscheidungen (IMKE)
Beschreibung des IT-Forschungsprojektes:
In den vergangenen Jahren wurden auf dem Gebiet der medizinischen Bildanalyse erhebliche Fortschritte erzielt, wobei viele diagnostische Aufgaben im akademischen Umfeld eine nahezu perfekte Genauigkeit erreichen. Die klinische Anwendung dieser KI-Modelle bleibt jedoch begrenzt. Ein Haupthindernis für den breiten klinischen Einsatz ist das mangelnde Vertrauen in die oft undurchsichtigen Entscheidungsprozesse dieser Modelle. Kliniker*innen und Mediziner*innen müssen verstehen, wie und warum ein Modell zu einer bestimmten Diagnose oder Behandlungsempfehlung kommt. Diese Transparenz ist von entscheidender Bedeutung für die Identifizierung und Korrektur von Fehlern, insbesondere dann, wenn kleine Hardware-Änderungen bei bildgebenden Geräten zu unerwarteten Abweichungen bei den Diagnoseergebnissen führen könnten. Darüber hinaus kann ein transparentes KI-Modell in komplexen Fällen, in denen verschiedene Krankheiten ähnliche Symptome aufweisen, wertvolle Erkenntnisse liefern, die den Ärzt*innen helfen, genaue Differenzialdiagnosen zu stellen. Daher ist die Verbesserung der Interpretierbarkeit von KI-Modellen von entscheidender Bedeutung, um Vertrauen zu schaffen und ihre effektive Einbettung in die klinische Praxis zu gewährleisten.
Unser Projekt zielt darauf ab, die Lücke zwischen hoher diagnostischer Genauigkeit und Interpretierbarkeit in KI-Modellen für die medizinische Bildanalyse zu schließen. Wir möchten neue KI-Modelle entwickeln, die neuartige Datendarstellungen nutzen, z. B. Graphen-basierte Strukturen, um sowohl die Interpretierbarkeit als auch die Diagnoseleistung zu verbessern. Diese innovativen Darstellungen werden einen transparenteren Entscheidungsfindungsprozess ermöglichen, der es Kliniker*innen erleichtert, die Empfehlungen der KI zu verstehen und ihnen zu vertrauen. Insbesondere werden wir Methoden erforschen, um medizinische Bilddaten so darzustellen, dass sie sowohl interpretierbar als auch genau sind. Aufbauend auf diesen Darstellungen werden wir Erklärbarkeitstechniken entwickeln und verfeinern, die auf diese neuen Datenformen zugeschnitten sind. Unser Projekt wird sich auch darauf konzentrieren, diese erklärbaren Modelle in klinische Arbeitsabläufe zu integrieren, um sicherzustellen, dass sie dem medizinischen Fachpersonal praktische Unterstützung bieten. Dazu gehört die Entwicklung eines Prototyps für ein Diagnoseunterstützungsinstrument, das unsere Modelle und Erklärungsmethoden enthält, sowie die Validierung seiner Leistung in einer klinischen Testumgebung.
Software Campus-Partner: Technische Universität München und Merck KGaA
Umsetzungszeitraum: 01.01.2025 – 31.12.2026