Paper zu gradientenbasierten Erklärungen für Überlebensmodelle, vorgestellt auf der ICML 2025

Vancouver, Juli 2025 – Auf der International Conference on Machine Learning (ICML) 2025 stellten Forscher:innen von Lispan AI ihre Arbeit zur Verbesserung der Interpretierbarkeit von Deep-Learning-Modellen in der Überlebensanalyse durch gradientbasierte Erklärungsmethoden vor.

Der Artikel „Gradient-Based Explanations for Machine Learning Survival Models” wurde auf der ICML 2025 vorgestellt, einer der weltweit führenden Konferenzen zum Thema maschinelles Lernen.

Die Studie befasst sich mit einer zentralen Herausforderung in der Überlebenszeitanalyse: der Interpretierbarkeit von Deep-Learning-Modellen. Die Forscher entwickelten einen Rahmen, der gradientenbasierte Erklärungsmethoden – wie Saliency, Integrated Gradients und Gradient×Input – auf die Zeit-bis-zum-Ereignis-Einstellung verallgemeinert und so zeitabhängige Merkmalszuweisungen ermöglicht. Dadurch lässt sich nachvollziehen, wie und wann verschiedene Merkmale die Überlebensvorhersagen beeinflussen.

Ein zentrales Ergebnis ist GradSHAP(t), eine neue Methode, die eine Genauigkeit nahe SurvSHAP(t) erreicht und gleichzeitig eine deutlich höhere Recheneffizienz bietet. Diese Verbesserung macht groß angelegte und multimodale Anwendungen praktikabler.

Die Arbeit zeigt neue Möglichkeiten für interpretierbare KI in der Medizin und anderen Bereichen auf, in denen das Verständnis der Gründe für Modellvorhersagen das Vertrauen stärken und fundierte Entscheidungen unterstützen kann.

Hier finden sich weitere Informationen zu dem Beitrag.