- Ein empirischer Vergleich erklärbarer Methoden der künstlichen Intelligenz für klinische Daten: Eine Fallstudie zu traumatischen Hirnverletzungen (arXiv)
Autor: Amin Nayebi, Sindhu Tipirneni, Brandon Foreman, Chandan K. Reddy, Vignesh Subbian
Zusammenfassung: Eine seit langem bestehende Herausforderung im Zusammenhang mit Deep-Studying-Algorithmen besteht darin, zu entschlüsseln und zu verstehen, wie sie ihre Entscheidungen treffen. Explainable Synthetic Intelligence (XAI) bietet Methoden, um die internen Funktionen von Algorithmen und die Gründe für ihre Entscheidungen auf eine Weise zu erklären, die für menschliche Benutzer interpretierbar und verständlich ist. . Bisher wurden zahlreiche XAI-Ansätze entwickelt, und eine vergleichende Analyse dieser Strategien scheint notwendig, um ihre Relevanz für klinische Vorhersagemodelle zu erkennen. Zu diesem Zweck haben wir zunächst zwei Vorhersagemodelle für kurz- und langfristige Folgen traumatischer Hirnverletzungen (TBI) implementiert, wobei wir jeweils strukturierte Tabellendaten und physiologische Zeitreihendaten nutzten. Sechs verschiedene Interpretationstechniken wurden verwendet, um beide Vorhersagemodelle auf lokaler und globaler Ebene zu beschreiben. Anschließend führten wir eine kritische Analyse der Vor- und Nachteile jeder Strategie durch und hoben die Auswirkungen für Forscher hervor, die an der Anwendung dieser Methoden interessiert sind. Die implementierten Methoden wurden hinsichtlich verschiedener XAI-Merkmale wie Verständlichkeit, Wiedergabetreue und Stabilität miteinander verglichen. Unsere Ergebnisse zeigen, dass SHAP am stabilsten und mit der höchsten Wiedergabetreue ist, aber nicht verständlich ist. Anker hingegen sind der verständlichste Ansatz, der jedoch nur auf Tabellendaten und nicht auf Zeitreihendaten anwendbar ist
2. Kovariatenanpassung in randomisierten klinischen Studien mit fehlenden Kovariaten- und Ergebnisdaten (arXiv)
Autor: Chia-Rui Chang, Yue-Lied, Fan Li, Rui Wang
Zusammenfassung: Bei der Analyse von Daten aus randomisierten klinischen Studien kann die Kovariatenanpassung verwendet werden, um zufällige Ungleichgewichte in Basiskovariaten zu berücksichtigen und die Präzision der Schätzung des Behandlungseffekts zu erhöhen. Ein praktisches Hindernis für die Kovariatenanpassung ist das Vorhandensein fehlender Daten. In diesem Artikel untersuchen wir vor dem Hintergrund der jüngsten theoretischen Fortschritte zunächst mehrere Kovariatenanpassungsmethoden mit unvollständigen Kovariatendaten. Wir untersuchen die Auswirkungen des fehlenden Datenmechanismus auf die Schätzung des durchschnittlichen Behandlungseffekts in randomisierten klinischen Studien mit kontinuierlichen oder binären Ergebnissen. Parallel dazu berücksichtigen wir Situationen, in denen die Ergebnisdaten vollständig beobachtet werden oder zufällig fehlen; Im letzteren Fall schlagen wir einen vollständigen Gewichtungsansatz vor, der eine inverse Wahrscheinlichkeitsgewichtung zur Anpassung fehlender Ergebnisse und eine Überlappungsgewichtung zur Kovariatenanpassung kombiniert. Wir betonen, wie wichtig es ist, die Interaktionsterme zwischen den fehlenden Indikatoren und Kovariaten als Prädiktoren in die Modelle einzubeziehen. Wir führen umfassende Simulationsstudien durch, um die Leistung der vorgeschlagenen Methoden bei endlichen Stichproben zu untersuchen und sie mit einer Reihe gängiger Alternativen zu vergleichen. Wir stellen fest, dass die Durchführung der vorgeschlagenen Anpassungsmethoden im Allgemeinen die Präzision der Behandlungseffektschätzungen verbessert, unabhängig von den Imputationsmethoden, wenn die angepasste Kovariate mit dem Ergebnis verknüpft ist. Wir wenden die Methoden auf die Studie zur Adenotonsillektomie im Kindesalter an, um die Auswirkung der Adenotonsillektomie auf die neurokognitiven Funktionswerte zu bewerten