Jetzt teilnehmen

Bitte loggen Sie sich ein, um Ihre Teilnahme an diesem Webinar zu bestätigen. Sie sind dann vorgemerkt und werden, falls das Webinar innerhalb der nächsten 10 Minuten beginnt, sofort weitergeleitet.

Findet das Webinar zu einem späteren Zeitpunkt statt, kommen Sie kurz vor Beginn des Webinars erneut, um am Webinar teilzunehmen.

Einfach buchen

Buchen Sie jetzt RÖKO DIGITAL des 105. Deutscher Röntgenkongress und 10. Gemeinsamer Kongress von DRG und ÖRG und verpassen Sie keines unserer lehrreichen und informativen Webinare zu verschiedenen Themen der Radiologie.

  • Wissenschaft & Fortbildung
  • CME-Punkte
  • Themenvielfalt
  • Dialog & Interaktion

Jetzt teilnehmen

Bitte loggen Sie sich ein, um Ihre Teilnahme an diesem Webinar zu bestätigen. Sie sind dann vorgemerkt und werden, falls das Webinar innerhalb der nächsten 10 Minuten beginnt, sofort weitergeleitet.

Findet das Webinar zu einem späteren Zeitpunkt statt, kommen Sie kurz vor Beginn des Webinars erneut, um am Webinar teilzunehmen.

Ohne Buchung.

Sie können an dieser Veranstaltung auch ohne Buchung von RÖKO DIGITAL des 105. Deutscher Röntgenkongresses und 10. Gemeinsamer Kongress von DRG und ÖRG kostenfrei teilnehmen.

Eine Teilnahmebescheinigung erhalten nur Personen, die das digitale Modul „RÖKO DIGITAL“ des 105. Deutscher Röntgenkongresses und 10. Gemeinsamer Kongress von DRG und ÖRG gebucht haben oder noch nachbuchen.

Um teilzunehmen kommen Sie ca. 10 Minuten vor Beginn wieder. Freischaltung zur Teilnahme in:

Sie können an dieser Veranstaltungen auch ohne Buchung von RÖKO DITITAL des 105. Deutscher Röntgenkongresses und 10. Gemeinsamer Kongress von DRG und ÖRG kostenfrei teilnehmen.

Eine Teilnahmebescheinigung erhalten nur Personen, die das digitale Modul „RÖKO DIGITAL“ des 105. Deutscher Röntgenkongresses und 10. Gemeinsamer Kongress von DRG und ÖRG gebucht haben oder noch nachbuchen.

Melden Sie sich bitte hier an:

Bitte beachten Sie die Datenschutzhinweise.

Kongressteilnehmer.

Als Teilnehmer am RÖKO DIGITAL des 105. Deutscher Röntgenkongresses und 10. Gemeinsamer Kongress von DRG und ÖRG loggen Sie sich bitte ein, um an dieser Industrie­veranstaltung teilzunehmen.

Ohne Buchung.

Sie können an Industrie­veranstaltungen auch ohne Buchung von RÖKO DIGITAL des 105. Deutscher Röntgenkongresses und 10. Gemeinsamer Kongress von DRG und ÖRG kostenfrei teilnehmen.

Um teilzunehmen kommen Sie ca. 10 Minuten vor Beginn wieder. Freischaltung zur Teilnahme in:

Sie können an Industrie­veranstaltungen auch ohne Buchung von RÖKO DIGITAL des 105. Deutscher Röntgenkongresses und 10. Gemeinsamer Kongress von DRG und ÖRG kostenfrei teilnehmen. Melden Sie sich bitte hier an:

Bitte beachten Sie die Datenschutzhinweise.

Das ist eine Meldung

Stet clita kasd gubergren, no sea takimata sanctus est. Ut labore et dolore aliquyam erat, sed diam voluptua.

Wissenschaftliche Sitzung

Radiologie und IT: Röntgenthorax & KI

Radiologie und IT: Röntgenthorax & KI
Freitag, 10. Mai 2024 · 13:30 bis 15:00 Uhr
Diese Veranstaltung findet ausschließlich als Präsenzveranstaltung im Rhein-Main-Congress-Center in Wiesbaden statt. Diese Veranstaltung kann nicht über einen Stream sondern nur vor Ort besucht werden.
10
Mai

Freitag, 10. Mai 2024

13:30 bis 15:00 Uhr · Raum: Terrassensaal B  in Kalender übernehmen:   iCal  ·  Google

Veranstaltungsdetails

Veranstalter
Deutsche Röntgengesellschaft e.V.
Art
Wissenschaftliche Sitzung
Thema
IT/ Bildverarbeitung / Software

Zertifizierungen

Der RÖKO WIESBADEN wird im Rahmen einer Kongresszertifizierung durch die LÄK Hessen bewertet. Bitte beachten Sie die Hinweise unter A bis Z.

Informationen

Moderation
Stefan Diederich (Düsseldorf)
Christian Johannes Herold (Wien)

Ablauf

13:30 - 13:45

Impuls-Vortrag

Neueste KI-Techniken im Thoraxröntgen

Georg Langs (Wien)

13:45 - 13:50

Vortrag (Wissenschaft)

Optimierung der Klassifikationsleistung von maschinellen Lernmodellen in Röntgen-Thoraxaufnahmen durch Adaptive Multiple Fensterung mithilfe von WindowNet

Sardi Hyska (München)

weitere Autoren

Alessandro Wollek (München) / Bastian Sabel (München) / Michael Ingrisch (München) / Tobias Lasser

Zielsetzung

In der Befundung fenstern Radiolog*innen Röntgen-Thoraxaufnahmen, um diskrete Bildaspekte zu akzentuieren. Da die Fensterung bekanntermaßen die Klassifikationsleistung von maschinellen Lernmodellen in CT-Aufnahmen verbessert, haben wir deren Effekt auf Thoraxübersichtsaufnahmen untersucht. Zudem analysieren wir, ob die Leistung von neuronalen Netzen durch adaptives Lernen mittels multipler Fensterungen verbessert wird im Vergleich zu einem einzelnen Fenster.

Material und Methoden

Mittels des von CheXpert in 14 Klassen (z.B. Pneumothorax, Pleuraerguss usw.) gelabelten MIMIC-Datensatzes von 377.110 Röntgen-Thoraxaufnahmen trainierten wir ein Modell basierend auf DenseNet-121. Zuerst verglichen wir die Klassifikationsleistung von 8-bit und 12-bit Farbtiefen, dann den Effekt eines einzelnen Fensters. Schließlich stellen wir WindowNet vor: ein lernfähiges Modell mit einer adaptiven Fensterungsschicht, das optimale Fensterungen lernt, um die Klassifikationsleistung weiter zu erhöhen.

Ergebnisse

Die Klassifikationsleistung stieg mit höherer Farbtiefe, wobei die Fläche unter der Operationscharakteristik-Kurve (AUC) 0,772 für 12-bit und 0,759 für 8-bit betrug. Während Fensterung an sich die Klassifikationsleistung verbesserte, war kein einzelnes Fenster das Beste für alle 14 Klassen. Durch die multiplen lernfähigen Fensterungen von WindowNet konnte die Klassifikationsleistung mit einem maximalen AUC von 0,812 weiter erhöht werden gegenüber 0,750 bei 8-bit Baseline-Aufnahmen.

Schlussfolgerungen

Die Fensterung ist ein zentraler Schritt der Datenpräprozessierung für neuronale Netze in Röntgen-Thoraxaufnahmen, vergleichbar mit Studienergebnisse in CT-Aufnahmen. Durch die Einführung von WindowNet, ein lernfähiges adaptives Modell, das multiple Fensterungen benutzt, konnte die Klassifikationsleistung noch deutlicher erhöht werden.
13:50 - 13:55

Vortrag (Wissenschaft)

Steigerung der Klassifikationsleistung von maschinellen Lernmodellen in Röntgen-Thoraxaufnahmen durch höhere Bildauflösung

Sardi Hyska (München)

weitere Autoren

Alessandro Wollek (München) / Michael Ingrisch (München) / Bastian Sabel (München) / Tobias Lass (München)

Zielsetzung

Während Deep Learning Klassifikationsmodelle für Röntgen-Thoraxaufnahmen üblicherweise auf Bildmaterial mit einer Auflösung von 224 × 224 Pixeln trainiert werden, ist die Auflösung von heutigen Aufnahmen um ein Vielfaches höher. Zudem verschwinden kleinste Pathologien in Aufnahmen mit niedriger Auflösung. Deshalb untersuchten wir systematisch den Effekt der Auflösung auf die Klassifikationsleistung von maschinellen Lernmodellen in Röntgen-Thoraxaufnahmen.

Material und Methoden

Wir trainierten Modelle basierend auf die DenseNet-121-Architektur auf verschiedene Auflösungen (64 × 64 to 1024 × 1024 pixels) in Aufnahmen vom öffentlichen Datensatz Chest X-Ray 14, der aus in 14 Klassen gelabelten 112,120 Aufnahmen besteht. Ergänzend untersuchten wir Objektdetektionsraten für acht Klassen, indem wir GradCAM Salienzkarten und annotierte Aufnahmen mittels bounding-box-Analysen verglichen.

Ergebnisse

Die höchste Klassifikationsleistung erreichte die Auflösung von 1024 x 1024 mit einer Fläche unter der Operationscharakteristik-Kurve (AUC) von 84,2%. Interessanterweise erzielte auch die Auflösung von 64 x 64 eine beachtliche AUC von 77,5%. Für spezifische Klassen wie z. B. Noduli, Atelektase und Raumforderung, die kleine Pathologien darstellen, verbesserte die höhere Auflösung die Detektionsrate beträchtlich, während 512 x 512 die höchste Genauigkeit erreichte.

Schlussfolgerungen

Eine höhere Aufnahmaeuflösung verbessert die Klassifikationsleistung in Röntgen-Thoraxaufnahmen, wobei 1024 x 1024 Pixeln die besten Ergebnisse erzielten. Auf der anderen Seite zeigte sogar die niedrigste Auflösung (64 x 64) ein respektables Klassifikationspotential. Insbesondere für Pathologien von geringer Größe war die Erhöhung der Bildauflösung essenziell, um eine Genauigkeit und eine Präzision zu erreichen, die nicht Null sind.
13:55 - 14:00

Vortrag (Wissenschaft)

Tapping the Pool of Non-Medical Images for Enhanced AI-Based Chest Radiography Analysis

Soroosh Tayebi Arasteh (Aachen)

weitere Autoren

Christiane Kuhl (Aachen) / Sven Nebelung (Aachen) / Daniel Truhn (Aachen)

Zielsetzung

Traditionally, labeled datasets are used to develop artificial intelligence (AI)-based models in radiology. Self-supervised learning (SSL) utilizes unlabeled data for model development and may principally resort to non-medical images. Herein, we studied the potential of SSL using non-medical images for developing an AI model that interprets chest radiographs (CXR), contrasting the model’s performance with supervised learning (SL) requiring labeled data.

Material und Methoden

Over 800,000 chest radiographs from open-access datasets (VinDr-CXR [n=18,000 CXRs], ChestX-ray14 [n=112,120], CheXpert [n=157,878], MIMIC-CXR [n=213,921]), PadChest [n=110,525]) and our institution (UKA [n=193,361]) targeting more than 20 labeled imaging findings were included. Three pre-training strategies were assessed: i) SSL using unlabeled non-medical (natural) images (n=142 million images), ii) SL using labeled natural images (n=14 million images with more than 21,000 distinct labels), and iii) SL with task-specifically labeled CXRs from the MIMIC-CXR dataset, the largest specific CXR dataset available (n=213,921 CXRs with 14 imaging findings). Diagnostic performance was compared using the AUC of held-out test sets (n=3,000, n=25,596, n=39,824, n=43,768, n=22,045, and n=39,824) and bootstrapping.

Ergebnisse

SSL pre-training using non-medical images consistently outperformed the SL pre-training on the ImageNet dataset across all datasets (p<0.001 for all comparisons). Average AUC (%, mean ± standard deviation) over all datasets was 83.3 ± 5.4 with a minimum and maximum of 79.1 ± 6.3 and 89.7 ± 3.3. Remarkably, in larger datasets such as CheXpert and UKA, pre-training strategy (i) even surpassed pre-training strategy (iii) (p<0.001).

Schlussfolgerungen

Tapping the large pool of non-medical images for the SSL-based development of AI models for medical image analyses represents a transformative approach to enhance efficiency and accuracy, especially when specifically labeled datasets are unavailable.
14:00 - 14:05

Vortrag (Wissenschaft)

The Future is Collaborative: A Systematic Analysis of Federated Learning and Framework Parameters in the AI-Based Interpretation of Chest Radiographs

Soroosh Tayebi Arasteh (Aachen)

weitere Autoren

Christiane Kuhl (Aachen) / Daniel Truhn (Aachen) / Sven Nebelung (Aachen)

Zielsetzung

Artificial intelligence (AI) models face challenges in generalizing across diverse datasets. Federated learning (FL) enables multi-site collaborative training without data sharing, presenting an alternative to local training. We aimed to study the factors affecting diagnostic performance of collaborative training (i.e., FL) versus local training in the AI-based interpretation of chest radiographs.

Material und Methoden

Including more than 610,000 chest radiographs from five global open-access datasets (VinDr-CXR [n=18,000]; ChestX-ray14 [n=112,120], CheXpert [n=157,878], MIMIC-CXR [n=213,921]; PadChest [n=110,525]), diagnostic performance was assessed using the AUC of held-out test sets (n=3,000, n=25,596, n=39,824, n=43,768, and n=22,045). Statistical analysis was performed using bootstrapping. Various parameters were considered: training strategy (local vs. collaborative), network type (convolutional vs. transformer-based), generalization (internal vs. external), imaging findings (such as cardiomegaly), and dataset size.

Ergebnisse

Independent of the AI network selected, larger datasets displayed no or even detrimental performance changes regarding AUC values when trained collaboratively vs. locally: CheXpert: Δ=0.000 [ns], MIMIC-CXR: Δ=-0.002 [ns] p=0.088). Smaller datasets showed significant corresponding AUC value gains: VinDr-CXR: Δ=0.048, ChestX-ray14: Δ=0.020, PadChest: Δ=0.014 (each p<0.001), indicating internal performance correlates with dataset size. In external domains, all datasets displayed significant performance gains when trained collaboratively, regardless of the network type (p<0.004). These observations were made for all imaging findings.

Schlussfolgerungen

FL holds the potential to advance privacy-preserving collaborations, harness the utilization of public datasets, and enhance domain generalization. Wider adoption of collaborative training strategies can stabilize the clinical performance of diagnostic AI models and improve patient outcomes.
14:05 - 14:10

Vortrag (Wissenschaft)

Nicht-Radiologen in der Notaufnahme profitieren in der Röntgen-Thorax-Befundung deutlich von KI-Unterstützung

Jan Phlipp Rudolph (München)

weitere Autoren

Christian Hümmer / Alexander Preuhs / Giulia Buizza / Julien Dinkel (München) / Vanessa Koliogiannis (München) / Sophia Samira Goller (München) / Nicola Fink (München) / Vincent Schwarze (München) / Maximilian Fischer (München) / Maximilian Jörgens (München) / Najib Ben Khaled (München) / Boj Friedrich Hoppe (München) / Thomas Liebig (München) / Jens Ricke (München) / Johannes Rueckel (München) / Bastian Sabel (München)

Zielsetzung

Quantifizierung des klinischen Nutzens einer auf einem convolutional neural network basierenden künstlichen Intelligenz zur Interpretation von Röntgen-Thorax (CXR) in einem Notaufnahmeszenario.

Material und Methoden

563 CXR von Notaufnahmepatienten wurden zweimal retrospektiv von 3 radiologischen Fachärzten (RFÄ), 3 radiologischen Assistenzärzten (RAÄ) und 3 nicht-radiologischen Assistenzärzten aus Chirurgie und Innerer Medizin mit Notaufnahmeerfahrung (NR) bewertet: (1) ohne AI-Unterstützung (-KI), (2) mit AI-Unterstützung durch secondary capture overlays (+KI). Das Vorliegen von vier Pathologien (Pleuraerguss, Pneumothorax, pneumonischen Konsolidierungen, Lungenrundherden) wurde auf einer 5-stüfigen Likert Skala bewertet. Die Bewertungen der RFÄ wurden in 4 binäre Referenzstandards (RFSI-IV) übersetzt (RFS1 – sehr spezifisch, RFS4 – sehr sensitiv). Die Performances von RAÄ und NR wurden mittels ROC-Analysen, Youden statistics und ROC fitting statistisch ausgewertet.

Ergebnisse

Im klinisch relevanten RFSIV verbesserte sich der Konsensus der NR +KI bei allen Pathologien signifikant. So betrug die AUC bei der potentiell zeitkritischen Pathologie Pneumothorax -KI 0,846 (0,785-0,907) und +KI (0,947-1,000), was einem Zugewinn an 30% in Sensitivität und 2% in Accuracy bei gleichbleibender Spezifität entsprach. Der größte Effekt zeigte sich für Rundherde, wo die NR die Sensitivität um 53% und die Accuracy um 7% +KI steigern konnten (AUC -KI: 0,723 [0,661-0,785]; +KI: 0,890 [0,848-0,931]). Der Konsensus der RAÄ konnte sich +KI teils leicht, jedoch nicht signifikant verbessern.

Schlussfolgerungen

Die Nichtradiologen konnten Performance, Sensitivität und Accuracy in allen vier Pathologien deutlich verbessern. In einem Notaufnahmeszenario ohne 24/7-Abdeckung durch eine radiologische Abteilung oder bei langen Befundungszeiten, kann die vorgestellte KI-Lösung ein gutes klinisches Unterstützungstool (ähnlich einem „second reader“) bieten und so zu einer präziseren Primärdiagnostik und früheren Therapieeinleitung beitragen.

Teilnahme Young Investigator Award

14:10 - 14:15

Vortrag (Wissenschaft)

Automatisiertes Labeling Deutscher Röntgenthoraxbefunde durch Deep Learning

Sardi Hyska (München)

weitere Autoren

Alessandro Wollek (München) / Philip Haitzer (München) / Thomas Sedlmeyr (München) / Johannes Rückel (München) / Bastian Sabel (München) / Michael Ingrisch (München) / Tobias Lasser (München)

Zielsetzung

Ziel dieser Studie war die Untersuchung des Potenzials der schwachen Supervision in einem auf Deep Learning basierenden Modell zur Extraktion von Labels. Dieses Modell könnte dann verwendet werden, um Labels aus deutschen Freitext-Thorax-Radiologie-Befunden zu extrahieren und damit Röntgenthorax-Klassifikationsmodelle zu trainieren.

Material und Methoden

Wir trainierten einen deutschen BERT-basierten-Encoder mit manuellen Annotationen, regelbasierten Labels (aus 66.071 Befunden) und beidem. Zudem wurden 1.091 Befunde (DS1) gemäß den CheXpert-Klassen manuell annotiert. Die Leistung der Label-Extraktion wurde anhand der Erfassung von Erwähnungen, Negationen und Unsicherheiten (F1-Scores) bewertet. Der Einfluss der Extraktionsmethode wurde anhand eines Pneumothorax-Datensatzes (DS2) mit 6.434 Aufnahmen und Befunden evaluiert. Wir verglichen DenseNet-121-Modelle, die mit manuellen Annotationen, regelbasierten und durch Deep Learning-basierten Label-Vorhersagen sowie öffentlich verfügbaren Daten trainiert wurden.

Ergebnisse

Der vorgeschlagene Deep-Learning-basierte Labeler (DL) zeigte für alle drei Aufgaben auf DS1 eine bedeutend bessere Leistung als der regelbasierte Labeler (RB) mit F1-Scores von 0,94 vs. 0,92 für die Erwähnungs-, 0,89 vs. 0,51 für die Negations- und 0,61 vs. 0,51 für die Unsicherheitserkennung. Das Vortraining auf DS0 und Feintuning auf DS1 lieferte bessere Ergebnisse als nur das Training auf entweder DS0 oder DS1. Die Klassifikationsergebnisse für Pneumothorax (DS2) waren am besten, wenn sie mit DL-Labels trainiert wurden im Vergleich zu RB-Labels (Fläche unter der ROC-Kurve (AUC) 0,939 vs. 0,858). Das Training mit manuellen Labels war etwas schlechter als das mit DL-Labels (AUC 0,934) und das mit einem öffentlichen Datensatz führte zu einer AUC von 0,720.

Schlussfolgerungen

Unser vorgeschlagener auf Deep Learning basierender Labeler ist ein möglicher Ersatz für manuelles Labeling und benötigt nur 1.000 manuell annotierte Berichte für das Training.
14:15 - 14:20

Vortrag (Wissenschaft)

Deutscher CheXpert Röntgenthorax Befundlabeler

Sardi Hyska (München)

weitere Autoren

Alessandro Wollek (München) / Philip Haitzer (München) / Thomas Sedlmeyr (München) / Johannes Rückel (München) / Bastian Sabel (München) / Michael Ingrisch (München) / Tobias Lasser (München)

Zielsetzung

Ziel dieser Studie war die Entwicklung eines Algorithmus zur automatischen Extraktion von Labels aus deutschen Röntgenthoraxbefunden, um damit tiefe neuronale Netze zur Klassifikation von Röntgenthoraxaufnahmen zu trainieren.

Material und Methoden

Basierend auf der CheXpert-Architektur wurde ein Modell zur automatischen Label-Extraktion für deutsche Röntgenthoraxbefunde entworfen, das 14 Labels (z.B. Pneumothorax, Pleuraerguss usw.) extrahieren kann. Zur Generierung eines Referenzstandards wurde ein Multi-Reader-Annotationsinterface erstellt, durch den ein Radiologe 1086 Befunde (DS1) annotieren konnte. Der Effekt der automatisch extrahierten Labels wurde an einem zusätzlichen internen Pneumothorax-Datensatz (DS2) mit 6434 Aufnahmen und entsprechenden Befunden bewertet, indem ein DenseNet-121-Modell verglichen wurde, das auf extrahierten Labels basierend auf zugehörigen Befunden, bildbasierten Pneumothorax-Labels oder öffentlich verfügbaren Daten trainiert wurde.

Ergebnisse

Beim Vergleich automatischer mit manueller Annotationen des DS1 variierten die F1-Scores der Erwähnungsextraktion zwischen 0,8 und 0,995 und die der Negationserkennung zwischen 0,624 und 0,981. Die extrahierten Pneumothorax-Labels des DS2 hatten eine Sensitivität von 0,997 und eine Spezifität von 0,991. Das auf öffentlichen Daten trainierte Modell erreichte eine Fläche unter der Operationscharakteristik-Kurve für die Pneumothorax-Klassifikation von 0,728, das Modell, das auf automatisch extrahierten Labels trainiert wurde, erreichte 0,858 und auf manuellen Annotationen 0,934.

Schlussfolgerungen

Die automatische Annotation von deutschen Röntgenthoraxbefunden ist ein vielversprechender Ersatz für die manuelle Annotation. Durch die schnellere Annotation können größere Trainingsdatensätze erstellt werden, was eine höhere Modellleistung verspricht. Ein auf automatisch extrahierten Labels trainierter Pneumothorax-Klassifikator übertraf deutlich das auf öffentlichen Datensätzen trainierte Modell ohne zusätzliche Annotationszeit.
14:20 - 14:25

Vortrag (Wissenschaft)

Ein Blick in den Maschinenraum neuronaler Netze – Die Rolle ordinaler Regressionsmethoden in der KI-basierten Interpretation von Thoraxröntgenbildern

Patrick Wienholt (Aachen)

weitere Autoren

Alexander Hermans (Aachen) / Firas Khader (Aachen) / Sven Nebelung (Aachen) / Daniel Truhn (Aachen)

Zielsetzung

Ziel war die systematische Untersuchung ordinaler Regressionsmethoden, also Methoden zur Vorhersage von geordneten Daten mit „natürlicher“ Reihenfolge, für die Künstliche Intelligenz (KI)-basierte Interpretation von Thoraxröntgenbildern auf Basis neuronaler Netze.

Material und Methoden

Eingeschlossen wurde ein lokaler Datensatz unserer interdisziplinären universitären Intensivstationen mit 193.362 Thoraxröntgenbildern (anteroposteriore Projektion, Akquisezeitraum: 2010-2021), für den die radiologische Bewertung folgender Bildbefunde im Rahmen der Routinebefundung verfügbar war: „Atelektase“, „Pulmonale Stauung“, „Pleuraerguss“ und „Infiltrate“ als ordinale Variablen mit fünf Klassen von [nicht vorhanden] über [fraglich…], [gering…], [moderat…] bis [ausgeprägt vorhanden]. Als Netzarchitektur wurde ein Convolutional Neural Network (ResNet50) genutzt. Als Zielvektoren wurden verschiedene Kodierungen verwendet, um die ordinalen Daten für das Netz besser zugänglich zu machen: 1) One-Hot-Kodierung mit separatem Binärmerkmal [0 vs. 1]; 2) weiche One-Hot-Kodierung mit Gaußverteilung [zwischen 0 und 1]; 3) Kodierung anhand eines Fortschrittsbalkens. Die L1-Distanz zu allen Zielvektoren wurde für die Inferenz der ordinalen Klasse verwendet und anhand des quadratisch gewichteten Cohen's Kappawerts (quad. Fehlergewichtung) und one-way ANOVA (nach Bonferroni-Korrektur des Signifikanzniveaus auf 0.0167) evaluiert.

Ergebnisse

Die Cohen's Kappawerte waren über alle Bildbefunde: 0,652±0,001 (Mittelwert ± Standardabweichung) für weiche One-Hot-Kodierung; 0,641±0,001 für Fortschrittsbalkenkodierung; 0,618±0,001 für One-Hot-Kodierung (p<0.001 [ANOVA]).

Schlussfolgerungen

Die Genauigkeit der KI-basierten Diagnostik von Thoraxröntgenbildern ist maßgeblich abhängig von der korrekten Auswahl der ordinalen Regressionsmethode. Hierbei ist die weiche One-Hot-Kodierung bei quadratischer Fehlergewichtung den übrigen untersuchten Methoden vorzuziehen.
14:25 - 15:00

Diskussion

Diskussion

Runlog

Öffnen