Refresher-Kurs

KI höher, schneller, weiter - was kommt, was bleibt? - Neuroradiologie

KI höher, schneller, weiter - was kommt, was bleibt? - Neuroradiologie
Samstag, 4. Juni 2022 · 10:15 bis 11:45 Uhr
4
Juni

Samstag, 4. Juni 2022

10:15 bis 11:45 Uhr · ZoomWebinar  in Kalender übernehmen:   iCal  ·  Google

Veranstaltungsdetails

Veranstalter
Deutsche Röntgengesellschaft e.V
Art
Refresher-Kurs
Thema
Bildverarbeitung/ IT/ Software
Zielgruppe
Andere, Ärzte in Weiterbildung (AiW), Fachärzte, Ingenieure / Naturwiss.

Zertifizierungen

2 CME Punkte der Kategorie A
Akademie

Informationen

Moderation
Matthias May (Erlangen)
Daniel Pinto dos Santos (Köln)
Michael Forsting (Essen)

Ablauf

10:15 - 10:30

Vortrag (Fortbildung)

Wie nachhaltig ist KI? Welche Evidenz gibt es?

Aljoscha Burchardt

Kurzzusammenfassung

In meinem Vortrag werde ich ganz kurz die Grundzüge von KI erläutern und dann auf einige eigene Arbeiten und daraus abgeleitete Einsichten eingehen, die den Einsatz von KI im medizinischen Alltag betreffen.

Lernziele

Begrifflichkeit KI
Herausforderungen beim Einsatz von KI
10:30 - 10:45

Vortrag (Fortbildung)

KI-Anwendungen in der Neuro-Bildgebung

Michael Forsting (Essen)

10:45 - 10:50

Vortrag (Wissenschaft)

Diagnostische Leistung eines künstlich intelligenten Algorithmus in einer neuen Gerätegeneration der Computertomographie

Jonas Kiefer (Erlangen)

weitere Autoren

Matthias May (Erlangen)

Zielsetzung

Intrakranielle Blutungen erfordern eine sofortige Diagnose, um das Überleben der Patienten zu sichern. Die Computertomographie ist die Methode der Wahl in Notfallsituationen. Selbst kleine Läsionen können lebensbedrohliche Auswirkungen haben und sollten nicht übersehen werden. Unser Ziel war es, die Leistung des ersten in einen Scanner integrierten Algorithmus basierend auf künstlicher Intelligenz (KI) zur Erkennung von Hirnblutungen in der klinischen Routine auszuwerten.

Material und Methoden

Diese retrospektive Studie umfasst 249 konsekutive native Schädel-CT-Scans. Die automatische Erkennung von Hirnblutungen wurde in allen Fällen als separater Rekonstruktionsauftrag berechnet. Als Referenz diente der radiologische Befund, der stets von einem Assistenzarzt für Radiologie erstellt und von einem erfahrenen Radiologen fertiggestellt wurde. Die Statistik wurde als diagnostische Genauigkeit durchgeführt.

Ergebnisse

Die Erkennung von Hirnblutungen wurde bei allen Patienten und in den Befunden der Radiologen erfolgreich durchgeführt. Der KI-Algorithmus und die Referenz stimmten in 92 % der Fälle überein. Unter den 34 positiven Fällen wurde nur ein falsch negativer Fall festgestellt. Allerdings erwiesen sich 19 positive Erkennungen als falsch positiv. Aus den Errechnungen der diagnostischen Leistung ergab sich eine Sensitivität von 63,5 % (95 % CI, 50,5 % - 76,5 %), eine Spezifität von 99,5 % (95 % CI, 98,5 % - 100 %), ein positiver prädiktiver Wert von 97,1 % (95 % CI, 91,4 % - 100 %) und ein negativer prädiktiver Wert (NPV) von 91,2 % (95 % CI, 87,4 % - 95,0 %). Der einzige falsch negative Fall war eine sehr kleine Läsion von 0,4x0,2 mm Größe. Bei mehr als der Hälfte der falsch-positiven Fälle war die Bildqualität aufgrund von schlechter Positionierung oder Bewegung beeinträchtigt (n=11). Die korrigierte Sensitivität nach Ausschluss dieser Fälle betrug 80,5 % (korr. NPV 96,1 %).

Schlußfolgerungen

Die Ausführung des in den Scanner integrierten KI-Nachweises von Hirnblutungen ist schnell und stabil. Die diagnostische Genauigkeit hat einen hohen negativen und positiven prädiktiven Wert und eine sehr hohe Spezifität. Allerdings resultieren viele falsch positive Befunde in einer eher mäßigen Sensitivität. Die eingeschränkte Bildqualität in der Notfallsituation durch Positionierungs- und Compliance-Probleme könnte der Grund für diese Abweichung von den publizierten Testdatensätzen sein.

Teilnahme Young Investigator Award

10:50 - 10:55

Diskussion

Diskussion

10:55 - 11:00

Vortrag (Wissenschaft)

Ein multimodales 2D Convolutional Neural Network mit 3 Eingängen zur Detektion von Multiple-Sklerose Läsionen

Florian Raab (Regensburg)

weitere Autoren

Elmar W. Lang (Regensburg) / Christian Stroszczynski (Regensburg) / Simon Wein (Regensburg) / Michael Haimerl (Regensburg)

Zielsetzung

Entwicklung eines vollautomatischen, zuverlässigen und schnellen Werkzeugs zur Segmentierung von Multiple-Sklerose Läsionen für multimodale MRT-Scans mit Hilfe von Deep Learning.

Material und Methoden

ISBI 2015 longitudinal MS lesion segmentation Challenge Daten (Modalitäten: FLAIR, T1-w, T2-w. Ein Scanner, fünf Probanden. Vier bis fünf Scans/Proband).
MICCAI 2016 MSSeg Challenge (Modalitäten: FLAIR, T1-w, T2-w. Drei Scanner, fünf Probanden je Scanner). Die automatische Segmentierung wird mit einem Convolutional Neural Network (CNN) erzielt.

Ergebnisse

Das CNN erreicht einen Score von 92,66 in der ISBI Challenge mit einem Dice-Sørensen-Koeffizienten (DSC) von 64,16%, einer läsionsbezogenen true-positive rate (LTPR) von 55,06% und einer läsionsbezogenen false-positive rate (LFPR) von 19,61%. Die 5-fold cross-validation auf dem ISBI-Trainingsdatensatz ergibt einen DSC von 77,42%, eine LTPR von 74,80% und eine LFPR von 28,70%. Die auf den ISBI Daten trainierte Architektur erreicht bei den MICCAI Daten einen DSC von 67,58%, eine LTPR von 63,74% und eine LFPR von 59,91%. Durch transfer-learning verbessert sich die Performance zu einem DSC von 71,61%, einer LTPR von 71,39% und einer LFPR von 53,37%.

Schlußfolgerungen

Die Arbeit stellt eine robuste, vollautomatische Methode zur Segmentierung von Läsionen bei Multipler Sklerose für mehrere MRT-Modalitäten vor und erreicht die beste Leistung unter den bisher veröffentlichten 2D-basierten Ansätzen im Rahmen der ISBI-Challenge von 2015. Die Scanner-invarianz, bezogen auf den DSC, ist vergleichbar mit anderen publizierten state-of-the-art Methoden. Nach nur fünf Epochen transfer-learning erreicht die Architektur eine Performance, die im Bereich der manuellen Segmentierungen liegt. Die Segmentierung eines vollständigen Schädels mit drei MR-Modalitäten benötigt nur ca. 20 Sekunden Rechenzeit auf einer NVIDIA RTX3090.
11:00 - 11:05

Diskussion

Diskussion

11:05 - 11:10

Vortrag (Wissenschaft)

Deep Learning zur automatisierten Zahnklassifizierung und -segmentierung von Orthopantomogrammen

Andreas Heinrich (Jena)

weitere Autoren

Martin Engler / Lukas Richter / Deeksha Ramma / Felix Güttler / Ulf Teichgräber

Zielsetzung

Künstliche neuronale Netze bieten ein großes Potenzial für die automatische Klassifizierung und Segmentierung von radiologischen Bildern. Regionsbasierte neuronale Netze (R-CNNs) sind universelle Frameworks für die Segmentierung von Objekten. Ein Mask R-CNN wird bereits in zahlreichen Anwendungen in der Industrie eingesetzt. Ziel dieser Studie war es, eine automatisierte Analyse von Orthopantomogrammen (OPGs) zu realisieren, welche automatisiert Zahnstatus und des Vorhandenseins von Zahnfüllungen und Implantaten analysiert.

Material und Methoden

Ein Mask-R-CNN wurde implementiert, um Begrenzungsrahmen, Objektklassen und Segmentierungsmasken für alle Instanzen der Objekte im OPG zu erzeugen. Als Eingabedaten wurden 32 Zähne, Zahnfüllungen und Implantate auf 250 OPGs manuell markiert. Die Zähne wurden segmentiert und nach der Notation der FDI World Dental Federation klassifiziert. Das Netz wurde mit 200 OPGs trainiert und mit 50 OPGs evaluiert.

Ergebnisse

Das Netzwerk konnte erfolgreich unbekannte OPGs hinsichtlich des FDI-Zahnschemas annotieren und zuverlässig für die weitergehende Analyse segmentieren. Die Implementierung erreichte eine Genauigkeit von 0,98±0,03, eine Trefferquote von 0,96±0,06 und einen F1-Score von 0,97±0,04 für die Identifizierung der Begrenzungsrahmen. Für die Segmentierung wurde eine mittlere durchschnittliche Genauigkeit von 0,91±0,01 aller Masken mit Schnittmenge über 50% zu den tatsächlichen Masken (mean average precision, mAP@50), sowie für alle Masken eine Genauigkeit von 0,95±0,04, eine Trefferquote von 0,49±0,03 und einen F1-Score von 0,65±0,04 erreicht.

Schlußfolgerungen

Mit nur wenigen Bildern kann ein effektives künstliches neuronales Netz auf OPGs zur automatischen Zahnklassifizierung mit FDI-Notation und zur Zahnsegmentierung trainiert werden, welches für weitergehende Ziele wie bspw. die objektive Altersschätzung eingesetzt werden kann. Zudem kann die Methode auch für die Segmentierung weiterer Anwendungsfelder und Modalitäten erweitert werden.
11:10 - 11:15

Diskussion

Diskussion

11:15 - 11:20

Vortrag (Wissenschaft)

Voxelomics: Identifikation zerebraler Biosignaturen in der multispektralen MRT.

Alexander German

weitere Autoren

Angelika Mennecke (Erlangen) / Jan Martin (Erlangen) / Jannis Hanspach (Erlangen) / Andrzej Liebert (Erlangen) / Jürgen Herrler (Erlangen) / Tristan Anselm Kuder (Heidelberg) / Manuel Schmidt (Erlangen) / Armin Nagel (Erlangen) / Michael Uder (Erlangen) / Arnd Dörfler (Erlangen) / Jürgen Winkler (Erlangen) / Moritz Zaiss (Erlangen) / Frederik Bernd Laun (Erlangen)

Zielsetzung

Bis heute gilt das von Fischl et al. in ihrer bahnbrechenden Arbeit formulierte Dogma (Neuron, 33:341-55, 2002): "...es ist offensichtlich, warum kein globales Klassifikationsschema erfolgreich Strukturen voneinander unterscheiden kann, die nur auf der Intensitätsinformation basieren - es gibt einen viel zu großen Überlapp zwischen den Klassenverteilungen". Ziel unserer Studie war es, dennoch die Realisierbarkeit einer globalen Hirnklassifikation und der Identifikation zerebraler MR-Biosignaturen mittels „Voxelomics“, d.h. auf Basis Voxel-intrinsischer MR-Merkmale, zu evaluieren ohne die heute übliche Verwendung von Atlanten.

Material und Methoden

Von 38 Probanden wurden anhand hochaufgelöster 7 T MPRAGE- und QSM-Bilder Segmentierungen der Gehirne in 102 anatomischen Regionen durchgeführt. Eine CEST-MRT und eine Diffusions-QTI-MRT wurden mit linearen, planaren und sphärischen b-Tensoren aufgenommen. Für jedes Voxel wurden die lokalen QTI- und CEST-Parameter, diffusionsgewichteten Signale und z-Spektrumswerte aus den Bildern extrahiert, mittels FSL-FLIRT koregistert, auf den MPRAGE-Raum interpoliert und in einem 2D-Array gespeichert. Die Datensätze wurden dann permutiert, normalisiert und enthielten keine räumlichen Informationen mehr. Damit wurde ein dichtes neuronales Netzwerk trainiert und verwendet, um eine voxelweise Vorhersage zerebraler Biosignaturen zu ermöglichen.

Ergebnisse

Die Grenzen des Thalamus, der Capsula interna und der Basalganglien sind in der voxelweisen Segmentierung noch glatter als in der Goldstandard-Segmentierung; allerdings sind die kortikalen Grenzen stärker gestreut. Die Klassifizierungs-Genauigkeit war 60%.

Schlußfolgerungen

In Erweiterung früherer Arbeiten haben wir neuartige CEST- und Diffusions-Kontraste in den Eingabedatenraum aufgenommen. Obwohl atlasbasierte Klassifizierungsansätze die beobachtete Genauigkeit noch übertreffen, deuten unsere Ergebnisse darauf hin, dass einzigartige Merkmale von Hirnregionen nicht nur durch die Histologie, sondern auch durch MR-Voxelomics erkennbar sind.

Teilnahme Young Investigator Award

11:20 - 11:25

Diskussion

Diskussion

11:25 - 11:30

Vortrag (Wissenschaft)

Linear Multi-scale Modeling von diffusionsgewichteter MRT-Bildgebung zur mikrostrukturellen Charakterisierung von Gewebe in vivo

Barbara Wichtmann (Bonn)

weitere Autoren

Qiuyun Fan (Charlestown, MA, United States) / Thomas Witzel (Charlestown, MA, United States) / Claus Pieper (Bonn, Deutschland) / Ulrike Attenberger (Bonn, Deutschland) / Bruce Rosen (Charlestown, MA, United States) / Lawrence Wald (Charlestown / Cambridge, MA, United States) / Susie Huang (Charlestown / Cambridge, MA, United States) / Aapo Nummenma (Charlestown, MA, United States)

Zielsetzung

Evaluation von Linear Multi-scale Modeling (LMM), einem neuen DWI Modell zur umfassenden Beschreibung der Gewebemikrostruktur, inkl. Volumenfraktionen, Zellgröße und -orientierung. Durch Berücksichtigung von nicht-Gaußscher Diffusion soll die Spezifität für Diffusion in intra- und extrazellulären Wasserkompartimenten erhöht werden.

Material und Methoden

Daten: Zur Validierung von LMM wurden Monte-Carlo-Diffusionssimulationen in synthetisch generierten Zellen unterschiedlicher Größe und Orientierung durchgeführt. Anschließend wurden multi-Shell-/multi-Diffusionszeit-DWI-Daten des Gehirns von 16 gesunden Probanden (39 ± 18 Jahre alt) an einem dedizierten 3T Scanner (max. Gradientenstärke 300mT/m, max. Slew-Rate 200T/m/s) akquiriert. Der max. b-Wert betrug 17.800s/mm^2.

Datenanalyse: LMM beschreibt das DWI-Signal als lineare Kombination unterschiedlich großer nicht-Gaußscher und Gaußscher Diffusionskompartimente. Die errechneten Volumenfraktionen, Zell-/Faserorientierungen und -größen wurden mit den Simulationsdaten verglichen und zur Charakterisierung verschiedener Hirnregionen und ihrer Konnektivität genutzt.

Ergebnisse

LMM-Ergebnisse stimmten mit den simulierten Zellorientierungen/-größen von 2-14µm überein. Gegenüber einem rein Gaußschen-Modell konnte LMM deutliche Unterschiede im Diffusionsverhalten verschiedener anatomischer Hirnregionen erfassen und diese damit differenzieren: ~70% nicht-Gaußsche Diffusion in dicht gepackten, myelinisierten Nervenfasern der weißen Substanz, ~70% Gaußsche, gehinderte Diffusion im Kortex, freie Diffusion im Ventrikel. LMM erlaubte eine größenspezifische Traktographie von Projektions-, Kommissural- und Assoziationsfasern. Gruppengemittelte Axondurchmesserkarten zeigten bekannte relative Axongrößenunterschiede mit z.B. 0,5-1µm größeren Axonen im kortikospinalen Trakt im Vergleich zum Umgebungsgewebe.

Schlußfolgerungen

Die Berücksichtigung nicht-Gaußscher Diffusion im LMM Modell ermöglicht eine detaillierte Charakterisierung der Gewebemikrostruktur zur Entwicklung von Gewebesignaturen.

Teilnahme Young Investigator Award

11:30 - 11:35

Diskussion

Diskussion

Häufige Fragen

Erst anmelden, dann teilnehmen!

Sie interessieren sich für ein Röntgenkongress-Webinar? Dann melden Sie sich bitte bis spätestens 24 Stunden vor Beginn der Veranstaltung einmalig für den 103. Deutschen Röntgenkongress an, damit wir Sie rechtzeitig für alle Angebote freischalten können.

Wenn Ihr Arbeitgeber eine Gruppenanmeldung vorgenommen hat, müssen Sie sich mit einem Anmelde-Code, den Sie vom Arbeitgeber erhalten, für die Teilnahme einmalig anmelden. Mit Eingabe des Codes ist die Anmeldung für Sie kostenfrei.

Alle Informationen zur Anmeldung und Gruppen Anmeldung für den digitalen und den Präsenzkongress erhalten Sie unter Anmeldung.

Teilnahme an Röntgenkongress-Webinaren

Bitte beachten Sie, dass Sie sich für jedes Webinar separat einloggen müssen.
Bei jeder Veranstaltung finden Sie ca. 10 Tage vor dem Termin oben rechts einen grünen Button "Teilnehmen".

Jetzt teilnehmen!
Ab 10 Minuten vor Beginn des Webinars können Sie sich direkt ins Webinar einloggen. Voraussetzungen: Sie haben die Teilnahme am Kongress gebucht und Ihre Login-Daten zur Hand. DRG- und VMTB-Mitglieder verwenden Ihre Zugangsdaten für den Mitgliederbereichs. Nichtmitglieder nutzen bitte die Login-Daten, welche für die Anmeldung / Registrierung eingesetzt wurden.

Es ist nicht mehr erforderlich, dass Sie im Vorfeld einen Link anfordern!

Sie möchten ein Webinar für sich in Ihrer Merkliste vormerken!
Wenn Sie die Teilnahme am Deutschen Röntgenkongress bereits gebucht haben und bereits einige Zeit vor dem Webinar-Termin sich diesen vormerken wollen, nutzen Sie bitten den Button „Login“. Sie werden zum Login-Formular weitergeleitet. Nach erfolgreichem Login kehren Sie automatisch auf die Seite zurück und erhalten eine Bestätigung über die erfolgreiche Vormerkung für die Teilnahme am Webinar. Wenn Sie sich für die Teilnahme vorgemerkt haben, kehren Sie kurz vor Beginn der Veranstaltung zurück, klicken Sie auf den "Teilnehmen"-Button oder falls Sie bereits eingeloggt sind auf den "Zum Webinar"-Button.
Ihre vorgemerkte Webinare finden Sie in Ihrer persönlichen Merkliste in der Menüleiste.

Teilnahme an Röntgenkongress-Industrie-Webinaren

Bei jeder Veranstaltung, die bereits für die TeilnehmerInnen freigeschaltet wurde, finden Sie oben rechts einen grünen "Teilnehmen"-Button.

Wenn Sie Kongress-TeilnehmerIn und bereits eingeloggt sind, erhalten Sie umgehend eine Bestätigung für die Vormerkung zur Teilnahme am Webinar, und wenn das Webinar innerhalb der nächsten zehn Minuten startet, oder bereits begonnen hat, werden Sie direkt in das Webinar geleitet.

Wenn Sie Kongress-TeilnehmerIn und NICHT eingeloggt sind, klicken Sie auf den Button "Login". Sie werden zum Login-Formular weitergeleitet. Nach erfolgreichem Login kehren Sie automatisch auf die Seite zurück und erhalten eine Bestätigung über die erfolgreiche Vormerkung für die Teilname am Webinar, und werden, wenn das Webinar innerhalb der nächsten zehn Minuten startet, oder bereits begonnen hat, direkt in das Webinar geleitet.

Wenn Sie sich für die Teilnahme vorgemerkt haben, kehren Sie kurz vor Beginn der Veranstaltung zurück, klicken Sie auf den "Teilnehmen"-Button oder falls Sie bereits eingeloggt sind auf den "Zum Webinar"-Button.

Wenn Sie kein Kongress-TeilnehmerIn sind, haben Sie die Möglichkeit an unseren Industrie-Veranstaltungen kostenfrei als Gast teilzunehmen. Hierzu können Sie ab ca. 10 Minuten vor Beginn der Veranstaltung, unter Angabe Ihres vollständigen Namens sowie Ihrer E-Mail-Adresse teilnehmen.

Aufzeichnungen der Webinare auf conrad, der interaktiven Lernplattform der DRG

Zugriff auf die Aufzeichnungen der Webinare auf conrad, der interaktiven Lernplattform der DRG, ist ausschließlich den DRG-/VMTB-Mitgliedern vorbehalten. Die Verfügbarkeit einer Webinar-Aufzeichnung wird nicht garantiert. Voraussetzung ist die Zustimmung der Referentin/des Referenten. Alle Aufzeichnungen werden bis zum 31.12.2024 abrufbar sein.

Möchten Sie als Nicht-Mitglied auch im Anschluss die Webinar-Aufzeichnungen ansehen, so ist der Abschluss einer DRG-/VMTB-Mitgliedschaft erforderlich. Nutzen Sie zugleich alle weiteren Vorteile und werden Sie jetzt Mitglied in der DRG!

Sobald dieses Webinar in "conrad" verfügbar ist, erhalten Sie, anstelle des "Teilnehmen"-Buttons einen "Webinar in conrad"-Button, um direkt zum Webinar im conrad, der interaktiven Lernplattform der DRG, zu gelangen.

Fortbildungspunkte (CME) / Teilnahmebescheinigung

Alle wissenschaftlichen Fortbildungsveranstaltungen werden bei der Landesärztekammer (LÄK) Berlin zertifiziert. Die Landesärztekammer vergibt 1 CME-Punkt pro Lehreinheit (45 Minuten), somit rechnen wir mit der Vergabe von 2-CME Punkten pro 90 Minuten-Session.

Wenige Tage nach einem Live-Webinar erhalten Sie den Nachweis über Ihre Teilnahme per E-Mail. Darin werden auch die CME-Punkte ausgewiesen.

Bitte beachten Sie: Um Ihre Teilnahmedaten automatisch an die LÄK übermitteln zu können, benötigen wir Ihre Einheitliche Fortbildungsnummer (EFN). Diese können Sie bei Ihrem Mitgliedsantrag oder der Veranstaltungsanmeldung (Online-Anmeldeformular) angeben oder uns vor Teilnahme an den Webinaren per E-Mail an kongress@drg.de schicken.
Die automatische Übermittlung erfolgt ab dem Zeitpunkt des Vorliegens der EFN. Für zurückliegende Teilnahmebescheinigungen müssen Sie diese selbstständig bei der LÄK einreichen. Liegt uns Ihre EFN nicht vor, müssen Sie Ihre Teilnahmebescheinigung bei der zuständigen LÄK, bei der Ihr Fortbildungspunktekonto geführt wird, selbstständig einreichen.

CME-Punkte werden nur für Live-Webinare, jedoch nicht für das Ansehen der Aufzeichnungen auf conrad, der interaktiven Lernplattform der DRG, vergeben.