Die Ultraschallbildgebung spielt in der klinischen Praxis eine entscheidende Rolle als wertvolles Instrument zur Visualisierung der Patientenanatomie.
Herkömmliche 2D-Ultraschallscans stellen jedoch eine erhebliche Einschränkung dar, da ihnen der räumliche Kontext fehlt, was die genaue Identifizierung und Lokalisierung von Strukturen innerhalb der gescannten Region erschwert.
Um das räumliche Verständnis zu verbessern, ist freihändiger 3D-Ultraschall eine beliebte Lösung für die 3D-Rekonstruktion und Visualisierung der Anatomie.
Bestehende Methoden zur 3D-Ultraschallrekonstruktion mitteln jedoch häufig über mehrere Beobachtungen für einen interessierenden Bereich, was zum Verlust entscheidender Richtungsinformationen führt, die für das Verständnis akustischer Phänomene unerlässlich sind.
Nachdem das Volumen rekonstruiert wurde, ist es nicht mehr möglich, ein B-Modus-Bild zu rendern, das ansichtsabhängige Informationen auf eine Weise darstellt, die simuliert, wie ein Ultraschallsystem ein Bild erfasst.
Diese Arbeit befasst sich mit der Herausforderung des ansichtsabhängigen Renderns und stellt einen neuen Ansatz namens neuronale Strahlungsfelder für die Ultraschallbildgebung (Ultra-NeRF) vor.
Durch die Anwendung von Deep-Learning-Techniken und die Integration einer strahlenbasierten Rendering-Methode für Ultraschall wird eine neuartige 3D-Ultraschalldarstellung eingeführt.
Diese Darstellung ermöglicht die Regression anisotroper akustischer Gewebeeigenschaften und ermöglicht so die ansichtsabhängige Darstellung von B-Mode-Bildern. Das Schätzen von Rendering-Parametern ist jedoch eine äußerst uneingeschränkte Aufgabe, die zu Mehrdeutigkeiten bei der Darstellung eines B-Modus-Bildes im Parameterraum führt.
In dieser Arbeit wird eine Regularisierung vorgeschlagen, die auf der Beziehung zwischen Gewebeeigenschaften basiert und den Regressionsraum der Rendering-Parameter einschränkt und so die Genauigkeit und Zuverlässigkeit der regressierten Parameter verbessert. Die Fähigkeit der vorgeschlagenen Methode, ansichtsabhängige B-Modus-Bilder zu rendern, wird durch experimentelle Auswertungen validiert.
Diese Auswertungen nutzen simulierte B-Modus-Bilder einer Leber und reale B-Modus-Bilder eines synthetischen und ex-vivo-Phantoms einer Wirbelsäule.
Es wurde experimentell nachgewiesen, dass sich die Methode bei der Darstellung von Regionen mit mehrdeutiger Darstellung auszeichnet, die durch ansichtsabhängige Unterschiede in B-Modus-Bildern derselben interessierenden Region verursacht werden. Meines Wissens nach ist diese Arbeit die erste, die sich mit der Herausforderung der blickabhängigen Ultraschallbildsynthese unter Verwendung neuronaler Strahlungsfelder befasst. Durch die genaue Beibehaltung der Blickrichtungsinformationen bietet der Ansatz mehrere Vorteile, darunter die Untersuchung übersehener Querschnittsebenen, Flexibilität bei Scanprotokollen und eine mögliche Automatisierung von Scanprotokollen und Bildanalysen.
«
Die Ultraschallbildgebung spielt in der klinischen Praxis eine entscheidende Rolle als wertvolles Instrument zur Visualisierung der Patientenanatomie.
Herkömmliche 2D-Ultraschallscans stellen jedoch eine erhebliche Einschränkung dar, da ihnen der räumliche Kontext fehlt, was die genaue Identifizierung und Lokalisierung von Strukturen innerhalb der gescannten Region erschwert.
Um das räumliche Verständnis zu verbessern, ist freihändiger 3D-Ultraschall eine beliebte Lösung für die 3D-Rekonstrukt...
»