Benutzer: Gast  Login
Originaltitel:
Multimodal Co-learning with VHR Multispectral Imagery and Photogrammetric Data
Übersetzter Titel:
Multimodales Co-Learning mit VHR multispektralen Bilddaten und photogrammetrischen Daten
Autor:
Xie, Yuxing
Jahr:
2024
Dokumenttyp:
Dissertation
Fakultät/School:
TUM School of Engineering and Design
Institution:
Data Science in Earth Observation (Prof. Zhu)
Betreuer:
Zhu, Xiaoxiang (Prof. Dr. habil.)
Gutachter:
Zhu, Xiaoxiang (Prof. Dr. habil.); Reinartz, Peter (Prof. Dr.); Fraundorfer, Friedrich (Prof. Dr.)
Sprache:
en
Fachgebiet:
GEO Geowissenschaften
TU-Systematik:
BAU 967; MSR 915
Kurzfassung:
This dissertation introduces multimodal co-learning frameworks for remote sensing tasks of building extraction and building change detection. Proposed frameworks utilize training modes that can exploit unlabeled data and mutual information of 2-D and 2.5-D/3-D modalities to enhance the capability of single-modal networks in challenging scenarios with limited or cross-domain labeled data.
Übersetzte Kurzfassung:
In dieser Dissertation werden multimodale Co-Learning-Frameworks für Fernerkundungsaufgaben der Gebäudeextraktion und der Erkennung von Gebäudeveränderungen vorgestellt. Die vorgeschlagenen Frameworks nutzen Trainingsmodi, die unmarkierte Daten und gegenseitige Informationen von 2-D- und 2,5-D/3-D-Modalitäten ausnutzen können, um die Fähigkeit von monomodalen Netzwerken in anspruchsvollen Szenarien mit begrenzten oder domänenübergreifenden markierten Daten zu verbessern.
WWW:
https://mediatum.ub.tum.de/?id=1737390
Eingereicht am:
20.03.2024
Mündliche Prüfung:
13.09.2024
Dateigröße:
42492975 bytes
Seiten:
175
Urn (Zitierfähige URL):
https://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:91-diss-20240913-1737390-1-5
Letzte Änderung:
24.10.2024
 BibTeX