Multimodal Co-learning with VHR Multispectral Imagery and Photogrammetric Data
Übersetzter Titel:
Multimodales Co-Learning mit VHR multispektralen Bilddaten und photogrammetrischen Daten
Autor:
Xie, Yuxing
Jahr:
2024
Dokumenttyp:
Dissertation
Fakultät/School:
TUM School of Engineering and Design
Institution:
Data Science in Earth Observation (Prof. Zhu)
Betreuer:
Zhu, Xiaoxiang (Prof. Dr. habil.)
Gutachter:
Zhu, Xiaoxiang (Prof. Dr. habil.); Reinartz, Peter (Prof. Dr.); Fraundorfer, Friedrich (Prof. Dr.)
Sprache:
en
Fachgebiet:
GEO Geowissenschaften
TU-Systematik:
BAU 967; MSR 915
Kurzfassung:
This dissertation introduces multimodal co-learning frameworks for remote sensing tasks of building extraction and building change detection. Proposed frameworks utilize training modes that can exploit unlabeled data and mutual information of 2-D and 2.5-D/3-D modalities to enhance the capability of single-modal networks in challenging scenarios with limited or cross-domain labeled data.
Übersetzte Kurzfassung:
In dieser Dissertation werden multimodale Co-Learning-Frameworks für Fernerkundungsaufgaben der Gebäudeextraktion und der Erkennung von Gebäudeveränderungen vorgestellt. Die vorgeschlagenen Frameworks nutzen Trainingsmodi, die unmarkierte Daten und gegenseitige Informationen von 2-D- und 2,5-D/3-D-Modalitäten ausnutzen können, um die Fähigkeit von monomodalen Netzwerken in anspruchsvollen Szenarien mit begrenzten oder domänenübergreifenden markierten Daten zu verbessern.