Communication-Efficient Distributed Learning with Provable Robustness and Privacy Guarantees
Übersetzter Titel:
Kommunikationseffizientes verteiltes Lernen mit nachweislichen Robustheits- und Datenschutzgarantien
Autor:
Egger, Maximilian
Jahr:
2025
Dokumenttyp:
Dissertation
Fakultät/School:
TUM School of Computation, Information and Technology
Institution:
Codierung und Kryptographie (Prof. Wachter-Zeh)
Betreuer:
Wachter-Zeh, Antonia (Prof. Dr.)
Gutachter:
Wachter-Zeh, Antonia (Prof. Dr.); Draper, Stark (Prof., Ph.D.)
Sprache:
en
Fachgebiet:
DAT Datenverarbeitung, Informatik
TU-Systematik:
DAT 580; ELT 520
Kurzfassung:
Distributed learning enables scalable machine learning across multiple devices, overcoming computational and privacy limitations in centralized approaches. This dissertation lays the foundation for a unified approach to communication efficiency, robustness, and data privacy in distributed learning. We consider federated learning orchestrated by a central entity, decentralized learning without central coordination, and outsourced computation on centrally stored data.
Übersetzte Kurzfassung:
Verteiltes Lernen ermöglicht skalierbares maschinelles Lernen über mehrere Geräte hinweg und überwindet die Rechen- und Datenschutzeinschränkungen zentralisierter Ansätze. Diese Dissertation legt die Grundlage für einen einheitlichen Ansatz zu Kommunikationseffizienz, Robustheit und zum Datenschutz beim verteilten Lernen. Untersucht werden föderales Lernen mit zentraler Koordination, dezentrales Lernen ohne zentrale Steuerung sowie ausgelagerte Berechnungen auf zentral gespeicherten Daten.