Representing and Recovering Structured High-Dimensional Data: Fast Dimension Reduction, Recovery Guarantees, and Neural Network Representation
Übersetzter Titel:
Darstellung und Rekonstruktion strukturierter hochdimensionaler Daten: Schnelle Dimensionsreduktion, Rekonstruktionsgarantien und Darstellung durch neuronale Netze
Autor:
Bamberger, Stefan Julian Bernhard
Jahr:
2023
Dokumenttyp:
Dissertation
Fakultät/School:
TUM School of Computation, Information and Technology
Betreuer:
Krahmer, Felix (Prof. Dr.)
Gutachter:
Krahmer, Felix (Prof. Dr.); Kapralov, Michael (Prof. Dr.); Ward, Rachel (Assoc. Prof. Dr.)
This thesis concerns data acquisition and reconstruction under specific structural assumptions. First, we prove an optimal embedding dimension for a class of Johnson-Lindenstrauss embeddings for Kronecker products of multiple vectors. Then we study related higher-order random tensors. In addition, we investigate to what extent neural networks can recover sparse vectors and associated problems. Finally, we improve recovery guarantees for vectors with limited numbers of non-zero entries in multiple blocks of their entries.
«
This thesis concerns data acquisition and reconstruction under specific structural assumptions. First, we prove an optimal embedding dimension for a class of Johnson-Lindenstrauss embeddings for Kronecker products of multiple vectors. Then we study related higher-order random tensors. In addition, we investigate to what extent neural networks can recover sparse vectors and associated problems. Finally, we improve recovery guarantees for vectors with limited numbers of non-zero entries in multipl...
»
Übersetzte Kurzfassung:
Zentrales Thema dieser Arbeit sind Datenerfassung und Rekonstruktion unter Strukturannahmen. Im ersten Teil beweisen wir eine optimale Einbettungsdimension für eine Klasse von Johnson-Lindenstrauss-Einbettungen für Kronecker-Produkte mehrerer Vektoren. Anschließend behandeln wir damit verbundene Zufallstensoren höherer Ordnung. Darüber hinaus untersuchen wir, inwiefern neuronale Netze dünnbesetzte Vektoren rekonstruieren können, sowie verwandte Probleme. Im letzten Teil verbessern wir Ergebnisse für die Rekonstruktion von Vektoren, für welche die Anzahl von null verschiedener Einträge in mehreren Blöcken beschränkt ist.
«
Zentrales Thema dieser Arbeit sind Datenerfassung und Rekonstruktion unter Strukturannahmen. Im ersten Teil beweisen wir eine optimale Einbettungsdimension für eine Klasse von Johnson-Lindenstrauss-Einbettungen für Kronecker-Produkte mehrerer Vektoren. Anschließend behandeln wir damit verbundene Zufallstensoren höherer Ordnung. Darüber hinaus untersuchen wir, inwiefern neuronale Netze dünnbesetzte Vektoren rekonstruieren können, sowie verwandte Probleme. Im letzten Teil verbessern wir Ergebnisse...
»