Representing and Recovering Structured High-Dimensional Data: Fast Dimension Reduction, Recovery Guarantees, and Neural Network Representation
Translated title:
Darstellung und Rekonstruktion strukturierter hochdimensionaler Daten: Schnelle Dimensionsreduktion, Rekonstruktionsgarantien und Darstellung durch neuronale Netze
Author:
Bamberger, Stefan Julian Bernhard
Year:
2023
Document type:
Dissertation
Faculty/School:
TUM School of Computation, Information and Technology
Advisor:
Krahmer, Felix (Prof. Dr.)
Referee:
Krahmer, Felix (Prof. Dr.); Kapralov, Michael (Prof. Dr.); Ward, Rachel (Assoc. Prof. Dr.)
This thesis concerns data acquisition and reconstruction under specific structural assumptions. First, we prove an optimal embedding dimension for a class of Johnson-Lindenstrauss embeddings for Kronecker products of multiple vectors. Then we study related higher-order random tensors. In addition, we investigate to what extent neural networks can recover sparse vectors and associated problems. Finally, we improve recovery guarantees for vectors with limited numbers of non-zero entries in multiple blocks of their entries.
«
This thesis concerns data acquisition and reconstruction under specific structural assumptions. First, we prove an optimal embedding dimension for a class of Johnson-Lindenstrauss embeddings for Kronecker products of multiple vectors. Then we study related higher-order random tensors. In addition, we investigate to what extent neural networks can recover sparse vectors and associated problems. Finally, we improve recovery guarantees for vectors with limited numbers of non-zero entries in multipl...
»
Translated abstract:
Zentrales Thema dieser Arbeit sind Datenerfassung und Rekonstruktion unter Strukturannahmen. Im ersten Teil beweisen wir eine optimale Einbettungsdimension für eine Klasse von Johnson-Lindenstrauss-Einbettungen für Kronecker-Produkte mehrerer Vektoren. Anschließend behandeln wir damit verbundene Zufallstensoren höherer Ordnung. Darüber hinaus untersuchen wir, inwiefern neuronale Netze dünnbesetzte Vektoren rekonstruieren können, sowie verwandte Probleme. Im letzten Teil verbessern wir Ergebnisse für die Rekonstruktion von Vektoren, für welche die Anzahl von null verschiedener Einträge in mehreren Blöcken beschränkt ist.
«
Zentrales Thema dieser Arbeit sind Datenerfassung und Rekonstruktion unter Strukturannahmen. Im ersten Teil beweisen wir eine optimale Einbettungsdimension für eine Klasse von Johnson-Lindenstrauss-Einbettungen für Kronecker-Produkte mehrerer Vektoren. Anschließend behandeln wir damit verbundene Zufallstensoren höherer Ordnung. Darüber hinaus untersuchen wir, inwiefern neuronale Netze dünnbesetzte Vektoren rekonstruieren können, sowie verwandte Probleme. Im letzten Teil verbessern wir Ergebnisse...
»