This thesis investigates two foundational questions in deep learning: What do neural networks learn, and how vulnerable are they to adversarial input perturbations? We adopt a unified framework based on overparameterization via depth, width, and tensorization to theoretically characterize the representations learned during training and their generalization behavior. We further apply these insights to derive robustness certificates against data poisoning as well as test-time defenses.
Translated abstract:
Diese Arbeit untersucht zwei grundlegende Fragen des Deep Learning: Was lernen neuronale Netze, und wie anfällig sind sie für gegnerische Input-Störungen? Wir verwenden ein einheitliches Framework, der auf Überparametrisierung über Tiefe, Breite und Tensorisierung basiert, um die im Training erlernten Repräsentationen und ihr Generalisierungsverhalten theoretisch zu charakterisieren. Aus diesen Erkenntnissen leiten wir Robustheitszertifikate gegen Datenpoisoning sowie Testzeitverteidigung ab.