Diese Dissertation präsentiert Forschung an der Schnittstelle von Deep Learning und Numerischer Optimierung. Wir tragen ein Prinzip zur Formulierung von Deep Learning Optimierungsalgorithmen bei, welches auf einer alternativen Sichtweise auf den klassischen Backpropagation-Algorithmus basiert. Weiterhin schlagen wir eine Methode vor, um lineare Ungleichungen auf die Aktivierungen Neuronaler Netze zu forcieren. Wir fahren fort, indem wir Deep Learning einsetzen, um variationsbasierte Datenassimilation zu verbessern. Schließlich entwickeln wir eine kontinuierliche Relaxierung für die Faktorisierung orthogonaler Matrizen.
«
Diese Dissertation präsentiert Forschung an der Schnittstelle von Deep Learning und Numerischer Optimierung. Wir tragen ein Prinzip zur Formulierung von Deep Learning Optimierungsalgorithmen bei, welches auf einer alternativen Sichtweise auf den klassischen Backpropagation-Algorithmus basiert. Weiterhin schlagen wir eine Methode vor, um lineare Ungleichungen auf die Aktivierungen Neuronaler Netze zu forcieren. Wir fahren fort, indem wir Deep Learning einsetzen, um variationsbasierte Datenassimil...
»